Substackは2026年2月3日、2025年10月に発生したデータ侵害により、ユーザーのメールアドレスと電話番号が漏洩したことを明らかにしました。SubstackのCEOであるChris Best氏によると、この侵害は内部データへの不正アクセスによるものでした。
Substackは、影響を受けたユーザーにこのインシデントについて通知しています。同社は、パスワードとクレジットカード情報は侵害されなかったと述べています。
他のテクノロジーニュースとして、FBIは2026年1月14日に押収したワシントン・ポストの記者のiPhoneのデータへのアクセスに苦労しています。米政府の裁判所提出書類によると、この電話はAppleのロックダウンモードで保護されていました。Ars Technicaの報道によると、捜査官は記者の指紋認証を利用して、彼女の仕事用ラップトップにアクセスすることができました。この捜索令状は、機密情報を違法に漏洩したとして告発された国防総省の請負業者に対する捜査の一環として執行されました。
一方、リアルタイムアプリケーション向けに大規模言語モデル(LLM)に関連性の高いコンテキストを提供することの難しさがますます明らかになっています。InstacartのCTOであるAnirban Kundu氏は、これを「ブラウニーのレシピ問題」と表現しました。VentureBeatによると、Kundu氏は、LLMが食事の計画において真に役立つためには、ユーザーの市場で何が利用可能か、ユーザーの好み(例:オーガニック卵と通常の卵)、および腐敗せずに配達できるものを理解する必要があると説明しました。
CertiniaのRaju Malhotra氏はVentureBeatで、多くのAIパイロットプログラムがその約束を果たせずに失敗しているのは、AIがコンテキストに苦労しているためだと指摘しました。「AIは知能が不足しているために苦労しているのではなく、コンテキストが不足しているために苦労しているのです」とMalhotra氏は述べています。彼は、コンテキストがしばしば、ばらばらのテクノロジーの「フランケンスタック」に閉じ込められていると主張しています。
Discussion
AI Experts & Community
Be the first to comment