マイクロソフトは、Copilot AIアシスタントにおけるセキュリティ脆弱性に対処しました。この脆弱性により、攻撃者は一見無害なリンクを一度クリックさせるだけで、機密性の高いユーザーデータを抽出することが可能でした。Varonisのセキュリティ研究者はこの欠陥を発見し、多段階攻撃によってユーザーの名前、場所、Copilotのチャット履歴の詳細などの情報を抜き取ることができることを実証しました。
攻撃は、ユーザーがリンクをクリックすることで開始されると、Copilotのチャットウィンドウが閉じられた後も実行され続け、それ以上の操作は必要ありませんでした。Varonisによると、このエクスプロイトは、通常エンドポイント保護アプリケーションで使用されるエンタープライズエンドポイントのセキュリティ制御および検出メカニズムをバイパスしました。「この悪意のあるプロンプトを含むリンクを配信すると、ユーザーはリンクをクリックするだけで、悪意のあるタスクが即座に実行されます」と、Varonisのセキュリティ研究者であるDolev Taler氏はArs Technicaへの声明で述べています。「ユーザーがリンクをクリックしてCopilotチャットのタブをすぐに閉じても、エクスプロイトは機能します。」
この脆弱性は、Copilotのような大規模言語モデル(LLM)に内在するリスクを浮き彫りにしています。LLMは、日常のアプリケーションにますます統合されています。LLMは膨大なデータセットから学習し、人間のようなテキストを生成できますが、その複雑さから、予期せぬセキュリティ上の欠陥の影響を受けやすくなっています。このインシデントは、AI搭載プラットフォーム内のユーザーデータを保護するために、堅牢なセキュリティ対策と継続的な監視の重要性を強調しています。
攻撃ベクトルは、Copilotがリンク内に埋め込まれた命令を処理および実行する方法の弱点を悪用しました。研究者は、正当なCopilot URL内に埋め込まれた悪意のあるプロンプトを作成することにより、データ流出につながる一連のイベントをトリガーすることができました。プロンプトインジェクション攻撃として知られるこのタイプの攻撃は、AIセキュリティの分野でますます懸念されています。プロンプトインジェクションは、攻撃者がAIモデルへの入力を操作して、機密情報の開示や悪意のあるコードの実行など、意図しないアクションを実行させる場合に発生します。
この脆弱性の影響は、個々のユーザーにとどまりません。Copilotが機密性の高いビジネスデータへのアクセスと処理に使用されるエンタープライズ環境では、攻撃が成功すると、重大なデータ侵害と経済的損失につながる可能性があります。このインシデントはまた、AI搭載アシスタントのセキュリティとプライバシー、およびその開発と展開における透明性と説明責任の必要性について、より広範な疑問を提起しています。
マイクロソフトは、脆弱性に対処するためのパッチをリリースしており、ユーザーはCopilotのインストールを最新バージョンに更新することをお勧めします。同社はまた、AIプラットフォームのセキュリティを向上させ、プロンプトインジェクション攻撃を検出および防止するための新しい方法を開発するために取り組んでいます。AIテクノロジーが進化し続けるにつれて、開発者とセキュリティ研究者が協力して潜在的な脆弱性を特定し、軽減し、これらの強力なツールが安全かつ責任を持って使用されるようにすることが重要です。このインシデントは、AIシステムとの一見単純なやり取りでさえ、重大なセキュリティ上の影響を与える可能性があり、人工知能の時代においてユーザーデータを保護するには警戒が不可欠であることを改めて示しています。
Discussion
Join the conversation
Be the first to comment