クリック不要で機密流出、AIがDBを削除、OAuthで全権限漏洩。実際に起きた事故から見えた「防げたはずの設計ミス」とは。
AIセキュリティプラットフォーム「MODEL SAFE」を開発する株式会社MONO BRAIN(本社:東京都渋谷区、代表取締役:加藤 真規)は、企業で利用されるAIツールにおいて実際に発生したインシデントを分析した最新レポート「AIツール活用におけるセキュリティ事故 8選(2026年4月版)」を公開しました。

本レポートは、機密情報の流出から本番データベースの削除に至るまで、現実に起きたAI関連事故を網羅的に整理し、構造的なリスクと具体的な対策を提示するものです。
▼ 実証レポートをダウンロード(無料)
https://modelsafe.jp/download/ai_incident_202604
■ 背景:AIツールの普及が「新たな攻撃面」を生み出している
M365 CopilotやChatGPT、GitHub CopilotなどのAIツールは、業務効率を飛躍的に向上させる一方で、従来のセキュリティ設計では想定されていなかった新たな攻撃経路を生み出しています。
本レポートで分析した事例では、単なる脆弱性ではなく、
外部連携(OAuth / API) 権限設計の不備 プロンプトインジェクション
といった「設計・運用レベルの問題」が、重大な事故に直結していることが明らかになりました。
■ 実際に発生した8つのセキュリティ事故
本レポートでは、実在するAIツールにおいて確認された以下のインシデントを解説しています。
1. M365 Copilot:ゼロクリックでの機密情報流出
メール経由の間接プロンプトインジェクションにより、社内データが自動送信。
2. Lovable:認可不備によるデータ露出
APIの権限設計ミスにより、チャット履歴やソースコードが第三者から閲覧可能に。
3. ChatGPT連携:外部APIへの機密送信
外部アプリ連携を悪用し、Google DriveやGitHubの情報が自動抽出・送信。
4. Replit AI Agent:本番DBの削除
AIエージェントが制御不能となり、1,000件以上のデータを削除。
5. GitHub Copilot:隠しコメント経由の情報窃取
PR内の不可視指示により、秘密情報が外部へ送信。
6. Copilot:リポジトリ権限の漏洩
Issue経由の指示でトークンが流出し、リポジトリ乗っ取りが可能に。
7. Copilot:1クリックでの情報窃取
URLクリックのみで会話履歴やファイル情報が外部へ送信。
8. Vercel:OAuth経由の環境変数流出
外部AIツールとの連携を起点に、APIキーやDB情報が漏洩。
■ 共通する本質的なリスク
これらの事故に共通するのは、AIそのものの性能ではなく、以下の構造的問題です。
「AIがアクセスできる範囲」が過剰 外部入力を信頼しすぎる設計 自動実行(Agent)への制御不足 OAuthやAPI連携のガバナンス欠如
つまり、AIは“脆弱”なのではなく、“強すぎる権限で無防備に使われている”ことが本質的な問題です。
■ 防衛の方向性:AIガバナンスの再設計
本レポートでは、これらのリスクに対し、企業が取るべき対策として以下を提示しています。
最小権限原則(PoLP)の徹底 外部連携(OAuth / Apps)の統制 AI入出力のサニタイズと監査 エージェント実行の人間承認フロー ログ監視と異常検知の強化
AI活用を前提とした「ガバナンス設計」こそが、今後の企業競争力を左右する重要な基盤となります。
■ AIセキュリティプラットフォーム「MODEL SAFE」について
「MODEL SAFE」は、プロンプトインジェクションや外部連携リスク、エージェント暴走などから企業のAIシステムを保護する統合プラットフォームです。
本番環境での検知実績に基づき、AIの入出力・権限・外部通信を横断的に監視し、ポリシー違反や異常挙動をリアルタイムで検知。AI活用におけるガバナンス基盤の構築を支援します。
【株式会社MONO BRAIN 会社概要】
代表者:代表取締役 加藤 真規
事業内容:AIセキュリティ・ガバナンスプラットフォーム「MODEL SAFE」の開発・運営
AIガバナンス協会 正会員
▼ お問い合わせ
https://modelsafe.jp/contact
▼ MODEL SAFE サービス紹介
https://modelsafe.jp/