マッキンゼーの社内AIに脆弱性指摘、英新興が侵入を報告

マッキンゼーの社内AIに脆弱性指摘、英新興が侵入を報告

概要

コンサルティング大手マッキンゼー・アンド・カンパニーの社内専用生成AIプラットフォーム「Lilli」を巡り、セキュリティ上の脆弱性があったとする指摘が報じられた。英サイバーセキュリティスタートアップ企業コードウォールが、自律型AIエージェントを用いてLilliに侵入できたとして問題点を伝えたものである。生成AIの活用が企業内で広がるなか、社内システムであっても外部からの不正アクセスや情報漏えいにつながり得るリスクを前提に、設計・運用の両面で対策を講じる必要性が改めて示された。

詳細な説明

報道によれば、コードウォールがマッキンゼーのLilliに対して2026年2月28日から2時間で侵入可能な状態を確認し、脆弱性が存在すると指摘した。対象は社内で利用されるAI関連の仕組みであり、外部の第三者がアクセスできる余地があったことが焦点となっている。Lilliは業務効率化やナレッジ活用を目的に2023年7月に開始され、従業員の72%にあたる4万人以上が利用し、月間50万件以上のプロンプトを処理する。一方、入力データや出力結果が企業の機密情報に直結しやすい。こうした性質から、認証・権限管理、アクセス制御、外部公開範囲の設定などが不十分な場合、影響が大きくなる可能性がある。

影響と対策

Lilliで脆弱性が生じると、72万8,000件の機密ファイル、5万7,000件のユーザーアカウント、368万件のRAGドキュメント、4,650万件のチャットメッセージへの不正アクセスや、AIに投入したデータの露出につながるおそれがある。また、AIの機能や連携先が多いほど、想定外の経路からアクセスが成立するリスクが増える。対策としては、社内向けであっても外部から到達可能な範囲を最小化し、強固な認証と最小権限の設計を徹底することが重要である。加えて、脆弱性報告を受け止めて迅速に修正する体制、ログ監視や定期的な点検を通じて異常を早期に把握する運用が求められる。

まとめ

今回の報道は、先進的な企業であっても社内AIの安全性確保が容易ではないことを示す事例である。生成AIの導入が進むほど、利便性と同時にセキュリティ要件も高まる。社内利用を理由に油断せず、設計段階からの対策と継続的な運用によって、リスクを抑えた活用を進めることが不可欠である。

参照リンク

コンサル大手マッキンゼー、社内AIに「脆弱性」 英新興が侵入し指摘

Qilin攻撃の実態と多層防御の実践法を解説