はじめに

企業は、組織ガバナンスを揺るがす大きなリスクにさらされています。

数年前、個人が勝手に契約した SaaS による情報漏洩リスクである Shadow IT が話題になりました。
CASB(Cloud Access Security Broker)は、まさにこのような Shadow IT を検知し、管理可能にするために生まれた製品です。

いま企業が晒されているガバナンスリスクは、個人が勝手に利用する AI です。
これは、Shadow AI リスクと言われています。

本記事では、これら Shadow AI について解説します。

Shadow AI

Shadow AI を構成する多くの技術群

一口に Shadow AI といっても、特定の製品だけの問題ではありません。

Shadow AI は、多数のリスクが絡み合っています。

  • 従業員がブラウザで利用する AI Agent
  • 開発者が利用する IDE Embedding AI Agent
  • デザイナーが利用する AI Design
  • 製品に組み込まれる AI Framework
  • 推論を行う AI Computing
  • 知識の源である AI Model

多くの、それぞれ全く用途の異なる製品群が、 AI という新しい技術で成立しています。

これは、開発者だけでも、デザイナーだけでも、クラウドだけの問題でもありません。
組織ガバナンスという点で『管理外』であることが、問題の本質となります。

Shadow AI risks

Shadow AI は、組織にどのようなリスクをもたらすでしょうか。

情報漏洩

AI は、自身が機密情報を用いて利用者を支援する伴走者であるとともに、自律的に行動を行うエージェントです。

Shadow AI の不適切な利用は、組織の機密情報が AI サービスの提供者に流通するとともに、不適切な設定は履歴の公開アクセスといった管理上の不備を引き起こします。

過去に Shadow IT で問題となった潜在的な情報漏洩リスクが、Shadow AI でも存在します。

サプライチェーンリスク

axios による大規模なサプライチェーン攻撃に代表されるように、サプライチェーンの管理は組織ガバナンスの重大な要素の一つになっています。

Shadow AI は、その管理の外側にある存在です。
問題が起きた際に、検知が出来ず、管理ができず、対策を取ることができません。

そのため、サプライチェーンリスクを管理するために、組織は自身が利用する AI を管理しなければなりません。

管理できない AI が存在してしまうことが、Shadow AI でもリスクとなります。

低品質な成果物

Wiz がリサーチした結果 によると、AI を活用したコーディングで作成されたアプリケーションの20%に重大なセキュリティ上の問題が発生しているとのことです。

組織が管理できていない AI 利用では、その品質管理を組織が実施することは不可能です。

成果物の品質確保は、成果物を納品する企業の責任となるものです。
信頼できない AI の成果物が、自社の納品物に含まれてしまうリスクが存在します。

Wiz AI-BOM

Google Cloud Next 2026 で発表された Wiz による AI 時代のセキュリティ は、これらの問題を解決します。

Wiz の AI-BOM (AI Bill Of Materials) は、AI Framework、AI Model、IDE Extension などの AI-BOM を自動的に収集し、インベントリにまとめます。

組織によって信頼された AI ツールや、同時に Shadow AI を収集することで、組織ガバナンスを維持するための手立てになると考えられます。

Wiz AI-BOM は以下の 7つの主要コンポーネント が存在しています。
ここでは、それぞれの層が「なぜ管理されなければならないのか」という観点で整理します。

データ層

データ層は、組織のデータガバナンスの根幹です。一度モデルに組み込まれたデータを特定・除去することは現実的に不可能です。
機密情報がトレーニングデータに含まれていないか、推論時に外部へ流出しないかを確認するためにも、データ層の可視化は不可欠です。

モデル層

モデル層は、組織が「何を使って推論しているか」を把握するための層です。
基盤モデルの選択やバージョン管理が曖昧なまま運用されると、脆弱性が発覚した際に影響範囲を特定できません。

依存関係レイヤー

依存関係レイヤーは、AIのサプライチェーンそのものです。
LangChainなどのフレームワークやSDKは、組織が直接開発していないにもかかわらず、システムの中核を担います。
管理外の依存関係は、管理外のリスクに直結します。

インフラストラクチャ層

インフラストラクチャ層は、AIが動く基盤の追跡です。クラウド環境やコンピューティングリソースが可視化されていなければ、コスト管理はおろか、セキュリティ上の境界線を引くことも困難になります。

セキュリティとガバナンス

セキュリティとガバナンス層は、「誰が、何にアクセスできるのか」を管理する層です。
AIはその性質上、広範なデータへのアクセスを要求しがちです。
最小権限の原則をAIにも適用するためには、アクセスパターンの可視化が前提となります。

人材とプロセス

人材とプロセス層は、責任の所在を明確にする層です。
AI システムは誰が承認し、誰が変更したのか。その履歴がなければ、問題発生時の原因追跡も対策立案も成立しません。

使用方法とドキュメント

使用方法とドキュメント層は、AI が「何のために、どう使われているか」を記録する層です。
ユースケースとパフォーマンス指標が管理されることで、組織は AI の価値を測定し、逸脱した利用を検知できます。

これらは、どれも AI を組織が適切に管理するうえで必要な項目です。
AI-BOM としてこのような情報を収集、管理できることが Wiz AI-BOM の価値となります。

まとめ

AI は組織にとって有益である一方、誰でも利用できてしまうという敷居の低さがあります
これは、Shadow IT と同様のリスクを組織にもたらします。

AI ガバナンスを定めると同時に、AI を可視化、管理するために AI-BOM は有益であると考えます。