本記事は TechHarmony Advent Calendar 2025 12/18付の記事です。 |
本日はSASEの領域から少し外れますが、「AIセキュリティ」についてのお話です。
はじめに
最近、お客様と会話をする中で、「AIセキュリティ」というキーワードをよく聞くようになりました。
注目されている理由はシンプルで、生成AIの爆発的普及により、社内外の「AIリスク」が急速に拡大しているからだと思います。
実際、弊社では独自に開発・管理するAIが社内提供され始めたり、Copilotの活用が一般化してきています。
他にも、総務省では2025年9月より「AIセキュリティ分科会」が開催されており、日本でも国家レベルで「AIセキュリティ」に関する取り組みや検討が進んでいるといった状況です。
そこで今回は、「AIセキュリティとは何か?」、「なぜ必要なのか?」について、SASEとの繋がりにも触れつつ、なるべく分かりやすく解説していきたいと思います。
AIセキュリティとは?
まず、今回ご説明する「AIセキュリティ」ですが、簡単に言うと「企業のAI利用を“可視化・制御・保護”するためのセキュリティ」となります。具体的な内容については後述しますが、企業が安全にAIを利活用するためには必須の機能になります。
1つ注意しておきたいのが、「AIセキュリティ」という用語には、上記の他に「AIによる“セキュリティ機能の強化”」を指している場合もあります。(例えば、ユーザー/端末の異常行動をAIで検知したり、潜在的な攻撃経路をAIで予測し防御する等)
一般的に、前者は「Security for AI(AIのためのセキュリティ)」、後者は「AI for Security(セキュリティのためのAI)」と呼ばれています。
※今回は「Security for AI」についての解説記事となります。
・Security for AI : 企業のAI利用を“可視化・制御・保護”するためのセキュリティ ★今回はこちらを解説
・AI for Security : AIによるセキュリティ機能の強化
ちなみに、「AI for Security」についても昨今は各社力を入れており、例えばCatoクラウド(SASE)では、セキュリティとネットワークのログを相関分析し、危険な攻撃や脅威をAIで自動検知する「XOps」というオプションがリリースされています。
※詳しく知りたい方は、以下をご参照ください。
今回紹介するAIセキュリティ「Security for AI」は、「AI for Security」よりもあまりイメージが付かない方が多いと思いますので、必要となり始めた背景から、順序立てて説明していきたいと思います。
なぜAIセキュリティが必要なのか
なぜAIセキュリティが必要なのか?
「AIリスク」が広がっているというけど、何がリスクなのか?
上記について説明するために、まず、背景や新たに生まれたリスクについて整理していきます。
以下のように大きく4つの視点に分けることができました。
※あくまで私見に基づく整理となりますがご容赦ください。
| No | 背景 | リスク |
| ① | AIサービスの急増と一般ユーザーへの普及 | シャドーAIの発生 |
| ② | AIにあらゆる情報が流れ込む時代 | 機密情報の漏洩 |
| ③ | AIモデルを対象とする新たな攻撃手法の流行 | AIの脆弱性やAIに対する攻撃 |
| ④ | AIの普及に伴う法規制の必要性の高まり | ガバナンスやコンプライアンスへの対応 |
それぞれ、簡単に解説していきます。
①シャドーAIの発生
これまでは個人利用の端末やSaaSを無許可で業務利用する「シャドーIT」という言葉がありましたが、シャドーAIはそのAI版です。
様々なAIサービスが一気に普及したことにより、社員が業務効率化のために個人判断でAIサービスを使うケースが急増し、
結果として、業務データを生成AIに投入する等により、意図しない情報漏洩が発生するリスクが発生しています。
(こちらは②で詳しく解説します。)
ちなみに、例えばChatGPTなど有名な生成AIには、情報漏洩を簡単に発生させないために、
オプトアウト(自身のデータをAI学習させないように設定できる機能)や、
ガードレール(AIが個人情報や倫理的配慮のない回答を出力しないようにする仕組み)が実装されています。
シャドーAIが発生すると、上記の仕組み実装がされていない、リスクの高いAIサービスを社員が利用してしまう可能性があるのも恐ろしい所です。
②機密情報の漏洩
先述の通り、例えば企画書や取引先データ、ソースコード等、企業にとって重要なデータが生成AIに投入されると、そのデータはAIのクラウド上で一時保存されます。
そして、保存されたデータはAIの学習データとして利用され、思わぬ形で世間に公開される可能性がありますし、場合によっては情報丸ごとアウトプットされてしまう危険もあります。
更に、一度AIの世界に飲み込まれたデータは、その後「誰の手に、どのように渡るのか」が利用者にとって完全に把握できなくなる点も厄介です。
実際に2023年には、世界大手の電機メーカーであるサムスンが生成AIから社内の機密ソースコードを漏洩させたいう事例も発生しています。
③AIの脆弱性やAIに対する攻撃
①、②は、「AIを利用する側」のリスクでしたが、こちらは「AIを構築する側」のリスクとなります。
つまり、自社で構築したAIサービスが攻撃者の標的となり、サイバー攻撃の被害に遭ってしまうというリスクです。
最近ではAPIベースのLLM活用やオープンソースモデルの導入などで比較的簡単にAIサービスを構築することができる時代になりましたので、こういったリスクにも注意する必要があります。
AIそのものを対象とした攻撃手法には、以下のようなものがあります。
・プロンプトインジェクション : 悪意あるプロンプトを利用してシステムの意図しない動作を引き出す
・データポイズニング : AIに意図的に誤った情報を学習させ、誤作動を起こさせる
・ジェイルブレイク : 巧妙なプロンプトにより、AIのガードレールを取り除き情報を出力させる
・AIへのDoS攻撃 : AIサービスに対して過負荷攻撃を仕掛け、サービス停止に追い込む
生成AIを含む様々なAIサービスが社内外の至るところで利用されている現代では、いずれの攻撃も企業の事業活動に深刻な影響をもたらし得ます。
④ガバナンスやコンプライアンスへの対応
AI利用の爆発的な増加に伴い、ガバナンスやコンプライアンスへの対応も必要になってきています。
例えば、ヨーロッパでは「EU AI Act」が施行され、2025年には規約違反に対する厳しい罰則も設けられています。
日本では、「AI推進法」が2025年9月に施行されました。
今後はよりAIに関する適切な記録や管理が求められる時代になると考えられるため、企業は事前にAI利活用の基盤を整え、早期に対応していく必要があります。
AIセキュリティの機能
これまでAI利用のリスクについて説明してきました。
次は、これらのリスクに対応するため、「AIセキュリティ」のソリューションがカバーしておくべき機能について、簡単にご紹介します。
※こちらも前章と同じく、私見に基づく整理となります。
「AI利用」におけるセキュリティ機能
AIを利用する側、つまりユーザー視点でのセキュリティ機能は以下のようなものがあります。
| 機能 | 概要 | 対応するリスク |
| シャドーAI検出 | あらゆるAIの利用状況・リスクを可視化 | ①、② |
| プロンプト可視化・分析 | AIに送信されたプロンプトを検知し可視化、解析 | ①、② |
| ポリシー適用 (プロンプト制御) | 機密情報や個人情報が含まれるプロンプトや、事前定義ポリシーに違反するプロンプトをブロック、もしくはマスク処理 | ①、②、④ |
「AI構築」におけるセキュリティ機能
自社でAIを構築・運用する側、開発者視点でのセキュリティ機能は以下です。
| 機能 | 概要 | 対応するリスク |
| 自社AIのインベントリ・ ポスチャ管理(AI-CPM) | AIのリソース(構成・モデル・ライブラリ・データ)の継続的な監視と評価 脆弱性の特定、リスク管理、設定ミスの修正 | ②、③、④ |
| 自社AIのランタイム保護(AI-FW) | プロンプトインジェクション、データポイズニング、ジェイルブレイク等からAIアプリケーションを保護 | ③、④ |
| 自社AIのランタイム制御(AI-DR) | AIアプリケーションおよびエージェントの振る舞い(どのデータを取り込み、どのアクションを実行したか)を監視し、不正挙動や悪用を防止する。 | ③ |
SASEとの関係性
実は先日、Catoクラウドを提供するSASE領域のリーダー企業「Cato Networks」は、AIセキュリティの専門企業である「Aim Security」を買収しました。
Cato Networksと同じイスラエルの企業で、Microsoft 365 Coplilotにおいて「EchoLeak」(CVE-2025-32711)と呼ばれるゼロクリックAI脆弱性を発見したことで有名です。
この脆弱性は、クリックなどのユーザーの操作を必要とせず、メールが受信されるだけでCopilotのコンテキストから機密情報を自動で持ち出すことができるものです。Microsoftはこの脆弱性の深刻度を「Critical」と評価し、現在はサーバー側で修正済みです。
SASEは、ネットワークとセキュリティを統合しクラウドで提供するアーキテクチャです。
Cato Networksは今後、従来のネットワーク・セキュリティに加えて、上記のような「AIセキュリティ」における機能も強化・統合していく方向性を示していますが、実際、「SASE」と「AIセキュリティ」にはどのような親和性があるのでしょうか。
少し考えてみました。
つまり「どのユーザーが、どの拠点/どの端末から、どういった通信を行ったか」を全て可視化・管理し、更にはセキュリティチェックを行い、攻撃を防御することができます。
対してAIセキュリティは、「どのユーザーが、どのAI/どのデータを、どのように使ったか」を全て可視化・管理し、セキュリティチェックを行い、攻撃(または情報漏洩)を防御します。
このように記載すると、この2つは領域こそ違いますが、「統合的に管理し、セキュリティを適応させる」という所は同じだと思います。
ネットワークは全社員が業務を行う上で必ず必要になるものですし、AIサービスも今やそういった存在になりつつあります。
どちらも重要インフラであり、だからこそ「ネットワークの安全性」と「AIの安全性」を1つの基盤に統合し、まとめて管理するということは、今後企業が安全に・継続的に成長するうえで重要になってくるのではと考えました。
さいごに
AIセキュリティについて、SASE担当としての観点も踏まえて、解説してみました。
AIセキュリティは比較的新しい技術領域のため、これからもどんどん発展していくと思います。
現時点でインプットとなる情報も多くはなく、本記事全体を通して(特に後半)、自分なりの整理や考えを述べている部分も多いですがご容赦ください。
ただ、少なくともCato Networks社が買収したAim Securityでは、上記で述べたような「AIセキュリティ」のソリューションは既に展開されているようです。今後Catoクラウドがどんな進化を見せるのか、私自身とても楽しみです。
「CatoクラウドのAIセキュリティ機能」について、魅力的なアップデート情報を皆様にお届けできる日を心待ちにしています。

