こんにちは!
AIを業務に活用するようになり、AIセキュリティについて、気になっている方も多いのではないでしょうか。
本記事ではAIセキュリティの概要と、それに対するCato Networks社の新たなソリューションである
「Cato AI セキュリティプラットフォーム」について紹介していこうと思います。
ぜひ最後までご覧いただけますと幸いです。
はじめに
企業にとって、AIの導入はもはや未来の話ではなく、今、ここにある現実となっています。
ChatGPTなどの生成AIやエージェント型AIの普及により、企業のあらゆる部門でAIツールが活用され始めました。
しかし、このAIの急速な普及には大きな課題が付き纏っています。
それが、企業のAI利用を“可視化・制御・保護”するためのセキュリティである「AIセキュリティ」についての課題です。
本記事では、AIセキュリティの現状の課題について触れたうえで、それを解決するソリューションである
「Cato AI セキュリティプラットフォーム」について、解説していきたいと思います。
AIセキュリティが直面する課題
生産性向上の目的で企業にAIツールが次々と導入されていく一方で、いくつかの重要なセキュリティ課題が指摘されており、
その安全性に関する統制が追いついていない現場も多いのではないでしょうか。
以下はAIセキュリティの主な課題です。それぞれについて簡単に解説していきます。
| No | 課題 | 例 |
| 1 | シャドーAI | 従業員が会社で許可されていない独自AIツールを無許可で利用 |
| 2 | 情報漏洩 | プロンプトに入力した個人情報が他者への出力として表示される |
| 3 | ガバナンスとコンプライアンス | 企業が社員のAI利用状況について把握できていない |
| 4 | 自社製AIへの攻撃と脆弱性 | LLMを搭載した自社製アプリに対するプロンプトインジェクション |
①シャドーAI
現在、多くの企業が直面している問題が シャドーAI です。
これは、企業が正式に許可していないAIツールを、従業員が個人的に利用してしまう状況を指します。
例えば以下のような例が挙げられます。
・個人アカウントのAIツールの社内利用
・用途特化型のマイナーAIサービスの利用
基本的に企業では、チャット内容を学習に利用しない、オプトアウト設定を行った商用版のAIツールの利用をルールとしているかと
思いますが、こういったオプトアウト設定やセキュリティ設定の緩いシャドーAIの利用により、意図せず、情報漏洩が発生するリスクが増大します。
以下のサイトでわかるように、2026/4月時点で約48,000種ものAIサービスが登録されており、その中には先述したようなセキュリティ設定が甘いものも多数あると思われます。
There’s An AI For That® — No. 1 Website For AI Tools
このように、昨今の爆発的なAIツールの増加により、出自不明なAIも増加したことから、シャドーAIへの対策はますます重要になっているといえるでしょう。
②情報漏洩
先述したシャドーAIにも関連しますが、AI利用において特に懸念されるのが データ漏洩リスクです。
具体的には以下のような行為を、セキュリティ設定が不十分なAIツールに対して行うことが挙げられます。
・プロンプトに機密情報を書いてしまう
・機密ファイルをアップロードする
・顧客情報を入力する
上記の結果
・入力された情報がAIの学習に使われる
・他ユーザーの出力に機密情報が混入する
といった重大なデータ漏洩につながる恐れがあります。
実際、多数のAIに個人情報を入力した結果、個人情報がネット上にばらまかれるといった被害も考えられます。
(事例は「AI 個人情報 流出」あたりで検索するとたくさんヒットしますので、ご自身でご確認ください)
特に 特定用途に特化した新興のAIサービス等 では、データ管理やセキュリティが整備されていないケースもあるため、
十分な注意が必要になります。
③コンプライアンスとガバナンス
AI利用には コンプライアンス・ガバナンスの観点 も重要です。
日本国内ではAIに関する規制はまだ限定的ですが、海外では規制が進み始めています。
代表例が EUのAI Act です。
EUの国々では
・従業員の評価
・採用判断
・社会的スコアリング
などをAIに任せることは 法令違反になる可能性があります。
他にも、各国のデータ保護規制、そして業界固有の規制など、企業はこれらに準拠した形でAIを利用しなければなりません。
上記のように企業は様々な規制に準拠したうえでAIを利用する必要があり、
そのためのコンプライアンス・ガバナンス整備が必要となります。
④自社製AIへの攻撃と脆弱性
生成AIツールの利用だけでなく、自社製のAIに対しても攻撃や脆弱性に対する防御が必要となります。
具体的にはAIモデルの制限を迂回して、本来は禁止されているタスク(例えば、ランサムウェアの製作方法の説明)を実行させる
ジェイルブレイクや、入力されたプロンプトに悪意のある命令を埋め込み、AIの動作を乗っ取るという
プロンプトインジェクションといったAI特有の攻撃手法が次々と開発されています。
これらから自社製AIへの攻撃を防ぐため、 AIシステム自体を保護する仕組み が必要になります。
Cato AIセキュリティプラットフォームとは
上記で挙げたAIセキュリティの課題に対して、Cato Networks社が提供するのが、
「Cato AIセキュリティプラットフォーム」となります。
Cato Networksは、元来別々に構築されていたネットワークとセキュリティを、クラウド上で統合して提供する
SASE(Secure Access Service Edge)プラットフォーム を提供する企業です。
このように、ネットワーク・セキュリティ領域に強みを持つ企業が、AIセキュリティの専門企業であるAim Securityを買収したうえで、
既存のCatoプラットフォームに組み込む形で提供するのが上記となります。
主に2つのアプローチでAIに対するセキュリティを包括的に保護します。
①ユーザー向けAIセキュリティ
まず一つ目のアプローチはユーザー向けAI、つまり「AIを利用する」ことに対するセキュリティアプローチです。
具体的には、以下のような機能を提供します。
| No. | 機能 | 説明 |
| 1 | シャドーAIの検出 | 利用中のすべてのAIをツールごとに可視化 |
| 2 | プロンプト&アクションの可視化 | ユーザーのプロンプト・アクションを可視化し、 許可される操作を制御 |
| 3 | AIインタラクションDLP(Data Loss Prevention) | 機密情報を自動的にマスキングしたり、高リスク情報の送信をブロックしたりすることで、意図しない情報漏洩を防止 |
| 4 | エージェント型AIの可視化(未実装・近日公開予定) | データやシステムにアクセスするAIエージェントを発見・監視 |
上記の通り、先述したAIセキュリティ課題(シャドーAI、情報漏洩、ガバナンス等)に対して、ツールの可視化、
セキュリティポリシーを用いたプロンプトの制御、機密情報のマスキング等を通じて、包括的な対処が可能です。
これらについて、いずれもCatoのダッシュボード上で、設定及び可視化が実施できます。
なお、これらの機能の利用については、Catoクラウドを経由して行われる通信に対して提供可能となります。
そのため利用にあたっては既存のCatoクラウド利用ユーザーは設定の上即時利用できることも大きなメリットといえるでしょう。
また、本機能のみを利用したいというニーズにも、専用のブラウザプラグイン導入により対応可能となっております。
設定内容の詳細は、別記事でまた紹介させていただきます。
②アプリケーション向けAIセキュリティ
二つ目のアプローチはアプリケーション向けAI、つまり「独自に構築したAI」に対するセキュリティアプローチです。
具体的には、以下のような機能を提供します。
| No. | 機能 | 説明 |
| 1 | AIアプリ&エージェント・インベントリ(未実装・近日公開予定) | すべてのAIアプリケーションとエージェントAIのワークフローを発見 |
| 2 | AIファイアウォール(ランタイム保護) | プロンプトインジェクション、モデルの不正利用、不正なエージェントのアクションをLLMに届く前にブロック |
| 3 | データ窃取防止 | AIのAPIコールや応答を介した機密データの流出を阻止 |
上記より、企業によって独自に構築したAIアプリケーションに対しても、包括的なセキュリティ対応を実施しています。
特にAIファイアウォール機能の導入で、不正なユーザーリクエストを以下のようにLLMに届く前に検出、防御できる点が嬉しいですね。
これにより自社で構築したAIアプリケーションについて、プロンプトインジェクションやジェイルブレイクの防止が実現できます。
ユーザー
↓
API
↓
AIファイアウォール(ポリシーチェック・プロンプトインジェクション検出等)
↓
LLM(ファイアウォールを通過したもののみ到達)
また検知するポリシーについては、独自に設定も可能なようです。
なお、設定については、アプリケーション側と、Cato側でそれぞれ必要なので、別記事でまた紹介させていただきます。
まとめ
AIセキュリティは、企業がAI時代を生き残るための必須の課題となっています。シャドーAI、データ漏洩、規制遵守、そして新たな攻撃脅威に対応するためには、「利用するAI」と「構築したAI」の両方を保護する包括的なアプローチが求められています。
そうした状況において、今回紹介させていただいたCato AIセキュリティプラットフォームは有力な選択肢になるのではないでしょうか。
包括的なAIセキュリティ保護はもちろん、Catoと統合したダッシュボードで各種セキュリティポリシーの設定や、
AIの利用状況を簡単に可視化できる点も、ユーザーにとっては魅力的ですね。
また今後、具体的な設定内容をまとめた記事も順次公開していく予定ですので、気になった方はぜひそちらもご覧いただければと思います。
最後までご覧いただき、ありがとうございました。
