生成AI時代の新たなセキュリティリスク
業務における生成AI(GenAI)サービスの活用は、いま急速に拡大しています。従業員が多様なAIツールを自由に利用するようになる一方で、既存のセキュリティポリシーでは想定しきれない新たなリスクも顕在化しています。適切な管理や制御が行われていない場合、誤ったプロンプト入力や内部情報の取り扱いによって、機密データの漏えいに加え、個人情報保護やコンプライアンスの違反につながる恐れがあります。

プロンプトに入力される機密情報の漏えいとAIサービスの誤用を防ぎ、
安全かつ自由なGenAI活用を実現します。
業務における生成AI(GenAI)サービスの活用は、いま急速に拡大しています。従業員が多様なAIツールを自由に利用するようになる一方で、既存のセキュリティポリシーでは想定しきれない新たなリスクも顕在化しています。適切な管理や制御が行われていない場合、誤ったプロンプト入力や内部情報の取り扱いによって、機密データの漏えいに加え、個人情報保護やコンプライアンスの違反につながる恐れがあります。
キーワードベースのフィルタリングに加えて、ユーザーのプロンプト入力とLLMの応答を文脈ベースで動的に解析し、機密データの不正利用や外部サービスへの流出をリアルタイムで防止します。さらに、OWASPが定義する「LLM Top 10」に準拠し、プロンプトインジェクション、モデル汚染など、LLM特有の攻撃ベクターを高精度で検知・遮断します。
文書、顧客情報、ソースコードなどの機密データが、プロンプトやファイルアップロードを通じて外部AIサービスに送信されることをリアルタイムで防止します。リアルタイムDLPポリシーの自動適用により、自由度の高いGenAI利用環境下でも、データ保護とガバナンスを両立した安全なオペレーションを確保します。
ウェブおよびSaaSアプリケーションへのアクセスを可視化・制御し、ゼロトラストの考え方を実現するSSEプラットフォーム。
Loading...