セールスセンター2023.06.08
どうする?ビジネスにおける生成AIの導入とガバナンスの両立
さまざまなニュースやメディアを賑わせているChatGPTなどの「生成AI」ですが、皆さまのご利用状況はいかがでしょうか。
生成AIはビジネスに大きな変革を起こす魔法のツールとも言われますが、一方で情報の正確性や、機密情報の漏えい、人間による細かな制御が難しいという問題も指摘されています。
本記事では、米ブロードコムのブログから、生成AIの利用に対する企業のガバナンスを最適化する方法をご紹介します。
参考:Symantec Enterprise Blogs「Secure Adoption of Generative AI Apps」
この記事を読むのにかかる時間:約3分
生成AIの利用で出てくる問題
生成AIの利用では、次のような問題が生じることがあります。
・誰が生成AIを利用しているかわからない
・どの生成AIアプリ・サービスが安全かわからない
・利用者が生成AIにどのような情報を送っているかわからない
参考記事では、お客様に対するメールがより適切になるように文章の校正を求める例が載っています。
このメールの文章には、お客様のカード番号という機密データが含まれています。こうしたプロンプト(※)の入力に問題はないのでしょうか。
※AIに送信する文章データ
現在の生成AIでは、利用者の嗜好に合う回答を作成するためにユーザーとの会話データを、一定の量、一定の期間保持して学習材料にしています。こうした学習に利用されたデータの扱いはアプリやサービスによって異なっており、場合によっては自社で生成AIとの対話で入力したデータが外部のユーザーに暴露されるリスクがあります。
このようなリスクを回避し、企業がガバナンスを適切に行うにはどうしたらいいでしょうか。
Symantecの生成AIの問題への解決策
Symantec Enterprise Cloudでは、こうした生成AIアプリ・サービスの利用の問題について、次のような解決策を提供しています。
・使用サービスのフィルタリング
・生成AIサービス利用者の確認
・AIアプリ採用の参考となる情報(BRRスコア。※)を提供
・生成AIサービスへのアクセスをブロック、または社内ルールから外れた利用をブロック
※BRRスコア:ビジネス利用における、アプリやサービスの安全性を評価した点数
また、DLP(データ保護機能)を利用することで、機密情報の流出を次のように制御できます。
・生成 AI ツールへのクエリを検査して機密情報を検出
・生成AIツールへアップロードする画像の中の機密情報を検出
・各種の認証情報を活用した既存のポリシーを生成 AIアプリ・サービスに拡張してデータ保護に利用
参考記事の動画では、ChatGPTの利用において、DLPで指定した単語・文字列を含むプロンプトの送信がブロックされている様子を見ることができます。
まとめ:生成AIの安全な導入・制御ならシマンテック
シマンテック製品を利用することで、組織で利用されているAIアプリを可視化し、未承認のサービスへのアクセス制限などを実現できます。また、アプリやサービスを自社のポリシーに従って運用できるでしょう。
ビジネスにおける生成AIの導入とガバナンスを両立させたいとお考えの方は、ぜひシマンテック製品をご検討ください。
安心と安全を提供する Symantec