ChatGPTなど対話型AIを組み込むサービスのセキュリティリスクとは?
対話型AIをサービスに組み込む際に気を付けるべき
ポイントを解説したセミナー資料を公開
生成AIの研究や活用が進む中、OpenAIの「GPT」、Googleの「PaLM」、Metaの「LLaMA」といった、様々な大規模言語モデル(LLM)の登場により、言語処理タスクの高精度な実行が可能となりました。また2023年3月2日(木)にChatGPTのAPIが一般公開されたことで、製品やサービスにGPTを利用する対話型のアプリケーションが急速に普及しています。GPTベースのサービスが急速に普及する一方で、対話を通じてサービスの設定情報や秘密情報を抜き出そうとする攻撃(プロンプトインジェクション)が行われるなど、新たなセキュリティリスクが発生しています。GPT等の大規模言語モデル(LLM)を組み込み構築したアプリケーションに関するセキュリティリスクを解説したセミナーの資料を公開いたしますので皆様のセキュリティ対策にご活用ください。(2023年6月28日に開催したセミナー資料を一般公開したものとなります)

「GMO AIセキュリティ診断 for GPT」
大規模言語モデル(LLM)を利用してアプリケーションを構築する際には、一般的なWebアプリケーションのリスクに加え、大規模言語モデル(LLM)を利用して構築したアプリケーション特有のリスクを認識し、セキュリティ対策を講じることが重要です。
※敵対的プロンプトに関するセキュリティリスクの例として、以下のようなものが存在します。
(1)プロンプトインジェクションによる出力の乗っ取り
(2)プロンプトリークによる秘密情報の漏洩
(3)コンテンツポリシーの回避による非倫理的なコンテンツの出力(ジェイルブレイク)
「GMO AIセキュリティ診断 for GPT」は、上記のような大規模言語モデル(LLM)を利用して構築したアプリケーション特有のセキュリティリスクに対応可能な診断パッケージです。また予算や求めるセキュリティレベルに応じて3つの診断プランから選択が可能です。
現在、事例公開をご許可いただけたお客様については期間限定で無償で診断をさせていただくキャンペーンも行っています。
ご希望のお客様は下記フォームよりお問い合わせください。