2026年3月1日更新
生成AIの蒸留対策
はじめに
生成AIには蒸留という利用契約を逸脱する行為があります。(英語ではDistillation)
この行為はプロンプトと回答を繰り返して、特定の言語モデル(LLM、SLM不問)の類似モ
デルを作る行為を指します。
クラウド環境上の言語モデルであれば、契約内容や動作状況によっては、無制限に出来
てしまうので、殆どの言語モデルに対して可能ということになります。
万が一、不可抗力の事故による、機密情報を含むRAG環境でこの行為が行われた場合、
機密情報が抜き取られる事故につながりかねません。
ここでは、このような事態に備える対策として、社内情報の取扱いや弊社生成AIツール
GPBの意義についてご説明させて戴きます。
2026年3月1日作成
本編
[1] 社内情報の分類
LLMの使用でプロンプトと回答を繰り返すことは契約があれば問題ないですが、類似言語
モデルを作ることは利用契約を逸脱する場合があります。
もし不正アクセスによる機密情報に対して外部から蒸留行為が行われた場合、機密情報
を含む類似環境が作られることになり、情報漏洩につながることは自明の理ということに
なります。
そこで、仮にクラウド環境の生成AIサービスを使う場合でも、自社事業の存亡に関わるよう
な機密情報には適用しないか、その部分だけはオンプレが良いと考えます。
社内情報を単なる機密情報と事業存亡に関わる機密情報に分けて、後者だけでもオンプ
レ生成AIサービスを使ってはと考えます。
[2] 弊社生成AIツールGPBの意義
弊社生成AIツール”GPB"は社内情報はローカル環境(オンプレサーバ含む)に置いた状
態で動きます。
GPBの仕組は以下の通りです。
GPBの動作環境は以下の”3 ハイブリッド版”です。
ここで、GPBはCLM(機密情報)とLLM(公開情報)の動作環境を分離している為、蒸留対
策としても、最適ということになります。
その根拠は
GPB=CLM+LLM
にあります。
LLMは公開情報なので、クラウド上にあっても問題ないですが、CLMは機密情報を含む社
内情報なので、オンプレを前提にしています。
機密情報をクラウド上に置いたら、機密情報まで類似モデルが出来ることになるので、
GPBは蒸留対策としても有効という結論になります。
関連サイト
カタログ AAC生成AIツール”GPB”のご紹介(印刷用)
生成AI経緯 AAC生成AIヒストリー
動画サイト AACYouTubeサイト
