生成AIを安全に活用するためのポイントは?
ChatGPTなど生成AIが爆発的に普及されています。しかしその利便性の反面で大きなリスクに気づいた人もまた多いに違いありません。今回は、生成AIの利用におけるリスクを取り上げ、望ましい使いかたを考えていきます。
生成AIの種類と開発の現状
生成AIは膨大な量のデータを学習し、利用者の質問や命令などの入力に応じて統計的な方法でデータを組み合わせて加工して回答する人工知能の一形態です。もっとも本来AI(人工知能)は人間の脳の働きと同等のものを機械にもたせる試みのことですから、現時点でのAIはそこに至る過程のごく入り口付近にある技術と言ってよいでしょう。自ら「考える」のではなく、あくまで過去のデータをもとに統計的に推定できる範囲で回答を生成しています。
生成AIが一般に認知され始めたのは、2022年11月に無料で公開されたChatGPT(OpenAI社)のリリース以降です。ChatGPTは自然言語で入力された質問などに対して自然言語で回答を返す、文章生成の為のAIです。利用してみると、AI研究者も驚くほど自然でなめらかな文章でひとまず読んで納得できる回答が返ってきます。その品質はそれまでの自動チャットツールとはかけ離れて高く、リリース後わずか2ヶ月でユーザー数が1億に達するほど急速に普及しました。日本語含め多国語に対応し、質問・回答だけでなく文章の要約や翻訳、プログラムの自動生成などもできるため、日本でも一気に利用が加速しました。さらに2023年3月に他システムと連携可能なAPIがリリースされると連携サービスが続々と開発・リリースされるようになりました。
この成功に牽引されるように、現在は画像、音声、動画、音楽を生成するAIもサービス開発が活発化しており、それぞれ多数のサービスやアプリが開発・提供されるようになりました。
生成AIを利用する場合に注意したいポイント
現在公開されているサービスやアプリは著作権やプライバシー権を侵害しないように機能を制限している場合がほとんどで、特に文章生成AIではマルウェアの製作やサイバー攻撃手法など違法行為に結びつくテーマには回答しないように工夫されていますし、差別的な文章など反社会的な文章を生成しない仕組みも搭載されています。しかしそうした制限や対策が完璧である保証はありません。生成AIを利用する際には、入力および処理結果の利用が法律や社会規範に準じているか否かの判断が常に必要になります。
特に文章生成AIの場合にはコンプライアンスに加えて処理結果の正誤判定も重要です。多くの場合は学習したデータの範囲内での回答になるので、元にしたデータが間違っていれば回答にも間違いが含まれる可能性が高く、また学習が進んでいないテーマについては類似した学習内容を応用して事実とは異なる虚偽の内容を出力することもあります。回答はひとまず納得できるこなれた言葉で返されるので、その一部の事実が間違いであることにすぐに気づけるとは限りません。生成された情報に関しては人間が精査するプロセスを加える必要があります。
日本ディープラーニング協会がまとめた「生成AIの利用ガイドライン(日本ディープラーニング協会)」(2023年10月)では、ChatGPTの利用についての注意ポイントをまとめています。
入力の際に他人の文章を入力することそのものが著作権侵害に発生するとは言えないものの、それが他人の著作物を模倣する目的で生成された場合は著作権に触れる可能性があります。また公開した生成結果がたまたま他人の著作物に類似していた場合でも著作権侵害とみなされる場合も想定されます。詳しくはガイドラインの参照をおすすめします。
また、もっと簡便に利用ルールを設定した例もあります。例えば東京都デジタルサービス局がChatGPTなど文章生成AIの利用に関して都庁内の共通基盤システムで職員が守るべきルールを定めたガイドラインです。
なお、東京都デジタルサービス局ではMicrosoftの「Azure OpenAI Service」を利用しており、そのサービスでは「入力データが学習目的で利用されない」ことと「入力データの保存をサーバー側で行わない」ことを確認しているとのことです。このようにデータ漏洩の可能性をできるだけ少なくする為に、利用するサービスを選択することも重要なポイントになるでしょう。もしもサービス側に渡った情報が保存され、悪意をもって再利用されることがあれば、重大な情報漏えい事案に発展することも考えられます。利用するサービスの利用規約やセキュリティポリシー、情報の取扱いに関するポリシーをよく確認してから利用することが大切です。
上記ガイドラインはChatGPTなど文章生成AIについて作成されたものですが、他の生成AIでも同様の配慮・注意が必要になるでしょう。例えば先般、岸田首相が下品な発言をするフェイク(偽の)動画が流布された事件がありましたが、これは訴えがあれば肖像権侵害、名誉毀損に該当する行為と判断されると思われます。動画や音声・音楽に関しても入力時および利用時に他人の権利を侵害することがないように慎重に検討することが重要です。企業など組織においては利用ルールを明文化して公開することも今後は必須になるでしょう。
サイバー攻撃など情報セキュリティに関する懸念
生成AIがサイバー攻撃に応用されるリスクも指摘されています。特に簡単に応用できそうなのは、フィッシングメールなどの文面作成です。ビジネス文書の定石に則った文章構造でこなれた文面を作成するのは文章生成AIの得意とするところです。従来は日本語がおかしいことで攻撃メールと気づくことができましたが、今後は文面以外の要素から不正なメールか否かを判断することがより重要になるでしょう。
他には、生成AIがプログラムの生成や改善・作り替えにも対応できるところから、マルウェアの作成に用いられることも懸念されています。前述のようにサービス側での対策により明らかに不正な目的での利用は拒否されますが、最終目的を隠して要素技術のみのプログラムの改善などは比較的簡単にできてしまう場合があります。マルウェアの生産性が上がることでリスクが増大していく可能性があるため、攻撃の特徴を学習するAI応用型のアンチウイルスツールやその他のサイバー攻撃対策をより充実させていく必要があるでしょう。
さらに、フェイク動画に代表されるように、画像・映像をAIで加工して本人そっくりの人物に偽の内容の情報を語らせる手口も増えてきています。特にディープフェイクと呼ばれる偽動画作成のためのツールは改善され続けていますから、他の情報源からの正しい情報をもとにフェイクか否かを判断していく態度が大切になります。
生成AIの能力・可能性を活用するためには
安全な利用法を確立すべき
生成AIは上記のようなリスクを内包し、また法規制も十分とは言えない状況の中で様々な領域での活用が始まっています。身近な例ではコンタクトセンターの対応の一部自動化、ビジネス文書の作成・要約・翻訳などで目に見える成果が出てきていますし、その他の顧客サービス改善、マーケティング、エンジニアリング、営業、映像・広告クリエイティブ領域など、多様なユースケースが期待できます。プログラムのコーディングも一部自動化できることから表計算のスクリプト作成も省力化できることも実証されています。
これほど便利な新技術を活用しない手はありません。慎重にサービスを選びリスクの周知や利用ルール策定・改善といった対応を常に繰り返すことで、コンプライアンスリスクやセキュリティリスクを回避しながら、適切に活用していくことがいま最も求められています。ルール策定やサービス選定には、多様なサービスをよく知る専門業者の助力も必要な場合があるかもしれません。生成AIの利用を進める場合には、適切にコンサルできる外部業者の利用も有効な選択肢になります。