ChatGPTの使用によって業務の効率化が見込めますが、同時に情報漏洩などのリスクが付随することを忘れてはなりません。本記事では、ChatGPTの使用に伴うリスクについて解説し、情報漏洩を防ぐためのセキュリティ対策やツールを紹介します。リスクや被害を抑えてChatGPTを安全に使用したい企業担当者の方は参考にしてください。
ChatGPTは入力情報が漏洩する可能性がある
生成AIの代表格である「ChatGPT」は、企業の業務効率化に有望なツールとして脚光を浴びています。ただ、使用するにあたっていくつかのリスクがあることも確かです。そのひとつが社内の機密情報の漏洩であり、場合によっては企業に大きな打撃を与えることも考えられます。
ブラウザ版のChatGPTは、ユーザーがブラウザ上で入力した情報を学習データとして活用し、より賢くなっていく機能を備えています。そのため、ChatGPTに社内情報を入力したとすると、その情報が社外ユーザーへの回答として出力され、機密情報が漏洩する可能性があります。実際にこうした事態が発生した場合、企業の信用が大きく損なわれ、多くの顧客や取引先を失いかねません。ChatGPTを使用する際には、企業にとって重要な情報を入力しないことを徹底しましょう。
ChatGPTには情報漏洩以外のリスクも
ChatGPTを使用するにあたって留意すべきリスクは情報漏洩だけではありません。ChatGPTを使用する前に知っておくべき3つのリスクを解説します。
出力情報が正確ではないケースがある
ChatGPTの学習データに含まれているのは正しい情報だけではありません。また、無料版のChatGPTは2021年9月以降の情報を持たず、最新の情報に疎いという弱点があります。基本的には精度の高い回答を得られるものの、誤った回答が生成されることもあるため、回答の正確性を自己判断する必要があります。ファクトチェックを怠ると、不正確な情報の拡散につながります。そのため、ChatGPTを使用して得られた回答は参考にする程度にとどめ、ファクトチェックを徹底することが大切です。
悪意のあるユーザーに悪用されるおそれがある
ChatGPTの悪用による詐欺やサイバー攻撃に起因するリスクにも気を配らなければなりません。ChatGPTを使用すれば、専門知識がなくても悪意のあるプログラムやフィッシングメールを簡単に作成できます。将来的にサイバーリスクが増加する可能性が懸念されており、先手を打った対策が求められます。自社が標的となることも考慮して、サイバーリスクに対する危機管理を強化し、適切なセキュリティ対策を講じるべきです。
著作権や法律に違反する可能性がある
ChatGPTの学習データは、論文や書籍、Webページ、ユーザーが入力した情報など多岐にわたり、こうした学習データには著作物も含まれています。ChatGPTの回答が著作物を流用もしくは模倣したものであった場合、その回答を外部に公表すると、著作権侵害とみなされる可能性があります。したがって、ChatGPTによる回答を利用する際には、その内容がコピーコンテンツではないと確認しなくてはなりません。
ChatGPTで情報漏洩を防止するセキュリティ対策
ChatGPTを利用する際、情報漏洩を防ぐために重要なセキュリティ対策のポイントは以下の3つです。
社内の機密情報などは入力しない
ChatGPTで入力したプロンプトは学習用データとなり、のちに回答として活用されます。情報漏洩のリスクを避けるためには、社内の機密情報や個人情報など、外部に漏れてはならない情報の入力禁止を周知徹底することが重要です。社員一人ひとりの情報リテラシーを高めて、適切に利用しましょう。
履歴OFFの設定を有効にする
ChatGPTはチャットのやり取りから学習し、システムの改善に役立てています。入力内容をChatGPTに利用されないようにするには、履歴OFFの設定が有効です。チャットの履歴をOFFにすれば、過去のチャット内容が保存されない上、ChatGPTの学習データに転用されません。過去にやり取りしたチャットの内容を確認できなくなるなどのデメリットもありますが、情報漏洩のリスクを下げられるとともに、個人情報の保護にもつながります。
セキュリティ対策がしっかりしたAIチャットツールを使用する
企業が所持する機密情報を保護し、安全に活用するための鍵はセキュリティ対策です。信頼性の高いAIチャットツールを導入すれば、通信内容の暗号化や外部からの不正アクセス防止が可能であり、情報漏洩対策に効果的です。
セキュリティ性の高さなら「Azure OpenAI Service」がおすすめ
ChatGPTをより安全に使用したい場合は、高度なセキュリティ対策が可能なツールを導入しましょう。以下より、企業での使用に特化したおすすめのツールとして「Azure OpenAI Service」を紹介します。
Azure OpenAI Serviceに送ったデータは学習に使用されない
Azure OpenAI Serviceとは、ChatGPTの生みの親であるOpenAI社とマイクロソフト社が共同で開発したサービスです。
Azure OpenAI Service上で、API経由のChatGPTにユーザーが入力したデータは、ブラウザ版とは異なり、学習データに転用されません。また、オプトアウトを申請して審査に通れば、原則として30日間行われる入力データの保持と監視を拒否できるため、さらに情報漏洩のリスクを下げられます。
会議の議事録や契約書の作成・チェックなど、ビジネスに絡む機密情報を扱う業務であっても、心置きなくプロンプトを入力できます。自社データを学習させて、マニュアルやFAQを作成することも可能です。
Azure OpenAI Serviceを導入すれば、高いセキュリティを誇るマイクロソフト社のクラウドサービス「Azure」上で、ChatGPTをセキュアに使用できる上、AIの機能を搭載したアプリケーションやサービスの開発を行えます。
ネットワークの閉域化で情報漏洩を防げる
Azure OpenAI Serviceの優位性のひとつは、インターネット接続はもちろん、インターネット接続と切り離された閉域接続がサポートされる点にあります。インターネットにつながらない閉域接続環境でChatGPTを使用すれば、企業が保持している機密情報の漏洩を防止できます。
株式会社船井総研デジタルでは、Azure OpenAI Serviceを用いた独自の専用環境を構築し、Azure OpenAI Serviceの導入から運用までを支援しています。
まとめ
企業にとって情報漏洩のリスクは、ChatGPTを使用する上で決して見過ごせない大きなリスクです。ブラウザ版のChatGPTを使用すると、入力したプロンプトが学習データに転用される可能性があり、情報漏洩の要因となります。Azure OpenAI Serviceを導入すれば、入力したプロンプトが学習データとして転用されません。自社の情報が外部に漏れる心配がなくなり、ChatGPTをセキュアに使用できます。