「生成AI」という言葉を、新聞やニュースで目にすることが多くなりました。
ChatGPTなど一般に無料で公開されている生成AIもあり、誰でも気軽に利用することができます。
そのため、日常業務で利用する企業も増えてきているようです。
例えば、他社との取引に関する契約書のリーガルチェックを、生成AIを利用して行ったり、生成AIを利用して契約書を作成したりすることもできてしまいます(もっとも、リーガルチェックなどの正確性は定かではありません。)。
もっとも、生成AIは、AIが学習して進化するために、入力された情報やデータを保存する構造となっています。
また、入力した情報やデータを基に、他の企業等からの質問に回答することになります。
そのため、入力した情報やデータが、他の企業等に開示されてしまう可能性=情報漏えいのリスクがあります。
実際に、韓国の大手企業であるサムスン電子において、従業員が機密情報をChatGPTに入力してしまい、情報漏えいが発生してしまったということが起こりました。
サムスン電子では、このことが起きる前に、ChatGPTに入力する際には社内情報のセキュリティに注意して個人情報は入力しないことを通達していました。それにもかかわらず、このような情報漏えいが起きてしまったとのことです。
生成AIのような最先端技術は非常に便利ですので、上手く使いこなせば、業務効率の向上等に繋がります。
他方で、情報漏えいのリスクもあり、情報漏えいが発生してしまうと回復することが困難なものであることから、慎重な対応が必要となります。
生成AIを利用して契約書のリーガルチェックを行うのであれば、企業名等の特定情報、知的財産権やノウハウなどの機密情報はマスキングするなどして、社外に出しても問題のない状態にしなければなりません。
もっとも、マスキングすることなどをルール化しても、見落としのミスによって情報漏えいしてしまうことは考えられます。
また、マスキング自体も単に名称を隠せば良いという単純作業ではありませんので、担当従業員が自分の判断でマスキングしただけで利用できるという社内ルールは適切ではないと思われます。
WordやPDFといったデータファイルを読み込むことができる生成AIもあり(ChatGPT有料版など)、機密情報を削除したファイルと思って読み込ませたところ、実はそれが機密情報の記載されたままのファイルだったりすることもあり得ますから(ファイルタイトルは「マスキング版」だが実際はマスキングしていない生データファイルだった、というファイルタイトル間違いのケースなど)、ケアレスミスによる情報漏えい事故が起こることは容易に想定できます。
そのため、生成AIを業務で利用することは一律禁止することが、最も安全といえます。
生成AIを業務で利用する際は、情報漏えいにご注意ください。
ことわざにも「ただほど高いものはない」というものがありますから、企業はビジネスの機密情報が記載されている契約書については、ChatGPTなどの生成AIではなく、契約書審査の実力が十分にある企業法務弁護士に、得ようとする価値に対応するコスト(料金)を支払って、高付加価値のリーガルチェックをしてもらう方が、結果的にビジネスには良い結果をもたらすのではないでしょうか。
契約審査をご希望の企業様は是非、吉田総合法律事務所に契約書審査をご依頼されることをお勧めいたします。