生成AI に潜むリスク【2025年10月号】弁護士池田篤紀
近年、ChatGPTに代表される生成AIの利用が急速に拡大しています。少ない入力で自然な文章を作成できるため、企画書や社内文書の下書き、調査メモの整理など従来多くの時間を要した作業を効率化でき、生産性やスピードが格段に向上したとの声も多く聞かれます。今後、AI活用は避けて通れない流れといえるでしょう。しかし、その利便性の裏には看過できないリスクも存在します。
1 生成AIに潜むリスク
まず情報漏洩のリスクです。生成AIはクラウド上で稼働しており、入力した情報は外部サーバに送信されます。顧客名簿や契約条件、未公開の財務情報を入力すれば、個人情報保護法違反や秘密保持契約違反につながりかねず、取引先から厳しい指摘を受ける危険があります。
次に誤情報のリスクがあります。生成AIはもっともらしい説明を返すものの正確性は保証されません。私も使用したことはありますが、実際には存在しない法律や判例を提示することがあり、正直使えません。仮に調査結果を鵜呑みにして社外文書や顧客への説明に使えば、重大な信用失墜や法的責任を招く可能性があります。
さらにガバナンス上のリスクも見逃せません。従業員が独自にAIを利用して作成した成果物に誤りがあった場合、責任の所在が不明確となり、内部統制の不備を指摘されるおそれがあります。
2 生成AI活用ガイドラインの整備
これらのリスクを防ぐためには、社内における「AI活用ガイドライン」の整備が不可欠です。具体的には、個人情報や機密情報など入力禁止情報の明確化、使用できるAIの種類や業務範囲の区分、出力内容を必ず人が確認する仕組み、利用記録の保存と承認フロー、従業員への教育と定期的な見直しなどが求められます。これらを文書化し、規程や研修を通じて周知徹底することで、利便性とリスク管理を両立させることが可能となります。
3 最後に
生成AIは正しく使えば業務を大きく変革する強力な武器となります。しかし、ルールなき導入は法的リスクや信用失墜に直結しかねません。会社としては、利便性のみを追うのではなく、リスクを統制する仕組みを整えることで、安心してAIを活用し、組織全体の力に変えていくことが重要です。