ChatGPTなどの生成AIの利用が広がる一方、情報漏えいなどのリスクも指摘されていることから、企業の間では利用にあたって社内のルール作りを進める動きが広がっています。
投稿サイトを運営する「note」は、業務の効率を高めようと、ことし2月からChatGPTの活用を社員に推奨していて、メールマガジンの記事のタイトルなど、人が担ってきた業務の一部をChatGPTに置き換えています。
一方で、情報漏えいなどのリスクに対処するため、社内の情報を重要性に応じて4段階に分類したうえで、機密のレベルが高いと判断した情報は原則、入力を禁止しています。
note法務コンプライアンス室の淺井健人室長は「自由に使いすぎるとトラブルの元になる一方で、制限しすぎるとうまく使われずに終わってしまうので、バランスよく活用していきたい」と話しています。
また、ソーシャルネットワークサービスMIXIも、こうした生成AIの利用でルールを定めています。
入力された情報がAIに学習されない生成AIのサービスに限って、個人情報などを除いた社内の企画やアプリ開発のプログラミングコードなど、社外秘の情報の一部を入力できるようにしています。
生成AIの利便性を生かしつつ、情報漏えいやプライバシー侵害などのリスクをどう避けるかが課題となる中で、企業の間でも模索が始まっています。
-- NHK NEWS WEB