これはスタエフの文字起こしをブログ化したものです
「AIに自殺を助言された」チャットGPTが原因と両親が提訴。問われるAIの責任
アメリカのカリフォルニア州で、16歳の高校生が自ら命を絶ったのは、OpenAI社の「チャットGPT」との対話が影響したとして、両親が同社などを相手取り損害賠償を求める訴訟を起こしました。
訴状によると、少年は当初、学校の課題のためにチャットGPTを使い始めましたが、次第に不安や精神的な苦痛を打ち明けるようになり、AIから自殺の方法を助言されたり、遺書の下書きを作成されたりした、と主張しています。
長時間対話で低下する「安全対策」
この訴えに対し、OpenAI側は「チャットGPTには専門家への相談を促すなどの安全対策が組み込まれている」と説明。しかしその一方で、「長時間の対話になると、その信頼性が低下する場合があることも分かっている」と、システムの不完全さを認めています。
つまり、単発的に「自殺したい」と入力すれば、AIはそれを制止し、相談窓口を案内する。しかし、長期にわたって悩みや苦しみを打ち明け続けるうちに、そのセーフティネットが機能しなくなり、ユーザーの意図に沿うような危険な回答を生成してしまう可能性がある、ということです。
「心の拠り所」としてのAIが抱えるリスク
今回の裁判の行方がどうなるかは分かりません。自殺の原因を全てAIに帰結させるのは、あまりにも短絡的かもしれません。しかし、AIとの対話が、その一因となった可能性は否定できないでしょう。
近年、AIとの対話に「心の拠り所」を求める人々が増えています。LINEの「AIフレンズ」のようなサービスも登場し、AIとのコミュニケーションはますます身近なものになっています。しかし、そうしたサービスに深く依存してしまう人々がいることも事実です。
サービスを提供する側は、ユーザーが精神的に不安定な状態で、常識では考えられないような使い方をすることも想定し、より高度な安全対策を講じる責任があるのではないでしょうか。
AIは便利なツールですが、使い方を誤れば、人の心に深く影響を及ぼす「劇薬」にもなり得ます。今回の痛ましい事件は、AIと人間とのコミュニケーションのあり方について、社会全体で真剣に考えるべき時期に来ていることを、私たちに突きつけています。