タンブラーリッジ銃乱射の数カ月前、OpenAIの安全チームはすでに「その使用履歴」を見ていた。それでも警察には連絡しなかった——という事実が、今この会社を法廷に引きずり込んでいる。

ChatGPTが拾っていた「銃暴力のシグナル」、警察には届かなかった

今年2月10日、カナダ・ブリティッシュコロンビア州の小さな町タンブラーリッジで、18歳のジェシー・ヴァン・ルートセラーが学校に銃を持ち込んだ。6人の子供を含む8人が命を落とし、カナダ史上最悪級の銃乱射事件として記録された。

その後の調査で浮かび上がったのが、OpenAIの対応だった。同社の安全チームは、犯行に至る数カ月前の段階でヴァン・ルートセラーのChatGPT使用履歴に銃暴力に関する記述を検知していた、と報道は伝えている。にもかかわらず、地元警察タンブラーリッジ署への通報は行われなかった。

この事実が表面化したことで、被害者7家族がカリフォルニア州裁判所にOpenAIとCEOサム・アルトマンを相手取った訴訟を起こした。訴状の核心は「知っていたのに、何もしなかった」という一点に尽きる。

「言葉では決して十分ではないと承知していますが、あなたたちのコミュニティが被った被害と取り返しのつかない喪失を認めるために、謝罪は必要だと信じています」——サム・アルトマン(地元メディア「タンブラーリッジライン」への公開書簡より)

アルトマンがここまで踏み込んだ謝罪を公開の場で行うのは、CEOとしては異例の姿勢といえる。ただ、謝罪が「なぜ通報しなかったか」への答えにはなっていない点は引っかかる。

OpenAI訴訟が問う「AIに通報義務はあるか」

OpenAI側は訴訟への声明で「暴力への加担はゼロ・トレランス」と表明し、危険な兆候の評価・エスカレーション体制を強化したと発表した。ChatGPTで危険な行動を示したユーザーへの対応方針を記したブログも公開している。

しかし問題はポリシーの有無より、「兆候を把握してから事件発生まで何もしなかった」事実の重さにある。OpenAI訴訟の争点は損害賠償にとどまらず、AIプラットフォームが持つ「予防的な通報義務」という法的・倫理的な前例を作ることになりそうだ。

ChatGPT危険予兆の情報を持つ企業が、法執行機関への情報提供を拒んだ——あるいは怠った——場合、どこまで責任を問えるか。この問いは今後、世界中の立法府に波及しうる。

この先どうなる

カリフォルニア州裁判所での審理は始まったばかりで、判決まで数年単位の時間がかかる可能性が高い。ただし、訴訟プロセスの中でOpenAIが内部の安全チームの判断記録を開示するよう求められれば、「どこまで知っていたか」の全容が明らかになる局面も出てくるだろう。

欧州ではAI規制法(AI Act)が施行されはじめており、高リスクAIへの報告義務が課されつつある。米国にはまだ相当の規制の空白があるが、タンブラーリッジの7家族が起こしたこの訴訟が、その空白を埋める立法議論の火種になってもおかしくない。悲劇が法律を変えることは、歴史上珍しくない。