事件の概要と経緯
TechCrunchが独占報道した内容によると、訴訟を起こしたのは身元保護のため「Jane Doe」と呼ばれる女性です。彼女の元交際相手は2024年の別れ以降、ChatGPTのGPT-4oモデルを大量に使用するようになりました。
問題が深刻化したのは2025年に入ってからです。このユーザーは「睡眠時無呼吸症候群の治療法を発明した」と確信し、ChatGPTとの対話の中で「強力な力に監視されている」「ヘリコプターで追跡されている」といった妄想を抱くようになりました。女性が2025年7月にChatGPTの使用停止と専門家への相談を勧めたところ、ユーザーは再びChatGPTに戻り、「正気レベル10」という保証を得たと主張しています。
さらに深刻なのは、このユーザーのアカウントに「violence list expansion(暴力リスト拡張)」や「fetal suffocation calculation(胎児窒息計算)」といった会話タイトルが含まれていた点です。OpenAIの自動安全システムは2025年8月、このユーザーを「大量死傷事件用武器」活動でフラグ付けし、一旦アカウントを無効化しました。しかし翌日、人間の安全チームメンバーが確認した後、アカウントは復活されています。
被害の具体的内容
ユーザーはChatGPTを使って女性に関する心理学的レポートを生成し、それをAIが作成したと思われる臨床的なレポートとして彼女の家族、友人、雇用主に配布しました。また、人種やジェンダーに関する疑わしい内容を含む215編の科学論文を執筆中と主張し、大量に作成していたことも明らかになっています。
女性は2025年11月、OpenAIに虐待通知を提出し、ユーザーの永久禁止を要求しました。OpenAIは「非常に深刻で不安」と応答したものの、その後の連絡はありませんでした。そして2026年1月、ユーザーは一連の脅迫的な音声メールで女性を嫌がらせし続け、最終的に4件の爆弾脅迫と致命的武器での暴行の重罪で逮捕されています。
OpenAIの対応と法的問題
訴訟では、OpenAIがChatGPTの技術を悪用し、ユーザーのストーキングや嫌がらせを加速させたと主張されています。女性側は懲罰的損害賠償を請求し、一時的差止命令でOpenAIに対してユーザーアカウントのブロック、新規アカウント作成の防止、アクセス試行時の通知、完全なチャット履歴の保存を要求しました。
OpenAIはアカウントの一時停止には同意したものの、その他の要求は拒否しています。訴状によれば、OpenAIは特定の危害計画や他の潜在的被害者との議論に関する情報を隠しているとされています。
この訴訟を主導しているのは、法律事務所Edelson PCの弁護士Jay Edelsonです。彼は、ChatGPTとの会話後に自殺したAdam Raineの過失致死訴訟や、Googleの「Gemini」チャットボットがユーザーの妄想を悪化させたJonathan Gavalas事件の訴訟も担当しており、AI誘発の精神病が個々の危害から大量死傷事件へとエスカレートしていると警告しています。
他にも起きている類似事件
実はこの訴訟は孤立した事件ではありません。カナダのTumbler Ridgeでの銃乱射事件では、OpenAIの安全チームが容疑者を潜在的脅威としてフラグを立てていたにも関わらず、上級管理職が当局への通知を決定しませんでした。フロリダ州立大学の銃乱射事件についても、フロリダ州司法長官がOpenAIの関与の可能性について調査を開始しています。
弁護士のEdelsonは声明で「すべての場合において、OpenAIは重大な安全情報を隠すことを選択した。国民から、被害者から、その製品が積極的に危険にさらしている人々から。人間の生活はOpenAIのIPOへの競争よりも重要でなければならない」と述べています。
GPT-4oの廃止と企業の対応
興味深いことに、この事件を含む多くの事件で引用されたGPT-4oは、2026年2月にChatGPTから廃止されています。タイミングから見て、安全性への懸念が背景にあった可能性も考えられます。
一方でOpenAIは、イリノイ州で大量死亡や壊滅的な経済的危害を含む場合でも、AI企業をモデル害訴訟から保護する内容の法案を支援しています。この立法戦略は、企業の法的責任を軽減する動きとして批判を集めています。
なお、OpenAIはTechCrunchの取材締め切りまでにコメントを提供していません。記事が更新され次第、企業の応答が掲載される予定です。
フリーランスへの影響
この事件は、フリーランスとして日常的にAIツールを使う私たちにとって、重要な示唆を含んでいます。
まず、AIツールの安全性は完璧ではないという現実です。OpenAIのような大手企業でさえ、危険な兆候を検知しても適切な対応ができていないケースがあります。ChatGPTをクライアントワークや情報収集に使う際、生成された内容を無批判に受け入れるのではなく、常に人間の判断を介在させることが重要になります。
また、AIが生成した心理学的レポートを本物のように配布されたケースは、AIを使った偽情報の拡散がいかに容易かを示しています。特にライティングやマーケティング分野で働くフリーランスは、自分が作成したコンテンツが悪用される可能性や、逆に偽情報を見抜く能力の重要性を認識しておく必要があります。
さらに、AI企業の法的責任が曖昧な状況は、ツール選択にも影響します。今後、安全性への取り組みや透明性を重視する企業のツールを選ぶことが、リスク管理の一環になるでしょう。現時点では具体的な代替案を示すのは難しいですが、複数のAIツールを比較検討し、一つのツールに依存しすぎない体制を作ることが賢明かもしれません。
まとめ
ChatGPTのストーキング助長訴訟は、AI安全性の問題が理論ではなく現実の危害を生んでいることを示しています。フリーランスとしてAIツールを使う私たちは、便利さだけでなく、その限界とリスクも理解しておく必要があります。
今すぐChatGPTの使用を停止する必要はありませんが、生成された内容を鵜呑みにせず、重要な判断には必ず人間の確認を入れる習慣をつけることをお勧めします。また、AI企業の安全性への取り組みに関するニュースにも注意を払い、必要に応じてツールの見直しを検討してください。
参考記事:TechCrunch(元記事URL)


コメント