何があったのか
2025年6月、OpenAIは18歳のジェシー・ヴァン・ルートセラーという利用者のChatGPTアカウントを停止しました。理由は、銃暴力に関するシナリオを繰り返し作成していたためです。社内では「警察に通報すべきか」という議論があったものの、最終的には通報しないという判断が下されました。
その数カ月後、ヴァン・ルートセラーはカナダのタンブラーリッジという人口2,000人ほどの町で銃撃事件を起こし、8人が亡くなりました。事件後、OpenAIはカナダ当局に連絡を取りましたが、「なぜ事前に通報しなかったのか」という批判が集中しました。
アルトマンCEOは謝罪文の中で、「6月に禁止したアカウントについて法執行機関に警告しなかったことを深く申し訳なく思います」と述べています。ただし、ブリティッシュコロンビア州のデビッド・エビー首相は、この謝罪を「必要だが、被害を受けた家族にとっては全く不十分」と評しました。
AI企業の「判断」の難しさ
この事件が浮き彫りにしたのは、AI企業が利用者の行動をどう扱うべきか、という曖昧な領域です。ChatGPTのようなツールは、小説の執筆からビジネスプランの作成まで、幅広い用途で使われています。その中には、暴力的なシナリオを含むフィクションの創作もあります。
OpenAIには、どの利用者が「創作活動」をしていて、どの利用者が「実際の危険」を示しているのかを見分ける明確な基準がありませんでした。社内で議論が行われたものの、最終的には「通報しない」という判断になったのは、おそらくこうした線引きの難しさが理由だったと考えられます。
今回の事件を受けて、OpenAIは安全プロトコルを見直すと発表しました。具体的には、より柔軟な基準を導入し、どのような場合に当局に報告すべきかを判断するルールを整備するとのことです。また、カナダの法執行機関との直接的な連絡窓口も設置しました。
フリーランスにとっての意味
この出来事は、ChatGPTを仕事で使っているフリーランスや個人事業主にとっても無関係ではありません。特にライターやクリエイターの方は、日常的にAIツールで多様なコンテンツを生成しているでしょう。小説の暴力シーン、サスペンス映画の脚本、マーケティング用の架空のストーリーなど、内容は多岐にわたります。
今後、AI企業が安全基準を厳格化すると、こうした創作活動にも影響が出る可能性があります。たとえば、暴力的な表現を含むコンテンツを作成しようとすると、アカウントが一時停止されたり、警告を受けたりするケースが増えるかもしれません。
一方で、企業側が「過剰に反応」して、正当な創作活動まで制限してしまうリスクもあります。OpenAIがどのような基準を導入するかはまだ明らかになっていませんが、今後数カ月で何らかの発表があると予想されます。
また、カナダではAI規制に関する議論が進んでいます。他の国でも同様の動きが広がれば、AIツールの使い方そのものが変わる可能性があります。
まとめ
今回の謝罪は、AI企業の責任範囲という大きな問いを投げかけました。フリーランスとしては、今すぐ何か行動を変える必要はありませんが、今後のOpenAIの安全基準の変更には注意を払っておくとよいでしょう。特にクリエイティブな仕事で暴力的な表現を扱う方は、規約の更新情報をチェックしておくことをおすすめします。
参考:TechCrunch


コメント