米国防総省がAnthropic排除も裁判所が差し止め

米国防総省がAnthropic排除も裁判所が差し止め AIニュース・トレンド

突然の使用禁止命令とその背景

2025年2月27日、トランプ大統領がSNSで「Anthropicの左翼キチガイ」という表現を使い、全連邦機関にClaudeの使用停止を指示しました。数日後、ペテ・ヘグセス国防長官も追随し、Anthropicを供給チェーンリスクとして指定するよう命じました。この指定は、防衛関連の契約企業や取引先にもAnthropicとの商業活動を禁止するものでした。

問題は、政府が2025年の大部分を通じて何の問題もなくClaudeを使っていたことです。防衛部門の従業員はPalantir経由でClaudeにアクセスしており、実務で活用していました。それが大統領のSNS投稿をきっかけに、突然「危険なツール」として扱われることになったのです。

政府側はAnthropicが「キルスイッチ」を実装する可能性があると主張しました。これは、企業側がサービスを突然停止できる仕組みのことです。しかし裁判の過程で、政府はその証拠がないことを認めました。Anthropicの共同創業者Jared Kaplanは、政府向けの利用ポリシーで「アメリカ国民の大量監視と致死的自律兵器」を禁止していると法廷に提出しています。

裁判所の判断内容

カリフォルニア州のRita Lin裁判官は43ページの判決文で、政府の措置を厳しく批判しました。判決では、政府が「イデオロジー」「修辞」「傲慢さ」を理由にAnthropicを公然と罰することを目的としたと指摘しています。供給チェーンリスク指定は、Anthropicを政府の「破壊工作者」と特定することに等しいと述べました。

さらに裁判所は、Anthropicが本質的にすべての理論で政府の行動が違法で違憲である可能性が高いと判断しました。ペテ・ヘグセス国防長官が取るべき特定の手続きを完了せず、そもそも長官にそうした権限がないことも政府側の弁護士が認めています。

トランプ政権のAI政策担当者Dean Ballは、Anthropic支持側でブリーフを作成した人物ですが、この判決を「政府にとって壊滅的な判決」と評価しました。政府には7日以内に上訴する機会が与えられており、今後の展開はまだ不透明です。Anthropicは首都ワシントンDCで別の訴訟も提起しており、法廷闘争は続く見込みです。

Anthropicの立場と防衛契約

Anthropicは安全性を重視するAI企業として知られています。ChatGPTを開発するOpenAIの元メンバーが設立した企業で、AIの安全な開発と利用を掲げてきました。その一方で、防衛契約も受注していました。政府向けの利用ポリシーでは軍事転用に一定の制限を設けながらも、政府機関との取引を行っていたのです。

今回の騒動は、この二面性が政治的な標的になった形です。政府は長期間にわたって問題なく使っていたにもかかわらず、突然イデオロギーを理由に排除しようとしました。これは契約紛争として始まりましたが、政府が既定の手続きを無視し、公務員のSNS投稿で事態を悪化させたことで激化しました。

手続き無視の問題点

通常、供給チェーンリスクの指定には決められた手続きがあります。しかし今回、ヘグセス国防長官はその手続きを完了せず、議会委員会への書簡では「より穏和なステップを評価したが実行不可能だった」と述べるにとどまり、詳細は提供しませんでした。裁判所はこの点も問題視しています。

フリーランスへの影響

この事例は、フリーランスや個人事業主にとって他人事ではありません。政府機関の話だから関係ないと思うかもしれませんが、重要な示唆があります。

まず、AIツールが突然使えなくなるリスクです。政治的判断や企業の方針変更で、今日まで使えていたツールが明日使えなくなる可能性があります。特定のAIツールに業務を完全に依存していると、そのツールが使えなくなったときに仕事が止まってしまいます。

次に、代替手段を持つことの重要性です。Claudeを使っている方は、ChatGPTやGeminiなど他のツールも試しておくと安心です。一つのツールに絞らず、複数のオプションを持っておくことで、リスクを分散できます。特に重要なプロジェクトでは、バックアップとして別のAIツールを用意しておくと良いでしょう。

また、利用規約や提供企業の方針を定期的に確認することも大切です。Anthropicのように、企業側が利用ポリシーで制限を設けている場合があります。自分の使い方がポリシーに適合しているか、時々チェックしておくと予期せぬトラブルを避けられます。

ただし、日本国内で個人利用する分には、今回の件は直接影響しません。Anthropicは日本市場でも引き続きサービスを提供しています。あくまで米国政府との契約に関する問題であり、一般ユーザーの利用には制限がかかっていません。

まとめ

米国防総省によるAnthropic排除命令は、裁判所によって一時的に差し止められました。政府が手続きを無視し、イデオロギーを理由に企業を排除しようとした点が問題視されています。フリーランスとして学べるのは、AIツールへの過度な依存を避け、代替手段を持つことの重要性です。今すぐ対応が必要なわけではありませんが、複数のAIツールを使い分けるスキルを身につけておくと、将来的なリスクに備えられます。

参考リンク:MIT Technology Review – The Algorithm

コメント

タイトルとURLをコピーしました