Anthropic、国防総省を提訴 AI安全方針巡り憲法違反を主張

Anthropic、国防総省を提訴 AI安全方針巡り憲法違反を主張 AIニュース・トレンド

訴訟の経緯と背景

Anthropicは2026年3月20日、カリフォルニア州の連邦裁判所に2通の宣誓供述書を提出しました。これは国防総省に対する訴訟の一環で、3月24日にサンフランシスコのRita Lin判事による審理が予定されています。

事の発端は2026年2月下旬に遡ります。トランプ大統領と国防長官Pete Hegesthが、AnthropicがAI技術の無制限な軍事利用を認めなかったことを理由に、同社との関係を断絶すると公表しました。その後、国防総省はAnthropicに対してサプライチェーンリスク指定を適用しました。これはアメリカ企業に対して史上初めての措置です。

Anthropicは、この指定が同社のAI安全性に関する公表見解への報復であり、憲法修正第1条が保障する言論の自由の侵害にあたると主張しています。一方で国防総省は、これは単純な国家安全保障上の判断であり、Anthropicの見解に対する制裁ではないと反論しています。

宣誓供述書で明らかになった事実

今回提出された2通の宣誓供述書は、政府の主張に対する詳細な反論を含んでいます。1通目はSarah Heck氏(AnthropicのHead of Policy)によるもので、もう1通はThiyagu Ramasamy氏(同社のHead of Public Sector)によるものです。

Heck氏はオバマ政権下で国家安全保障委員会に勤務した経歴を持ち、2026年2月24日にCEO Dario AmodeiがHegseth国防長官らと会談した際に同席していました。彼女の供述書では、政府が主張する「Anthropicが軍事作戦への承認役割を要求した」という内容を明確に否定しています。「交渉中に、私も他のAnthropicの従業員も、同社がそのような役割を望んでいると述べたことは一度もありません」と記述されています。

さらに注目すべきは、3月4日の出来事です。これは国防総省がAnthropicへのリスク指定を正式決定した翌日にあたります。この日、次官Michaelが CEOのAmodeiにメールを送り、政府が今や国家安全保障上の脅威の証拠として挙げている2つの問題(自律型兵器と米国人の大量監視に関する立場)について、両者は「非常に近い」状態にあると述べていたのです。

その翌日の3月5日、AmodeiはPentagonと「生産的な会話」を続けていたと声明を発表しました。しかし3月6日、MichaelはSNS上で「Anthropicとの国防総省の積極的な交渉は存在しない」と投稿。さらに1週間後には、CNBCに対して協議再開の「可能性はない」と述べました。

技術的な論点:リモートキルスイッチは存在するのか

Ramasamy氏の宣誓供述書は、技術的な側面から政府の主張を否定しています。彼は2025年にAnthropicに入社する前、Amazon Web Servicesで6年間、機密環境を含む政府顧客向けAI展開を管理していた人物です。

政府は、Anthropicが技術を無効化したり動作を変更したりすることで軍事作戦に干渉できると主張していました。しかしRamasamy氏は、これは技術的に不可能だと説明しています。政府が確保した「エアギャップ」システム(サードパーティの請負業者が運営)にClaudeが展開されると、Anthropicはアクセスできなくなります。リモートキルスイッチも、バックドアも、未承認のアップデートをプッシュする仕組みも存在しないというのです。

つまり、政府が懸念する「作戦上の拒否権」は架空のものであり、モデルに変更を加えるには国防総省の明示的な承認と導入作業が必要になります。また、Anthropicは政府ユーザーがシステムに入力している内容を見ることも、そのデータを抽出することもできないと述べています。

外国人雇用がセキュリティリスクになるという政府の主張についても、Ramasamy氏は反論しています。Anthropic従業員は米国政府のセキュリティクリアランス審査を受けており、「私の知る限り」、Anthropicは機密環境で動作するAIモデルを実際に構築したクリアランス取得者がいる唯一のAI企業だと宣言しています。

AI企業と政府の関係に与える影響

この訴訟は、単なるAnthropicと国防総省の争いにとどまりません。AI技術の軍事利用における企業の裁量権、そして企業が自社の技術の使われ方について意見を表明する権利が問われています。

OpenAIやGoogleなどの他のAI企業も、軍事利用に関する独自のポリシーを持っています。今回の訴訟の結果次第では、これらの企業が自社技術の使用条件を設定する自由度が大きく変わる可能性があります。政府が「国家安全保障」を理由に企業のポリシーを覆せるとなれば、AI企業の自律性は大きく制限されることになるでしょう。

また、フリーランスや個人事業主にとっては、使用しているAIツールの提供元企業と政府の関係が不安定になることで、サービスの継続性に影響が出る可能性も考えられます。特に政府関連のプロジェクトに携わっている方は、使用するAIツールの選定において、こうした政治的リスクも考慮する必要が出てくるかもしれません。

フリーランスへの影響

現時点で、この訴訟がフリーランスや個人事業主の日常業務に直接的な影響を与えることはありません。Anthropicのサービスは通常通り利用可能ですし、料金体系にも変更はありません。

ただし、長期的な視点で見ると、AI企業と政府の関係性は業界全体の方向性を左右する重要な要素です。もし政府が企業のAI安全ポリシーに強く介入できるようになれば、今後のAI開発の方向性や、新機能のリリーススピードに影響が出る可能性があります。

特に政府機関や大企業向けの業務を請け負っているフリーランスの方は、クライアントがどのAIツールの使用を許可するかという点で、間接的に影響を受けるかもしれません。安全性やコンプライアンスに関する基準が厳しくなる可能性もあります。

一方で、AI企業が独自の倫理基準を維持できる環境が守られれば、より安心してツールを使い続けられるという見方もできます。この訴訟の行方は、AI業界の透明性と信頼性を測る一つの指標になるでしょう。

まとめ

Anthropicと国防総省の訴訟は、AI技術の軍事利用と企業の自律性という重要なテーマを提起しています。3月24日の審理でどのような判断が下されるかは、今後のAI業界全体に影響を与える可能性があります。

フリーランスや個人事業主の立場としては、現時点で特別な対応は必要ありません。ただし、使用しているAIツールを提供する企業の動向には、今後も注意を払っておく価値があるでしょう。この訴訟の続報や判決内容については、引き続き情報を追っていく予定です。

コメント

タイトルとURLをコピーしました