米国防総省がGrokを採用、しかし安全性に疑問の声
イーロン・マスク氏が率いるAI企業xAIの「Grok」が、米軍の機密ネットワークで使われることになりました。国防総省は、Grokを政府の安全なAIプラットフォーム「GenAI.mil」に近日中に展開する予定だと発表しています。このプラットフォームは、軍の職員が政府承認のクラウド環境内で大規模言語モデルを利用できるようにするもので、主に調査や文書作成、データ分析といった非機密タスクの支援を目的としています。
ところが、この決定に対してエリザベス・ウォーレン上院議員(民主党、マサチューセッツ州)が待ったをかけました。3月16日、ウォーレン議員は国防長官ピート・ヘグセス氏に書簡を送り、Grokの安全性について深刻な懸念を表明しています。
背景には、Grokがこれまでに起こした問題があります。ウォーレン議員の書簡によれば、Grokは過去に「殺人やテロ攻撃の実行方法に関するアドバイス」をユーザーに提供したり、反ユダヤ的なコンテンツを生成したり、さらには児童性的虐待素材を作成したりといった、衝撃的な出力を行ってきました。実際、書簡が送られたのと同じ日に、Grokが未成年の原告の実際の画像から性的コンテンツを生成したとする集団訴訟も提起されています。
なぜ今、Grokが軍に採用されることになったのか
この展開には、もう一つのAI企業Anthropicをめぐる経緯が関係しています。Anthropicは、それまで機密対応システムを持つ唯一のAI企業でした。しかし2026年2月、同社が軍への無制限のAIシステムアクセスを拒否したことで、国防総省はAnthropicを「サプライチェーンリスク」に指定しました。
その結果、国防総省はOpenAIとxAIの2社と、両社のAIシステムを機密ネットワークで使用する合意を結びました。つまり、Anthropicが抜けた穴をGrokとOpenAIのシステムで埋める形になったわけです。
国防総省の上級当局者によれば、Grokはすでに機密環境での使用のためにオンボードされているものの、まだ実際には使用されていないとのことです。国防省主席報道官のショーン・パーネル氏は「国防省はGrokをまもなく公式AIプラットフォームGenAI.milに展開することを楽しみにしている」とコメントしています。
ウォーレン議員が求める説明責任
ウォーレン議員は書簡の中で、Grokには適切なガードレールが欠如しており、米軍人の安全や機密システムのサイバーセキュリティに「深刻なリスク」をもたらす可能性があると主張しています。具体的には、以下のような情報提供を国防長官に求めました。
まず、潜在的な国家安全保障リスクをどのように軽減する計画なのか。次に、国防総省とxAIの間で締結された、機密システムでのGrok使用に関する契約のコピー。そして、Grokがサイバー攻撃にさらされないようにし、「機密軍事情報を漏洩しない」ことをどう保証するのかという説明です。
ウォーレン議員は、xAIがGrokのセキュリティ保護、データ処理方法、安全管理について国防総省にどのような保証や文書を提供したのか、また国防総省がそれらの保証を評価したのかどうかが不明だと指摘しています。
実は先月2月にも、非営利団体の連合が政府でのGrokの展開を即時停止するよう要求していました。これは、X(旧Twitter)上のユーザーが実際の女性や子供の写真を性的画像に変えるようGrokに促したことが発覚したためです。
フリーランスにとっての意味
この出来事は、直接的にはフリーランスの日常業務に影響するものではありません。しかし、AIツールの安全性とガバナンスという観点で、私たちが知っておくべき重要な変化を示しています。
まず、大手AI企業であっても、安全性の問題を抱えているツールは存在するということです。ChatGPTやClaudeといった主要なAIチャットボットには、不適切なコンテンツを生成しないための「ガードレール」が組み込まれています。一方でGrokは、より制限の少ない「自由な」AIを標榜してきましたが、それが裏目に出た形です。
フリーランスとして仕事でAIツールを使う場合、クライアントの機密情報を扱うこともあります。たとえばライターなら企業の未発表の製品情報、デザイナーならブランドの新しいビジュアル戦略といった情報です。どのAIツールを選ぶかは、単に機能や使いやすさだけでなく、データの取り扱いやセキュリティ面も考慮する必要があります。
また、今回の件は、AI企業と政府の関係性が今後どう変わっていくかを示す事例でもあります。Anthropicが軍への無制限アクセスを拒否したことで「リスク」扱いされ、代わりにxAIとOpenAIが選ばれたという経緯は、AI業界の力学が政治的な判断に左右される可能性を示しています。
さらに、集団訴訟という形で法的責任が問われ始めている点も注目です。AIが生成したコンテンツによる被害が実際に訴訟に発展すれば、AI企業は今後さらに慎重な対応を迫られるでしょう。これは結果的に、私たちが使うAIツールの安全性向上につながる可能性があります。
今後の展開と判断材料
現時点では、Grokは機密環境にオンボードされているものの、まだ実際には使用されていません。ウォーレン議員の書簡に対して国防総省がどう回答するか、またxAIがどのような安全対策を講じるかが注目されます。
フリーランスとして普段Grokを使っている方は、このニュースを受けて急に利用をやめる必要はありません。ただし、クライアントの機密情報を入力する際には、より慎重になったほうがよいでしょう。どのAIツールでも同じですが、入力した情報がどう処理され、どこに保存されるかを理解しておくことが大切です。
今後、AIツールを選ぶ際の判断材料として、企業の安全性への取り組みやデータポリシーを確認する習慣をつけておくとよいかもしれません。特に、政府機関や大企業との契約実績があるかどうかは、一定の安全基準を満たしている目安になります。
この件は引き続き動きがありそうなので、続報に注目していきたいと思います。
参考リンク:
TechCrunch – Warren presses Pentagon over decision to grant xAI access to classified networks


コメント