OpenAIが軍事利用の扉を開いた
OpenAIは2026年2月、米国防総省(ペンタゴン)との間で、AIを機密環境で使用することを認める正式な合意を締結しました。この合意により、OpenAIのモデルは軍用AIプラットフォーム「GenAI.mil」に追加され、政策文書や契約書のドラフト作成、任務の管理サポートなどに使われることになりました。
さらに注目すべきは、OpenAIが防衛テクノロジー企業Andurilとのパートナーシップを発表したことです。このパートナーシップでは、OpenAIの技術が米軍を攻撃するドローンのタイムセンシティブな分析を行い、撃墜を支援する役割を担います。つまり、私たちが記事を書いたりアイデアを練ったりするのに使っているのと同じ技術が、戦場での判断を支援するツールとして使われることになったのです。
OpenAIのCEOサム・アルトマンは「軍は当社の技術を自律型兵器の構築には使用できない」と発言していますが、合意内容は軍が独自の(かなり許容的な)ガイドラインに従うことを求めるにとどまっています。
イランでの実戦投入、3つの活用場面
標的選定と攻撃の支援
最も議論を呼んでいるのが、標的選定へのAI活用です。人間のアナリストがOpenAIのモデルに潜在的な標的のリストを入力すると、AIが情報を分析して「最初に攻撃すべき標的」の優先順位を提案します。テキストだけでなく、画像や映像など多様な形式のデータを分析できるため、従来のシステムよりも包括的な判断材料を提供できるとされています。
軍はこれまで「Maven」というAIシステムを使用してきましたが、OpenAIのモデルはAnthropicのClaudeと同様に会話型のインターフェースを提供します。つまり、アナリストが「この地域で最も脅威となる標的はどれか」と質問すると、AIが情報を解釈して推奨を返すという使い方ができるのです。この生成AIの助言をもとに戦場での行動を決定するテストが、イランで初めて本格的に実施されています。
ただし、最終的な判断は人間が行うことになっています。AIが出力した結果を、人間のアナリストが手動で確認し、承認する責任を担うという仕組みです。
ドローン防衛システムとの統合
OpenAIとAndurilのパートナーシップにより、OpenAIの技術はドローン防衛にも使われる見込みです。Andurilが提供する統合インターフェース「Lattice」は、兵士がドローン防衛からミサイル、自律型潜水艦まで制御できるシステムで、OpenAIの技術がこのプラットフォームに組み込まれることになります。
この動きの背景には、深刻な事件がありました。2026年3月1日、クウェートでイランのドローン攻撃により米軍人6名が死亡する事件が発生しました。米軍の既存の防空システムがドローンを迎撃できなかったのです。この事件を受けて、Andurilは2026年3月14日時点で米陸軍から最大200億ドルの契約を獲得し、AIシステムを既存の軍事装備に接続するプロジェクトを進めています。
Andurilは世界の軍事基地に対ドローン技術を提供していますが、同社はシステムがイラン近くに配備されているかどうかを明らかにしていません。
軍の事務作業の効率化
最も平和的な用途が、軍の事務作業の効率化です。2025年12月、国防長官ピート・ヘグセスは、契約、兵站、調達などの行政的役割を担う数百万人の軍人に対して、GenAI.milを利用するよう奨励しました。
GenAI.milは、軍人が商用AIモデルに安全にアクセスするためのプラットフォームです。最初はGoogle Geminiが利用可能となり、その後イーロン・マスクのxAIが提供する「Grok」も追加されました。Grokは反ユダヤ的コンテンツの拡散や無許可のディープフェイク作成事例があったにもかかわらず採用されています。OpenAIは2026年2月にこのプラットフォームに参入しました。
この用途では、契約書のドラフト作成や政策文書の整理など、私たちフリーランスが日常的に使っているのとほぼ同じ使い方がされています。
競合の動きと論争
OpenAIの軍事利用への姿勢は、競合他社と対照的です。Anthropicは「あらゆる合法的用途」でのAI使用を拒否する姿勢を貫いており、トランプ大統領が軍にAnthropicの使用停止を命令する事態に発展しました。Anthropicはペンタゴンからサプライチェーンリスクに指定され、現在法廷で争っています。
一方、イーロン・マスクのxAIは最近ペンタゴンと独自の合意を締結し、AIモデル「Grok」が機密環境に統合されるプロセスを進めています。
OpenAIのスポークスパーソンは、Andurilとのパートナーシップは「他者を傷つけるように設計されたシステム」を禁止する同社のポリシーに違反しないと説明しています。その理由は、技術が人ではなくドローンを標的にするためだとしています。ただし、この説明には多くの専門家から疑問の声が上がっています。
フリーランスへの影響
この動きは、私たちフリーランスに直接的な影響はありません。ChatGPTの機能が変わるわけでも、料金が上がるわけでもありません。しかし、私たちが日常的に使っているツールが軍事目的で使われることに、違和感を覚える人もいるでしょう。
特にライターやデザイナーなど、クリエイティブな仕事をしている人にとっては、自分が使っている技術が「人を傷つける可能性のある用途」に使われることへの倫理的な問題を考えるきっかけになるかもしれません。実際、OpenAIの元社員の中には、軍事利用への方針転換を理由に退職した人もいると報じられています。
また、AI技術の軍事利用が進むことで、政府や軍からの資金がAI業界に大量に流入する可能性があります。これはAI技術の発展を加速させる一方で、技術開発の方向性が「平和的利用」から「軍事的優位性」へとシフトするリスクもあります。
もしあなたがAnthropicのClaudeを使っている、あるいは使うことを検討しているなら、同社が軍事利用を拒否している姿勢を評価するかもしれません。逆に、OpenAIの「現実的な」アプローチを支持する人もいるでしょう。どちらが正しいという単純な話ではなく、自分の価値観と照らし合わせて選択する時代になったということです。
まとめ
OpenAIの軍事利用は、AI技術が新しい段階に入ったことを示しています。私たちフリーランスが使っているツールと同じ技術が、戦場での意思決定を支援するために使われている現実を、知っておく価値はあります。すぐに何か行動を起こす必要はありませんが、自分が使うツールの背景を理解し、必要に応じて選択肢を検討することは大切です。どのAIツールを使うかは、機能や価格だけでなく、企業の姿勢も判断材料の一つになる時代です。
参考: MIT Technology Review – Where OpenAI’s technology could show up in Iran


コメント