AIニュース・トレンド

AIニュース・トレンド

中国軍がAIを軍事利用、DeepSeek採用が判明

中国の人民解放軍が生成AIを軍事インテリジェンスに本格活用していることが、数千件の調達文書から明らかになりました。特に注目されているのが、DeepSeekのAIモデルを衛星画像処理や情報分析に使用している点です。また、米国の輸出規制をかいくぐってNvidiaの高性能チップを調達している実態も浮き彫りになっています。この動きは、AI技術の軍事転用リスクを示す重要な事例として、国際的な懸念を呼んでいます。
AIニュース・トレンド

ASML、半導体パッケージング技術に参入へ

EUVリソグラフィ装置で世界シェアを独占するオランダのASMLが、2026年3月2日、新たな事業展開を発表しました。狙うのは高度なパッケージング技術という分野です。複数のチップを立体的に接続・積層するこの技術は、ChatGPTなどのAIサービスを支える最先端チップに欠かせません。TSMCやIntelなどの大手がすでに参入している市場ですが、ASMLは10年から15年後を見据えた長期計画で挑戦します。
AIニュース・トレンド

AIインフラに3兆ドル投資、フリーランスへの影響は

Meta、OpenAI、Googleなどの大手テック企業が、AI運用に必要なデータセンター建設に巨額を投じています。Nvidia CEOは今後10年で3〜4兆ドル規模の投資が行われると予測しており、2026年だけで約7000億ドルが投入される見込みです。この大規模投資は、フリーランスが日常的に使うAIツールの性能や価格にどう影響するのでしょうか。
AIニュース・トレンド

Anthropic、安全重視が裏目に。国防省と決裂

AI開発企業のAnthropicが、トランプ政権から国防総省との提携を断絶されました。理由は、同社が掲げる「安全第一」の姿勢が、軍事利用の要求と相容れなかったためです。大量監視や自律兵器への無制限利用を拒否した結果、孤立する形となりました。一方で、業界全体が規制に反対してきたため、法的な裏付けがなく、企業の自主判断だけが頼りという脆弱な状況が浮き彫りになっています。
AIニュース・トレンド

OpenAI、米国防総省と契約。監視禁止を明記

OpenAIが2026年2月28日、米国防総省との契約を発表しました。国内での大量監視を禁止し、自律兵器には必ず人間の判断を求めるという安全原則を契約に盛り込んだ点が注目されています。競合のAnthropicが同様の契約を拒否したのとは対照的に、OpenAIは技術的なセーフガードを構築し、エンジニアを派遣して安全性を確保する方針です。機密ネットワークでのAI利用が現実のものとなり、民間AI技術の軍事転用に一定の歯止めがかかる形になりました。
AIニュース・トレンド

Google DeepMind「UL」発表、画像生成の学習コスト大幅削減

Google DeepMindが2月27日、新しい機械学習フレームワーク「Unified Latents(UL)」を発表しました。画像や動画を生成するAIの学習効率を大きく改善する技術で、従来のStable Diffusionと比べて少ない計算量で同等以上の品質を実現します。特に自前の画像生成モデルを訓練したい開発者やAI研究者にとって、学習コストを削減できる可能性があります。ただし現時点では研究発表の段階で、一般向けのツールやサービスとしてはまだ提供されていません。
AIニュース・トレンド

5つのAIモデルがX上で競争、新ベンチマーク登場

AIベンチマークを手がけるArcada Labsが、5つの最新AIモデルをX(旧Twitter)上で自律的に投稿させて競わせる「Social Arena」という実験を開始しました。Grok、Claude、Gemini、GLM、GPTの5つのモデルがそれぞれ独自のアカウントを持ち、人間の介入なしに投稿やリプライ、いいねを繰り返します。従来のベンチマークとは異なり、実際のSNS上でのパフォーマンスを測定する試みです。
AIニュース・トレンド

AIモデルの訓練データ、ネットの5%しか使えていない現実

大規模言語モデルの訓練に使われているインターネットデータは、実は公開ウェブ全体のわずか5%程度に過ぎないことが明らかになりました。残りの95%はJavaScriptで動的に生成されるコンテンツや、ペイウォールで守られた記事、非公開のデータベースなどで、現在の技術では収集が難しい状態です。これはAI研究者やデータサイエンティストだけでなく、AIツールを日常的に使うフリーランスにとっても、将来的なツールの進化速度に影響を与える可能性があります。
AIニュース・トレンド

OpenAI、暴力的チャット検知後の警察通報体制を強化

OpenAIが2025年2月、カナダ政府との会談を経て、ChatGPTの安全プロトコルを大幅に見直すことを発表しました。きっかけは、昨年6月に暴力的な内容で利用停止にしたアカウントが、その後カナダで発生した銃乱射事件の容疑者のものだったことです。当時は警察に通報しませんでしたが、今後は危険な兆候を早期に察知して法執行機関と連携する体制を整えます。私たちフリーランスには直接関係ないように見えますが、AIツールの安全管理がどう変わっていくのか、知っておいて損はありません。
AIニュース・トレンド

OpenAI、AI滅亡警告者を法廷で批判―CEO自身も署名済み

OpenAIがイーロン・マスクとの訴訟で、AI安全研究の第一人者スチュアート・ラッセル教授を「ドゥーマー(終末論者)」と呼び、証言排除を求めています。興味深いのは、OpenAIのCEOサム・アルトマン自身が2023年にラッセル教授と同じ「AIによる人類絶滅リスク」の警告文に署名していた点です。この矛盾した態度は、AI業界の安全性に対する姿勢の変化を象徴しており、フリーランスとして今後AIツールをどう選ぶべきか考えさせられる出来事です。
タイトルとURLをコピーしました