AnthropicのAIツール「Mythos」に不正アクセス

AnthropicのAIツール「Mythos」に不正アクセス AIニュース・トレンド

企業向けAIツールが未公開段階で流出

AnthropicはChatGPTの対抗馬として知られる「Claude」を開発している企業ですが、今回問題となったのは一般向けではなく、企業のセキュリティ部門向けに開発していた「Mythos(ミトス)」というツールです。

このツールは「Project Glasswing」という限定的なプロジェクトの一環として、Appleなど一部の大手企業にのみ提供されていました。つまり、まだ正式に公開されていない段階のものです。ところが、不正アクセスを行ったグループは、このツールが企業に提供された同じ日にアクセス権を獲得したと報じられています。

Bloombergの報道によれば、アクセスした人物たちはDiscordのチャンネルで未公開AIモデルの情報を探している集団の一部で、Anthropicの第三者請負業者を通じてアクセスできる環境を見つけたとのことです。彼らはAnthropicが過去に使っていたモデルの命名規則やアクセス方法のパターンから「推測」を行い、Mythosの保存場所を突き止めたようです。

セキュリティツールが攻撃ツールになるリスク

Mythosはもともと企業のセキュリティを強化するためのAIツールとして設計されていますが、逆に悪意のある人間の手に渡れば、ハッキングツールとして使われる可能性があります。包丁が料理にも凶器にもなるのと同じ理屈です。

今回アクセスしたグループは「新しいモデルで遊びたいだけで、破壊活動をする気はない」と説明しているそうですが、このツールが広く拡散されれば、より悪質な目的で使われるリスクは否定できません。

Anthropicの広報担当者は「第三者ベンダーの環境を通じて不正アクセスがあったという報告を調査中で、現時点でAnthropicのシステム自体に不正な活動の痕跡は見つかっていない」とコメントしています。つまり、Anthropic本体のサーバーがハッキングされたわけではなく、外部の協力会社経由でアクセスされたという形です。

限定公開の意味が問われる事態

Project Glasswingという名前で限定的にリリースされていたMythosですが、この制限は悪用を防ぐための安全策でした。しかし今回の件で、その仕組みが十分に機能していなかったことが露呈しています。

特に注目すべきは、不正アクセスした人たちがスクリーンショットやソフトウェアの動作デモをBloombergに提供しており、実際に繰り返しアクセスしていた証拠があることです。単なる一度きりの侵入ではなく、継続的にツールを使える状態だったということになります。

フリーランスへの影響

この事件は直接的にフリーランスの仕事に影響するわけではありませんが、AIツールを業務で使う際のセキュリティ意識を見直すきっかけになります。

たとえば、あなたがクライアントの機密情報を扱う仕事をしているとして、その作業にAIツールを使っている場合、そのツール自体が安全かどうかを確認していますか? AnthropicやOpenAIのような大手企業でさえ、第三者ベンダー経由でセキュリティの穴が生まれることがあります。

特にライターやマーケター、デザイナーといった職種では、クライアントの未公開情報をAIに入力する場面があるかもしれません。その場合、使っているツールがどこにデータを保存しているのか、第三者がアクセスできる可能性はないのかを意識する必要があります。

また、企業向けの案件を受注する際、クライアントから「どんなツールを使っていますか?」と聞かれることが今後増えるかもしれません。その際に「セキュリティポリシーを確認しています」と答えられるかどうかが、信頼につながる時代になってきています。

まとめ

今回の事件は、AI開発企業の内部統制や第三者管理の課題を浮き彫りにしました。フリーランスとして取るべきアクションは「今使っているAIツールのセキュリティポリシーを一度確認する」ことです。特に企業案件を扱う方は、利用規約やデータの取り扱いについて把握しておくと安心です。すぐに何かを変える必要はありませんが、意識しておくだけで将来のトラブルを避けられます。

参考記事:TechCrunch(2026年4月21日報道)

コメント

タイトルとURLをコピーしました