AI推論を10倍高速化、Gimlet Labsが新技術で9200万ドル調達

AI推論を10倍高速化、Gimlet Labsが新技術で9200万ドル調達 AIニュース・トレンド

データセンターの7割が遊んでいる現実

AIブームでデータセンターへの投資が急増していますが、実は既存のハードウェアの大半が有効活用されていません。Gimlet Labsの創業者兼CEOのZain Asgarによれば、現在のAI処理用ハードウェアの利用率はわずか15~30%程度。つまり、数千億ドル分のチップが待機状態で放置されているのです。

この問題が生まれる理由は、AIの処理内容によって必要なハードウェアが異なるからです。たとえば、AIモデルが推論を実行する際は計算能力が必要ですが、結果を出力する際はメモリ帯域幅が重要になります。外部ツールを呼び出すときはネットワーク速度が鍵を握ります。従来のシステムでは、これらすべてを単一のGPUで処理しようとするため、どうしても得意分野以外では性能を持て余してしまいます。

McKinseyの予測では、現在のペースでデータセンターへの投資が続けば、2030年までに支出総額は7兆ドル近くに達する見込みです。しかし、その多くが十分に活用されないまま終わる可能性があります。

異なるチップを同時に使う新発想

Gimlet Labsが開発したのは、複数の異なるハードウェアを同時に活用してAI処理を高速化する技術です。具体的には、AIモデルを複数のパーツに分割し、それぞれに最適なチップで処理させます。計算が必要な部分はNVIDIAのGPU、メモリを多用する部分は高メモリシステム、ネットワーク通信が多い部分は別のチップといった具合です。

この仕組みは「マルチシリコン推論クラウド」と名付けられ、ソフトウェアまたはAPI経由で提供されます。対応するハードウェアは幅広く、NVIDIA、AMD、Intel、ARMに加えて、CerebrasやD-Matrixといった新興チップメーカーとも提携しています。

従来のシステムでは、たとえばGPTのような大規模モデルを動かす際、推論からテキスト生成、ツール呼び出しまですべてを同じGPUで処理していました。しかしGimlet Labsの技術を使えば、推論はNVIDIA GPU、テキスト生成は高メモリチップ、ツール呼び出しはネットワーク最適化されたチップといった形で分散処理が可能になります。結果として、同じコストと電力消費で処理速度が3倍から10倍に向上するといいます。

既存ハードウェアを無駄なく使う設計

Gimlet Labsの技術が注目される理由の一つは、新しいハードウェアを購入する必要がない点です。多くのデータセンターには、型落ちのGPUや使われていないチップが大量に眠っています。Gimlet Labsのソフトウェアは、これらの既存リソースをかき集めて効率的に活用する設計になっています。

投資を主導したMenlo VenturesのTim Tullyは、「すべてをこなせる単一のチップは存在しない。しかし、新旧さまざまなハードウェアが混在するフリート(艦隊)は既に準備されており、それを機能させるソフトウェアレイヤーが欠けていただけだ」と述べています。

実際、Gimlet Labsは2026年10月に公開ローンチを果たし、初月から8桁の売上(最低1000万ドル)を記録しました。顧客には大手AIモデル開発企業や大規模クラウドプロバイダーが含まれており、過去4ヶ月で顧客基盤は2倍以上に拡大しています。

スタンフォード発、シリアル起業家のチーム

Gimlet Labsを創業したのは、Zain Asgarを中心とする4人のチームです。Asgarはスタンフォード大学の客員教授で、過去に複数のスタートアップを成功させた経験があります。共同創業者のMichelle Nguyen、Omid Azizi、Natalie Serrinoとは、以前Pixieという観測可能性ツールのスタートアップで一緒に働いていました。Pixieは2020年12月にNew Relicに買収されています。

今回のシリーズAラウンドは、Menlo Venturesが主導し、総額8000万ドルを調達しました。以前のシードラウンド(Factoryが主導)と合わせると、総資金調達額は9200万ドルに達します。追加の投資家には、Sequoia Capital、Eclipse Ventures、Prosperity7、Triatomicが名を連ねています。エンジェル投資家として、スタンフォード大学教授のNick McKeown、元VMware CEOのRaghu Raghuram、Intel CEOのLip-Bu Tanも参加しています。

現在の従業員数は30名で、急成長中の組織といえます。

フリーランスへの影響

正直に言うと、Gimlet Labsの技術は現時点ではフリーランスや個人事業主が直接使えるものではありません。対象顧客は大規模なAIモデル研究機関やデータセンター事業者です。価格や料金体系も公開されておらず、一般向けのサービスとして提供される予定も今のところありません。

しかし、間接的な影響は確実に出てきます。Gimlet LabsのようなインフラレベルでのAI処理効率化が進めば、OpenAIやAnthropicといったAIサービス提供企業のコストが下がります。結果として、ChatGPT PlusやClaude Proの料金が将来的に値下げされる可能性があります。あるいは、同じ料金でより高性能なモデルが使えるようになるかもしれません。

また、AI処理の速度が上がれば、フリーランスが普段使っているAIツールのレスポンスも速くなります。たとえば、画像生成やコード補完、長文の要約作業などが今よりも短時間で完了するようになれば、作業効率は確実に向上します。現在、AI処理の待ち時間が積み重なって1日30分ロスしているなら、それが5分に短縮される可能性があります。

さらに、データセンターのハードウェア活用率が上がることで、AI業界全体の電力消費や環境負荷が抑えられます。持続可能なビジネスモデルを重視するクライアントとの取引では、こうした背景を説明できると信頼につながるかもしれません。

まとめ

Gimlet Labsの技術は、AIインフラの根本的な非効率を解消する可能性を秘めています。ただし、現時点では大規模事業者向けのソリューションであり、フリーランスが直接導入できるものではありません。影響が表れるのは、AIサービスのコスト低下や速度向上という形で、おそらく1年から2年後になるでしょう。

今すぐ行動する必要はありませんが、AI業界全体の効率化トレンドとして頭の片隅に置いておくと、将来的なツール選択の判断材料になります。興味がある方は、元記事で技術的な詳細を確認してみてください。

参考:TechCrunch

コメント

タイトルとURLをコピーしました