TinyFish登場、4つのウェブ自動化ツールを単一APIで提供

TinyFish登場、4つのウェブ自動化ツールを単一APIで提供 業務効率化・自動化

TinyFishとは何か

TinyFishは、ウェブ上のデータ収集や自動化作業を効率化するための新しいプラットフォームです。これまでウェブスクレイピングや自動化には、複数のツールやサービスを組み合わせる必要がありました。検索用のAPI、データ取得用のサービス、ブラウザ操作用のツールをそれぞれ契約し、それらを連携させるのは手間がかかります。

TinyFishは、この課題を解決するために4つの製品を統合しました。Web Search、Web Fetch、Web Browser、Web Agentという機能が、単一のAPIキーと統一されたクレジットシステムで利用できます。開発者は複数のサービスアカウントを管理する必要がなく、一つのプラットフォームで完結します。

4つの機能とそれぞれの役割

Web Search:高速な検索結果取得

Web Searchは、カスタムChromiumエンジンを使った検索機能です。通常のGoogle検索APIとは異なり、構造化されたJSON形式で結果を返します。注目すべきは処理速度で、平均レイテンシーは約488ミリ秒です。競合他社の平均が2,800ミリ秒以上であることを考えると、約6倍近く高速です。

例えば、競合他社の価格情報を定期的に調査したい場合、この検索機能で対象ページを素早く見つけられます。従来なら手動でブラウザを開いて検索していた作業が、APIで自動化できます。

Web Fetch:ページ内容の整形取得

Web Fetchは、指定したURLの内容をMarkdown、HTML、JSONといった形式に変換してくれる機能です。ウェブページには広告やナビゲーション、フッターなど、本来必要のない要素が大量に含まれています。Web Fetchはこれらを自動的に削除し、必要な情報だけを抽出します。

ライターがリサーチのために複数の記事を読む場合、この機能で本文だけをMarkdown形式で取得できます。余計な情報を削ぎ落とした状態で受け取れるので、後処理の手間が減ります。

Web Browser:ステルスブラウザ操作

Web Browserは、Chrome DevTools Protocolを使ったマネージドブラウザセッションを提供します。特徴は起動の速さで、コールドスタート時間は250ミリ秒以下です。競合サービスが5~10秒かかることを考えると、圧倒的に高速です。

さらに、28個のアンチボット機構を搭載しており、通常のボット検出をすり抜けられる設計になっています。JavaScriptで動的に生成されるダッシュボードからデータを取得したい場合、この機能が役立ちます。

Web Agent:複数ステップの自動化

Web Agentは、ウェブサイト上で複数のステップを自律的に実行するエージェント機能です。サイト内を移動し、フォームに入力し、ボタンをクリックし、結果を構造化データとして返します。

例えば、複数のECサイトで同じ商品の価格を調べたい場合、各サイトにアクセスし、検索フォームに入力し、結果を取得するという一連の流れを自動化できます。手動で10サイト回る作業が、数分で完了します。

従来の方法との違い

これまでウェブ自動化を実現するには、複数のサービスを組み合わせる必要がありました。検索にはExaやSerpAPI、データ取得にはFirecrawl、ブラウザ操作にはBrowserbaseといった具合です。それぞれのサービスは優れていますが、統合する際に問題が起きることがあります。

例えば、検索で見つけたページをデータ取得サービスがうまくレンダリングできない、取得したデータをエージェントが解析できない、ブラウザセッションがステップ間でコンテキストを失うといった課題です。TinyFishは全レイヤーを自社で開発しているため、これらの統合の問題を排除できます。

また、ワークフロー全体で同じセッション識別を維持します。つまり、同じIP、フィンガープリント、クッキーが一連の操作で保たれるため、ログインが必要なサイトでも安定して動作します。

トークン効率の改善

TinyFishは、AIコーディングエージェント向けにCLIとSkillファイルという仕組みを提供しています。従来のMCP(Model Context Protocol)経由では、1操作あたり約1,500トークンを消費していましたが、CLI操作では約100トークンに削減できます。これは87%の削減です。

MCPは操作結果をエージェントのコンテキストウィンドウに直接返すため、大量のトークンを消費します。一方、TinyFish CLIはファイルシステムに結果を書き込み、エージェントが必要な部分だけを読み取る仕組みです。このため、複雑な複数ステップタスクでの完了率が、MCP実行時の2倍になったとのことです。

Claudeのようなコーディングエージェントを使ってウェブ自動化を行う場合、トークン消費が減れば費用も下がります。長いワークフローほど、この差は大きくなります。

開発者向けの使いやすさ

TinyFishは開発者体験にも配慮しています。CLIはnpmで簡単にインストールでき、コマンド一つで利用開始できます。Agent Skillという仕組みを使えば、Markdown形式の命令ファイルを追加するだけで、コーディングなしでエージェントに指示を出せます。

例えば、「これら5つのサイトから競合他社の価格を取得」といった自然言語の指示で、エージェントが自動的に巡回し、データを収集してくれます。プログラミングの知識が限られているフリーランスでも、テンプレートを活用すれば自動化を実現できる可能性があります。

公式サイトには、オープンソースのクックブックとSkillファイルが公開されています。これらを参考にすれば、よくあるユースケースをすぐに試せます。ドキュメントも整備されており、CLIの使い方が丁寧に説明されています。

対象となるユースケース

TinyFishは、以下のような作業に向いています。まず、競合他社の価格調査です。複数のサイトから定期的に価格情報を取得し、比較するといった作業を自動化できます。手動で毎週チェックしていた作業が、スクリプト一つで完了します。

次に、JavaScriptが多用されたダッシュボードからのデータ抽出です。通常のスクレイピングツールでは取得できない動的コンテンツも、Web Browserを使えば問題なく扱えます。SaaS管理画面からレポートデータを定期的に取得するといった用途に適しています。

また、複数ステップのワークフロー自動化も得意分野です。フォーム入力、検索、結果の取得といった一連の流れを、Web Agentが自律的に実行します。求人サイトで条件に合う案件を毎日自動収集するといった使い方も可能です。

フリーランスへの影響

フリーランスのマーケターやエンジニアにとって、TinyFishは作業時間の削減に直結する可能性があります。これまで手動で行っていた競合調査、データ収集、市場リサーチといった作業を自動化できれば、その時間をクライアントワークに充てられます。

特に、定期的に同じ作業を繰り返している場合、効果は大きくなります。毎週の価格調査、毎月のトレンド分析、日次のニュース収集といった作業は、一度自動化の仕組みを作れば継続的に時間を節約できます。

ただし、導入にはある程度の学習コストがかかります。APIの使い方、CLIの操作、Skillファイルの記述方法など、初めて使う場合は数時間から数日の習得期間が必要でしょう。プログラミング経験があれば比較的スムーズですが、未経験者はドキュメントやサンプルをじっくり読む必要があります。

また、TinyFishが向いているのは、繰り返し発生するデータ収集作業です。一度きりの調査や、毎回条件が変わるような作業には、手動で行った方が早い場合もあります。自動化のコストと得られるメリットを天秤にかけて判断する必要があります。

無料で試せる範囲

TinyFishは現在、クレジットカード登録なしで500ステップまで無料で試せます。ステップとは、APIの呼び出し回数のような単位です。500ステップあれば、基本的な機能をひと通り試し、自分のユースケースに合うかを確認するには十分です。

まずは小規模なテストから始めて、うまくいけば本格導入を検討するという流れが現実的です。公式サイトのクックブックには、具体的なサンプルコードが掲載されているため、それを動かしてみるのが最初のステップとして適しています。

まとめ

TinyFishは、ウェブ自動化に必要な機能を統合したプラットフォームです。検索、データ取得、ブラウザ操作、自動化エージェントという4つの機能を、単一のAPIで提供します。競合他社より高速で、トークン効率も優れており、開発者向けのツールも充実しています。

フリーランスで定期的なデータ収集作業がある方は、無料枠で試してみる価値があります。特に競合調査や市場リサーチに時間を取られている場合、自動化によって作業時間を大幅に削減できる可能性があります。ただし、学習コストと自動化のメリットを比較し、自分のワークフローに合うかを見極めることが大切です。

詳細は公式サイト(tinyfish.ai)、ドキュメント(docs.tinyfish.ai/cli)、クックブック(github.com/tinyfish-io/tinyfish-cookbook)で確認できます。

コメント

タイトルとURLをコピーしました