以前の記事では、Jina AIの検索およびリーダーAPIをDeepSeek R1と統合して高度な研究エージェントを構築する方法を紹介しましたが、実現するには多くのカスタムコードとプロンプトエンジニアリングが必要でした。今回の記事では、Model Context Protocol (MCP)を使用して同じことを行います。MCPを使用すると、カスタムコードは大幅に削減され、さまざまな大模型 (LLM) に移植できますが、それでもいくつかの落とし穴があります。
エージェントを構築するために、最近リリースされたMCPサーバーを使用します。このサーバーは、Jina Reader、ベクトルモデル (Embeddings)、重排器 (Reranker) のAPIに加えて、URLからMarkdownへの変換、ウェブ検索、画像検索、ベクトルモデル (Embeddings) /重排器 (Reranker) ツールへのアクセスを提供します。
tagエージェントとModel Context Protocol
近年、エージェントとエージェント型AIについて多くの記事が書かれており、しばしば誇大宣伝(Gartnerのように、2028年までに日常的な業務判断の約15%がAIエージェントによって自律的に行われると予測)や、批判(Vortexのように、ほとんどのエージェント型AIの提案は、価値や投資収益率に乏しいと主張)が見られます。
そもそもエージェントとは何でしょうか?優れた定義の1つ(Chip Huyen経由Simon Willison)は次のとおりです。
[エージェントとは]アプローチを計画し、目標が達成されるまでループ内でツールを実行する大模型 (LLM) システムである
この記事では、この定義を採用します。そして、エージェントが使用するツールは、Model Context Protocolで接続されています。元々Anthropicによって開発されたこのプロトコルは、大模型 (LLM) を外部ツールやデータソースに接続するための共通言語になりつつあります。つまり、エージェントは単一のワークフローで複数のツールを連携させることができます。その結果、APIスイートを調整することで、計画、推論、行動できるエージェントが実現します。

たとえば、競合他社の製品価格を収集して比較し、価格を最適化する価格最適化エージェントを構築できます。次に、Jina AIのMCPサーバー、プロンプト (Prompt)、競合他社の製品リストをエージェントに装備し、スクレイピングされたデータとソースへのリンクを含む実行可能なレポートを生成させることができます。追加のMCPサーバーを使用することで、エージェントはそのレポートをPDF形式でエクスポートし、関係者にメールで送信し、社内の知識ベースに保存し、さらに多くのことができます。
この記事では、MCPサーバーを使用して3つのエージェントの例を構築します。MCPサーバーは、次のツールを提供します。
primer- ローカライズされた時間対応の応答のための現在のコンテキスト情報を取得しますread_url- Reader APIを介して、Webページからクリーンで構造化されたコンテンツをMarkdownとして抽出します(並列バージョンも利用可能)capture_screenshot_url- Reader APIを介して、Webページの高品質のスクリーンショットをキャプチャしますguess_datetime_url- Webページを分析して、信頼度スコアとともに最終更新/公開日時を推測しますsearch_web- Reader APIを介して、現在の情報とニュースについてWeb全体を検索します(並列バージョンも利用可能)search_arxiv- Reader APIを介して、arXivリポジトリ上の学術論文とプレプリントを検索します(並列バージョンも利用可能)search_images- Web全体で画像を検索します(Google画像検索と同様)Reader API経由expand_query- Reader APIを介して、クエリ拡張モデルに基づいてWeb検索クエリを拡張および書き換えますsort_by_relevance- 重排器 (Reranker) APIを介して、クエリに対する関連性でドキュメントを重排器 (Reranker) しますdeduplicate_strings- ベクトルモデル (Embeddings) APIと劣モジュラ最適化を介して、上位k個の意味的に一意な文字列を取得しますdeduplicate_images- ベクトルモデル (Embeddings) APIと劣モジュラ最適化を介して、上位k個の意味的に一意な画像を取得します
また、MCPクライアント(無料で使用され広く使用されているため、Copilotを備えたVS Code)と、大模型 (LLM) (テストで最良の結果が得られたため、Claude Sonnet 4)も必要になります。
tagJina AI MCPサーバーの使用
MCPは、普遍的なプラグインシステムとして説明されており、Claude Code、VS Code、Google Gemini CLI、ClaudeおよびChatGPTのデスクトップフロントエンドなどの複数のプログラムをサポートしています。MCPサーバーを接続するには、通常、設定ファイルを編集して以下を含めるだけです。
{
"mcpServers": {
"jina-mcp-server": {
"url": "https://mcp.jina.ai/sse",
"headers": {
"Authorization": "Bearer ${JINA_API_KEY}" // optional
}
}
}
}
MCPサーバーが機能するかどうかをテストするために、簡単なプロンプト (Prompt) を使用してみましょう。
Give me a summary of the latest post on jina.ai news in the
form of a single verse sea shantyエージェントは次のことを行います。
read_urlを呼び出してhttps://jina.ai/newsをスクレイピングします- クエリ
"site:jina.ai \\"Optimizing GGUFs for Decoder-Only Embedding Models\\" August 2025"でsearch_webを呼び出します read_urlを呼び出してブログ投稿をスクレイピングします- スクレイピングされたデータから1節の船歌を生成します。
🎵 *To the tune of a traditional sea shanty* 🎵
**"The GGUF Sailor's Tale"**
*Oh, they sailed with their embeddings, three billion strong and true,*
*Through quantized waters deep and blue,*
*With L4 GPU winds at their back,*
*Four thousand tokens per second on their track!*
*Heave away, me hearties, strip the vision tower down,*
*For GGUF optimizations are the finest ports in town!*
実際に動作することがわかったので、いくつかの役立つ実際の例を構築して、その機能を最大限に活用してみましょう。
tag例1:arXiv論文の毎日の要約
最新の学術論文を読むことは、Jina AIでの私たちの仕事の一部です。しかし、本当に適切な論文を絞り込み、それぞれの最も重要な情報を抽出するのは、非常に面倒な作業になる可能性があります。そこで、最初の実験として、最も関連性の高い最近の論文の毎日のダイジェストを作成して、そのタスクを自動化しました。使用したプロンプト (Prompt) を以下に示します。
Using only Jina tools, scrape arxiv for the papers about
LLMs, reranking, and embeddings published in the past 24
hours, then deduplicate and rerank for relevance, outputting
the top 10. For each one, scrape the PDF and extract the
abstract. Then summarize it and organize the information you
gathered into a "daily update". Include a link and publication
date for each paper.エージェント:
- 関連するarxiv.org論文を(
parallel_search_arxivツールを使用して)クエリ文字列large language models LLM、reranking information retrieval、embeddings vector representations、transformer neural networks、natural language processing NLPで検索します - 重複を削除します(
deduplicate_stringsツールを使用) - 結果を重排器 (Reranker) し(
sort_by_relevanceツールを使用)、最も関連性の高い上位10件の結果のみを出力します。 - 重排器 (Reranker) された結果のPDFへのURLを(
parallel_read_urlを使用して)取得し、5つのバッチに分割します。 - 各URLを(
read_urlツールを使用して、10回呼び出されます)読み取ります - 抽象、要約、傾向、洞察、将来の研究への影響、研究のギャップ、結論を含む詳細なレポートを生成します。

エージェントが過去24時間以内に結果を限定しないという問題に時々遭遇しました。その指示に従うようにもう一度**プロンプト**を入力した結果が上記のリポートです。
tag例2:市場調査エージェント
次の実験では、注目すべきビデオゲーム会社(名前は伏せてあります)に関する競合インテリジェンスレポートをエージェントに作成させます。これが**プロンプト**です。
$GAME_COMPANYの包括的な競合インテリジェンスレポートを作成します。
レトロインディーゲームにおける最近の活動に焦点を当てます。
Jinaツールを使用して最新のニュース、プレスリリース、発表を検索し、
公式コミュニケーションからクリーンなコンテンツを抽出します。
すべての調査結果をビジネスの関連性でランク付けし、
重複する情報を削除します。
過去四半期における戦略的方向性、製品の発売、
市場ポジショニングの変化に関する洞察を示します。エージェントの動作:
search_webとread_urlを繰り返し実行して調査データを収集します。sort_by_relevanceを使用して調査結果を**重排器**し、上位10件の結果を出力します。- エグゼクティブサマリー、重要なビジネス展開(戦略的重要度でランク付け)、戦略的意思決定分析など、多くのセクションを含む市場インテリジェンスレポートを生成します。

tag例3:法規制遵守調査
前述のように、MCPの有用な側面の1つは、複数のサーバーを使用してより複雑な出力を得ることができることです。この例では、独自のサーバーに加えてPDF Reader MCP Serverを使用して、EUおよび米国におけるAI法規制遵守の現状に関する調査レポートを作成しています。使用した**プロンプト**は次のとおりです。
AI法規制遵守に関するニュースとEUおよび米国における一般的な落とし穴に焦点を当てた知識ベースセクションを作成します。
レポートは、EUのAIスタートアップを対象とする必要があります。
Jina MCPツールを広範囲に適用します。並列Web検索とURL読み取りを実行して詳細なコンテンツを効率的に抽出し、
セマンティックな重複を排除し、最も信頼できる情報を**重排器**します。
すべてのソースをURLと公開日または更新日で引用します。
コンテンツを明確に整理し、すぐに使用できる書式設定されたPDFドキュメントを作成します。エージェントの動作:
- 一般的な情報に関する並列検索操作(
parallel_searchを使用)を、EU AI Act 2024 compliance requirements startups legal obligations August 2025、USA AI regulation Biden executive order compliance requirements 2024 2025、AI startup legal pitfalls Europe GDPR data protection compliance 2025、AI liability insurance compliance requirements EU USA startups 2024 2025、AI ethics governance framework startups EU USA regulatory updates 2025というクエリで実行し、各クエリに対して25件の結果を返します。 - 返されたURLを重複排除します(
deduplicate_stringsを使用)。 - 4つのURLの内容を読み取ります(
parallel_read_urlを使用)。 - さらに詳細な情報を得るために、
AI startup common compliance pitfalls mistakes EU USA 2025、AI liability insurance cybersecurity startup requirements 2025、AI bias discrimination testing requirements EU AI Act compliance startups、AI data protection GDPR violations penalties startups 2025というクエリでparallel_searchを実行します。 - さらに4つのURLを読み取るために
parallel_read_urlを使用します。 - Markdown形式でレポートを生成し、18ページのPDFに変換します。

PDFのメタデータと書式設定を改善し、非常に長い箇条書きのリストではなくレポートにするために、さらに**プロンプト**を入力する必要がありましたが、これは今後のレポートのために**プロンプト**に統合する予定です。
tag代替アプローチ
Claude Sonnet 4を使用する前に、ツールをサポートするOllamaモデル(Qwen3:30b、Qwen2.5:7b、llama3.3:70bなど)を試しました。MCPクライアントには、VS Codeに移行する前に、最初にollmcpを使用しました。上記のモデルはすべて同じように失敗しました。ツールとその使用方法をどれだけ明確に**プロンプト**で指示しても、Jina AIから最新のブログ投稿を取得するなど、単純なタスクを実行するように求められた場合、各モデル(サイズやベンダーに関係なく)は一貫して次のようになります。
- 長時間にわたる推論ループに入り、常に自分自身を疑い(**トークン**を消費し)、最終的には指示されたとおりに実行することを決意します。
- https://jina.ai/newsに対して
read_urlを呼び出します。 - ブログ投稿のタイトルと抜粋を調べます。
- 最新の投稿をスクレイピングしたと完全に作り話します(そのページに対して
read_urlを呼び出すことさえありません)。 - 検索結果のトップの抜粋に基づいて要約を提示します(実際のページコンテンツではありません)。
- 質問された場合、指示に正確に従い、要求どおりにページをスクレイピングしたと主張します。
Claude、GPT、Geminiファミリーのモデルは許容可能な出力を提供しましたが、Claude Sonnet 4はツールを広範囲に使用し(GPT-4.1が好むシリアルアプローチではなく、並列ツールオプションを使用することがよくあります)、より長く、より構造化された出力を生成するため、すぐにClaude Sonnet 4に落ち着きました。
tag結論
「エージェントAI」という用語にはまだ多くのあいまいさがありますが、MCPはそれを確固たる実用的なものにするためのステップを表しています。私たちの経験では、エージェントはまだ完全に準備ができていません。**大模型**が一般的に弱いリンクですが、少しの手助けと実験を行うことで、良い結果を得ることができます。とは言え、適切な**プロンプト**、**大模型**、MCPサーバーの組み合わせが得られれば、カスタムコードを必要とせずに、エージェントが複数のステップからなるタスクを確実に実行できることがわかります。これは、(ツールをサポートしていない)DeepSeekのような以前のモデルでははるかに困難であり、より多くの手動エンジニアリングが必要で、脆弱な統合につながっていました。
これらの現在の制限にもかかわらず、その軌跡は有望です。MCPエコシステムは急速に成長しており、JinaのようなAPIを組み合わせて使用したり、新しい**大模型**が利用可能になったときにそれらを交換したりすることが容易になる、より多くの統合とツールを提供しています。基盤となるモデルが改善され、ツールエコシステムが成熟するにつれて、実験的なエージェントと本番環境に対応できるエージェントAIの間のギャップは縮小し続け、堅牢な実装が現実世界のアプリケーションでますますアクセスしやすくなっています。







