Wir haben Ihnen in einem vorherigen Beitrag gezeigt, wie man die Such- und Lese-APIs von Jina AI mit DeepSeek R1 integriert, um einen umfassenden Research Agent zu erstellen, aber es war viel benutzerdefinierter Code und Prompt Engineering erforderlich, um es zum Laufen zu bringen. In diesem Beitrag werden wir dasselbe mit dem Model Context Protocol (MCP) tun, das viel weniger benutzerdefinierten Code verwendet und auf verschiedene LLMs übertragbar ist, aber dennoch einigen Fallstricken unterliegt.
Um unseren Agenten zu erstellen, werden wir mit unserem kürzlich veröffentlichten MCP-Server arbeiten, der Zugriff auf Jina Reader, Vektormodelle und 重排器 APIs zusammen mit URL-zu-Markdown-, Websuch-, Bildsuch- und Vektormodelle/重排器-Tools bietet.
tagAgenten und Model Context Protocol
Es wurde viel geschrieben über Agenten und Agenten-KI in letzter Zeit, oft entweder in der Hoffnung (wie Gartner, die erwarten, dass bis 2028 etwa 15 Prozent der täglichen Arbeitsentscheidungen autonom von KI-Agenten getroffen werden) oder in der Kritik (wie Vortex, die behaupten, dass die meisten Agenten-KI-Vorschläge keinen signifikanten Wert oder Kapitalrendite haben).
Aber was sind Agenten überhaupt? Eine der besseren Definitionen (von Chip Huyen über Simon Willison) lautet:
[Agenten sind] 大模型 Systeme, die einen Ansatz planen und dann Tools in einer Schleife ausführen, bis ein Ziel erreicht ist
Das ist die Definition, die wir für diesen Blogbeitrag verwenden werden. Und diese Tools, die der Agent verwendet? Sie sind mit dem Model Context Protocol verbunden. Dieses Protokoll, das ursprünglich von Anthropic entwickelt wurde, entwickelt sich zur Lingua Franca für die Verbindung von 大模型 mit externen Tools und Datenquellen. Dies bedeutet, dass Agenten mehrere Tools in einem einzigen Workflow verketten können. Das Ergebnis sind Agenten, die durch die Orchestrierung einer Suite von APIs planen, तर्कieren und handeln können.

Wir könnten beispielsweise einen Preisoptimierungsagenten erstellen, der die Produktpreise von Wettbewerbern zum Vergleich und zur Preisoptimierung erfasst. Dann könnten wir den Agenten mit dem MCP-Server von Jina AI, einem 提示词 und einer Liste von Konkurrenzprodukten ausstatten und ihn einen umsetzbaren Bericht mit gescrapten Daten und Links zu Quellen erstellen lassen. Durch die Verwendung zusätzlicher MCP-Server könnte der Agent diesen Bericht in das PDF-Format exportieren, ihn an Stakeholder senden, in einer internen Wissensdatenbank speichern und mehr.
In diesem Beitrag erstellen wir drei Beispielagenten mit unserem MCP-Server, der die folgenden Tools bereitstellt:
primer
- Aktuelle Kontextinformationen für lokalisierte, zeitgesteuerte Antworten abrufenread_url
- Saubere, strukturierte Inhalte von Webseiten als Markdown über die Reader API extrahieren (auch als Parallelversion verfügbar)capture_screenshot_url
- Hochwertige Screenshots von Webseiten über die Reader API aufnehmenguess_datetime_url
- Webseiten auf das letzte Update/Veröffentlichungsdatum mit Konfidenzwerten analysierensearch_web
- Das gesamte Web nach aktuellen Informationen und Nachrichten über die Reader API durchsuchen (auch als Parallelversion verfügbar)search_arxiv
- Wissenschaftliche Arbeiten und Preprints im arXiv-Repository über die Reader API durchsuchen (auch als Parallelversion verfügbar)search_images
- Nach Bildern im gesamten Web suchen (ähnlich wie Google Bilder) über die Reader APIexpand_query
- Websuchanfragen basierend auf dem Anfrageerweiterungsmodell über die Reader API erweitern und umschreibensort_by_relevance
- Dokumente nach Relevanz für eine Anfrage über die 重排器 API neu ordnendeduplicate_strings
- Die Top-k semantisch eindeutigen Zeichenfolgen über die Vektormodelle API und submodulare Optimierung abrufendeduplicate_images
- Die Top-k semantisch eindeutigen Bilder über die Vektormodelle API und submodulare Optimierung abrufen
Wir benötigen auch einen MCP-Client (VS Code mit Copilot, da es kostenlos und weit verbreitet ist) und ein 大模型 (Claude Sonnet 4, da es in unseren Tests die besten Ergebnisse lieferte).
tagVerwenden des Jina AI MCP Servers
MCP wurde als ein universelles Plugin-System beschrieben, das mehrere Programme wie Claude Code, VS Code, Google Gemini CLI und die Desktop-Frontends für Claude und ChatGPT unterstützt. Das Verbinden eines MCP-Servers ist in der Regel nur eine Frage der Bearbeitung Ihrer Einstellungsdatei, um Folgendes einzufügen:
{
"mcpServers": {
"jina-mcp-server": {
"url": "https://mcp.jina.ai/sse",
"headers": {
"Authorization": "Bearer ${JINA_API_KEY}" // optional
}
}
}
}
Um zu testen, ob der MCP-Server funktioniert, verwenden wir einen einfachen 提示词:
Gib mir eine Zusammenfassung des neuesten Beitrags auf jina.ai news in
Form eines einzigen Seemannsliedes
Unser Agent tut Folgendes:
- Ruft
read_url
auf, um https://jina.ai/news zu scrapen - Ruft
search_web
mit der Anfrage"site:jina.ai \\"Optimizing GGUFs for Decoder-Only Embedding Models\\" August 2025"
auf - Ruft
read_url
auf, um den Blogbeitrag zu scrapen - Generiert ein einzeiliges Seemannslied aus den gescrapten Daten:
🎵 *Zur Melodie eines traditionellen Seemannsliedes* 🎵
**"Die Geschichte des GGUF-Seemanns"**
*Oh, sie segelten mit ihren Vektormodellen, drei Milliarden stark und treu,*
*Durch tiefblaues, quantisiertes Wasser,*
*Mit L4-GPU-Winden im Rücken,*
*Viertausend 词元 pro Sekunde auf ihrer Spur!*
*Hievt weg, ihr Herzensbrecher, reißt den Vision Tower ab,*
*Denn GGUF-Optimierungen sind die besten Häfen in der Stadt!*
Nachdem wir nun gesehen haben, dass es in der Praxis funktioniert, wollen wir es wirklich auf Herz und Nieren prüfen, indem wir einige nützliche Beispiele aus der Praxis erstellen.
tagBeispiel 1: Tägliche arXiv-Paper-Zusammenfassungen
Das Lesen der neuesten wissenschaftlichen Arbeiten gehört bei Jina AI zu unseren Aufgaben. Aber das Herausfiltern der wirklich relevanten und das Extrahieren der wichtigsten Informationen aus jeder einzelnen kann eine echte Aufgabe sein. Für unser erstes Experiment haben wir diese Aufgabe automatisiert, indem wir einen täglichen Überblick über die relevantesten aktuellen Arbeiten erstellt haben. Hier ist der 提示词, den wir verwendet haben:
Scrape Arxiv nur mit Jina-Tools nach den Papieren über
大模型, 重排器 und Vektormodelle, die in den letzten 24
Stunden veröffentlicht wurden, deduplizieren und ordnen Sie die Relevanz neu an und geben Sie
die Top 10 aus. Für jedes einzelne Paper scrapen Sie die PDF-Datei und extrahieren Sie die
Zusammenfassung. Fassen Sie diese dann zusammen und ordnen Sie die gesammelten Informationen in einem "täglichen Update". Fügen Sie einen Link und das Veröffentlichungsdatum für jedes Paper hinzu.
Unser Agent:
- Sucht nach relevanten arxiv.org Papern (mit dem Tool
parallel_search_arxiv
) mit den Suchstringslarge language models 大模型
,reranking information retrieval
,embeddings vector representations
,transformer neural networks
undnatural language processing NLP
- Entfernt Duplikate (mit dem Tool
deduplicate_strings
) - Ordnet die Ergebnisse neu (mit dem Tool
sort_by_relevance
) und gibt nur die zehn relevantesten Ergebnisse aus. - Ruft die URLs zu den PDFs für die neu geordneten Ergebnisse ab (mit
parallel_read_url
), aufgeteilt in zwei Stapel von fünf. - Liest jede URL (mit dem Tool
read_url
, das zehnmal aufgerufen wird) - Generiert einen detaillierten Bericht, einschließlich Zusammenfassungen, Trends und Erkenntnisse, Auswirkungen auf zukünftige Forschung, Forschungslücken und Schlussfolgerungen.

Wir sind gelegentlich auf das Problem gestoßen, dass der Agent seine Ergebnisse nicht auf die letzten 24 Stunden beschränkt hat. Eine weitere Aufforderung, diese Anweisung zu befolgen, führte zu dem obigen Bericht.
tagBeispiel 2: Marktforschungsagent
Für unser nächstes Experiment lassen wir unseren Agenten einen Competitive-Intelligence-Bericht über ein bekanntes Videospielunternehmen (Name geschwärzt) schreiben. Hier ist unser Prompt:
Erstelle einen umfassenden Competitive-Intelligence-Bericht für
$GAME_COMPANY mit Fokus auf deren jüngste Aktivitäten im Bereich Retro-
Indie-Spiele. Verwende Jina-Tools, um nach den neuesten Nachrichten,
Pressemitteilungen und Ankündigungen zu suchen und extrahiere dann
saubere Inhalte aus deren offiziellen Mitteilungen. Bewerte alle
Ergebnisse nach geschäftlicher Relevanz und entferne alle
doppelten Informationen. Präsentiere Erkenntnisse über deren
strategische Ausrichtung, Produkteinführungen und Veränderungen
der Marktpositionierung im vergangenen Quartal.
Unser Agent:
- Führt mehrere Schleifen von
search_web
undread_url
aus, um Recherchen durchzuführen. - Ordnet seine Ergebnisse mit
sort_by_relevance
neu und gibt die zehn besten Ergebnisse aus. - Generiert einen Markt intelligence Bericht, einschließlich Zusammenfassung für Führungskräfte, kritische Geschäftsentwicklungen (nach strategischer Bedeutung geordnet), strategische Entscheidungsanalyse und viele andere Abschnitte.

tagBeispiel 3: Recherche zur Einhaltung gesetzlicher Bestimmungen
Wie bereits erwähnt, ist einer der nützlichen Aspekte von MCP, dass wir mehrere Server verwenden können, um komplexere Ausgaben zu erhalten. In diesem Fall verwenden wir den PDF Reader MCP Server zusätzlich zu unserem eigenen, um einen Forschungsbericht über den aktuellen Stand der KI-Compliance in der EU und den USA zu erstellen. Wir haben den folgenden Prompt verwendet:
Entwickle einen Wissensdatenbankabschnitt, der sich auf Neuigkeiten
zur KI-Compliance und häufige Fallstricke in der EU und den USA zum
jetzigen Zeitpunkt konzentriert. Der Bericht sollte sich an KI-Startups
in der EU richten. Wende Jina MCP Tools umfassend an: führe parallele
Websuchen und URL-Lesevorgänge durch, um effizient detaillierte
Inhalte zu extrahieren, semantische Überschneidungen zu
deduplizieren und neu zu ordnen, um die maßgeblichsten Informationen
herauszufinden. Zitiere alle Quellen mit URLs und Veröffentlichungs-
oder Aktualisierungsdaten. Organisiere die Inhalte übersichtlich und
erstelle ein formatiertes PDF-Dokument, das sofort verwendet werden
kann.
Unser Agent:
- Führt eine parallele Suchoperation nach allgemeinen Informationen durch (mit
parallel_search
) mit den AbfragenEU AI Act 2024 compliance requirements startups legal obligations August 2025
,USA AI regulation Biden executive order compliance requirements 2024 2025
,AI startup legal pitfalls Europe GDPR data protection compliance 2025
,AI liability insurance compliance requirements EU USA startups 2024 2025
undAI ethics governance framework startups EU USA regulatory updates 2025
, wobei für jede Abfrage 25 Ergebnisse zurückgegeben werden. - Dedupliziert die zurückgegebenen URLs (mit
deduplicate_strings
) - Liest die Inhalte von vier URLs (mit
parallel_read_url
) - Führt eine weitere
parallel_search
nach spezifischeren Informationen durch, mit den AbfragenAI startup common compliance pitfalls mistakes EU USA 2025
,AI liability insurance cybersecurity startup requirements 2025
,AI bias discrimination testing requirements EU AI Act compliance startups
,AI data protection GDPR violations penalties startups 2025
- Verwendet
parallel_read_url
, um weitere vier URLs zu lesen - Generiert einen Bericht im Markdown-Format und konvertiert ihn in ein 18-seitiges PDF

Wir mussten auch noch ein wenig nachhelfen, um die PDF-Metadaten und die Formatierung zu verbessern und um es eher zu einem Bericht als zu einer sehr langen Aufzählung zu machen, aber das würden wir in den Prompt für zukünftige Berichte integrieren.
tagAlternative Ansätze
Bevor wir uns für Claude Sonnet 4 entschieden, haben wir eine Reihe von Ollama-Modellen ausprobiert, die Tools unterstützten, darunter Qwen3:30b, Qwen2.5:7b und llama3.3:70b. Für den MCP-Client haben wir zunächst ollmcp verwendet, bevor wir zu VS Code wechselten. Alle oben genannten Modelle scheiterten auf die gleiche Weise, egal wie explizit wir sie mit den Tools und deren Verwendung aufforderten: Wenn sie gebeten wurden, auch nur eine einfache Aufgabe auszuführen, wie z. B. den neuesten Blogbeitrag von Jina AI abzurufen, würde jedes Modell (unabhängig von Größe oder Anbieter) konsistent:
- In eine langwierige Argumentationsschleife geraten, sich ständig selbst in Frage stellen (und dabei Tokens verbrauchen), bis sie sich schließlich entschließen, einfach das zu tun, was ihnen gesagt wurde.
read_url
für https://jina.ai/news aufrufen.- Die Titel und Auszüge der Blogbeiträge untersuchen.
- Vollständig halluzinieren, dass sie den neuesten Beitrag gescraped haben (ohne auch nur
read_url
für diese Seite aufzurufen). - Eine Zusammenfassung basierend auf dem Auszug aus dem obersten Suchergebnis präsentieren (nicht dem tatsächlichen Seiteninhalt).
- Auf Nachfrage behaupten, dass sie die Anweisungen genau befolgt und die Seite wie gewünscht gescraped haben.
Modelle der Familien Claude, GPT und Gemini lieferten akzeptable Ergebnisse, obwohl wir uns recht schnell für Claude Sonnet 4 entschieden, da es Tools ausgiebig nutzte (oft auf parallele Tooling-Optionen zurückgriff anstelle des von GPT-4.1 bevorzugten seriellen Ansatzes) und längere, besser strukturierte Ausgaben generierte.
tagFazit
Es gibt immer noch viel Unklarheit um den Begriff "agentic AI", aber MCP stellt einen Schritt dar, um ihn zu etwas Soliden und Praktischem zu machen. Unserer Erfahrung nach sind Agenten noch nicht ganz reif für die breite Masse, wobei das LLM im Allgemeinen das schwache Glied ist, aber mit ein wenig Unterstützung und Experimentieren ist es möglich, gute Ergebnisse zu erzielen. Wenn man jedoch die richtige Kombination aus Prompt, LLM und MCP-Servern findet, kann man sehen, wie Agenten zuverlässig mehrstufige Aufgaben ohne kundenspezifischen Code ausführen - etwas, das mit früheren Modellen wie DeepSeek (die keine Tools unterstützen) viel schwieriger war, was mehr manuelle Entwicklung erforderte und zu einer brüchigen Integration führte.
Trotz dieser aktuellen Einschränkungen ist die Entwicklung vielversprechend. Das MCP-Ökosystem wächst rasant und bringt mehr Integrationen und Tools mit sich, die es einfacher machen, APIs, wie die von Jina, zu kombinieren oder neue LLMs auszutauschen, sobald sie verfügbar sind. Da sich sowohl die zugrunde liegenden Modelle verbessern als auch das Tooling-Ökosystem reift, verringert sich die Kluft zwischen experimentellen Agenten und produktionsreifer Agentic AI weiter, wodurch robuste Implementierungen für reale Anwendungen immer zugänglicher werden.