Nouvelles
Modèles
API
keyboard_arrow_down
Lecteur
Lisez les URL et effectuez des recherches sur le Web pour de meilleurs LLM de base.
Intégrations
Intégrations multimodales et multilingues de classe mondiale.
Reclasseur
Récupérateur neuronal de classe mondiale pour maximiser la pertinence de la recherche.
MCP terminalCLIarticlellms.txtsmart_toyAgentsdata_objectSchémamenu_bookDocuments



Se connecter
login
Agents et Model Context Protocol
Utilisation du serveur MCP de Jina AI
Exemple 1 : Résumés quotidiens d'articles arXiv
Exemple 2 : Agent d'étude de marché
Exemple 3 : Recherche de conformité juridique
Approches alternatives
Conclusion
Blog technique
août 29, 2025

Workflow agentique avec Jina Remote MCP Server

Jina MCP simplifie le développement d'agents en connectant nos API à n'importe quel LLM, réduisant ainsi le code personnalisé et améliorant la fiabilité du flux de travail.
Alex C-G
Alex C-G • 9 minutes lues

Dans un précédent article, nous vous avons montré comment intégrer les API de recherche et de lecture de Jina AI avec DeepSeek R1 pour créer un agent de recherche approfondie, mais cela nécessitait beaucoup de code personnalisé et d'ingénierie de 提示词 pour que cela fonctionne. Dans cet article, nous ferons la même chose en utilisant le Model Context Protocol (MCP), qui utilise beaucoup moins de code personnalisé et est portable sur différents 大模型, mais reste sujet à quelques pièges en cours de route.

Pour construire notre agent, nous travaillerons avec notre serveur MCP récemment publié, qui donne accès aux API de Jina Reader, 向量模型 et 重排器, ainsi qu'aux outils URL-to-markdown, de recherche web, de recherche d'images et de 向量模型/重排器.

GitHub - jina-ai/MCP: Official Jina AI Remote MCP Server
Official Jina AI Remote MCP Server. Contribute to jina-ai/MCP development by creating an account on GitHub.
GitHubjina-ai

tagAgents et Model Context Protocol

Beaucoup d'encre numérique a été gaspillée au sujet des agents et de l'IA agentique ces derniers temps, souvent soit en les encensant (comme Gartner, qui prévoit que d'ici 2028, environ 15 % des décisions de travail quotidiennes seront prises de manière autonome par des agents d'IA), soit en les démolissant (comme Vortex qui affirme que la plupart des propositions d'IA agentique manquent de valeur significative ou de retour sur investissement).

Mais qu'est-ce qu'un agent ? Une des meilleures définitions (de Chip Huyen via Simon Willison) est :

[Les agents sont] des systèmes 大模型 qui planifient une approche et exécutent ensuite des outils en boucle jusqu'à ce qu'un objectif soit atteint

C'est la définition que nous utiliserons pour cet article de blog. Et ces outils que l'agent utilise ? Ils sont connectés avec Model Context Protocol. Ce protocole, développé à l'origine par Anthropic, est en train de devenir la lingua franca pour connecter les 大模型 à des outils et des sources de données externes. Cela signifie que les agents peuvent enchaîner plusieurs outils dans un seul flux de travail. Le résultat est des agents capables de planifier, de raisonner et d'agir en orchestrant une suite d'API.

Introducing the Model Context Protocol
The Model Context Protocol (MCP) is an open standard for connecting AI assistants to the systems where data lives, including content repositories, business tools, and development environments. Its aim is to help frontier models produce better, more relevant responses.

Par exemple, nous pourrions construire un agent d'optimisation des prix qui collecte les prix des produits concurrents à des fins de comparaison et d'optimisation des prix. Ensuite, nous pourrions équiper l'agent avec le serveur MCP de Jina AI, un 提示词 et une liste de produits concurrents, en le laissant générer un rapport exploitable avec des données extraites et des liens vers les sources. En utilisant des serveurs MCP supplémentaires, l'agent pourrait exporter ce rapport au format PDF, l'envoyer par e-mail aux parties prenantes, le stocker dans une base de connaissances interne, et plus encore.

Dans cet article, nous construirons trois exemples d'agents avec notre serveur MCP, qui fournit les outils suivants :

  • primer - Obtenir des informations contextuelles actuelles pour des réponses localisées et tenant compte du temps
  • read_url - Extraire du contenu propre et structuré de pages web au format Markdown via l'API Reader (également disponible en version parallèle)
  • capture_screenshot_url - Capturer des captures d'écran de haute qualité de pages web via l'API Reader
  • guess_datetime_url - Analyser les pages web pour la dernière date de mise à jour/publication avec des scores de confiance
  • search_web - Rechercher des informations et des actualités actuelles sur l'ensemble du web via l'API Reader (également disponible en version parallèle)
  • search_arxiv - Rechercher des articles académiques et des prépublications sur le dépôt arXiv via l'API Reader (également disponible en version parallèle)
  • search_images - Rechercher des images sur le web (similaire à Google Images) via l'API Reader
  • expand_query - Développer et réécrire les requêtes de recherche web en fonction du modèle d'expansion de requête via l'API Reader
  • sort_by_relevance - 重排器 des documents par pertinence par rapport à une requête via l'API 重排器
  • deduplicate_strings - Obtenir les k premiers chaînes sémantiquement uniques via l'API 向量模型 et l'optimisation sous-modulaire
  • deduplicate_images - Obtenir les k premières images sémantiquement uniques via l'API 向量模型 et l'optimisation sous-modulaire

Nous aurons également besoin d'un client MCP (VS Code avec Copilot, car il est gratuit et largement utilisé) et d'un 大模型 (Claude Sonnet 4, car il a donné les meilleurs résultats lors de nos tests).

💡
À l'avenir, nous désignerons la combinaison client MCP + 大模型 + serveur(s) MCP par "notre agent" par souci de concision.

tagUtilisation du serveur MCP de Jina AI

MCP a été décrit comme un système de plugins universel, prenant en charge plusieurs programmes comme Claude Code, VS Code, Google Gemini CLI et les interfaces de bureau pour Claude et ChatGPT. La connexion d'un serveur MCP consiste généralement simplement à modifier votre fichier de paramètres pour inclure ce qui suit :

{
  "mcpServers": {
    "jina-mcp-server": {
      "url": "https://mcp.jina.ai/sse",
      "headers": {
        "Authorization": "Bearer ${JINA_API_KEY}" // optional
      }
    }
  }
}

Pour tester que le serveur MCP fonctionne, utilisons un 提示词 simple :

Donne-moi un résumé du dernier article sur les actualités de jina.ai sous
la forme d'un chant de marin en un seul couplet

Notre agent fait ce qui suit :

  • Appel read_url pour extraire https://jina.ai/news
  • Appel search_web avec la requête "site:jina.ai \\"Optimizing GGUFs for Decoder-Only Embedding Models\\" August 2025"
  • Appel read_url pour extraire l'article de blog
  • Générer un chant de marin en un couplet à partir des données extraites :
🎵 *Sur l'air d'un chant de marin traditionnel* 🎵

**"Le conte du marin GGUF"**

*Oh, ils ont navigué avec leurs 向量模型, trois milliards forts et vrais,*
*À travers des eaux quantifiées profondes et bleues,*
*Avec les vents GPU L4 dans leur dos,*
*Quatre mille 词元 par seconde sur leur chemin !*
*Voguez, mes braves, dépouillez la tour de vision,*
*Car les optimisations GGUF sont les plus beaux ports de la ville !*
💡
Notre agent produit généralement des sorties très longues. Au lieu de toutes les inclure dans l'article, nous créerons un lien vers un gist GitHub pour le reste.

Maintenant que nous avons vu que cela fonctionne en pratique, mettons-le vraiment à l'épreuve en construisant des exemples concrets utiles.

tagExemple 1 : Résumés quotidiens d'articles arXiv

La lecture des derniers articles académiques fait partie de notre travail chez Jina AI. Mais filtrer ceux qui sont vraiment pertinents et extraire les informations les plus importantes de chacun peut être une véritable corvée. Ainsi, pour notre première expérience, nous avons automatisé cette tâche en créant un résumé quotidien des articles récents les plus pertinents. Voici le 提示词 que nous avons utilisé :

En utilisant uniquement les outils Jina, extraire d'arxiv les articles sur
大模型, 重排器 et les 向量模型 publiés au cours des dernières 24
heures, puis dédupliquer et 重排器 par pertinence, en sortant
les 10 meilleurs. Pour chacun, extraire le PDF et extraire le
résumé. Ensuite, résumez-le et organisez les informations que vous
avez recueillies dans une "mise à jour quotidienne". Inclure un lien et une date de publication
pour chaque article.
💡
Nous spécifions "Utiliser uniquement les outils Jina" car VS Code a sa propre fonctionnalité de recherche et d'extraction intégrée. Cette formulation pourrait être omise sur les modèles qui manquent de cette fonctionnalité.

Notre agent :

  • Recherche des articles arxiv.org pertinents (en utilisant l'outil parallel_search_arxiv) avec les chaînes de requête large language models 大模型, reranking information retrieval, embeddings vector representations, transformer neural networks et natural language processing NLP
  • Supprime les doublons (en utilisant l'outil deduplicate_strings)
  • 重排器 les résultats (en utilisant l'outil sort_by_relevance), en ne sortant que les dix résultats les plus pertinents.
  • Récupère les URL des PDF pour les résultats 重排器 (en utilisant parallel_read_url), divisés en deux lots de cinq.
  • Lit chaque URL (en utilisant l'outil read_url, appelé dix fois)
  • Génère un rapport détaillé, comprenant des résumés, des tendances et des perspectives, des implications pour la recherche future, des lacunes de recherche et des conclusions.
Arxiv Daily Update, generated with Jina MCP server tools
Arxiv Daily Update, généré avec les outils du serveur Jina MCP - arxiv_daily_update.md
Gist262588213843476

Nous avons parfois rencontré le problème que l'agent ne limitait pas ses résultats aux dernières 24 heures. Le fait de lui demander une fois de plus de suivre cette instruction a donné le rapport ci-dessus.

tagExemple 2 : Agent d'étude de marché

Pour notre prochaine expérience, nous demanderons à notre agent de rédiger un rapport de veille concurrentielle sur une entreprise de jeux vidéo notable (nom masqué). Voici notre invite :

Créer un rapport complet de veille concurrentielle pour
$GAME_COMPANY en se concentrant sur leurs activités récentes dans les jeux
indépendants rétro. Utiliser les outils Jina pour rechercher les dernières nouvelles,
communiqués de presse et annonces, puis extraire le contenu propre
de leurs communications officielles. Classer tous les résultats par
pertinence commerciale et supprimer toute information en double.
Présenter des informations sur leur orientation stratégique, leurs
lancements de produits et les changements de positionnement sur le marché au cours du dernier
trimestre

Notre agent :

  • Exécute plusieurs boucles de search_web et read_url pour rassembler des recherches.
  • Reclasse ses résultats à l'aide de sort_by_relevance, en affichant les dix premiers résultats.
  • Génère un rapport de veille économique, comprenant un résumé, les développements commerciaux critiques (classés par importance stratégique), l'analyse des décisions stratégiques et de nombreuses autres sections.
Rapport de veille concurrentielle GAME_COMPANY : Jeux indépendants rétro (T3 2025)
Rapport de veille concurrentielle GAME_COMPANY : Jeux indépendants rétro (T3 2025) - game_company_intelligence_report.md
Gist262588213843476

tagExemple 3 : Recherche de conformité juridique

Comme nous l'avons dit précédemment, l'un des aspects utiles de MCP est que nous pouvons utiliser plusieurs serveurs pour obtenir des résultats plus complexes. Dans ce cas, nous utilisons le serveur PDF Reader MCP en plus du nôtre pour créer un rapport de recherche sur l'état actuel de la conformité juridique en matière d'IA dans l'UE et aux États-Unis. Nous avons utilisé la demande :

Développer une section de base de connaissances axée sur le droit de l'IA
actualités de la conformité et pièges courants dans l'UE et aux États-Unis à partir de
ce moment. Le rapport doit être destiné aux startups d'IA dans l'UE.
Appliquer largement les outils Jina MCP : effectuer des recherches Web parallèles
et des lectures d'URL pour extraire efficacement des informations détaillées
contenu, dédupliquer les chevauchements sémantiques et réorganiser pour faire apparaître
l'information la plus fiable. Citer toutes les sources avec
URL et dates de publication ou de mise à jour. Organiser le contenu
clairement et produire un document PDF formaté prêt à l'emploi
utilisation immédiate.

Notre agent :

  • Effectue une opération de recherche parallèle d'informations générales (à l'aide de parallel_search) avec les requêtes EU AI Act 2024 compliance requirements startups legal obligations August 2025, USA AI regulation Biden executive order compliance requirements 2024 2025, AI startup legal pitfalls Europe GDPR data protection compliance 2025, AI liability insurance compliance requirements EU USA startups 2024 2025 et AI ethics governance framework startups EU USA regulatory updates 2025, renvoyant 25 résultats pour chaque requête.
  • Déduplique les URL renvoyées (à l'aide de deduplicate_strings)
  • Lit le contenu de quatre URL (à l'aide de parallel_read_url)
  • Effectue une autre parallel_search pour des informations plus spécifiques, avec les requêtes AI startup common compliance pitfalls mistakes EU USA 2025, AI liability insurance cybersecurity startup requirements 2025, AI bias discrimination testing requirements EU AI Act compliance startups, AI data protection GDPR violations penalties startups 2025
  • Utilise parallel_read_url pour lire quatre autres URL
  • Génère un rapport au format Markdown et le convertit en un PDF de 18 pages
Rapport de conformité juridique en matière d'IA - Démonstration Jina MCP
Rapport de conformité juridique en matière d'IA - Démonstration Jina MCP. GitHub Gist : partagez instantanément du code, des notes et des extraits de code.
Gist262588213843476

Nous avons également dû faire un peu plus de demandes pour améliorer les métadonnées et le formatage du PDF, ainsi que pour en faire davantage un rapport qu'une très longue liste à puces, mais c'est quelque chose que nous intégrerions à la demande pour les futurs rapports.

tagApproches alternatives

Avant d'opter pour Claude Sonnet 4, nous avons essayé une gamme de modèles Ollama qui prenaient en charge les outils, notamment Qwen3:30b, Qwen2.5:7b et llama3.3:70b. Pour le client MCP, nous avons initialement utilisé ollmcp avant de passer à VS Code. Tous les modèles ci-dessus ont échoué de la même manière, peu importe à quel point nous les avons explicitement sollicités avec les outils et comment les utiliser : lorsqu'on leur demandait d'effectuer une tâche même simple, comme récupérer le dernier article de blog de Jina AI, chaque modèle (quelle que soit sa taille ou son fournisseur) :

  • Entre dans une longue boucle de raisonnement, se remettant constamment en question (et utilisant des tokens) jusqu'à ce qu'ils se résolvent finalement à faire ce qu'on leur dit.
  • Appelle read_url pour https://jina.ai/news
  • Inspecte les titres et les extraits des articles de blog
  • Hallucine complètement qu'ils ont récupéré le dernier article (sans même appeler read_url pour cette page)
  • Présente un résumé basé sur l'extrait du premier résultat de recherche (pas le contenu réel de la page)
  • Lorsqu'on les interroge, affirme qu'ils ont suivi exactement les instructions et ont récupéré la page comme demandé

Les modèles des familles Claude, GPT et Gemini ont fourni une sortie acceptable, bien que nous ayons assez rapidement opté pour Claude Sonnet 4 car il utilisait largement les outils (optant souvent pour des options d'outillage parallèles plutôt que l'approche série privilégiée par GPT-4.1) et générait une sortie plus longue et mieux structurée.

tagConclusion

Il y a encore beaucoup de flou autour du terme « IA agentique », mais MCP représente une étape vers la création de quelque chose de solide et de pratique. D'après notre expérience, les agents ne sont pas tout à fait prêts pour le grand public, le LLM étant généralement le maillon faible, mais avec un peu d'aide et d'expérimentation, il est possible d'obtenir de bons résultats. Cela dit, lorsque vous obtenez la bonne combinaison d'invite, de LLM et de serveurs MCP, vous pouvez voir des agents exécuter de manière fiable des tâches en plusieurs étapes sans aucun code personnalisé nécessaire : ce qui était beaucoup plus difficile avec les modèles précédents comme DeepSeek (qui ne prennent pas en charge les outils), ce qui nécessitait plus d'ingénierie manuelle et entraînait une intégration fragile.

Malgré ces limitations actuelles, la trajectoire est prometteuse. L'écosystème MCP se développe rapidement, apportant davantage d'intégrations et d'outils qui facilitent la combinaison et l'adaptation des API, telles que celles de Jina, ou le remplacement de nouveaux LLM au fur et à mesure de leur disponibilité. À mesure que les modèles sous-jacents s'améliorent et que l'écosystème d'outillage arrive à maturité, l'écart entre les agents expérimentaux et l'IA agentique prête à la production continue de se réduire, rendant les implémentations robustes de plus en plus accessibles aux applications du monde réel.

Catégories:
Blog technique
rss_feed

En savoir plus
mars 11, 2026 • 7 minutes lues
Bootstrapping d'embeddings audio à partir de LLM multimodaux
Han Xiao
Abstract illustration of a sound wave or heartbeat, formed by blue, orange, and gray dots on a white background.
mars 06, 2026 • 6 minutes lues
Identifier les modèles d'embeddings à partir de valeurs numériques brutes
Han Xiao
Fingerprint illustration made from numbers, showcasing digital and high-tech design on a light background.
septembre 09, 2025 • 11 minutes lues
Les Embeddings multimodaux dans Llama.cpp et GGUF
Andrei Ungureanu
Alex C-G
Cartoon llama in the center of a white background, emitting laser-like beams from its eyes. The illustration creates a playfu
Des bureaux
location_on
Sunnyvale, Californie
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, États-Unis
location_on
Berlin, Allemagne
Prinzessinnenstraße 19-20, 10969 Berlin, Allemagne
Fondation Recherche
Lecteur
Intégrations
Reclasseur
Obtenir la clé API Jina
Limite de taux
Statut de l'API
Entreprise
À propos de nous
Contacter le service commercial
Rédaction
Programme de stage
Télécharger le logo Jina
open_in_new
Télécharger le logo Elastic
open_in_new
Termes
Sécurité
termes et conditions
Confidentialité
Gérer les cookies
email
Jina AI par Elastic © 2020-2026.