Nouvelles
Modèles
API
keyboard_arrow_down
Lecteur
Lisez les URL et effectuez des recherches sur le Web pour de meilleurs LLM de base.
Intégrations
Intégrations multimodales et multilingues de classe mondiale.
Reclasseur
Récupérateur neuronal de classe mondiale pour maximiser la pertinence de la recherche.
MCP terminalCLIarticlellms.txtsmart_toyAgentsdata_objectSchémamenu_bookDocuments



Se connecter
login
Le Problème de Factualité des LLMs
Comment Jina Reader Aide à une Meilleure Mise en Contexte
Jina Reader comme Solution Complète de Mise en Contexte
Limites de taux plus élevées avec les clés API
Conclusion
star
Mis en exergue
communiqué de presse
mai 14, 2024

Jina Reader pour l'Ancrage dans la Recherche afin d'Améliorer la Factualité des LLM

Le grounding est essentiel pour les applications GenAI. Notre nouveau https://s.jina.ai/ permet aux LLMs d'accéder aux connaissances les plus récentes du web, permettant le grounding par la recherche et rendant les réponses plus fiables.
Flowchart detailing Jina AI's info search using LLM, starting with "when was Jina AI founded?" and various process steps.
Jina AI
Jina AI • 5 minutes lues

La mise en contexte (grounding) est absolument essentielle pour les applications GenAI.

Vous avez probablement vu de nombreux outils, prompts et pipelines RAG conçus pour améliorer la factualité des LLMs depuis 2023. Pourquoi ? Parce que le principal obstacle empêchant les entreprises de déployer les LLMs auprès de millions d'utilisateurs est la confiance : La réponse est-elle authentique ou est-ce une simple hallucination du modèle ? C'est un problème pour toute l'industrie, et Jina AI travaille très dur pour le résoudre. Aujourd'hui, avec la nouvelle fonctionnalité de recherche contextuelle de Jina Reader, vous pouvez simplement utiliser https://s.jina.ai/YOUR_SEARCH_QUERY pour rechercher les connaissances les plus récentes sur le web. Avec cela, vous êtes un pas plus près d'améliorer la factualité des LLMs, rendant leurs réponses plus fiables et utiles.

Reader API
Read URLs or search the web, get better grounding for LLMs.

API, démo disponible sur la page produit

tagLe Problème de Factualité des LLMs

Nous savons tous que les LLMs peuvent inventer des choses et nuire à la confiance des utilisateurs. Les LLMs peuvent dire des choses qui ne sont pas factuelles (aussi appelées hallucinations), particulièrement concernant des sujets qu'ils n'ont pas appris pendant leur entraînement. Cela peut être soit de nouvelles informations créées depuis l'entraînement, soit des connaissances de niche qui ont été "marginalisées" pendant l'entraînement.

Par conséquent, pour des questions comme "Quel temps fait-il aujourd'hui ?" ou "Qui a gagné l'Oscar de la meilleure actrice cette année ?", le modèle répondra soit "Je ne sais pas" soit donnera des informations obsolètes.

Interactive web interface for querying Jina AI's founding details with input fields, navigation options, and informational no
Un exemple de connaissance de niche "marginalisée" pendant l'entraînement peut être vu lorsque nous avons demandé à GPT-3.5-turbo "Quand a été fondée Jina AI ?" et reçu une réponse incorrecte. Cependant, en utilisant Reader pour la recherche contextuelle, le même LLM a pu fournir la bonne réponse. En fait, il était précis jusqu'à la date exacte.
Screen interface for inquiring about SpaceX launches with a query field and details about upcoming missions.
Un exemple de nouvelles informations créées depuis l'entraînement. Nous avons demandé à GPT-3.5-turbo "Quand aura lieu le prochain lancement SpaceX ?" (aujourd'hui est le 14 mai 2024) et le modèle a répondu avec de vieilles informations datant de 2021.

tagComment Jina Reader Aide à une Meilleure Mise en Contexte

Auparavant, les utilisateurs pouvaient facilement préfixer https://r.jina.ai pour lire le contenu texte et image d'une URL particulière dans un format compatible LLM et l'utiliser pour la vérification contextuelle et la vérification des faits. Depuis sa première sortie le 15 avril, nous avons servi plus de 18 millions de requêtes dans le monde, suggérant sa popularité.

Aujourd'hui, nous sommes ravis d'aller plus loin en introduisant l'API de recherche contextuelle https://s.jina.ai. En le préfixant simplement avant votre requête, Reader recherchera sur le web et récupérera les 5 meilleurs résultats. Chaque résultat inclut un titre, du markdown compatible LLM (contenu complet ! pas un résumé), et une URL qui permet d'attribuer la source. Voici un exemple ci-dessous, vous êtes également encouragé à essayer notre démo en direct ici.

Gauche : Mode Markdown (visitez directement https://s.jina.ai/who+is+han+xiao) ; Droite : Mode JSON (utilisant curl https://s.jina.ai/who+is+han+xiao -H 'accept: application/json'). Au fait, une question ego comme celle-ci sert toujours de bon cas test.

Il y a trois principes dans la conception de la recherche contextuelle dans Reader :

  • Améliorer la factualité ;
  • Accéder aux informations à jour, c'est-à-dire aux connaissances mondiales ;
  • Relier une réponse à sa source.

En plus d'être extrêmement facile à utiliser, s.jina.ai est également hautement évolutif et personnalisable car il exploite l'infrastructure flexible et évolutive existante de r.jina.ai. Vous pouvez définir des paramètres pour contrôler la description des images, la granularité du filtrage, etc., via les en-têtes de requête.

Configuration screen of Reader API with options for API behavior, proxy settings, and cookie forwarding against a dark backgr
Essayez l'extrait de code interactif pour l'utilisation avancée de l'API Reader

tagJina Reader comme Solution Complète de Mise en Contexte

Technical flowchart on a black background illustrating the processing of knowledge through various AI-related URLs.

Si nous combinons la recherche contextuelle (s.jina.ai) et la vérification contextuelle (r.jina.ai), nous pouvons construire une solution de mise en contexte très complète pour les LLMs, les agents et les systèmes RAG. Dans un flux de travail RAG fiable typique, Jina Reader fonctionne comme suit :

  1. L'utilisateur saisit une question ;
  2. Récupère les dernières informations du web en utilisant s.jina.ai ;
  3. Génère une réponse initiale avec une citation du résultat de recherche de l'étape précédente ;
  4. Utiliser.jina.ai pour ancrer la réponse avec votre propre URL ; ou lire les URLs contenus dans la source retournée à l'étape 3 pour un ancrage plus approfondi ;
  5. Génération de la réponse finale et mise en évidence des affirmations potentiellement non ancrées pour l'utilisateur.

tagLimites de taux plus élevées avec les clés API

Les utilisateurs peuvent profiter gratuitement du nouvel endpoint de recherche ancrée sans autorisation. De plus, en fournissant une clé API Jina AI dans l'en-tête de la requête (la même clé peut être utilisée dans l'API d'Embedding/Reranking), vous pouvez immédiatement bénéficier de 200 requêtes par minute par IP pour r.jina.ai et 40 requêtes par minute par IP pour s.jina.ai. Les détails se trouvent dans le tableau ci-dessous :

EndpointDescriptionLimite de taux sans clé APILimite de taux avec clé APISchéma de comptage des tokensLatence moyenne
r.jina.aiLit une URL et retourne son contenu, utile pour vérifier l'ancrage20 RPM200 RPMBasé sur les tokens de sortie3 secondes
s.jina.aiRecherche sur le web et retourne les 5 meilleurs résultats, utile pour l'ancrage de recherche5 RPM40 RPMBasé sur les tokens de sortie pour les 5 résultats de recherche30 secondes

tagConclusion

Nous croyons que l'ancrage est essentiel pour les applications GenAI, et la construction de solutions ancrées devrait être facile pour tous. C'est pourquoi nous avons introduit le nouvel endpoint d'ancrage de recherche, s.jina.ai, qui permet aux développeurs d'intégrer facilement les connaissances du monde dans leurs applications GenAI. Nous voulons que les développeurs établissent la confiance des utilisateurs, fournissent des réponses explicables et inspirent la curiosité à des millions d'utilisateurs.

Catégories:
star
Mis en exergue
communiqué de presse
rss_feed

En savoir plus
février 19, 2026 • 7 minutes lues
jina-embeddings-v5-text: New SOTA Small Multilingual Embeddings
Han Xiao
Abstract digital artwork in black and white, featuring scattered dots forming letters in a halftone effect. The central lette
décembre 04, 2025 • 7 minutes lues
Jina-VLM : Petit modèle de langage visuel multilingue
Jina AI
Artistic representation of "Vln" in vibrant, rainbow-like colors on a minimalistic white background, with a focus on color di
octobre 03, 2025 • 7 minutes lues
Jina Reranker v3 : 重排器 Listwise de 0,6B pour une récupération multilingue SOTA
Jina AI
Light blue background with stylized text in the center, composed of small dots or squares, evoking a modern and minimalistic
Des bureaux
location_on
Sunnyvale, Californie
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, États-Unis
location_on
Berlin, Allemagne
Prinzessinnenstraße 19-20, 10969 Berlin, Allemagne
Fondation Recherche
Lecteur
Intégrations
Reclasseur
Obtenir la clé API Jina
Limite de taux
Statut de l'API
Entreprise
À propos de nous
Contacter le service commercial
Rédaction
Programme de stage
Télécharger le logo Jina
open_in_new
Télécharger le logo Elastic
open_in_new
Termes
Sécurité
termes et conditions
Confidentialité
Gérer les cookies
email
Jina AI par Elastic © 2020-2026.