Nouvelles
Modèles
Des produits
keyboard_arrow_down
Lecteur
Lisez les URL et effectuez des recherches sur le Web pour de meilleurs LLM de base.
Intégrations
Intégrations multimodales et multilingues de classe mondiale.
Reclasseur
Récupérateur neuronal de classe mondiale pour maximiser la pertinence de la recherche.
Recherche profonde
Recherchez, lisez et raisonnez jusqu'à trouver la meilleure réponse.
Plus
keyboard_arrow_down
Classificateur
Classification à zéro plan et à quelques plans pour l'image et le texte.
Segmenteur
Coupez un long texte en morceaux et effectuez la tokenisation.

Documentation de l'API
Génération automatique de code pour votre IDE ou LLM copilote
open_in_new


Entreprise
keyboard_arrow_down
À propos de nous
Contacter le service commercial
Programme de stage
Rejoignez-nous
open_in_new
Télécharger le logo
open_in_new
termes et conditions


Se connecter
login

Recherche profonde

Recherchez, lisez et raisonnez jusqu'à trouver la meilleure réponse.

play_arrowDémo

API DeepSearch

Entièrement compatible avec le schéma de l'API Chat d'OpenAI, échangez simplement api.openai.com avec deepsearch.jina.ai pour commencer.
key
Clé API et facturation
code
Usage
more_horiz
Plus
chevron_leftchevron_right

home
speedLimite de taux
bug_report Soulever un problème
help_outlineFAQ
api
Statut
chevron_leftchevron_right

Discuter avec DeepSearch
Vérifiez les vibrations avec une interface de chat simple. DeepSearch est idéal pour les questions complexes qui nécessitent un raisonnement itératif, une connaissance du monde ou des informations à jour.
open_in_new
Messages
Une liste de messages entre l'utilisateur et l'assistant comprenant la conversation jusqu'à présent.
Joindre une image/un document
Différents types de messages (modalités) sont pris en charge, comme le texte (.txt, .pdf), les images (.png, .webp, .jpeg). Les fichiers sont pris en charge jusqu'à 10 Mo et doivent être codés au préalable dans l'URI de données.
{
  "role": "user",
  "content": "hi"
}

upload
Demande
curl https://deepsearch.jina.ai/v1/chat/completions \
  -H "Content-Type: application/json"\
  -H "Authorization: Bearer " \
  -d @- <<EOFEOF
  {
    "model": "jina-deepsearch-v1",
    "messages": [
        {
            "role": "user",
            "content": "Hi!"
        },
        {
            "role": "assistant",
            "content": "Hi, how can I help you?"
        },
        {
            "role": "user",
            "content": "what's the latest blog post from jina ai?"
        }
    ],
    "stream": true,
    "reasoning_effort": "medium"
  }
EOFEOF


info
Il s'agit du dernier segment du flux qui contient la réponse finale, les URL visitées et l'utilisation du jeton. Cliquez sur le bouton ci-dessus pour obtenir une réponse en temps réel.
download
Réponse
fiber_manual_record 200 OK
timer
0.0 s
straighten
196,526 Jetons
{
  "id": "1742181758589",
  "object": "chat.completion.chunk",
  "created": 1742181758,
  "model": "jina-deepsearch-v1",
  "system_fingerprint": "fp_1742181758589",
  "choices": [
    {
      "index": 0,
      "delta": {
        "content": "The latest blog post from Jina AI is titled \"Snippet Selection and URL Ranking in DeepSearch/DeepResearch,\" published on March 12, 2025 [^1]. This post discusses how to improve the quality of DeepSearch by using late-chunking embeddings for snippet selection and rerankers to prioritize URLs before crawling. You can read the full post here: https://jina.ai/news/snippet-selection-and-url-ranking-in-deepsearch-deepresearch\n\n[^1]: Since our DeepSearch release on February 2nd 2025 we ve discovered two implementation details that greatly improved quality In both cases multilingual embeddings and rerankers are used in an in context manner operating at a much smaller scale than the traditional pre computed indices these models typically require  [jina.ai](https://jina.ai/news/snippet-selection-and-url-ranking-in-deepsearch-deepresearch)",
        "type": "text",
        "annotations": [
          {
            "type": "url_citation",
            "url_citation": {
              "title": "Snippet Selection and URL Ranking in DeepSearch/DeepResearch",
              "exactQuote": "Since our DeepSearch release on February 2nd 2025, we've discovered two implementation details that greatly improved quality. In both cases, multilingual embeddings and rerankers are used in an _\"in-context\"_ manner - operating at a much smaller scale than the traditional pre-computed indices these models typically require.",
              "url": "https://jina.ai/news/snippet-selection-and-url-ranking-in-deepsearch-deepresearch",
              "dateTime": "2025-03-13 06:48:01"
            }
          }
        ]
      },
      "logprobs": null,
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 169670,
    "completion_tokens": 27285,
    "total_tokens": 196526
  },
  "visitedURLs": [
    "https://github.com/jina-ai/node-DeepResearch/blob/main/src/utils/url-tools.ts",
    "https://huggingface.co/jinaai/jina-embeddings-v3",
    "https://github.com/jina-ai/reader",
    "https://zilliz.com/blog/training-text-embeddings-with-jina-ai",
    "https://threads.net/@unwind_ai/post/DGmhWCVswbe/media",
    "https://twitter.com/JinaAI_/status/1899840196507820173",
    "https://jina.ai/news?tag=tech-blog",
    "https://docs.llamaindex.ai/en/stable/examples/embeddings/jinaai_embeddings",
    "https://x.com/jinaai_",
    "https://x.com/JinaAI_/status/1899840202358784170",
    "https://tracxn.com/d/companies/jina-ai/__IQ81fOnU0FsDpagFjG-LrG0DMWHELqI6znTumZBQF-A/funding-and-investors",
    "https://jina.ai/models",
    "https://linkedin.com/posts/imohitmayank_jinaai-has-unveiled-the-ultimate-developer-activity-7300401711242711040-VD64",
    "https://medium.com/@tossy21/trying-out-jina-ais-node-deepresearch-c5b55d630ea6",
    "https://huggingface.co/jinaai/jina-clip-v2",
    "https://arxiv.org/abs/2409.10173",
    "https://milvus.io/docs/embed-with-jina.md",
    "https://seedtable.com/best-startups-in-china",
    "https://threads.net/@sung.kim.mw/post/DGhG-J_vREu/jina-ais-a-practical-guide-to-implementing-deepsearchdeepresearchthey-cover-desi",
    "https://elastic.co/search-labs/blog/jina-ai-embeddings-rerank-model-open-inference-api",
    "http://status.jina.ai/",
    "https://apidog.com/blog/recreate-openai-deep-research",
    "https://youtube.com/watch?v=QxHE4af5BQE",
    "https://sdxcentral.com/articles/news/cisco-engages-businesses-on-ai-strategies-at-greater-bay-area-2025/2025/02",
    "https://aws.amazon.com/blogs/machine-learning/build-rag-applications-using-jina-embeddings-v2-on-amazon-sagemaker-jumpstart",
    "https://reddit.com/r/perplexity_ai/comments/1ejbdqa/fastest_open_source_ai_search_engine",
    "https://search.jina.ai/",
    "https://sebastian-petrus.medium.com/build-openais-deep-research-open-source-alternative-4f21aed6d9f0",
    "https://medium.com/@elmo92/jina-reader-transforming-web-content-to-feed-llms-d238e827cc27",
    "https://openai.com/index/introducing-deep-research",
    "https://python.langchain.com/docs/integrations/tools/jina_search",
    "https://varindia.com/news/meta-is-in-talks-for-usd200-billion-ai-data-center-project",
    "https://varindia.com/news/Mira-Murati%E2%80%99s-new-AI-venture-eyes-$9-billion-valuation",
    "https://53ai.com/news/RAG/2025031401342.html",
    "https://arxiv.org/abs/2409.04701",
    "https://bigdatawire.com/this-just-in/together-ai-raises-305m-series-b-to-power-ai-model-training-and-inference",
    "https://github.blog/",
    "https://cdn-uploads.huggingface.co/production/uploads/660c3c5c8eec126bfc7aa326/MvwT9enRT7gOESHA_tpRj.jpeg",
    "https://cdn-uploads.huggingface.co/production/uploads/660c3c5c8eec126bfc7aa326/JNs_DrpFbr6ok_pSRUK4j.jpeg",
    "https://app.dealroom.co/lists/33530",
    "https://api-docs.deepseek.com/news/news250120",
    "https://sdxcentral.com/articles/news/ninjaone-raises-500-million-valued-at-5-billion/2025/02",
    "https://linkedin.com/sharing/share-offsite?url=https%3A%2F%2Fjina.ai%2Fnews%2Fa-practical-guide-to-implementing-deepsearch-deepresearch%2F",
    "https://twitter.com/intent/tweet?url=https%3A%2F%2Fjina.ai%2Fnews%2Fa-practical-guide-to-implementing-deepsearch-deepresearch%2F",
    "https://platform.openai.com/docs/api-reference/chat/create",
    "https://mp.weixin.qq.com/s/-pPhHDi2nz8hp5R3Lm_mww",
    "https://huggingface.us17.list-manage.com/subscribe?id=9ed45a3ef6&u=7f57e683fa28b51bfc493d048",
    "https://automatio.ai/",
    "https://sdk.vercel.ai/docs/introduction",
    "https://app.eu.vanta.com/jinaai/trust/vz7f4mohp0847aho84lmva",
    "https://apply.workable.com/huggingface/j/AF1D4E3FEB",
    "https://facebook.com/sharer/sharer.php?u=https%3A%2F%2Fjina.ai%2Fnews%2Fa-practical-guide-to-implementing-deepsearch-deepresearch%2F",
    "https://facebook.com/sharer/sharer.php?u=http%3A%2F%2F127.0.0.1%3A3000%2Fen-US%2Fnews%2Fsnippet-selection-and-url-ranking-in-deepsearch-deepresearch%2F",
    "https://reddit.com/submit?url=https%3A%2F%2Fjina.ai%2Fnews%2Fa-practical-guide-to-implementing-deepsearch-deepresearch%2F",
    "https://apply.workable.com/huggingface",
    "https://news.ycombinator.com/submitlink?u=https%3A%2F%2Fjina.ai%2Fnews%2Fa-practical-guide-to-implementing-deepsearch-deepresearch%2F",
    "https://news.ycombinator.com/submitlink?u=http%3A%2F%2F127.0.0.1%3A3000%2Fen-US%2Fnews%2Fsnippet-selection-and-url-ranking-in-deepsearch-deepresearch%2F",
    "https://docs.github.com/site-policy/privacy-policies/github-privacy-statement",
    "https://discord.jina.ai/",
    "https://docs.github.com/site-policy/github-terms/github-terms-of-service",
    "https://bigdatawire.com/this-just-in/qumulo-announces-30-million-funding",
    "https://x.ai/blog/grok-3",
    "https://m-ric-open-deep-research.hf.space/",
    "https://youtu.be/sal78ACtGTc?feature=shared&t=52",
    "https://mp.weixin.qq.com/s/apnorBj4TZs3-Mo23xUReQ",
    "https://perplexity.ai/hub/blog/introducing-perplexity-deep-research",
    "https://githubstatus.com/",
    "https://github.blog/changelog/2021-09-30-footnotes-now-supported-in-markdown-fields",
    "https://openai.com/index/introducing-operator",
    "mailto:[email protected]",
    "https://resources.github.com/learn/pathways",
    "https://status.jina.ai/",
    "https://reuters.com/technology/artificial-intelligence/tencents-messaging-app-weixin-launches-beta-testing-with-deepseek-2025-02-16",
    "https://scmp.com/tech/big-tech/article/3298981/baidu-adopts-deepseek-ai-models-chasing-tencent-race-embrace-hot-start",
    "https://microsoft.com/en-us/research/articles/magentic-one-a-generalist-multi-agent-system-for-solving-complex-tasks",
    "javascript:UC_UI.showSecondLayer();",
    "https://resources.github.com/",
    "https://storm-project.stanford.edu/research/storm",
    "https://blog.google/products/gemini/google-gemini-deep-research",
    "https://youtu.be/vrpraFiPUyA",
    "https://chat.baidu.com/search?extParamsJson=%7B%22enter_type%22%3A%22ai_explore_home%22%7D&isShowHello=1&pd=csaitab&setype=csaitab&usedModel=%7B%22modelName%22%3A%22DeepSeek-R1%22%7D",
    "https://app.dover.com/jobs/jinaai",
    "http://localhost:3000/",
    "https://docs.cherry-ai.com/",
    "https://en.wikipedia.org/wiki/Delayed_gratification",
    "https://support.github.com/?tags=dotcom-footer",
    "https://docs.jina.ai/",
    "https://skills.github.com/",
    "https://partner.github.com/",
    "https://help.x.com/resources/accessibility",
    "https://business.twitter.com/en/help/troubleshooting/how-twitter-ads-work.html",
    "https://business.x.com/en/help/troubleshooting/how-twitter-ads-work.html",
    "https://support.twitter.com/articles/20170514",
    "https://support.x.com/articles/20170514",
    "https://t.co/jnxcxPzndy",
    "https://t.co/6EtEMa9P05",
    "https://help.x.com/using-x/x-supported-browsers",
    "https://legal.twitter.com/imprint.html"
  ],
  "readURLs": [
    "https://jina.ai/news/a-practical-guide-to-implementing-deepsearch-deepresearch",
    "https://github.com/jina-ai/node-DeepResearch",
    "https://huggingface.co/blog/open-deep-research",
    "https://jina.ai/news/snippet-selection-and-url-ranking-in-deepsearch-deepresearch",
    "https://x.com/jinaai_?lang=en",
    "https://jina.ai/news",
    "https://x.com/joedevon/status/1896984525210837081",
    "https://github.com/jina-ai/node-DeepResearch/blob/main/src/tools/jina-latechunk.ts"
  ],
  "numURLs": 98
}

Guide des paramètres de DeepSearch

Apprenez à définir les bons paramètres et à obtenir les meilleurs résultats.

Contrôle qualité

Dans DeepSearch, il existe généralement un compromis : plus le système effectue d’étapes, plus les résultats sont de qualité, mais plus vous consommez de jetons. Cette amélioration de la qualité est due à des recherches plus larges et exhaustives, ainsi qu’à une réflexion plus approfondie. Quatre paramètres principaux contrôlent la qualité de DeepSearch : « budget_tokens », « max_attempts », « team_size » et « reasoning_effort ». Le paramètre « reasoning_effort » est une combinaison prédéfinie de « budget_tokens » et « max_attempts », soigneusement ajustée. Pour la plupart des utilisateurs, ajuster « reasoning_effort » est l’approche la plus simple.

Jetons budgétaires

« budget_tokens » définit le nombre maximal de jetons autorisés pour l’ensemble du processus DeepSearch. Cela couvre toutes les opérations, y compris les recherches web, la lecture de pages web, la réflexion, la synthèse et le codage. Des budgets plus importants entraînent naturellement une meilleure qualité des réponses. Le processus DeepSearch s’arrête lorsque le budget est épuisé ou qu’une réponse satisfaisante est trouvée, selon la première éventualité. Si le budget est épuisé en premier, vous obtiendrez toujours une réponse, mais il se peut qu’elle ne soit pas définitive et entièrement affinée, car elle n’a pas passé tous les contrôles de qualité définis par « max_attempts ».

Nombre maximal de tentatives

« max_attempts » détermine le nombre de tentatives répétées par le système pour résoudre un problème pendant le processus DeepSearch. Chaque fois que DeepSearch produit une réponse, il doit passer certains tests de qualité définis par un évaluateur interne. Si la réponse échoue à ces tests, l’évaluateur fournit un retour d’information, que le système utilise pour poursuivre la recherche et affiner la réponse. Une valeur trop faible de « max_attempts » permet d’obtenir des résultats rapidement, mais la qualité peut en pâtir, car la réponse pourrait ne pas passer tous les contrôles de qualité. Une valeur trop élevée peut donner l’impression que le processus est bloqué dans une boucle sans fin de tentatives, où les échecs sont incessants.

Le système renvoie une réponse finale lorsque « budget_tokens » ou « max_attempts » est dépassé (selon la première éventualité), ou lorsque la réponse réussit tous les tests tout en conservant le budget et les tentatives restants.

Taille de l’équipe

« team_size » affecte la qualité d’une manière fondamentalement différente de « max_attempts » et « budget_tokens ». Lorsque « team_size » est défini sur plusieurs valeurs, le système décompose le problème initial en sous-problèmes et les étudie indépendamment. Imaginez un modèle de mappage-réduction, où une tâche importante est décomposée en tâches plus petites exécutées en parallèle. La réponse finale est alors une synthèse des résultats de chaque collaborateur. Nous l’appelons « team_size » car elle simule une équipe de recherche au sein de laquelle plusieurs agents étudient différents aspects du même problème et collaborent à un rapport final.

N’oubliez pas que la consommation de jetons de tous les agents est comptabilisée dans votre total de « budget_tokens », mais que chaque agent dispose de « max_attempts » indépendants. Cela signifie qu’avec une taille d’équipe plus importante mais des jetons de budget identiques, les agents pourraient répondre plus tôt que prévu en raison de contraintes budgétaires. Nous recommandons d’augmenter simultanément les valeurs de taille d’équipe et de jetons de budget afin de donner à chaque agent les ressources nécessaires pour effectuer un travail approfondi.

Enfin, la taille d’équipe peut contrôler l’étendue de la recherche : elle détermine le nombre d’aspects différents à étudier. Quant aux jetons de budget et aux nombres d’attaques maximum, ils contrôlent la profondeur de la recherche, c’est-à-dire le degré d’exploration de chaque aspect.

Contrôle des sources

DeepSearch s’appuie fortement sur ses sources d’information. La qualité ne se résume pas à la profondeur et à l’étendue algorithmiques ; la provenance des informations de DeepSearch est tout aussi importante, et souvent déterminante. Découvrons les paramètres clés qui contrôlent ce point.

Pas de réponse directe

no_direct_answer est une simple option qui empêche le système de renvoyer une réponse à l’étape 1. Lorsqu’elle est activée, elle désactive la capacité du système à exploiter ses connaissances internes et l’oblige à toujours rechercher d’abord sur le Web. L’activation de cette option force le système à « sur-analyser » même des questions simples comme « Quel jour sommes-nous ? », « Comment allez-vous ? » ou des informations factuelles de base qui figurent indéniablement dans les données d’entraînement du modèle, comme « Qui était le 40e président des États-Unis ? »

Contrôles des noms d’hôtes

Trois paramètres : « boost_hostnames », « bad_hostnames » et « only_hostnames » indiquent à DeepSearch les pages web à privilégier, à éviter ou à utiliser exclusivement. Pour comprendre leur fonctionnement, imaginez le processus de recherche et de lecture dans DeepSearch :

  1. Phase de recherche : Le système effectue une recherche sur le web et récupère une liste d’URL de sites web avec leurs extraits.
  2. Phase de sélection : Le système décide des URL à visiter (il ne les visite pas toutes pour des raisons de temps et de coût).
  • boost_hostnames : Les domaines listés ici sont prioritaires et ont plus de chances d’être visités.
  • bad_hostnames : Ces domaines ne seront jamais visités.
  • only_hostnames : Une fois définis, seules les URL correspondant à ces noms d’hôtes seront visitées.

Voici quelques remarques importantes concernant les paramètres des noms d’hôtes. Premièrement, le système utilise toujours les extraits renvoyés par les moteurs de recherche comme indices initiaux pour construire des chaînes de raisonnement. Ces paramètres de nom d’hôte affectent uniquement les pages web visitées par le système, et non la manière dont il formule les requêtes de recherche.

Deuxièmement, si les URL collectées ne contiennent pas les domaines spécifiés dans « only_hostnames », le système risque de ne plus lire les pages web. Nous vous recommandons d’utiliser ces paramètres uniquement lorsque vous maîtrisez votre question de recherche et que vous savez où trouver des réponses potentielles (ou où elles ne devraient absolument pas se trouver).

Cas particulier : Recherche universitaire

Pour la recherche universitaire, vous souhaiterez peut-être limiter les recherches et les lectures à arxiv.org. Dans ce cas, définissez simplement « search_provider » : « arxiv » et tout reposera sur arxiv comme seule source. Cependant, les questions génériques ou triviales risquent de ne pas obtenir de réponses efficaces avec cette restriction ; utilisez donc « search_provider » : « arxiv » uniquement pour la recherche universitaire sérieuse.

Code de langue de recherche

search_language_code est un autre paramètre qui affecte les sources web en forçant le système à générer les requêtes dans une langue spécifique, indépendamment de la saisie initiale ou des étapes de raisonnement intermédiaires. Généralement, le système détermine automatiquement la langue de requête pour obtenir la meilleure couverture de recherche, mais un contrôle manuel est parfois utile.

Cas d’utilisation du contrôle de la langue

Étude de marché internationale : Lorsque vous étudiez l’impact d’une marque ou d’une entreprise locale sur les marchés internationaux, vous pouvez forcer les requêtes à toujours utiliser l’anglais avec "search_language_code": "en" pour une couverture mondiale, ou utiliser la langue locale pour des informations régionales plus ciblées.

Étude mondiale avec des invites non anglaises : Si votre saisie est toujours en chinois ou en japonais (car vos utilisateurs finaux parlent principalement ces langues), mais que votre recherche porte sur le monde entier plutôt que sur des sites web chinois ou japonais locaux, le système peut automatiquement privilégier la langue de votre invite. Utilisez ce paramètre pour forcer les requêtes en anglais pour une couverture internationale plus large.

Discuter avec DeepSearch

Vérifiez les vibrations avec une interface de chat simple. DeepSearch est idéal pour les questions complexes qui nécessitent un raisonnement itératif, une connaissance du monde ou des informations à jour.
Nous venons de lancer une nouvelle interface utilisateur DeepSearch ultra-rapide, minimaliste et GRATUITE. Découvrez-la sur https://search.jina.ai ou cliquez sur le bouton ci-dessous pour l'essayer !open_in_newVisitez la nouvelle interface utilisateur
Clients de chat
Pour une expérience optimale, nous vous recommandons d'utiliser des clients de chat professionnels. DeepSearch est entièrement compatible avec le schéma de l'API de chat d'OpenAI, ce qui le rend facile à utiliser avec n'importe quel client compatible OpenAI.
open_in_new
Chatwise
open_in_new
Cherry Studio
open_in_new
Chatbox
open_in_new
LobeChat
open_in_new
NextChat

Qu'est-ce que DeepSearch ?

DeepSearch combine la recherche sur le Web, la lecture et le raisonnement pour une enquête complète. Considérez-le comme un agent à qui vous confiez une tâche de recherche : il effectue une recherche approfondie et effectue plusieurs itérations avant de fournir une réponse.

LLM standard

attach_money
environ 1000 jetons
access_time
environ 1s
check
Réponses rapides aux questions de culture générale
close
Impossible d'accéder aux informations en temps réel ou post-formation

Les réponses sont générées uniquement à partir de connaissances pré-entraînées avec une date limite fixe

RAG et LLMs ancrés

attach_money
environ 10 000 jetons
access_time
environ 3s
check
Questions nécessitant des informations actuelles ou spécifiques au domaine
close
A du mal à résoudre des questions complexes nécessitant un raisonnement à plusieurs sauts

Réponses générées en résumant les résultats d'une recherche en un seul passage
Peut accéder aux informations actuelles au-delà de la limite de formation

Recherche profonde

attach_money
environ 500 000 jetons
access_time
environ 50 ans
check
Questions complexes nécessitant une recherche et un raisonnement approfondis
info
Prend plus de temps que les approches simples LLM ou RAG

Agent autonome qui recherche, lit et raisonne de manière itérative
Décide dynamiquement des prochaines étapes en fonction des résultats actuels
Auto-évalue la qualité des réponses avant de renvoyer les résultats
Peut effectuer des analyses approfondies sur des sujets grâce à plusieurs cycles de recherche et de raisonnement

Tarification des API

La tarification des API est basée sur l'utilisation des jetons. Une clé API vous donne accès à tous les produits de base de la recherche.
Avec l'API Jina Search Foundation
Le moyen le plus simple d'accéder à tous nos produits. Rechargez vos jetons au fur et à mesure.
Rechargez cette clé API avec plus de jetons
Selon votre emplacement, vous pouvez être facturé en USD, EUR ou dans d'autres devises. Des taxes peuvent s'appliquer.
Veuillez saisir la bonne clé API pour recharger
Comprendre la limite de débit
Les limites de débit correspondent au nombre maximal de requêtes pouvant être adressées à une API en une minute par adresse IP/clé API (RPM). Découvrez ci-dessous les limites de débit pour chaque produit et niveau.
keyboard_arrow_down
Limite de taux
Les limites de débit sont suivies de trois manières : RPM (requêtes par minute) et TPM (jetons par minute). Les limites sont appliquées par IP/clé API et sont déclenchées dès que le seuil RPM ou TPM est atteint. Lorsque vous fournissez une clé API dans l'en-tête de la requête, nous suivons les limites de débit par clé plutôt que par adresse IP.
ProduitPoint de terminaison de l'APIDescriptionarrow_upwardsans clé APIkey_offavec clé APIkeyavec clé API PremiumkeyLatence moyenneComptage de l'utilisation des jetonsDemande autorisée
API de lecteurhttps://r.jina.aiConvertir l'URL en texte compatible LLM20 RPM500 RPMtrending_up5000 RPM7.9sComptez le nombre de jetons dans la réponse de sortie.GET/POST
API de lecteurhttps://s.jina.aiRecherchez sur le Web et convertissez les résultats en texte adapté au LLMblock100 RPMtrending_up1000 RPM2.5sChaque demande coûte un nombre fixe de jetons, à partir de 10000 jetonsGET/POST
Recherche profondehttps://deepsearch.jina.ai/v1/chat/completionsRaisonner, rechercher et itérer pour trouver la meilleure réponseblock50 RPM500 RPM56.7sComptez le nombre total de jetons dans l’ensemble du processus.POST
API d'intégrationhttps://api.jina.ai/v1/embeddingsConvertir du texte/des images en vecteurs de longueur fixeblock500 RPM & 1,000,000 TPMtrending_up2,000 RPM & 5,000,000 TPM
ssid_chart
dépend de la taille de l'entrée
help
Comptez le nombre de jetons dans la demande d'entrée.POST
API de reclassementhttps://api.jina.ai/v1/rerankClasser les documents par requêteblock500 RPM & 1,000,000 TPMtrending_up2,000 RPM & 5,000,000 TPM
ssid_chart
dépend de la taille de l'entrée
help
Comptez le nombre de jetons dans la demande d'entrée.POST
API de classificateurhttps://api.jina.ai/v1/trainEntraîner un classificateur à l'aide d'exemples étiquetésblock20 RPM & 200,000 TPM60 RPM & 1,000,000 TPM
ssid_chart
dépend de la taille de l'entrée
Les jetons sont comptés comme suit : input_tokens × num_itersPOST
API de classificateur (Coup zéro)https://api.jina.ai/v1/classifyClasser les entrées à l'aide de la classification à coup zéroblock200 RPM & 500,000 TPM1,000 RPM & 3,000,000 TPM
ssid_chart
dépend de la taille de l'entrée
Jetons comptés comme : input_tokens + label_tokensPOST
API de classificateur (Quelques coups)https://api.jina.ai/v1/classifyClasser les entrées à l'aide d'un classificateur à quelques coups entraînéblock20 RPM & 200,000 TPM60 RPM & 1,000,000 TPM
ssid_chart
dépend de la taille de l'entrée
Jetons comptés comme : input_tokensPOST
API de segmentationhttps://api.jina.ai/v1/segmentTokeniser et segmenter un texte long20 RPM200 RPM1,000 RPM0.3sLe jeton n'est pas comptabilisé comme une utilisation.GET/POST

FAQ

Qu'est-ce que DeepSearch ?
keyboard_arrow_down
DeepSearch est une API LLM qui effectue une recherche, une lecture et un raisonnement itératifs jusqu'à ce qu'elle trouve une réponse précise à une requête ou atteigne sa limite de budget de jetons.
En quoi DeepSearch est-il différent des capacités de recherche approfondie d’OpenAI et de Gemini ?
keyboard_arrow_down
Contrairement à OpenAI et Gemini, DeepSearch se concentre spécifiquement sur la fourniture de réponses précises par itération plutôt que sur la génération d'articles longs. Il est optimisé pour des réponses rapides et précises issues de la recherche sur le Web profond plutôt que pour la création de rapports complets.
De quelle clé API ai-je besoin pour utiliser DeepSearch ?
keyboard_arrow_down
Vous avez besoin d'une clé API Jina. Nous offrons 10 millions de jetons gratuits pour les nouvelles clés API.
Que se passe-t-il lorsque DeepSearch atteint son budget de jetons ? Renvoie-t-il une réponse incomplète ?
keyboard_arrow_down
Il génère une réponse finale basée sur toutes les connaissances accumulées, plutôt que de simplement abandonner ou de renvoyer une réponse incomplète.
DeepSearch garantit-il des réponses précises ?
keyboard_arrow_down
Non. Bien qu'il utilise un processus de recherche itératif pour améliorer la précision, l'évaluation montre qu'il atteint un taux de réussite de 75 % aux questions du test, ce qui est nettement meilleur que la référence de 0 % (gemini-2.0-flash) mais pas parfait.
Combien de temps dure une requête DeepSearch typique ?
keyboard_arrow_down
Cela varie considérablement : les requêtes peuvent prendre entre 1 et 42 étapes, avec une moyenne de 4 étapes basées sur les données d'évaluation. Cela représente 20 secondes. Les requêtes simples peuvent être résolues rapidement, tandis que les questions de recherche complexes peuvent impliquer de nombreuses itérations et jusqu'à 120 secondes.
DeepSearch peut-il fonctionner avec n’importe quel client compatible OpenAI comme Chatwise, CherryStudio ou ChatBox ?
keyboard_arrow_down
Oui, l'API officielle DeepSearch sur deepsearch.jina.ai/v1/chat/completions est entièrement compatible avec le schéma API OpenAI, en utilisant « jina-deepsearch-v1 » comme nom de modèle. Il est donc très facile de passer d'OpenAI à DeepSearch et de l'utiliser avec des clients locaux ou tout client compatible OpenAI. Nous recommandons vivement Chatwise pour une expérience fluide.
Quelles sont les limites de débit pour l'API ?
keyboard_arrow_down
Les limites de débit varient selon le niveau de clé API, allant de 10 à 30 tr/min. Il est important d'en tenir compte pour les applications avec des volumes de requêtes élevés.
Quel est le contenu à l'intérieur de la balise <think> ?
keyboard_arrow_down
DeepSearch encapsule les étapes de réflexion dans des balises XML ... et fournit ensuite la réponse finale, en suivant le format de streaming OpenAI mais avec ces marqueurs spéciaux pour la chaîne de pensées.
DeepSearch utilise-t-il Jina Reader pour la recherche et la lecture sur le Web ?
keyboard_arrow_down
Oui. Jina Reader est utilisé pour la recherche et la lecture sur le Web, offrant au système la possibilité d'accéder et de traiter efficacement le contenu Web.
Pourquoi DeepSearch utilise autant de jetons pour mes requêtes ?
keyboard_arrow_down
Oui, l'utilisation des tokens de DeepSearch sur les requêtes complexes est sans doute élevée : en moyenne 70 000 tokens contre 500 pour les réponses LLM de base. Cela montre la profondeur de la recherche, mais a également des implications financières.
Existe-t-il un moyen de contrôler ou de limiter le nombre d’étapes ?
keyboard_arrow_down
Le système est principalement contrôlé par le budget de jetons plutôt que par le nombre d'étapes. Une fois le budget de jetons dépassé, il entre en mode Beast pour la génération de la réponse finale. Consultez reasoning_effort pour plus de détails.
Dans quelle mesure les références dans les réponses sont-elles fiables ?
keyboard_arrow_down
Les références sont considérées comme si importantes que si une réponse est jugée définitive mais manque de références, le système continue la recherche plutôt que d'accepter la réponse.
DeepSearch peut-il gérer des questions sur des événements futurs ?
keyboard_arrow_down
Oui, mais avec des étapes de recherche approfondies. L'exemple de « qui sera président en 2028 » montre que l'on peut répondre à des questions spéculatives grâce à de multiples itérations de recherche, même si l'exactitude de telles prédictions n'est pas garantie.

Comment obtenir ma clé API ?

video_not_supported

Quelle est la limite de débit ?

Limite de taux
Les limites de débit sont suivies de trois manières : RPM (requêtes par minute) et TPM (jetons par minute). Les limites sont appliquées par IP/clé API et sont déclenchées dès que le seuil RPM ou TPM est atteint. Lorsque vous fournissez une clé API dans l'en-tête de la requête, nous suivons les limites de débit par clé plutôt que par adresse IP.
ProduitPoint de terminaison de l'APIDescriptionarrow_upwardsans clé APIkey_offavec clé APIkeyavec clé API PremiumkeyLatence moyenneComptage de l'utilisation des jetonsDemande autorisée
API de lecteurhttps://r.jina.aiConvertir l'URL en texte compatible LLM20 RPM500 RPMtrending_up5000 RPM7.9sComptez le nombre de jetons dans la réponse de sortie.GET/POST
API de lecteurhttps://s.jina.aiRecherchez sur le Web et convertissez les résultats en texte adapté au LLMblock100 RPMtrending_up1000 RPM2.5sChaque demande coûte un nombre fixe de jetons, à partir de 10000 jetonsGET/POST
Recherche profondehttps://deepsearch.jina.ai/v1/chat/completionsRaisonner, rechercher et itérer pour trouver la meilleure réponseblock50 RPM500 RPM56.7sComptez le nombre total de jetons dans l’ensemble du processus.POST
API d'intégrationhttps://api.jina.ai/v1/embeddingsConvertir du texte/des images en vecteurs de longueur fixeblock500 RPM & 1,000,000 TPMtrending_up2,000 RPM & 5,000,000 TPM
ssid_chart
dépend de la taille de l'entrée
help
Comptez le nombre de jetons dans la demande d'entrée.POST
API de reclassementhttps://api.jina.ai/v1/rerankClasser les documents par requêteblock500 RPM & 1,000,000 TPMtrending_up2,000 RPM & 5,000,000 TPM
ssid_chart
dépend de la taille de l'entrée
help
Comptez le nombre de jetons dans la demande d'entrée.POST
API de classificateurhttps://api.jina.ai/v1/trainEntraîner un classificateur à l'aide d'exemples étiquetésblock20 RPM & 200,000 TPM60 RPM & 1,000,000 TPM
ssid_chart
dépend de la taille de l'entrée
Les jetons sont comptés comme suit : input_tokens × num_itersPOST
API de classificateur (Coup zéro)https://api.jina.ai/v1/classifyClasser les entrées à l'aide de la classification à coup zéroblock200 RPM & 500,000 TPM1,000 RPM & 3,000,000 TPM
ssid_chart
dépend de la taille de l'entrée
Jetons comptés comme : input_tokens + label_tokensPOST
API de classificateur (Quelques coups)https://api.jina.ai/v1/classifyClasser les entrées à l'aide d'un classificateur à quelques coups entraînéblock20 RPM & 200,000 TPM60 RPM & 1,000,000 TPM
ssid_chart
dépend de la taille de l'entrée
Jetons comptés comme : input_tokensPOST
API de segmentationhttps://api.jina.ai/v1/segmentTokeniser et segmenter un texte long20 RPM200 RPM1,000 RPM0.3sLe jeton n'est pas comptabilisé comme une utilisation.GET/POST
Questions courantes liées à l'API
code
Puis-je utiliser la même clé API pour les API de lecture, d'intégration, de reclassement, de classification et de réglage fin ?
keyboard_arrow_down
Oui, la même clé API est valable pour tous les produits de recherche de Jina AI. Cela inclut les API de lecture, d'intégration, de reclassement, de classification et de réglage fin, avec des jetons partagés entre tous les services.
code
Puis-je surveiller l’utilisation des jetons de ma clé API ?
keyboard_arrow_down
Oui, l'utilisation des jetons peut être surveillée dans l'onglet « Clé API et facturation » en saisissant votre clé API, ce qui vous permet d'afficher l'historique d'utilisation récent et les jetons restants. Si vous êtes connecté au tableau de bord de l'API, ces détails peuvent également être consultés dans l'onglet « Gérer la clé API ».
code
Que dois-je faire si j'oublie ma clé API ?
keyboard_arrow_down
Si vous avez égaré une clé rechargée et souhaitez la récupérer, veuillez contacter le support AT jina.ai avec votre adresse e-mail enregistrée pour obtenir de l'aide. Il est recommandé de vous connecter pour conserver votre clé API en toute sécurité et facilement accessible.
Contact
code
Les clés API expirent-elles ?
keyboard_arrow_down
Non, nos clés API n'ont pas de date d'expiration. Cependant, si vous pensez que votre clé a été compromise et souhaitez la retirer, veuillez contacter notre équipe d'assistance pour obtenir de l'aide. Vous pouvez également révoquer votre clé dans le tableau de bord de gestion des clés API.
Contact
code
Puis-je transférer des jetons entre des clés API ?
keyboard_arrow_down
Oui, vous pouvez transférer des jetons d'une clé premium vers une autre. Après vous être connecté à votre compte sur le tableau de bord de gestion des clés API, utilisez les paramètres de la clé que vous souhaitez transférer pour déplacer tous les jetons payants restants.
code
Puis-je révoquer ma clé API ?
keyboard_arrow_down
Oui, vous pouvez révoquer votre clé API si vous pensez qu'elle a été compromise. La révocation d'une clé la désactivera immédiatement pour tous les utilisateurs qui l'ont stockée, et tout le solde restant et les propriétés associées seront définitivement inutilisables. Si la clé est une clé premium, vous avez la possibilité de transférer le solde restant payé vers une autre clé avant la révocation. Notez que cette action ne peut pas être annulée. Pour révoquer une clé, accédez aux paramètres de clé dans le tableau de bord de gestion des clés API.
code
Pourquoi la première demande de certains modèles est-elle lente ?
keyboard_arrow_down
Cela est dû au fait que notre architecture sans serveur décharge certains modèles pendant les périodes de faible utilisation. La requête initiale active ou « réchauffe » le modèle, ce qui peut prendre quelques secondes. Après cette activation initiale, les requêtes suivantes sont traitées beaucoup plus rapidement.
code
Les données saisies par l'utilisateur sont-elles utilisées pour entraîner vos modèles ?
keyboard_arrow_down
Nous adhérons à une politique de confidentialité stricte et n'utilisons pas les données saisies par les utilisateurs pour former nos modèles. Nous sommes également conformes aux normes SOC 2 Type I et Type II, garantissant des normes élevées de sécurité et de confidentialité.
Questions courantes liées à la facturation
attach_money
La facturation est-elle basée sur le nombre de phrases ou de demandes ?
keyboard_arrow_down
Notre modèle de tarification est basé sur le nombre total de jetons traités, ce qui donne aux utilisateurs la possibilité d'attribuer ces jetons à un nombre illimité de phrases, offrant ainsi une solution rentable pour diverses exigences d'analyse de texte.
attach_money
Existe-t-il un essai gratuit disponible pour les nouveaux utilisateurs ?
keyboard_arrow_down
Nous offrons un essai gratuit aux nouveaux utilisateurs, comprenant dix millions de jetons utilisables avec tous nos modèles, grâce à une clé API générée automatiquement. Une fois la limite de jetons gratuits atteinte, les utilisateurs peuvent facilement acheter des jetons supplémentaires pour leurs clés API via l'onglet « Acheter des jetons ».
attach_money
Les jetons sont-ils facturés pour les demandes ayant échoué ?
keyboard_arrow_down
Non, les jetons ne sont pas déduits pour les demandes ayant échoué.
attach_money
Quels moyens de paiement sont acceptés ?
keyboard_arrow_down
Les paiements sont traités via Stripe, prenant en charge diverses méthodes de paiement, notamment les cartes de crédit, Google Pay et PayPal, pour votre commodité.
attach_money
La facturation est-elle disponible pour les achats de jetons ?
keyboard_arrow_down
Oui, une facture sera émise à l'adresse e-mail associée à votre compte Stripe lors de l'achat de tokens.
Des bureaux
location_on
Sunnyvale, Californie
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, États-Unis
location_on
Berlin, Allemagne (siège social)
Prinzessinnenstraße 19-20, 10969 Berlin, Allemagne
location_on
Pékin, Chine
Niveau 5, bâtiment 6, n° 48, rue Haidian Ouest, Pékin, Chine
location_on
Shenzhen, en Chine
402 étage 4, bâtiment technologique Fu'an, Shenzhen, Chine
Fondation Recherche
Lecteur
Intégrations
Reclasseur
Recherche profonde
Classificateur
Segmenteur
Documentation de l'API
Obtenir la clé API Jina
Limite de taux
Statut de l'API
Entreprise
À propos de nous
Contacter le service commercial
Rédaction
Programme de stage
Rejoignez-nous
open_in_new
Télécharger le logo
open_in_new
Termes
Sécurité
termes et conditions
Confidentialité
Gérer les cookies
email
Jina AI © 2020-2025.