Nouvelles
Modèles
API
keyboard_arrow_down
Lecteur
Lisez les URL et effectuez des recherches sur le Web pour de meilleurs LLM de base.
Intégrations
Intégrations multimodales et multilingues de classe mondiale.
Reclasseur
Récupérateur neuronal de classe mondiale pour maximiser la pertinence de la recherche.
MCP terminalCLIarticlellms.txtsmart_toyAgentsdata_objectSchémamenu_bookDocuments



Se connecter
login

Contacter le service commercial

Développez votre entreprise avec Jina AI.

nights_stay L'équipe commerciale est absente, de retour dans h

Deux façons d'acheter

Abonnez-vous à notre API ou achetez via des fournisseurs de cloud.
radio_button_unchecked
cloud
Avec 3 fournisseurs de services cloud
Votre entreprise utilise-t-elle AWS ou Azure ? Déployez ensuite directement nos modèles de fondation de recherche sur ces plateformes dans votre entreprise, afin que vos données restent sécurisées et conformes.
AWS SageMaker
Intégrations
Reclasseur
Microsoft Azure
Intégrations
Reclasseur
Google Cloud
Intégrations
radio_button_checked
Avec l'API Jina Search Foundation
Le moyen le plus simple d'accéder à tous nos produits. Rechargez vos jetons au fur et à mesure.
Rechargez cette clé API avec plus de jetons
Selon votre emplacement, vous pouvez être facturé en USD, EUR ou dans d'autres devises. Des taxes peuvent s'appliquer.
Veuillez saisir la bonne clé API pour recharger
Comprendre la limite de débit
Les limites de débit correspondent au nombre maximal de requêtes pouvant être adressées à une API en une minute par adresse IP/clé API (RPM). Découvrez ci-dessous les limites de débit pour chaque produit et niveau.
keyboard_arrow_down
Limite de taux
Les limites de débit sont suivies de trois manières : RPM (requêtes par minute) et TPM (jetons par minute). Les limites sont appliquées par IP/clé API et sont déclenchées dès que le seuil RPM ou TPM est atteint. Lorsque vous fournissez une clé API dans l'en-tête de la requête, nous suivons les limites de débit par clé plutôt que par adresse IP.
ProduitPoint de terminaison de l'APIDescriptionarrow_upwardsans clé APIkey_offavec clé API gratuitekeyavec clé API payantekeyavec clé API PremiumkeyLatence moyenneComptage de l'utilisation des jetonsDemande autorisée
API de lecteurhttps://r.jina.aiConvertir l'URL en texte compatible LLM20 RPM500 RPM500 RPMtrending_up5000 RPM7.9sComptez le nombre de jetons dans la réponse de sortie.GET/POST
API de lecteurhttps://s.jina.aiRecherchez sur le Web et convertissez les résultats en texte adapté au LLMblock100 RPM100 RPMtrending_up1000 RPM2.5sChaque demande coûte un nombre fixe de jetons, à partir de 10000 jetonsGET/POST
API d'intégrationhttps://api.jina.ai/v1/embeddingsConvertir du texte/des images en vecteurs de longueur fixeblock100 RPM & 100,000 TPM500 RPM & 2,000,000 TPMtrending_up5,000 RPM & 50,000,000 TPM
ssid_chart
dépend de la taille de l'entrée
help
Comptez le nombre de jetons dans la demande d'entrée.POST
API de reclassementhttps://api.jina.ai/v1/rerankClasser les documents par requêteblock100 RPM & 100,000 TPM500 RPM & 2,000,000 TPMtrending_up5,000 RPM & 50,000,000 TPM
ssid_chart
dépend de la taille de l'entrée
help
Comptez le nombre de jetons dans la demande d'entrée.POST
API de classificateurhttps://api.jina.ai/v1/trainEntraîner un classificateur à l'aide d'exemples étiquetésblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
dépend de la taille de l'entrée
Les jetons sont comptés comme suit : input_tokens × num_itersPOST
API de classificateur (Coup zéro)https://api.jina.ai/v1/classifyClasser les entrées à l'aide de la classification à coup zéroblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
dépend de la taille de l'entrée
Jetons comptés comme : input_tokens + label_tokensPOST
API de classificateur (Quelques coups)https://api.jina.ai/v1/classifyClasser les entrées à l'aide d'un classificateur à quelques coups entraînéblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
dépend de la taille de l'entrée
Jetons comptés comme : input_tokensPOST
API de segmentationhttps://api.jina.ai/v1/segmentTokeniser et segmenter un texte long20 RPM200 RPM200 RPM1,000 RPM0.3sLe jeton n'est pas comptabilisé comme une utilisation.GET/POST
Recherche profondehttps://deepsearch.jina.ai/v1/chat/completionsRaisonner, rechercher et itérer pour trouver la meilleure réponseblock50 RPM50 RPM500 RPM56.7sComptez le nombre total de jetons dans l’ensemble du processus.POST

FAQ

Jina IA × Élastique

handshake
La marque Jina sera-t-elle préservée ?
keyboard_arrow_down
Oui. Jina est en pleine transition vers une marque de référence. Un peu comme Qwen est devenu Alibaba, GPT est devenu OpenAI, ou Kimi est devenu Moonshot. Nous allons progressivement faire évoluer l'identité juridique de l'entreprise de « Jina AI » à Elastic, permettant ainsi à Jina AI de se concentrer exclusivement sur les modèles de recherche fondamentale.
handshake
Sur quoi Jina AI va-t-elle se concentrer à l'avenir ?
keyboard_arrow_down
Des embeddings, des réordonnanceurs et des modèles de langage légers pour une recherche plus performante. Notre mission n'est pas encore accomplie : nous n'avons jamais caché notre ambition de devenir un fournisseur de modèles de recherche de renommée mondiale.
handshake
Les offres d'API et de places de marché cloud vont-elles se poursuivre ?
keyboard_arrow_down
Oui. Les API Reader, Embedding et Reranker continueront d'être développées et maintenues. Chaque modèle publié sera également disponible sur les plateformes de distribution cloud. Vous pouvez continuer à utiliser nos services API comme auparavant. Seule exception : nous ne pouvons pas fournir nos services aux entités ou pays soumis aux contrôles américains à l'exportation.
handshake
Allez-vous continuer à proposer des modèles à poids libre sur Hugging Face ?
keyboard_arrow_down
Oui. Chez Elastic, Jina continuera de repousser les limites des modèles de recherche de base, et nous continuerons de publier des modèles à pondération ouverte.
handshake
Sous quelle licence ces modèles ouverts seront-ils publiés ?
keyboard_arrow_down
Nous continuerons à publier sous licence CC-BY-NC 4.0, sauf changement de circonstances, ce qui est peu probable.
handshake
Allez-vous continuer à publier des articles de recherche ?
keyboard_arrow_down
Oui. Chaque modèle que nous publierons sera étayé par un article rigoureux, et nous continuerons à soumettre nos travaux à des conférences de premier plan telles que ICLR, EMNLP, SIGIR, NeurIPS et ICML.
handshake
Je ne suis pas encore client de Jina ou d'Elastic, mais je souhaite utiliser l'API Reader, les API de modèles ou les images du marché cloud. Que dois-je faire ?
keyboard_arrow_down
Il vous suffit de vous inscrire et de payer via notre site web ou la plateforme de téléchargement cloud appropriée, comme auparavant.
handshake
Je suis déjà client Elastic payant et je souhaite utiliser l'API Reader, les API de modèles ou les images de la place de marché cloud. Que dois-je faire ?
keyboard_arrow_down
Actuellement, nos produits ne font pas partie des références Elastic ; vous devrez donc toujours effectuer votre paiement via notre site web pour accéder à ces services. Les modèles Jina seront prochainement disponibles via Elastic Inference Service.
handshake
Je suis client Elastic payant et je souhaite utiliser les modèles d'intégration et de reclassement Jina en local à des fins commerciales, et non via l'API ou une place de marché cloud. Que dois-je faire ?
keyboard_arrow_down
Si vous possédez une licence Elastic payante, l'utilisation commerciale de nos modèles est très probablement déjà incluse. Vous pouvez les utiliser immédiatement. En cas de doute, veuillez contacter votre représentant commercial Elastic ou votre ingénieur commercial terrain ; ils se chargeront de nous le confirmer.
handshake
Je ne suis pas client d'Elastic et je souhaite utiliser les modèles d'intégration et de réorganisation Jina en local à des fins commerciales, et non via une API ou une plateforme cloud. Que dois-je faire ?
keyboard_arrow_down
Étant donné que nous sommes en cours d'intégration avec Elastic, la marche à suivre sera bientôt plus claire. Pour l'instant, nous ne sommes pas en mesure de proposer des contrats de licence commerciale indépendants pour nos modèles.
handshake
J'achète vos services en tant qu'entité chinoise. Puis-je obtenir une facture en chinois (发票) ?
keyboard_arrow_down
Nous n'avons pas d'entité juridique en Chine et ne pouvons donc pas émettre de factures en chinois. Celles-ci sont émises par Jina AI GmbH, notre siège social en Allemagne.
handshake
Je souhaite signer un contrat avec Jina AI. Que dois-je faire ?
keyboard_arrow_down
Les contrats à durée déterminée ont toujours représenté une part mineure du modèle commercial de Jina AI ; la plupart de nos clients optent pour une tarification à l’usage. Bien que nous intégrions Elastic, nous n’établissons pas de nouveaux contrats pour le moment.
handshake
Je suis client payant d'Elastic et je souhaite apprendre les bonnes pratiques d'utilisation des embeddings et des modèles de reranking, ou plus généralement, je m'intéresse au développement de Jina AI. Que dois-je faire ?
keyboard_arrow_down
Contactez votre représentant commercial Elastic, et nous pourrons organiser une réunion entre vous, l'équipe Jina AI et Elastic pour en discuter.

Comment obtenir ma clé API ?

video_not_supported

Quelle est la limite de débit ?

Limite de taux
Les limites de débit sont suivies de trois manières : RPM (requêtes par minute) et TPM (jetons par minute). Les limites sont appliquées par IP/clé API et sont déclenchées dès que le seuil RPM ou TPM est atteint. Lorsque vous fournissez une clé API dans l'en-tête de la requête, nous suivons les limites de débit par clé plutôt que par adresse IP.
ProduitPoint de terminaison de l'APIDescriptionarrow_upwardsans clé APIkey_offavec clé API gratuitekeyavec clé API payantekeyavec clé API PremiumkeyLatence moyenneComptage de l'utilisation des jetonsDemande autorisée
API de lecteurhttps://r.jina.aiConvertir l'URL en texte compatible LLM20 RPM500 RPM500 RPMtrending_up5000 RPM7.9sComptez le nombre de jetons dans la réponse de sortie.GET/POST
API de lecteurhttps://s.jina.aiRecherchez sur le Web et convertissez les résultats en texte adapté au LLMblock100 RPM100 RPMtrending_up1000 RPM2.5sChaque demande coûte un nombre fixe de jetons, à partir de 10000 jetonsGET/POST
API d'intégrationhttps://api.jina.ai/v1/embeddingsConvertir du texte/des images en vecteurs de longueur fixeblock100 RPM & 100,000 TPM500 RPM & 2,000,000 TPMtrending_up5,000 RPM & 50,000,000 TPM
ssid_chart
dépend de la taille de l'entrée
help
Comptez le nombre de jetons dans la demande d'entrée.POST
API de reclassementhttps://api.jina.ai/v1/rerankClasser les documents par requêteblock100 RPM & 100,000 TPM500 RPM & 2,000,000 TPMtrending_up5,000 RPM & 50,000,000 TPM
ssid_chart
dépend de la taille de l'entrée
help
Comptez le nombre de jetons dans la demande d'entrée.POST
API de classificateurhttps://api.jina.ai/v1/trainEntraîner un classificateur à l'aide d'exemples étiquetésblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
dépend de la taille de l'entrée
Les jetons sont comptés comme suit : input_tokens × num_itersPOST
API de classificateur (Coup zéro)https://api.jina.ai/v1/classifyClasser les entrées à l'aide de la classification à coup zéroblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
dépend de la taille de l'entrée
Jetons comptés comme : input_tokens + label_tokensPOST
API de classificateur (Quelques coups)https://api.jina.ai/v1/classifyClasser les entrées à l'aide d'un classificateur à quelques coups entraînéblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
dépend de la taille de l'entrée
Jetons comptés comme : input_tokensPOST
API de segmentationhttps://api.jina.ai/v1/segmentTokeniser et segmenter un texte long20 RPM200 RPM200 RPM1,000 RPM0.3sLe jeton n'est pas comptabilisé comme une utilisation.GET/POST
Recherche profondehttps://deepsearch.jina.ai/v1/chat/completionsRaisonner, rechercher et itérer pour trouver la meilleure réponseblock50 RPM50 RPM500 RPM56.7sComptez le nombre total de jetons dans l’ensemble du processus.POST

Ai-je besoin d’une licence commerciale ?

Auto-vérification de la licence CC BY-NC

play_arrow
Utilisez-vous notre API officielle ou nos images officielles sur Azure, AWS ou GCP ?
play_arrow
Oui
Aucune restriction. Inscrivez-vous simplement et payez via notre site web ou notre plateforme cloud.
play_arrow
Non
play_arrow
Êtes-vous un client Elastic payant ?
play_arrow
Oui
L'utilisation commerciale est probablement déjà incluse dans votre licence Elastic. En cas de doute, contactez votre représentant commercial Elastic.
Contacter le service commercial
play_arrow
Non
Nous ne sommes actuellement pas en mesure de délivrer des contrats de licence commerciale indépendants. Veuillez contacter le service commercial d'Elastic pour plus d'informations.
Contacter le service commercial

Autres questions

Questions courantes liées aux lecteurs
Quels sont les coûts associés à l’utilisation de l’API Reader ?
keyboard_arrow_down
L'API Reader est gratuite pour une utilisation basique : il suffit d'ajouter « https://r.jina.ai/ » au début de votre URL. Pour des limites de requêtes plus élevées, vous pouvez fournir une clé API ; le coût est alors calculé en fonction de la longueur du contenu. Consultez la question 16 pour plus de détails sur les limites de requêtes.
Comment fonctionne l'API Reader ?
keyboard_arrow_down
L'API Reader utilise un proxy pour récupérer n'importe quelle URL, rendant son contenu dans un navigateur pour extraire le contenu principal de haute qualité.
L'API Reader est-elle open source ?
keyboard_arrow_down
Oui, l'API Reader est open source et disponible sur le référentiel Jina AI GitHub.
Quelle est la latence typique de l’API Reader ?
keyboard_arrow_down
L'API Reader traite généralement les URL et renvoie le contenu dans un délai de 2 secondes, bien que les pages complexes ou dynamiques puissent nécessiter plus de temps.
Pourquoi devrais-je utiliser l'API Reader au lieu de gratter la page moi-même ?
keyboard_arrow_down
Le scraping peut être compliqué et peu fiable, en particulier avec des pages complexes ou dynamiques. L'API Reader fournit une sortie rationalisée et fiable de texte propre et prêt pour LLM.
L'API Reader prend-elle en charge plusieurs langues ?
keyboard_arrow_down
L'API Reader renvoie le contenu dans la langue d'origine de l'URL. Il ne fournit pas de services de traduction.
Que dois-je faire si un site Web bloque l’API Reader ?
keyboard_arrow_down
Si vous rencontrez des problèmes de blocage, veuillez contacter notre équipe d'assistance pour obtenir de l'aide et une résolution.
L'API Reader peut-elle extraire le contenu des fichiers PDF ?
keyboard_arrow_down
Bien qu'elle soit principalement conçue pour les pages Web, l'API Reader peut extraire le contenu des PDF affichés au format HTML sur des sites Web comme arXiv, mais elle n'est pas optimisée pour l'extraction PDF générale.
L'API Reader peut-elle traiter le contenu multimédia des pages Web ?
keyboard_arrow_down
Oui, Reader peut ajouter des légendes aux images des pages web grâce à l'en-tête `x-with-generated-alt`. Cela permet d'ajouter des balises alt descriptives aux images qui en sont dépourvues, facilitant ainsi la compréhension du contenu visuel par les assistants linguistiques. La synthèse vidéo est prévue dans les prochaines versions.
Est-il possible d'utiliser l'API Reader sur des fichiers HTML locaux ?
keyboard_arrow_down
Non, l'API Reader ne peut traiter que le contenu provenant d'URL accessibles au public.
L'API Reader met-elle en cache le contenu ?
keyboard_arrow_down
Si vous demandez la même URL dans les 5 minutes, l'API Reader renverra le contenu mis en cache.
Puis-je utiliser l'API Reader pour accéder au contenu derrière une connexion ?
keyboard_arrow_down
Malheureusement non.
Puis-je utiliser l'API Reader pour accéder au PDF sur arXiv ?
keyboard_arrow_down
Oui, vous pouvez soit utiliser le support PDF natif du Reader (https://r.jina.ai/https://arxiv.org/pdf/2310.19923v4), soit utiliser la version HTML d'arXiv (https:// r.jina.ai/https://arxiv.org/html/2310.19923v4)
Comment fonctionne la légende d’image dans Reader ?
keyboard_arrow_down
Reader sous-titre toutes les images à l'URL spécifiée et ajoute « Image [idx] : [caption] » comme balise alt (si elles en manquent initialement). Cela permet aux LLM en aval d'interagir avec les images dans le raisonnement, la synthèse, etc.
Quelle est l’évolutivité du Reader ? Puis-je l’utiliser en production ?
keyboard_arrow_down
L'API Reader est conçue pour être hautement évolutive. Il est automatiquement mis à l'échelle en fonction du trafic en temps réel et le nombre maximal de requêtes simultanées est désormais d'environ 4 000. Nous le maintenons activement comme l'un des produits principaux de Jina AI. N'hésitez donc pas à l'utiliser en production.
Quelle est la limite de débit de l’API Reader ?
keyboard_arrow_down
Veuillez trouver les dernières informations sur les limites de taux dans le tableau ci-dessous. Notez que nous travaillons activement à l'amélioration de la limite de débit et des performances de l'API Reader, le tableau sera mis à jour en conséquence.
speedLimite de taux
Qu'est-ce que Reader-LM ? Comment puis-je l'utiliser ?
keyboard_arrow_down
ReaderLM-v2 est notre tout dernier modèle de langage léger (SLM) permettant de convertir du HTML brut en Markdown ou JSON propre. Il offre une qualité trois fois supérieure à la version 1 et peut extraire des données structurées à l'aide d'un schéma JSON ou d'instructions en langage naturel. Vous pouvez l'utiliser directement via l'API Reader avec l'en-tête x-respond-with: readerlm-v2, ou le déployer depuis les places de marché cloud (AWS, Azure, GCP).
launchAWS SageMakerlaunchGoogle CloudlaunchMicrosoft Azure
Comment extraire des données structurées à partir de pages web ?
keyboard_arrow_down
Utilisez l'en-tête `x-json-schema` avec une définition de schéma JSON, ou l'en-tête `x-instruction` avec des instructions en langage naturel. Ces deux fonctionnalités sont compatibles avec ReaderLM-v2 pour extraire des champs spécifiques (prix, titres, dates, etc.) de n'importe quelle page web et les convertir au format JSON structuré.
Le lecteur contourne-t-il activement la protection anti-robots du site web ?
keyboard_arrow_down
Non. Notre service ne cherche pas à contourner les mécanismes de défense des sites web, les systèmes anti-robots ou les contrôles d'accès. Si un site web détecte notre service comme provenant d'un robot et bloque la requête, cette décision est respectée. Nous fonctionnons comme un client web standard et n'utilisons aucune technique visant à échapper aux systèmes de détection.
Le passage d'une clé API gratuite à une clé payante me donnera-t-il accès à davantage de sites web ?
keyboard_arrow_down
Non. Le passage d'une version gratuite à une clé API payante ne donne pas accès à des sites web supplémentaires et ne permet pas de contourner les restrictions des sites. La différence entre les versions réside principalement dans les limites de débit et l'optimisation des performances. Une clé API payante offre un débit de requêtes plus élevé et un traitement plus rapide, mais elle ne permet pas d'accéder aux sites web qui bloquent notre service.
Questions courantes liées aux intégrations
Comment les modèles d'intégration Jina ont-ils été entraînés ?
keyboard_arrow_down
Pour des informations détaillées sur nos processus de formation, nos sources de données et nos évaluations, veuillez vous référer à nos rapports techniques sur arXiv pour jina-embeddings-v3 et jina-embeddings-v4.
launcharXiv
Quels sont vos modèles d'intégration multimodaux ?
keyboard_arrow_down
jina-embeddings-v4 est notre dernier modèle multimodal universel (3,8 milliards de paramètres) prenant en charge le texte et les images avec un contexte de 32 Ko, la recherche dense et la recherche en interaction tardive, et des performances de pointe sur les documents visuellement riches. jina-clip-v2 est une option plus légère (865 millions de paramètres) prenant en charge 89 langues avec une résolution d'image de 512x512 et des représentations de type Matriochka. Les deux excellent dans les tâches de recherche texte-texte, texte-image et image-image.
launcharXiv
Quelles langues vos modèles prennent-ils en charge ?
keyboard_arrow_down
Les modules jina-embeddings-v4 et jina-embeddings-v3 prennent tous deux en charge 89 langues et offrent d'excellentes performances multilingues. Parmi les 30 langues les plus utilisées figurent : l'arabe, le bengali, le chinois, le danois, le néerlandais, l'anglais, le finnois, le français, le géorgien, l'allemand, le grec, l'hindi, l'indonésien, l'italien, le japonais, le coréen, le letton, le norvégien, le polonais, le portugais, le roumain, le russe, le slovaque, l'espagnol, le suédois, le thaï, le turc, l'ukrainien, l'ourdou et le vietnamien. Le module jina-clip-v2 prend également en charge 89 langues pour les tâches multimodales.
launcharXiv
Quelle est la longueur maximale d’une seule phrase saisie ?
keyboard_arrow_down
La longueur du contexte varie selon le modèle : `jina-embeddings-v4` prend en charge jusqu’à 32 000 jetons, tandis que `jina-embeddings-v3` et `jina-clip-v2` en prennent en charge jusqu’à 8 192. Un jeton peut aller d’un seul caractère à un mot entier. Ce contexte étendu permet une analyse documentaire complète et une meilleure compréhension du contexte pour les données textuelles volumineuses.
Quel est le nombre maximum de phrases que je peux inclure dans une seule demande ?
keyboard_arrow_down
Il n'y a pas de limite stricte au nombre d'éléments par requête. L'API regroupe les entrées en interne par nombre de jetons pour une utilisation optimale du GPU. Vous pouvez envoyer autant de textes ou d'images que nécessaire dans une seule requête.
Comment envoyer des images à des modèles d'intégration multimodaux ?
keyboard_arrow_down
Pour `jina-embeddings-v4`, `jina-clip-v2` et `jina-clip-v1`, vous pouvez utiliser `url` ou `bytes` dans le champ `input` de la requête API. Pour `url`, indiquez l'URL de l'image à traiter. Pour `bytes`, encodez l'image au format base64. `jina-embeddings-v4` peut également intégrer directement des documents PDF en fournissant une URL PDF ou des octets PDF encodés en base64.
Comment les modèles Jina Embeddings se comparent-ils aux derniers embeddings d'OpenAI et de Cohere ?
keyboard_arrow_down
jina-embeddings-v4 est notre tout dernier modèle phare, atteignant l'état de l'art en matière de recherche de documents visuellement riches (ViDoRe) et sur des benchmarks multimodaux. Pour les tâches textuelles uniquement, jina-embeddings-v3 surpasse OpenAI et Cohere sur les benchmarks MTEB anglais et multilingue, tout en étant plus compact et plus efficace. Les deux modèles prennent en charge l'apprentissage par représentation Matryoshka (MRL), permettant une réduction de la dimensionnalité (jusqu'à 32 pour v3 et 128 pour v4) sans perte de performance significative.
Dans quelle mesure la transition entre Text-Embedding-3-Large d'OpenAI et votre solution est-elle transparente ?
keyboard_arrow_down
La transition est simplifiée, car notre point de terminaison d'API correspond aux schémas JSON d'entrée et de sortie du modèle text-embedding-3-large d'OpenAI. Cette compatibilité garantit que les utilisateurs peuvent facilement remplacer le modèle OpenAI par le nôtre lorsqu'ils utilisent le point de terminaison d'OpenAI.
Comment les jetons sont-ils calculés lors de l'utilisation des modèles jina-clip ?
keyboard_arrow_down
Les jetons sont calculés en fonction de la longueur du texte et de la taille de l'image. Pour le texte de la requête, les jetons sont comptabilisés de manière standard. Pour les images, les étapes suivantes sont suivies : 1. Taille des tuiles : Chaque image est divisée en tuiles. Pour jina-embeddings-v4, les tuiles mesurent 28 x 28 pixels, pour jina-clip-v2, 512 x 512 pixels, et pour jina-clip-v1, 224 x 224 pixels. 2. Couverture : Le nombre de tuiles nécessaires pour couvrir l'image d'entrée est calculé. Même si les dimensions de l'image ne sont pas parfaitement divisibles par la taille de la tuile, les tuiles partielles sont comptées comme des tuiles complètes. 3. Nombre total de tuiles : Le nombre total de tuiles couvrant l'image détermine le coût. Par exemple, une image de 600 x 600 pixels serait couverte par 22 x 22 tuiles (484 tuiles) dans jina-embeddings-v4, par 2 x 2 tuiles (4 tuiles) dans jina-clip-v2 et par 3 x 3 tuiles (9 tuiles) dans jina-clip-v1. 4. Calcul du coût : Pour jina-embeddings-v4, chaque tuile coûte 10 jetons, pour jina-clip-v2, chaque tuile coûte 4 000 jetons, tandis que pour jina-clip-v1, chaque tuile coûte 1 000 jetons. Exemple : Pour une image de 600 x 600 pixels : • Avec jina-embeddings-v4 • L’image est divisée en tuiles de 28 x 28 pixels. • Le nombre total de tuiles requises est de 22 (horizontales) x 22 (verticales) = 484 tuiles. • Le coût de jina-embeddings-v4 sera de 484 x 10 = 4 840 jetons. • Avec jina-clip-v2 • L'image est divisée en tuiles de 512 x 512 pixels. • Le nombre total de tuiles requises est de 2 (horizontales) x 2 (verticales) = 4 tuiles. • Le coût de jina-clip-v2 sera de 4 x 4 000 = 16 000 jetons. • Avec jina-clip-v1 • L'image est divisée en tuiles de 224 x 224 pixels. • Le nombre total de tuiles requises est de 3 (horizontales) x 3 (verticales) = 9 tuiles. • Le coût de jina-clip-v1 sera de 9*1000 = 9000 jetons.
Fournissez-vous des modèles pour intégrer des images ou du son ?
keyboard_arrow_down
Oui, jina-clip-v2 et jina-clip-v1 peuvent intégrer à la fois des images et des textes. L'intégration de modèles sur d'autres modalités sera annoncée prochainement !
Les modèles Jina Embedding peuvent-ils être ajustés avec des données privées ou d’entreprise ?
keyboard_arrow_down
Pour toute question concernant le réglage fin de nos modèles avec des données spécifiques, veuillez nous contacter pour discuter de vos besoins. Nous sommes ouverts à l’exploration de la manière dont nos modèles peuvent être adaptés pour répondre à vos besoins.
Contact
Vos points de terminaison peuvent-ils être hébergés en privé sur AWS, Azure ou GCP ?
keyboard_arrow_down
Oui, nos services sont disponibles sur les marketplaces AWS, Azure et GCP. Si vous avez des besoins spécifiques, veuillez nous contacter à sales AT jina.ai.
launchAWS SageMakerlaunchGoogle CloudlaunchMicrosoft Azure
Qu’est-ce que le paramètre « task » et quand dois-je l’utiliser ?
keyboard_arrow_down
Le paramètre `task` dans `jina-embeddings-v3` et `jina-embeddings-v4` active les adaptateurs LoRA spécifiques à la tâche pour des performances optimales. Utilisez `retrieval.query` pour les requêtes de recherche, `retrieval.passage` pour les documents à analyser, `text-matching` pour la similarité sémantique, `classification` pour la classification de texte et `separation` pour les tâches de clustering.
Qu’est-ce que la récupération d’interactions tardives et quels modèles la prennent en charge ?
keyboard_arrow_down
Le modèle `jina-embeddings-v4` prend en charge la recherche dense (vecteur unique) et la recherche à interaction tardive (vecteurs multiples) via le paramètre `output_type`. La recherche à interaction tardive préserve des informations plus fines au niveau des jetons, ce qui améliore la précision de la recherche pour les requêtes complexes. Le modèle `jina-colbert-v2` est un modèle dédié à la recherche à interaction tardive.
Qu’est-ce que le découpage tardif et quand dois-je l’utiliser ?
keyboard_arrow_down
Le découpage tardif est une technique qui consiste à intégrer d'abord l'intégralité du document à l'aide de modèles à contexte long, puis à extraire les représentations vectorielles des segments à partir des tokens. Contrairement au découpage classique (segmentation puis intégration), le découpage tardif préserve le contexte inter-segments, améliorant ainsi la recherche pour les applications RAG. Activez-le via le paramètre `late_chunking` dans `jina-embeddings-v3`.
Pourquoi l'API prend-elle en charge une longueur de contexte différente de la capacité maximale du modèle ?
keyboard_arrow_down
Bien que certains de nos modèles d'intégration soient conçus pour traiter des contextes plus longs, l'API peut imposer des limites inférieures en raison des contraintes de mémoire vidéo (VRAM) du GPU dans notre infrastructure d'inférence. Le traitement de séquences très longues exige une quantité importante de mémoire, et nous optimisons notre configuration de service afin d'équilibrer débit, latence et coût pour la plupart des cas d'utilisation. Si vous avez besoin d'une prise en charge étendue des contextes, veuillez contacter notre équipe commerciale pour discuter des options de déploiement dédiées.
Pourquoi jina-embeddings-v4 est-il gratuit, et pourquoi est-il lent ?
keyboard_arrow_down
Le modèle `jina-embeddings-v4` est basé sur le modèle Qwen2-VL, distribué sous licence de recherche Qwen. Cette licence autorise uniquement la recherche et une utilisation non commerciale ; nous ne pouvons donc pas commercialiser `jina-embeddings-v4`. Par conséquent, l'accès au modèle est gratuit via notre API. `jina-embeddings-v4` peut sembler plus lent que d'autres modèles pour deux raisons : premièrement, il est nettement plus volumineux que `jina-embeddings-v3`, ce qui implique un temps de calcul plus important par requête ; deuxièmement, l'impossibilité de commercialiser ce modèle nous oblige à limiter le débit de l'API afin de maîtriser les coûts d'infrastructure. Les utilisateurs ne doivent donc pas s'attendre à un débit élevé ou de niveau production avec l'API `jina-embeddings-v4`. Pour les charges de travail de production nécessitant un débit plus élevé, nous recommandons d'utiliser jina-embeddings-v3 ou de déployer jina-embeddings-v4 sur votre propre infrastructure via Hugging Face.
Quelles sont les limites de débit de l'API Embeddings ?
keyboard_arrow_down
Les limites de débit dépendent du type de votre clé API :

Gratuit : 100 tr/min, 100 000 TPM, 2 requêtes simultanées
Payant : 500 tr/min, 2 millions de TPM, 50 requêtes simultanées
Premium : 5 000 tr/min, 50 millions de TPM, 500 requêtes simultanées

De plus, une limite de débit de 10 000 requêtes par adresse IP et par période de 60 secondes est appliquée afin de prévenir les abus. Si vous avez besoin de limites supérieures, veuillez contacter notre équipe commerciale.
Quelles sont les limites de longueur de contexte pour chaque modèle d'intégration ?
keyboard_arrow_down
Chaque modèle a une longueur de contexte maximale par entrée :

jina-embeddings-v4 : 32 768 jetons
jina-embeddings-v3 : 8 192 jetons
jina-embeddings-v2-* : 8 192 jetons
jina-clip-v1/v2 : 8 192 jetons
jina-colbert-v1/v2 : 8 192 jetons
jina-code-embeddings-* : 32 768 jetons

Les entrées dépassant la limite renverront une erreur, sauf si truncate: true est défini, ce qui tronque automatiquement à la longueur maximale.
Quelles sont les limites de taille des fichiers image et PDF ?
keyboard_arrow_down
Taille maximale des fichiers : Images : 5 Mo, PDF : 8 Mo. Les fichiers plus volumineux seront rejetés et un message d’erreur s’affichera.
Questions courantes liées au reranker
Combien coûte l’API Reranker ?
keyboard_arrow_down
La tarification de l'API Reranker est alignée sur celle de notre API Embedding. Elle commence avec 10 millions de jetons gratuits pour chaque nouvelle clé API. Outre ces jetons gratuits, différents packages sont disponibles à l'achat. Pour plus d'informations, veuillez consulter notre section Tarifs.
Quelles sont les différences entre les modérateurs de Jina ?
keyboard_arrow_down
jina-reranker-v3 est notre tout dernier outil de reclassement phare, doté d'une architecture novatrice par listes, offrant des performances de pointe en matière de recherche multilingue avec une longueur de contexte de 131 000 caractères. jina-reranker-m0 est notre outil de reclassement multimodal permettant de classer des documents visuels dans différentes langues. jina-reranker-v2-base-multilingual est un encodeur croisé prenant en charge plus de 100 langues, avec appels de fonctions et récupération de code. jina-colbert-v2 utilise l'interaction tardive pour 89 langues, avec des tailles d'embeddings configurables par l'utilisateur.
Les Jina Rerankers sont-ils open source ?
keyboard_arrow_down
Oui, tous nos outils de réordonnancement (jina-reranker-v3, jina-reranker-m0, jina-reranker-v2-base-multilingual et jina-colbert-v2) sont open source et disponibles sous licence CC-BY-NC 4.0. Vous êtes libre d'utiliser, de partager et d'adapter ces modèles à des fins non commerciales.
Les rerankers prennent-ils en charge plusieurs langues ?
keyboard_arrow_down
Oui, tous nos outils de réévaluation prennent en charge la recherche multilingue. `jina-reranker-v3` et `jina-reranker-v2-base-multilingual` prennent en charge plus de 100 langues. `jina-reranker-m0` prend en charge le classement visuel multilingue des documents. `jina-colbert-v2` prend en charge 89 langues.
Quelle est la longueur maximale du contexte pour chaque modèle de reclassement ?
keyboard_arrow_down
La longueur du contexte varie selon le modèle :

jina-reranker-v3 : 131 072 jetons (requête + tous les documents combinés) avec troncature automatique
jina-reranker-m0 : 10 000 jetons
jina-reranker-v2-base-multilingual : 1 024 jetons avec découpage automatique pour les documents longs
jina-reranker-v1-* : 1 024 jetons avec découpage automatique
jina-colbert-v2 : 8 192 jetons

Pour les réorganisateurs v1/v2, les requêtes sont automatiquement tronquées et les documents longs sont découpés en segments avec un regroupement maximal entre les segments.
Existe-t-il une limite au nombre de documents que je peux réorganiser par requête ?
keyboard_arrow_down
Il n'y a pas de limite stricte au nombre de documents par requête. À l'instar de notre API Embeddings, l'API Reranker regroupe les entrées en interne par nombre de jetons afin d'optimiser l'utilisation du GPU. Vous pouvez envoyer autant de documents que nécessaire en une seule requête.
À quelle latence puis-je m'attendre lors du reclassement de 100 documents ?
keyboard_arrow_down
La latence varie de 100 millisecondes à 7 secondes, en fonction en grande partie de la longueur des documents et de la requête. Par exemple, le reclassement de 100 documents de 256 jetons chacun avec une requête de 64 jetons prend environ 150 millisecondes. L'augmentation de la longueur du document à 4 096 jetons augmente le temps à 3,5 secondes. Si la longueur de la requête est augmentée à 512 jetons, le temps augmente encore à 7 secondes.
Vous trouverez ci-dessous le coût en temps nécessaire au reclassement d'une requête et de 100 documents en millisecondes :
Nombre de jetons dans chaque document
Nombre de jetons dans la requête256512102420484096
64156323136621073571
128194369137721233598
256273475139721554299
5124681385211435367068
Vos points de terminaison peuvent-ils être hébergés en privé sur AWS, Azure ou GCP ?
keyboard_arrow_down
Oui, nos services sont disponibles sur les marketplaces AWS, Azure et GCP. Si vous avez des besoins spécifiques, veuillez nous contacter à sales AT jina.ai.
launchAWS SageMakerlaunchGoogle CloudlaunchMicrosoft Azure
Proposez-vous un reranker affiné sur les données spécifiques à un domaine ?
keyboard_arrow_down
Si vous êtes intéressé par un reranker affiné et adapté à des données de domaine spécifiques, veuillez contacter notre équipe commerciale. Notre équipe répondra à votre demande dans les plus brefs délais.
Contact
Quelle est la taille minimale de l'image pour les documents ?
keyboard_arrow_down
La taille d'image minimale acceptable pour le modèle jina-reranker-m0 est de 28x28 pixels.
Qu’est-ce que le réordonnancement par liste et en quoi diffère-t-il du réordonnancement par points ?
keyboard_arrow_down
jina-reranker-v3 utilise une architecture novatrice de classement par liste qui évalue tous les documents simultanément en une seule passe, permettant ainsi la comparaison entre documents. Les systèmes de classement ponctuels traditionnels (comme la version 2) évaluent chaque document indépendamment par rapport à la requête. Le classement par liste atteint une précision supérieure en tenant compte de la pertinence relative au sein de l'ensemble des candidats.
Pourquoi l'API prend-elle en charge une longueur de contexte différente de la capacité maximale du modèle ?
keyboard_arrow_down
Bien que certains de nos modèles de réordonnancement soient conçus pour traiter des contextes plus longs, l'API peut imposer des limites inférieures en raison des contraintes de mémoire vidéo (VRAM) des GPU de notre infrastructure d'inférence. Le traitement de séquences très longues exige une quantité importante de mémoire ; nous optimisons donc notre configuration de service afin d'équilibrer débit, latence et coût pour la plupart des cas d'utilisation. Si vous avez besoin d'une prise en charge étendue des contextes, veuillez contacter notre équipe commerciale pour discuter des options de déploiement dédiées.
Quelles sont les limites de débit de l'API Reranker ?
keyboard_arrow_down
Les limites de débit dépendent du type de votre clé API :

Gratuite : 100 RPM, 100 000 TPM, 2 requêtes simultanées
Payante : 500 RPM, 2 millions de TPM, 50 requêtes simultanées
Premium : 5 000 RPM, 50 millions de TPM, 500 requêtes simultanées

Il existe également une limite de débit basée sur l’adresse IP de 10 000 requêtes par 60 secondes. Ces mêmes limites s’appliquent aux API Embeddings et Reranker.
Questions courantes liées à l'API
code
Puis-je utiliser la même clé API pour les API de lecture, d'intégration, de reclassement, de classification et de réglage fin ?
keyboard_arrow_down
Oui, la même clé API est valable pour tous les produits de recherche de Jina AI. Cela inclut les API de lecture, d'intégration, de reclassement, de classification et de réglage fin, avec des jetons partagés entre tous les services.
code
Puis-je surveiller l’utilisation des jetons de ma clé API ?
keyboard_arrow_down
Oui, l'utilisation des jetons peut être surveillée dans l'onglet « Clé API et facturation » en saisissant votre clé API, ce qui vous permet d'afficher l'historique d'utilisation récent et les jetons restants. Si vous êtes connecté au tableau de bord de l'API, ces détails peuvent également être consultés dans l'onglet « Gérer la clé API ».
code
Que dois-je faire si j'oublie ma clé API ?
keyboard_arrow_down
Si vous avez égaré une clé rechargée et souhaitez la récupérer, veuillez contacter le support AT jina.ai avec votre adresse e-mail enregistrée pour obtenir de l'aide. Il est recommandé de vous connecter pour conserver votre clé API en toute sécurité et facilement accessible.
Contact
code
Les clés API expirent-elles ?
keyboard_arrow_down
Non, nos clés API n'ont pas de date d'expiration. Cependant, si vous pensez que votre clé a été compromise et souhaitez la retirer, veuillez contacter notre équipe d'assistance pour obtenir de l'aide. Vous pouvez également révoquer votre clé dans le tableau de bord de gestion des clés API.
Contact
code
Puis-je transférer des jetons entre des clés API ?
keyboard_arrow_down
Oui, vous pouvez transférer des jetons d'une clé premium vers une autre. Après vous être connecté à votre compte sur le tableau de bord de gestion des clés API, utilisez les paramètres de la clé que vous souhaitez transférer pour déplacer tous les jetons payants restants.
code
Puis-je révoquer ma clé API ?
keyboard_arrow_down
Oui, vous pouvez révoquer votre clé API si vous pensez qu'elle a été compromise. La révocation d'une clé la désactivera immédiatement pour tous les utilisateurs qui l'ont stockée, et tout le solde restant et les propriétés associées seront définitivement inutilisables. Si la clé est une clé premium, vous avez la possibilité de transférer le solde restant payé vers une autre clé avant la révocation. Notez que cette action ne peut pas être annulée. Pour révoquer une clé, accédez aux paramètres de clé dans le tableau de bord de gestion des clés API.
code
Pourquoi la première demande de certains modèles est-elle lente ?
keyboard_arrow_down
Cela est dû au fait que notre architecture sans serveur décharge certains modèles pendant les périodes de faible utilisation. La requête initiale active ou « réchauffe » le modèle, ce qui peut prendre quelques secondes. Après cette activation initiale, les requêtes suivantes sont traitées beaucoup plus rapidement.
code
Mes données API sont-elles utilisées pour entraîner vos modèles ?
keyboard_arrow_down
Non. Nous n'utilisons jamais vos requêtes API, vos entrées ni vos sorties pour entraîner nos modèles d'embeddings, de reranking ou tout autre modèle. Vos données restent votre propriété. Nous sommes conformes aux normes SOC 2 de type I et de type II.
code
Quelles sont les limites de débit des API Jina ?
keyboard_arrow_down
Des limites de débit s'appliquent par clé API :

Gratuit : 100 RPM, 100 000 TPM, 2 requêtes simultanées
Payant : 500 RPM, 2 M TPM, 50 requêtes simultanées
Premium : 5 000 RPM, 50 M TPM, 500 requêtes simultanées

Il existe également une limite de débit basée sur l'adresse IP de 10 000 requêtes par 60 secondes. Ces limites s'appliquent à toutes les API Jina (Embeddings, Reranker, Reader, etc.).
code
Existe-t-il des limites de taille de lot pour les API ?
keyboard_arrow_down
Il n'y a aucune limite de taille de lot pour les API Embeddings et Reranker. Vous pouvez envoyer autant d'éléments ou de documents que nécessaire par requête. Les deux API traitent les entrées par lots en interne, en fonction du nombre de jetons, pour une utilisation optimale du GPU.
Questions courantes liées à la facturation
attach_money
La facturation est-elle basée sur le nombre de phrases ou de demandes ?
keyboard_arrow_down
Notre modèle de tarification est basé sur le nombre total de jetons traités, ce qui donne aux utilisateurs la possibilité d'attribuer ces jetons à un nombre illimité de phrases, offrant ainsi une solution rentable pour diverses exigences d'analyse de texte.
attach_money
Existe-t-il un essai gratuit disponible pour les nouveaux utilisateurs ?
keyboard_arrow_down
Nous offrons un essai gratuit aux nouveaux utilisateurs, comprenant dix millions de jetons utilisables avec tous nos modèles, grâce à une clé API générée automatiquement. Une fois la limite de jetons gratuits atteinte, les utilisateurs peuvent facilement acheter des jetons supplémentaires pour leurs clés API via l'onglet « Acheter des jetons ».
attach_money
Les jetons sont-ils facturés pour les demandes ayant échoué ?
keyboard_arrow_down
Non, les jetons ne sont pas déduits pour les demandes ayant échoué.
attach_money
Quels moyens de paiement sont acceptés ?
keyboard_arrow_down
Les paiements sont traités via Stripe, prenant en charge diverses méthodes de paiement, notamment les cartes de crédit, Google Pay et PayPal, pour votre commodité.
attach_money
La facturation est-elle disponible pour les achats de jetons ?
keyboard_arrow_down
Oui, une facture sera émise à l'adresse e-mail associée à votre compte Stripe lors de l'achat de tokens.
Questions courantes liées à DeepSearch
Qu'est-ce que DeepSearch ?
keyboard_arrow_down
DeepSearch est une API LLM qui effectue une recherche, une lecture et un raisonnement itératifs jusqu'à ce qu'elle trouve une réponse précise à une requête ou atteigne sa limite de budget de jetons.
En quoi DeepSearch est-il différent des capacités de recherche approfondie d’OpenAI et de Gemini ?
keyboard_arrow_down
Contrairement à OpenAI et Gemini, DeepSearch se concentre spécifiquement sur la fourniture de réponses précises par itération plutôt que sur la génération d'articles longs. Il est optimisé pour des réponses rapides et précises issues de la recherche sur le Web profond plutôt que pour la création de rapports complets.
De quelle clé API ai-je besoin pour utiliser DeepSearch ?
keyboard_arrow_down
Vous avez besoin d'une clé API Jina. Nous offrons 10 millions de jetons gratuits pour les nouvelles clés API.
Que se passe-t-il lorsque DeepSearch atteint son budget de jetons ? Renvoie-t-il une réponse incomplète ?
keyboard_arrow_down
Il génère une réponse finale basée sur toutes les connaissances accumulées, plutôt que de simplement abandonner ou de renvoyer une réponse incomplète.
DeepSearch garantit-il des réponses précises ?
keyboard_arrow_down
Non. Bien qu'il utilise un processus de recherche itératif pour améliorer la précision, l'évaluation montre qu'il atteint un taux de réussite de 75 % aux questions du test, ce qui est nettement meilleur que la référence de 0 % (gemini-2.0-flash) mais pas parfait.
Combien de temps dure une requête DeepSearch typique ?
keyboard_arrow_down
Cela varie considérablement : les requêtes peuvent prendre entre 1 et 42 étapes, avec une moyenne de 4 étapes basées sur les données d'évaluation. Cela représente 20 secondes. Les requêtes simples peuvent être résolues rapidement, tandis que les questions de recherche complexes peuvent impliquer de nombreuses itérations et jusqu'à 120 secondes.
DeepSearch peut-il fonctionner avec n’importe quel client compatible OpenAI comme Chatwise, CherryStudio ou ChatBox ?
keyboard_arrow_down
Oui, l'API officielle DeepSearch sur deepsearch.jina.ai/v1/chat/completions est entièrement compatible avec le schéma API OpenAI, en utilisant « jina-deepsearch-v1 » comme nom de modèle. Il est donc très facile de passer d'OpenAI à DeepSearch et de l'utiliser avec des clients locaux ou tout client compatible OpenAI. Nous recommandons vivement Chatwise pour une expérience fluide.
Quelles sont les limites de débit pour l'API ?
keyboard_arrow_down
Les limites de débit varient selon le niveau de clé API, allant de 10 à 30 tr/min. Il est important d'en tenir compte pour les applications avec des volumes de requêtes élevés.
Quel est le contenu à l'intérieur de la balise  ?
keyboard_arrow_down
DeepSearch encapsule les étapes de réflexion dans des balises XML ... et fournit ensuite la réponse finale, en suivant le format de streaming OpenAI mais avec ces marqueurs spéciaux pour la chaîne de pensées.
DeepSearch utilise-t-il Jina Reader pour la recherche et la lecture sur le Web ?
keyboard_arrow_down
Oui. Jina Reader est utilisé pour la recherche et la lecture sur le Web, offrant au système la possibilité d'accéder et de traiter efficacement le contenu Web.
Pourquoi DeepSearch utilise autant de jetons pour mes requêtes ?
keyboard_arrow_down
Oui, l'utilisation des tokens de DeepSearch sur les requêtes complexes est sans doute élevée : en moyenne 70 000 tokens contre 500 pour les réponses LLM de base. Cela montre la profondeur de la recherche, mais a également des implications financières.
Existe-t-il un moyen de contrôler ou de limiter le nombre d’étapes ?
keyboard_arrow_down
Le système est principalement contrôlé par le budget de jetons plutôt que par le nombre d'étapes. Une fois le budget de jetons dépassé, il entre en mode Beast pour la génération de la réponse finale. Consultez reasoning_effort pour plus de détails.
Dans quelle mesure les références dans les réponses sont-elles fiables ?
keyboard_arrow_down
Les références sont considérées comme si importantes que si une réponse est jugée définitive mais manque de références, le système continue la recherche plutôt que d'accepter la réponse.
DeepSearch peut-il gérer des questions sur des événements futurs ?
keyboard_arrow_down
Oui, mais avec des étapes de recherche approfondies. L'exemple de « qui sera président en 2028 » montre que l'on peut répondre à des questions spéculatives grâce à de multiples itérations de recherche, même si l'exactitude de telles prédictions n'est pas garantie.
Questions courantes liées au classificateur
Quelle est la différence entre les étiquettes en mode zero-shot et en mode few-shot ?
keyboard_arrow_down
Le zero-shot nécessite des étiquettes sémantiques pendant la classification et aucune pendant l'apprentissage, tandis que le few-shot nécessite des étiquettes pendant l'apprentissage mais pas la classification. Cela signifie que le zero-shot est plus adapté aux besoins de classification flexibles et immédiats, tandis que le few-shot est plus adapté aux catégories fixes et spécifiques à un domaine qui peuvent évoluer au fil du temps.
À quoi sert num_iters et comment dois-je l'utiliser ?
keyboard_arrow_down
num_iters contrôle l'intensité de l'entraînement : les valeurs plus élevées renforcent les exemples importants tandis que les valeurs plus faibles minimisent l'impact des données moins fiables. Il peut être utilisé pour mettre en œuvre l'apprentissage en fonction du temps en donnant aux exemples récents un nombre d'itérations plus élevé, ce qui le rend utile pour faire évoluer les modèles de données.
Comment fonctionne le partage de classificateurs publics ?
keyboard_arrow_down
Les classificateurs publics peuvent être utilisés par toute personne disposant du classifier_id, en utilisant son propre quota de jetons. Les utilisateurs ne peuvent pas accéder aux données de formation ou à la configuration, et ne peuvent pas voir les demandes de classification des autres, ce qui permet un partage sécurisé des classificateurs.
De combien de données ai-je besoin pour que le mode FPS fonctionne bien ?
keyboard_arrow_down
La méthode Few-shot nécessite 200 à 400 exemples d'entraînement pour surpasser la classification Zero-shot. Bien qu'elle atteigne finalement une plus grande précision, elle a besoin de cette période d'échauffement pour devenir efficace. Zero-shot fournit des performances cohérentes immédiatement sans données d'entraînement.
Peut-il gérer plusieurs langues et à la fois du texte et des images ?
keyboard_arrow_down
Oui - l'API prend en charge les requêtes multilingues utilisant jina-embeddings-v3 et la classification multimodale (texte/image) utilisant jina-clip-v2 ou jina-embeddings-v4, avec prise en charge des images encodées en URL ou en base64 dans la même requête.
Quelles sont les limites strictes que je devrais connaître ?
keyboard_arrow_down
Zero-shot prend en charge 256 classes sans limite de classificateur, tandis que few-shot est limité à 16 classes et 16 classificateurs. Les deux prennent en charge 1 024 entrées par requête et 8 192 jetons par entrée.
Comment gérer les changements de données au fil du temps ?
keyboard_arrow_down
Le mode Few-shot permet une mise à jour continue via le point de terminaison /train pour s'adapter aux modèles de données changeants. Vous pouvez ajouter progressivement de nouveaux exemples ou classes lorsque la distribution des données change, sans reconstruire l'intégralité du classificateur.
Qu'advient-il de mes données d'entraînement après les avoir envoyées ?
keyboard_arrow_down
L'API utilise l'apprentissage en ligne en un seul passage : les exemples de formation mettent à jour les pondérations du classificateur mais ne sont pas stockés par la suite. Cela signifie que vous ne pouvez pas récupérer les données de formation historiques, mais cela garantit la confidentialité et l'efficacité des ressources.
Zero-shot ou few-shot : quand utiliser lequel ?
keyboard_arrow_down
Commencez par un modèle à zéro coup pour obtenir des résultats immédiats et lorsque vous avez besoin d'une classification flexible avec des étiquettes sémantiques. Passez à un modèle à quelques coups lorsque vous avez 200 à 400 exemples, que vous avez besoin d'une plus grande précision ou que vous devez gérer des données spécifiques à un domaine/sensibles au temps.
Puis-je utiliser différents modèles pour différentes langues/tâches ?
keyboard_arrow_down
Oui, vous pouvez choisir entre jina-embeddings-v3 pour la classification de texte (particulièrement adapté au multilingue), jina-clip-v2 pour la classification multimodale (89 langues), ou jina-embeddings-v4 pour la classification multimodale multilingue universelle.
Questions courantes liées au segmenteur
Combien coûte l'API Segmenter ?
keyboard_arrow_down
L'utilisation de l'API Segmenter est gratuite. En fournissant votre clé API, vous pouvez accéder à une limite de débit plus élevée et votre clé ne sera pas facturée.
Si je ne fournis pas de clé API, quelle est la limite de débit ?
keyboard_arrow_down
Sans clé API, vous pouvez accéder à l'API Segmenter à une vitesse limite de 20 RPM.
Si je fournis une clé API, quelle est la limite de débit ?
keyboard_arrow_down
Avec une clé API, vous pouvez accéder à l'API Segmenter à une vitesse limite de 200 RPM. Pour les utilisateurs payants premium, la limite de vitesse est de 1 000 RPM.
Allez-vous facturer les jetons à partir de ma clé API ?
keyboard_arrow_down
Non, votre clé API n'est utilisée que pour accéder à une limite de débit plus élevée.
L'API Segmenter prend-elle en charge plusieurs langues ?
keyboard_arrow_down
Oui, l'API Segmenter est multilingue et prend en charge plus de 100 langues.
Quelle est la différence entre les requêtes GET et POST ?
keyboard_arrow_down
Les requêtes GET sont uniquement utilisées pour compter le nombre de jetons dans un texte, ce qui vous permet de l'intégrer facilement comme compteur dans votre application. Les requêtes POST prennent en charge davantage de paramètres et de fonctionnalités, telles que le renvoi des N premiers/derniers jetons.
Quelle est la longueur maximale que je peux tokeniser par requête ?
keyboard_arrow_down
Vous pouvez envoyer jusqu'à 64 000 caractères par demande.
Comment fonctionne la fonction de fragmentation ? S'agit-il d'une fragmentation sémantique ?
keyboard_arrow_down
La fonction de découpage segmente les documents longs en morceaux plus petits en fonction d'indices structurels communs, garantissant une segmentation précise du texte en morceaux significatifs. Il s'agit essentiellement d'un (gros !) modèle d'expression régulière qui segmente le texte en fonction de certaines caractéristiques syntaxiques qui correspondent souvent à des limites sémantiques, telles que les fins de phrases, les sauts de paragraphe, la ponctuation et certaines conjonctions. Il ne s'agit pas d'un découpage sémantique. Cette (grosse) expression régulière est aussi puissante qu'elle peut l'être dans les limites des expressions régulières. Elle équilibre complexité et performances. Bien qu'une véritable compréhension sémantique ne soit pas possible avec les expressions régulières, elles se rapprochent bien du contexte grâce à des indices structurels communs.
Comment gérez-vous les jetons spéciaux tels que « endoftext » dans l'API Segmenter ?
keyboard_arrow_down
Si l'entrée contient des jetons spéciaux, notre API Segmenter les placera dans le champ « special_tokens ». Cela vous permet de les identifier facilement et de les gérer en conséquence pour vos tâches en aval, par exemple en les supprimant avant d'introduire le texte dans un LLM pour éviter les attaques par injection.
Le chunking prend-il en charge d'autres langues que l'anglais ?
keyboard_arrow_down
Outre les langues occidentales, le découpage fonctionne également bien avec le chinois, le japonais et le coréen.
Questions courantes liées au réglage automatique
Combien coûte l’API de réglage fin ?
keyboard_arrow_down
Cette fonctionnalité est actuellement en version bêta et coûte 1 million de jetons par modèle optimisé. Vous pouvez utiliser votre clé API existante de l'API Embedding/Reranker si elle dispose de suffisamment de jetons, ou créer une nouvelle clé API incluant 10 millions de jetons gratuits.
Que dois-je saisir ? Dois-je fournir des données de formation ?
keyboard_arrow_down
Vous n'avez pas besoin de fournir de données d'entraînement. Décrivez simplement votre domaine cible (le domaine pour lequel vous souhaitez que les intégrations affinées soient optimisées) en langage naturel, ou utilisez une URL comme référence, et notre système générera des données synthétiques pour entraîner le modèle.
Combien de temps faut-il pour peaufiner un modèle ?
keyboard_arrow_down
Environ 30 minutes.
Où sont stockés les modèles peaufinés ?
keyboard_arrow_down
Les modèles affinés et les données synthétiques sont stockés publiquement dans le hub de modèles Hugging Face.
Si je fournis une URL de référence, comment le système l'utilise-t-il ?
keyboard_arrow_down
Le système utilise l'API Reader pour récupérer le contenu de l'URL. Il analyse ensuite le contenu pour résumer le ton et le domaine, qu'il utilise comme lignes directrices pour générer des données synthétiques. Par conséquent, l’URL doit être accessible au public et représentative du domaine cible.
Puis-je affiner un modèle pour une langue spécifique ?
keyboard_arrow_down
Oui, vous pouvez affiner un modèle pour une langue autre que l'anglais. Le système détecte automatiquement la langue des instructions de votre domaine et génère des données synthétiques en conséquence. Nous vous recommandons également de choisir le modèle de base approprié pour la langue cible. Par exemple, si vous ciblez un domaine allemand, vous devez sélectionner « jina-embeddings-v2-base-de » comme modèle de base.
Puis-je affiner les intégrations non-Jina, par exemple bge-M3 ?
keyboard_arrow_down
Non, notre API de réglage fin ne prend en charge que les modèles Jina v2.
Comment garantissez-vous la qualité des modèles peaufinés ?
keyboard_arrow_down
À la fin du processus de réglage fin, le système évalue le modèle à l'aide d'un ensemble de tests retenu et rapporte les mesures de performances. Vous recevrez un e-mail détaillant les performances avant/après sur cet ensemble de tests. Vous êtes également encouragé à évaluer le modèle sur votre propre ensemble de tests pour garantir sa qualité.
Comment générer des données synthétiques ?
keyboard_arrow_down
Le système génère des données synthétiques en intégrant l'instruction du domaine cible que vous fournissez au raisonnement des agents LLM. Il produit des triplets négatifs durs, essentiels à la formation de modèles d’intégration de haute qualité. Pour plus de détails, veuillez vous référer à notre prochain document de recherche sur Arxiv.
Puis-je garder mes modèles affinés et mes données synthétiques privés ?
keyboard_arrow_down
Actuellement non. Notez que cette fonctionnalité est toujours en version bêta. Le stockage public des modèles affinés et des données synthétiques dans le hub de modèles Hugging Face nous aide, ainsi que la communauté, à évaluer la qualité de la formation. À l’avenir, nous prévoyons de proposer une option de stockage privé.
Comment puis-je utiliser le modèle affiné ?
keyboard_arrow_down
Étant donné que tous les modèles affinés sont téléchargés sur Hugging Face, vous pouvez y accéder via SentenceTransformers en spécifiant simplement le nom du modèle.
Je n'ai jamais reçu l'e-mail avec les résultats de l'évaluation. Que dois-je faire?
keyboard_arrow_down
Veuillez vérifier votre dossier spam. Si vous ne le trouvez toujours pas, veuillez contacter notre équipe d'assistance en utilisant l'adresse e-mail que vous avez fournie.
Contact
Des bureaux
location_on
Sunnyvale, Californie
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, États-Unis
location_on
Berlin, Allemagne
Prinzessinnenstraße 19-20, 10969 Berlin, Allemagne
Fondation Recherche
Lecteur
Intégrations
Reclasseur
Obtenir la clé API Jina
Limite de taux
Statut de l'API
Entreprise
À propos de nous
Contacter le service commercial
Rédaction
Programme de stage
Télécharger le logo Jina
open_in_new
Télécharger le logo Elastic
open_in_new
Termes
Sécurité
termes et conditions
Confidentialité
Gérer les cookies
email
Jina AI par Elastic © 2020-2026.