Nouvelles
Modèles
Des produits
keyboard_arrow_down
Lecteur
Lisez les URL et effectuez des recherches sur le Web pour de meilleurs LLM de base.
Intégrations
Intégrations multimodales et multilingues de classe mondiale.
Reclasseur
Récupérateur neuronal de classe mondiale pour maximiser la pertinence de la recherche.
Recherche profonde
Recherchez, lisez et raisonnez jusqu'à trouver la meilleure réponse.
Plus
keyboard_arrow_down
Classificateur
Classification à zéro plan et à quelques plans pour l'image et le texte.
Segmenteur
Coupez un long texte en morceaux et effectuez la tokenisation.

Documentation de l'API
Génération automatique de code pour votre IDE ou LLM copilote
open_in_new


Entreprise
keyboard_arrow_down
À propos de nous
Contacter le service commercial
Programme de stage
Rejoignez-nous
open_in_new
Télécharger le logo
open_in_new
termes et conditions


Se connecter
login
copyright

jina-embeddings-v3

Modèle d'intégration multilingue Frontier avec performances SOTA
Publication de publicationarrow_forward
Licence
copyright
CC-BY-NC-4.0
Date de sortie
calendar_month
2024-09-18
Saisir
abc
Texte
arrow_forward
Sortir
more_horiz
Vecteur
Détails du modèle
Paramètres: 570M
Longueur du jeton d'entrée: 8K
Dimension de sortie: 1024
Prise en charge linguistique
🌍 Prise en charge multilingue
Modèles associés
link
jina-embeddings-v2-base-en
link
jina-embeddings-v2-base-zh
link
jina-embeddings-v2-base-de
link
jina-embeddings-v2-base-es
link
jina-embeddings-v2-base-code
Mots clés
text-embedding
multilingual
high-dimension
long-context
production
base-model
matryoshka
lora-adapters
Disponible via
API JinaLicence commercialeAWS SageMakerMicrosoft AzureGoogle CloudVisage qui fait un câlin
Graphique d'E/S
Choisissez les modèles à comparer
Publications (3)
ACL 2025
décembre 17, 2024
AIR-Bench: Automated Heterogeneous Information Retrieval Benchmark
ECIR 2025
septembre 18, 2024
jina-embeddings-v3: Multilingual Embeddings With Task LoRA
arXiv
septembre 07, 2024
Late Chunking: Contextual Chunk Embeddings Using Long-Context Embedding Models

Aperçu

Jina Embeddings v3 est un modèle d'intégration de texte multilingue révolutionnaire qui transforme la façon dont les organisations gèrent la compréhension et la récupération de texte dans plusieurs langues. Fondamentalement, il résout le défi crucial de maintenir des performances élevées dans plusieurs langues et tâches tout en gardant les exigences de calcul gérables. Le modèle excelle particulièrement dans les environnements de production où l'efficacité est importante : il atteint des performances de pointe avec seulement 570 millions de paramètres, ce qui le rend accessible aux équipes qui ne peuvent pas se permettre la surcharge de calcul de modèles plus volumineux. Les organisations qui ont besoin de créer des systèmes de recherche multilingues évolutifs ou d'analyser du contenu au-delà des barrières linguistiques trouveront ce modèle particulièrement utile.

Méthodes

L'architecture du modèle représente une innovation significative dans la technologie d'intégration, construite sur une base jina-XLM-RoBERTa avec 24 couches et améliorée avec des adaptateurs d'adaptation de faible rang (LoRA) spécifiques aux tâches. Les adaptateurs LoRA sont des composants de réseau neuronal spécialisés qui optimisent le modèle pour différentes tâches telles que la récupération, la classification ou le clustering sans augmenter de manière significative le nombre de paramètres - ils ajoutent moins de 3 % au total des paramètres. Le modèle intègre Matryoshka Representation Learning (MRL), permettant de réduire de manière flexible les intégrations de 1024 à 32 dimensions tout en préservant les performances. La formation impliquait un processus en trois étapes : pré-formation initiale sur du texte multilingue de 89 langues, réglage fin sur des textes appariés pour la qualité de l'intégration et formation d'adaptateur spécialisé pour l'optimisation des tâches. Le modèle prend en charge des longueurs de contexte jusqu'à 8 192 jetons via Rotary Position Embeddings (RoPE), avec une technique innovante d'ajustement de fréquence de base qui améliore les performances sur les textes courts et longs.

Performance

Le modèle démontre un rapport efficacité/performance exceptionnel dans les tests en conditions réelles, surpassant à la fois les alternatives open source et les solutions propriétaires d'OpenAI et de Cohere sur les tâches en anglais tout en excellant dans les scénarios multilingues. Plus surprenant encore, il obtient de meilleurs résultats que e5-mistral-7b-instruct, qui possède 12 fois plus de paramètres, ce qui met en évidence son efficacité remarquable. Dans les évaluations de référence MTEB, il obtient un score moyen de 65,52 sur toutes les tâches, avec des performances particulièrement élevées en matière de précision de classification (82,58) et de similarité de phrases (85,80). Le modèle maintient des performances constantes dans toutes les langues, obtenant un score de 64,44 sur les tâches multilingues. Lorsqu'il utilise MRL pour la réduction des dimensions, il conserve de bonnes performances même à des dimensions inférieures - par exemple, en maintenant 92 % de ses performances de récupération à 64 dimensions par rapport aux 1024 dimensions complètes.

Conseils

Pour déployer efficacement Jina Embeddings v3, les équipes doivent tenir compte de leur cas d'utilisation spécifique pour sélectionner l'adaptateur de tâches approprié : retrieval.query et retrieval.passage pour les applications de recherche, séparation pour les tâches de clustering, classification pour la catégorisation et correspondance de texte pour la similarité sémantique. Le modèle nécessite un matériel compatible CUDA pour des performances optimales, bien que son architecture efficace signifie qu'il nécessite beaucoup moins de mémoire GPU que des alternatives plus importantes. Pour le déploiement en production, l'intégration AWS SageMaker offre un chemin simplifié vers l'évolutivité. Le modèle excelle dans les applications multilingues, mais peut nécessiter une évaluation supplémentaire pour les langues à faibles ressources. Bien qu'il prenne en charge les documents longs jusqu'à 8 192 jetons, des performances optimales sont obtenues avec la fonction de segmentation tardive pour les textes très longs. Les équipes doivent éviter d'utiliser le modèle pour des tâches nécessitant une génération en temps réel ou un raisonnement complexe : il est conçu pour l'intégration et la récupération, et non pour la génération de texte ou la réponse directe aux questions.
Blogs qui mentionnent ce modèle
septembre 18, 2024 • 10 minutes lues
Jina Embeddings v3 : Un modèle d'embedding multilingue à la pointe
jina-embeddings-v3 est un modèle d'embedding de texte multilingue de pointe avec 570M paramètres et une longueur de token de 8192, surpassant les derniers embeddings propriétaires d'OpenAI et Cohere sur MTEB.
Jina AI
Dynamic image showing the characters "V3" formed by bright green dots varying in size on a black background.
mai 28, 2025 • 4 minutes lues
Corrélations : Tester l’ambiance des vecteurs modèles (Embeddings) dans l’interface utilisateur graphique (GUI)
Aussi sérieux que nous soyons au sujet de MTEB, nous aimons également tester l'ambiance. Correlations est une simple interface graphique que nous utilisons pour valider les citations dans DeepSearch, déboguer le chunking tardif et tester l'ambiance des 向量模型 (Embeddings). Maintenant, c'est open source.
Jina AI
Technical screen showing green and yellow visual data, including charts in the lower half and a heat-map-like visualization a
mai 07, 2025 • 9 minutes lues
La recette de la soupe de modèles pour les embeddings
Améliorez la robustesse et les performances avec les soupes de modèles : moyenne des poids. Aucun coût supplémentaire, de meilleurs résultats.
Bo Wang
Scott Martens
Still life drawing of a purple bowl filled with apples and oranges on a white table. The scene features rich colors against a
avril 16, 2025 • 10 minutes lues
De l'Impact du Biais de Taille des Plongements de Texte et son Effet sur la Recherche
Le biais de taille fait référence à la façon dont la longueur des textes affecte la similarité, indépendamment de la pertinence sémantique. Cela explique pourquoi les systèmes de recherche renvoient parfois des documents longs à peine pertinents plutôt que des correspondances plus courtes et plus précises à votre requête.
Scott Martens
Black background with a simple white ruler marked in centimeters, emphasizing a minimalist design.
avril 08, 2025 • 21 minutes lues
jina-reranker-m0 : Reclasseur multilingue et multimodal de documents
Présentation de jina-reranker-m0, notre nouveau réordonnanceur multimodal multilingue pour la recherche de documents visuels, offrant des performances à l'état de l'art sur la recherche de longs documents multilingues et de code source.
Jina AI
Modern dot matrix text display on a dark blue background, conveying a digital feel.
Des bureaux
location_on
Sunnyvale, Californie
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, États-Unis
location_on
Berlin, Allemagne (siège social)
Prinzessinnenstraße 19-20, 10969 Berlin, Allemagne
location_on
Pékin, Chine
Niveau 5, bâtiment 6, n° 48, rue Haidian Ouest, Pékin, Chine
location_on
Shenzhen, en Chine
402 étage 4, bâtiment technologique Fu'an, Shenzhen, Chine
Fondation Recherche
Lecteur
Intégrations
Reclasseur
Recherche profonde
Classificateur
Segmenteur
Documentation de l'API
Obtenir la clé API Jina
Limite de taux
Statut de l'API
Entreprise
À propos de nous
Contacter le service commercial
Rédaction
Programme de stage
Rejoignez-nous
open_in_new
Télécharger le logo
open_in_new
Termes
Sécurité
termes et conditions
Confidentialité
Gérer les cookies
email
Jina AI © 2020-2025.