Nouvelles
Modèles
Des produits
keyboard_arrow_down
Lecteur
Lisez les URL et effectuez des recherches sur le Web pour de meilleurs LLM de base.
Intégrations
Intégrations multimodales et multilingues de classe mondiale.
Reclasseur
Récupérateur neuronal de classe mondiale pour maximiser la pertinence de la recherche.
Recherche profonde
Recherchez, lisez et raisonnez jusqu'à trouver la meilleure réponse.
Plus
keyboard_arrow_down
Classificateur
Classification à zéro plan et à quelques plans pour l'image et le texte.
Segmenteur
Coupez un long texte en morceaux et effectuez la tokenisation.

Documentation de l'API
Génération automatique de code pour votre IDE ou LLM copilote
open_in_new


Entreprise
keyboard_arrow_down
À propos de nous
Contacter le service commercial
Programme de stage
Rejoignez-nous
open_in_new
Télécharger le logo
open_in_new
termes et conditions


Se connecter
login
warning
Ce modèle est obsolète pour les modèles plus récents.

jina-embeddings-v2-base-en

À égalité avec text-embedding-ada002 d'OpenAI
Publication de publicationarrow_forward
Licence
license
Apache-2.0
Date de sortie
calendar_month
2023-10-28
Saisir
abc
Texte
arrow_forward
Sortir
more_horiz
Vecteur
Détails du modèle
Paramètres: 137M
Longueur du jeton d'entrée: 8K
Dimension de sortie: 768
Prise en charge linguistique
🇺🇸 Anglais
Modèles associés
link
jina-embedding-b-en-v1
link
jina-embeddings-v3
Mots clés
text-embeddings
english
long-context
production-ready
multi-task-learning
semantic-search
document-retrieval
high-performance
bert-based
fine-tunable
rag-optimized
8k-context
Disponible via
API JinaAWS SageMakerMicrosoft AzureVisage qui fait un câlin
Choisissez les modèles à comparer
Publications (3)
arXiv
septembre 07, 2024
Late Chunking: Contextual Chunk Embeddings Using Long-Context Embedding Models
arXiv
février 26, 2024
Multi-Task Contrastive Learning for 8192-Token Bilingual Text Embeddings
arXiv
octobre 30, 2023
Jina Embeddings 2: 8192-Token General-Purpose Text Embeddings for Long Documents

Aperçu

Jina Embeddings v2 Base English est un modèle d'intégration de texte open source révolutionnaire qui résout le défi crucial du traitement de longs documents tout en maintenant une grande précision. Les organisations qui ont du mal à analyser des documents juridiques, des articles de recherche ou des rapports financiers volumineux trouveront ce modèle particulièrement utile. Il se distingue par la gestion de documents d'une longueur maximale de 8 192 jetons, soit 16 fois plus que les modèles traditionnels, tout en égalant les performances des solutions propriétaires d'OpenAI. Avec une taille compacte de 0,27 Go et une utilisation efficace des ressources, il offre une solution accessible aux équipes cherchant à mettre en œuvre une analyse avancée des documents sans surcharge de calcul excessive.

Méthodes

L'architecture du modèle combine une dorsale BERT Small avec un mécanisme innovant bidirectionnel symétrique ALiBi (Attention with Linear Biases), éliminant ainsi le besoin d'intégrations positionnelles traditionnelles. Ce choix architectural permet au modèle d'extrapoler bien au-delà de sa longueur d'entraînement de 512 jetons, en gérant des séquences allant jusqu'à 8 192 jetons sans dégradation des performances. Le processus de formation comportait deux phases clés : une pré-formation initiale sur l'ensemble de données C4, suivie d'un affinement sur la collection organisée par Jina AI de plus de 40 ensembles de données spécialisés. Ces données de formation diverses, comprenant des exemples négatifs difficiles et des paires de phrases variées, garantissent des performances robustes dans différents domaines et cas d'utilisation. Le modèle produit des vecteurs denses de 768 dimensions qui capturent des relations sémantiques nuancées, obtenues avec un nombre relativement modeste de 137 millions de paramètres.

Performance

Lors de tests en conditions réelles, Jina Embeddings v2 Base English démontre des capacités exceptionnelles dans plusieurs tests de performance. Il surpasse le text-embedding-ada-002 d'OpenAI dans plusieurs indicateurs clés : classification (73,45 % contre 70,93 %), reclassement (85,38 % contre 84,89 %), récupération (56,98 % contre 56,32 %) et résumé (31,6 % contre 30,8 %). Ces chiffres se traduisent par des avantages pratiques dans des tâches telles que la classification de documents, où le modèle montre une capacité supérieure à catégoriser des textes complexes, et dans les applications de recherche, où il comprend mieux les requêtes des utilisateurs et trouve des documents pertinents. Cependant, les utilisateurs doivent noter que les performances peuvent varier lorsqu'il s'agit de contenu hautement spécialisé dans un domaine spécifique non représenté dans les données de formation.

Conseils

Pour déployer efficacement Jina Embeddings v2 Base English, les équipes doivent prendre en compte plusieurs aspects pratiques. Le modèle nécessite du matériel compatible CUDA pour des performances optimales, mais son architecture performante lui permet de fonctionner sur des GPU grand public. Il est disponible via plusieurs canaux : téléchargement direct depuis Hugging Face, déploiement sur AWS Marketplace ou via l'API Jina AI avec 10 millions de jetons gratuits. Pour les déploiements en production, AWS SageMaker dans la région US-East-1 offre la solution la plus évolutive. Ce modèle excelle dans l'analyse de texte à usage général, mais peut ne pas être le meilleur choix pour une terminologie scientifique hautement spécialisée ou un jargon spécifique à un domaine sans ajustement précis. Lors du traitement de documents longs, pensez à les décomposer en blocs sémantiques pertinents plutôt que de les diviser arbitrairement afin de préserver l'intégrité du contexte. Pour des résultats optimaux, mettez en œuvre un prétraitement de texte approprié et assurez-vous que les données d'entrée sont propres et bien formatées.
Blogs qui mentionnent ce modèle
décembre 17, 2024 • 12 minutes lues
Les embeddings textuels échouent à capturer l'ordre des mots et comment y remédier
Les modèles d'intégration de texte peinent à capturer les nuances linguistiques subtiles comme l'ordre des mots, les relations directionnelles, les séquences temporelles, les liens de causalité, les comparaisons et la négation. Comprendre ces défis est essentiel pour améliorer les performances des modèles.
Bo Wang
Alex C-G
Three abstract figures in white, gray, and pink on matching cubes placed on a colorful checkered surface against a green back
octobre 25, 2024 • 19 minutes lues
Trouver les points de coupure optimaux dans les longs documents à l'aide de petits modèles de langage
Nous avons entraîné trois petits modèles de langage pour mieux segmenter les longs documents en fragments, et voici les leçons essentielles que nous avons apprises.
Andrei Ungureanu
Alex C-G
A pattern of yellow file icons on a blue background with one icon displaying a smiley face creating an emotive contrast.
octobre 15, 2024 • 9 minutes lues
Vérification des faits avec la nouvelle API Grounding dans Jina Reader
Avec le nouveau g.jina.ai, vous pouvez facilement ancrer les déclarations pour réduire les hallucinations des LLM ou améliorer l'intégrité du contenu rédigé par les humains.
Jina AI
Jina developer interface showing "Jina AI was founded in 2020" with controls labeled true and false, and web address on top.
septembre 27, 2024 • 15 minutes lues
Migration des embeddings Jina v2 vers v3
Nous avons rassemblé quelques conseils pour vous aider à migrer de Jina Embeddings v2 vers v3.
Alex C-G
Scott Martens
A digital upgrade theme with "V3" and a white "2", set against a green and black binary code background, with "Upgrade" centr
septembre 18, 2024 • 10 minutes lues
Jina Embeddings v3 : Un modèle d'embedding multilingue à la pointe
jina-embeddings-v3 est un modèle d'embedding de texte multilingue de pointe avec 570M paramètres et une longueur de token de 8192, surpassant les derniers embeddings propriétaires d'OpenAI et Cohere sur MTEB.
Jina AI
Dynamic image showing the characters "V3" formed by bright green dots varying in size on a black background.
Des bureaux
location_on
Sunnyvale, Californie
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, États-Unis
location_on
Berlin, Allemagne (siège social)
Prinzessinnenstraße 19-20, 10969 Berlin, Allemagne
location_on
Pékin, Chine
Niveau 5, bâtiment 6, n° 48, rue Haidian Ouest, Pékin, Chine
location_on
Shenzhen, en Chine
402 étage 4, bâtiment technologique Fu'an, Shenzhen, Chine
Fondation Recherche
Lecteur
Intégrations
Reclasseur
Recherche profonde
Classificateur
Segmenteur
Documentation de l'API
Obtenir la clé API Jina
Limite de taux
Statut de l'API
Entreprise
À propos de nous
Contacter le service commercial
Rédaction
Programme de stage
Rejoignez-nous
open_in_new
Télécharger le logo
open_in_new
Termes
Sécurité
termes et conditions
Confidentialité
Gérer les cookies
email
Jina AI © 2020-2025.