Nouvelles
Modèles
Des produits
keyboard_arrow_down
Lecteur
Lisez les URL et effectuez des recherches sur le Web pour de meilleurs LLM de base.
Intégrations
Intégrations multimodales et multilingues de classe mondiale.
Reclasseur
Récupérateur neuronal de classe mondiale pour maximiser la pertinence de la recherche.
Recherche profonde
Recherchez, lisez et raisonnez jusqu'à trouver la meilleure réponse.
Plus
keyboard_arrow_down
Classificateur
Classification à zéro plan et à quelques plans pour l'image et le texte.
Segmenteur
Coupez un long texte en morceaux et effectuez la tokenisation.

Documentation de l'API
Génération automatique de code pour votre IDE ou LLM copilote
open_in_new


Entreprise
keyboard_arrow_down
À propos de nous
Contacter le service commercial
Programme de stage
Rejoignez-nous
open_in_new
Télécharger le logo
open_in_new
termes et conditions


Se connecter
login
warning
Ce modèle est obsolète pour les modèles plus récents.

jina-embedding-b-en-v1

La première version du modèle Jina Embedding, l'OG.
Licence
license
Apache-2.0
Date de sortie
calendar_month
2023-06-17
Saisir
abc
Texte
arrow_forward
Sortir
more_horiz
Vecteur
Détails du modèle
Paramètres: 110M
Longueur du jeton d'entrée: 512
Dimension de sortie: 768
Prise en charge linguistique
🇺🇸 Anglais
Modèles associés
link
jina-embeddings-v2-base-en
link
jina-embeddings-v3
Mots clés
text-embedding
english
base-model
legacy
bert-based
production
Disponible via
Visage qui fait un câlin
Choisissez les modèles à comparer
Publications (1)
EMNLP 2023
juillet 20, 2023
Jina Embeddings: A Novel Set of High-Performance Sentence Embedding Models

Aperçu

Jina Embedding B v1 est un modèle d'intégration de texte spécialisé conçu pour transformer le texte anglais en représentations numériques de grande dimension tout en préservant le sens sémantique. Le modèle répond au besoin critique d'intégrations de texte efficaces et précises dans les environnements de production, particulièrement utile pour les organisations nécessitant un équilibre entre efficacité de calcul et qualité d'intégration. Avec ses 110 millions de paramètres générant des intégrations de 768 dimensions, il constitue une solution pratique pour les équipes mettant en œuvre des systèmes de recherche sémantique, de regroupement de documents ou de recommandation de contenu sans nécessiter de ressources de calcul importantes.

Méthodes

Le modèle utilise une architecture basée sur un encodeur T5 améliorée avec un pooling moyen pour générer des représentations de longueur fixe. Formé sur l'ensemble de données Linnaeus-Clean soigneusement organisé, qui contient 385 millions de paires de phrases de haute qualité filtrées à partir de 1,6 milliard de paires initiales, le modèle a subi un processus de formation en deux phases. La première phase a utilisé l'apprentissage contrastif avec perte InfoNCE sur les paires de textes, tandis que la deuxième phase a incorporé la formation de triplets pour affiner la capacité du modèle à distinguer les contenus similaires des contenus différents. Cette approche de formation innovante, combinée à un filtrage rigoureux des données, y compris la détection de la langue et la vérification de la cohérence, permet au modèle de capturer efficacement des relations sémantiques nuancées.

Performance

Lors d'évaluations en conditions réelles, Jina Embedding B v1 démontre des capacités impressionnantes, notamment dans les tâches de similarité textuelle sémantique. Le modèle atteint des performances de pointe sur STS12 avec un score de 0,751, surpassant les modèles établis comme all-mpnet-base-v2 et all-minilm-l6-v2. Il affiche de solides performances dans divers tests tout en maintenant des temps d'inférence efficaces. Cependant, les utilisateurs doivent noter que le modèle est spécifiquement optimisé pour le contenu en anglais et peut ne pas fonctionner de manière optimale sur des tâches multilingues ou spécifiques au code. Le modèle a depuis été remplacé par jina-embeddings-v2-base-en et jina-embeddings-v3, qui offrent des performances améliorées dans une gamme plus large de cas d'utilisation.

Conseils

Pour un déploiement optimal, le modèle nécessite un GPU compatible CUDA, bien que sa taille modérée permette une inférence efficace sur du matériel standard. Le modèle accepte des séquences d'entrée d'une longueur maximale de 512 jetons et est particulièrement adapté aux environnements de production où une génération d'intégration cohérente et fiable est cruciale. Il fonctionne mieux sur le contenu en anglais et est idéal pour des applications telles que la recherche sémantique, la comparaison de similarité de documents et les systèmes de recommandation de contenu. Les équipes doivent envisager d'utiliser les nouvelles versions v2 ou v3 pour les nouveaux projets, car elles offrent des performances améliorées et une prise en charge linguistique plus large. Le modèle n'est pas recommandé pour les tâches nécessitant une compréhension multilingue ou des connaissances spécialisées dans un domaine en dehors du texte anglais général.
Des bureaux
location_on
Sunnyvale, Californie
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, États-Unis
location_on
Berlin, Allemagne (siège social)
Prinzessinnenstraße 19-20, 10969 Berlin, Allemagne
location_on
Pékin, Chine
Niveau 5, bâtiment 6, n° 48, rue Haidian Ouest, Pékin, Chine
location_on
Shenzhen, en Chine
402 étage 4, bâtiment technologique Fu'an, Shenzhen, Chine
Fondation Recherche
Lecteur
Intégrations
Reclasseur
Recherche profonde
Classificateur
Segmenteur
Documentation de l'API
Obtenir la clé API Jina
Limite de taux
Statut de l'API
Entreprise
À propos de nous
Contacter le service commercial
Rédaction
Programme de stage
Rejoignez-nous
open_in_new
Télécharger le logo
open_in_new
Termes
Sécurité
termes et conditions
Confidentialité
Gérer les cookies
email
Jina AI © 2020-2025.