Nouvelles
Modèles
Des produits
keyboard_arrow_down
Lecteur
Lisez les URL et effectuez des recherches sur le Web pour de meilleurs LLM de base.
Intégrations
Intégrations multimodales et multilingues de classe mondiale.
Reclasseur
Récupérateur neuronal de classe mondiale pour maximiser la pertinence de la recherche.
Recherche profonde
Recherchez, lisez et raisonnez jusqu'à trouver la meilleure réponse.
Plus
keyboard_arrow_down
Classificateur
Classification à zéro plan et à quelques plans pour l'image et le texte.
Segmenteur
Coupez un long texte en morceaux et effectuez la tokenisation.

Documentation de l'API
Génération automatique de code pour votre IDE ou LLM copilote
open_in_new


Entreprise
keyboard_arrow_down
À propos de nous
Contacter le service commercial
Programme de stage
Rejoignez-nous
open_in_new
Télécharger le logo
open_in_new
termes et conditions


Se connecter
login
copyright

jina-reranker-v2-base-multilingual

Le dernier et le meilleur modèle de reclassement avec prise en charge multilingue, des appels de fonctions et de la recherche de code.
Publication de publicationarrow_forward
Licence
copyright
CC-BY-NC-4.0
Date de sortie
calendar_month
2024-06-25
Saisir
abc
Texte (requête)
abc
Texte (Document)
arrow_forward
Sortir
format_list_numbered
Classements
Détails du modèle
Paramètres: 278M
Longueur du jeton d'entrée: 8K
Prise en charge linguistique
🌍 Prise en charge multilingue
Modèles associés
link
jina-reranker-v1-base-en
link
jina-reranker-v1-turbo-en
link
jina-reranker-v1-tiny-en
Mots clés
multilingual
cross-lingual
function-calling
code-search
long-context
production-ready
reranker
rag-optimized
high-performance
100-languages
Disponible via
API JinaLicence commercialeAWS SageMakerMicrosoft AzureGoogle CloudVisage qui fait un câlin
Graphique d'E/S
Choisissez les modèles à comparer

Aperçu

Jina Reranker v2 Base Multilingual est un modèle de codeur croisé conçu pour améliorer la précision de la recherche au-delà des barrières linguistiques et des types de données. Ce reranker relève le défi crucial de la récupération précise d'informations dans des environnements multilingues, particulièrement utile pour les entreprises mondiales qui doivent affiner les résultats de recherche dans différentes langues et types de contenu. Avec la prise en charge de plus de 100 langues et des capacités uniques en matière d'appel de fonctions et de recherche de code, il constitue une solution unifiée pour les équipes qui ont besoin d'affiner la recherche avec précision dans le contenu international, la documentation API et les bases de code multilingues. La conception compacte de 278 millions de paramètres du modèle le rend particulièrement attrayant pour les organisations qui cherchent à équilibrer hautes performances et efficacité des ressources.

Méthodes

Le modèle utilise une architecture cross-encoder améliorée avec Flash Attention 2, permettant une comparaison directe entre les requêtes et les documents pour une évaluation plus précise de la pertinence. Formé selon un processus en quatre étapes, le modèle établit d'abord les capacités en anglais, puis intègre progressivement les données multilingues et multilingues, avant d'être affiné avec des exemples de résultats négatifs. Cette approche de formation innovante, combinée à l'implémentation de Flash Attention 2, permet au modèle de traiter des séquences allant jusqu'à 524 288 jetons tout en maintenant une vitesse exceptionnelle. L'efficacité de l'architecture lui permet de gérer des tâches de reclassement complexes dans plusieurs langues avec un débit 6 fois supérieur à celui de son prédécesseur, tout en garantissant une évaluation précise de la pertinence grâce à une interaction directe entre la requête et le document.

Performance

Lors d'évaluations en conditions réelles, le modèle démontre des capacités exceptionnelles dans divers tests de performance. Il atteint des performances de pointe dans le classement AirBench pour les systèmes RAG et affiche de bons résultats dans les tâches multilingues, notamment dans l'ensemble de données MKQA couvrant 26 langues. Le modèle excelle particulièrement dans les tâches de données structurées, obtenant des scores de rappel élevés à la fois dans l'appel de fonctions (test de performance ToolBench) et dans la correspondance de schémas SQL (test de performance NSText2SQL). Plus impressionnant encore, il fournit ces résultats tout en traitant les documents 15 fois plus rapidement que des modèles comparables comme bge-reranker-v2-m3, ce qui le rend pratique pour les applications en temps réel. Cependant, les utilisateurs doivent noter que des performances optimales nécessitent un GPU compatible CUDA pour l'inférence.

Conseils

Pour un déploiement optimal, le modèle nécessite un GPU compatible CUDA et peut être consulté via plusieurs canaux, notamment l'API Reranker, les principaux frameworks RAG comme Haystack et LangChain, ou déployé de manière privée via des places de marché cloud. Le modèle excelle dans les scénarios nécessitant une compréhension précise des barrières linguistiques et des types de données, ce qui le rend idéal pour les entreprises mondiales travaillant avec du contenu multilingue, de la documentation API ou des référentiels de code. Sa vaste fenêtre de contexte de 524 288 jetons permet de traiter des documents volumineux ou des bases de code entières en un seul passage. Les équipes doivent envisager d'utiliser ce modèle lorsqu'elles ont besoin d'améliorer la précision de la recherche dans plusieurs langues, ont besoin de capacités d'appel de fonctions pour les systèmes RAG agentiques ou souhaitent améliorer la fonctionnalité de recherche de code dans des bases de code multilingues. Le modèle est particulièrement efficace lorsqu'il est utilisé en conjonction avec des systèmes de recherche vectorielle, où il peut améliorer considérablement le classement final des documents récupérés.
Blogs qui mentionnent ce modèle
avril 16, 2025 • 10 minutes lues
De l'Impact du Biais de Taille des Plongements de Texte et son Effet sur la Recherche
Le biais de taille fait référence à la façon dont la longueur des textes affecte la similarité, indépendamment de la pertinence sémantique. Cela explique pourquoi les systèmes de recherche renvoient parfois des documents longs à peine pertinents plutôt que des correspondances plus courtes et plus précises à votre requête.
Scott Martens
Black background with a simple white ruler marked in centimeters, emphasizing a minimalist design.
avril 08, 2025 • 21 minutes lues
jina-reranker-m0 : Reclasseur multilingue et multimodal de documents
Présentation de jina-reranker-m0, notre nouveau réordonnanceur multimodal multilingue pour la recherche de documents visuels, offrant des performances à l'état de l'art sur la recherche de longs documents multilingues et de code source.
Jina AI
Modern dot matrix text display on a dark blue background, conveying a digital feel.
avril 01, 2025 • 17 minutes lues
Utilisation du modèle de raisonnement DeepSeek R1 dans DeepSearch
Le modèle LLM standard ou le modèle de raisonnement, lequel est meilleur pour DeepSearch ? Dans cet article, nous avons exploré l'utilisation de DeepSeek-R1 dans l'implémentation de DeepSearch pour choisir la prochaine action.
Andrei Ungureanu
Alex C-G
Brown background with a stylized whale graphic and the text "THINK:" and ":SEARCH>" in code-like font.
mars 12, 2025 • 11 minutes lues
Sélection d'extraits et classement des URL dans DeepSearch/DeepResearch
Ces deux détails transforment votre DeepSearch de moyen à exceptionnel : la sélection des meilleurs extraits des pages web volumineuses et le classement des URLs avant le crawling.
Han Xiao
Logo with words "THINK SEARCH THINK" in black dot and arrow patterns on an orange background, accompanied by horizontal lines
février 25, 2025 • 19 minutes lues
Guide pratique pour l'implémentation de DeepSearch/DeepResearch
Exit le QPS, place à la profondeur. DeepSearch devient la nouvelle norme. Trouvez des réponses à travers des boucles de lecture, recherche et raisonnement. Découvrez ce que c'est et comment le construire.
Han Xiao
Abstract interlocking circles pattern in black on orange, with text 'THINK:SEARCH:THINK' below.
Des bureaux
location_on
Sunnyvale, Californie
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, États-Unis
location_on
Berlin, Allemagne (siège social)
Prinzessinnenstraße 19-20, 10969 Berlin, Allemagne
location_on
Pékin, Chine
Niveau 5, bâtiment 6, n° 48, rue Haidian Ouest, Pékin, Chine
location_on
Shenzhen, en Chine
402 étage 4, bâtiment technologique Fu'an, Shenzhen, Chine
Fondation Recherche
Lecteur
Intégrations
Reclasseur
Recherche profonde
Classificateur
Segmenteur
Documentation de l'API
Obtenir la clé API Jina
Limite de taux
Statut de l'API
Entreprise
À propos de nous
Contacter le service commercial
Rédaction
Programme de stage
Rejoignez-nous
open_in_new
Télécharger le logo
open_in_new
Termes
Sécurité
termes et conditions
Confidentialité
Gérer les cookies
email
Jina AI © 2020-2025.