Pressemitteilungen
Modelle
API
keyboard_arrow_down
Leser
Lesen Sie URLs und suchen Sie im Internet nach fundierteren LLMs.
Einbettungen
Multimodale und mehrsprachige Einbettungen von Weltklasse.
Reranker
Neural Retriever der Weltklasse zur Maximierung der Suchrelevanz.
MCP terminalCLIarticlellms.txtsmart_toyAgentendata_objectSchemamenu_bookDokumente



Einloggen
login
warning
Dieses Modell wird durch neuere Modelle ersetzt.
Reranker
copyright CC BY-NC 4.0
open_in_new Beitrag veröffentlichen

jina-reranker-v2-base-multilingual

Cross-Encoder-Reranker mit Unterstützung für Mehrsprachigkeit, Funktionsaufrufe und Codesuche.
Lizenz
copyright CC-BY-NC-4.0
Veröffentlichungsdatum
calendar_month
2024-06-25
Eingang
abc
Text (Abfrage)
abc
Text (Dokument)
arrow_forward
Ausgabe
format_list_numbered
Ranglisten
Modelldetails
Parameter: 278M
Länge des Eingabetokens: 1K
Basismodell help_outline
open_in_new
XLM-RoBERTa Base
Ausgebildete Sprachen help_outline
24 Sprachen
Unterstützte Sprachen help_outline
108 Sprachen
Ähnliche Modelle
link
jina-reranker-v1-base-en
link
jina-reranker-v1-turbo-en
link
jina-reranker-v1-tiny-en
Schlagwörter
multilingual
cross-lingual
function-calling
code-search
long-context
production-ready
reranker
rag-optimized
high-performance
100-languages
Erhältlich über
Elastischer InferenzdienstJina-APIAWS SageMakerMicrosoft AzureGoogle CloudUmarmendes Gesicht
E/A-Diagramm

mehrere

Dokumentieren

Abfrage

jina-reranker-v2-base-multilingual

Rang

Wählen Sie Modelle zum Vergleichen aus

Überblick

Jina Reranker v2 Base Multilingual ist ein Cross-Encoder-Modell, das die Suchgenauigkeit über Sprachbarrieren und Datentypen hinweg verbessern soll. Dieser Reranker befasst sich mit der kritischen Herausforderung der präzisen Informationsbeschaffung in mehrsprachigen Umgebungen und ist besonders wertvoll für globale Unternehmen, die Suchergebnisse über verschiedene Sprachen und Inhaltstypen hinweg verfeinern müssen. Mit Unterstützung für über 100 Sprachen und einzigartigen Funktionen für Funktionsaufrufe und Codesuche dient es als einheitliche Lösung für Teams, die eine genaue Suchverfeinerung für internationale Inhalte, API-Dokumentation und mehrsprachige Codebasen benötigen. Das kompakte 278-M-Parameterdesign des Modells macht es besonders attraktiv für Organisationen, die eine Balance zwischen hoher Leistung und Ressourceneffizienz suchen.

Methoden

Das Modell nutzt eine Cross-Encoder-Architektur mit Flash Attention 2, die einen direkten Vergleich zwischen Anfragen und Dokumenten für eine präzisere Relevanzbewertung ermöglicht. In einem vierstufigen Trainingsprozess erwirbt das Modell zunächst die Fähigkeiten für die englische Sprache, integriert dann schrittweise mehrsprachige Daten und wird abschließend mit harten Negativbeispielen verfeinert. Dieser innovative Trainingsansatz, kombiniert mit der Implementierung von Flash Attention 2, ermöglicht es dem Modell, Kontextlängen von bis zu 1024 Token zu verarbeiten und längere Dokumente automatisch in kleinere Abschnitte zu unterteilen. Die Effizienz der Architektur ermöglicht es ihr, komplexe Reranking-Aufgaben in mehreren Sprachen mit einem sechsmal höheren Durchsatz als ihr Vorgänger zu bewältigen und gleichzeitig durch die direkte Interaktion zwischen Anfrage und Dokument eine präzise Relevanzbewertung zu gewährleisten.

Leistung

Bei realen Tests zeigt das Modell außergewöhnliche Fähigkeiten in verschiedenen Benchmarks. Es erreicht eine hochmoderne Leistung auf der AirBench-Bestenliste für RAG-Systeme und zeigt starke Ergebnisse bei mehrsprachigen Aufgaben, einschließlich des MKQA-Datensatzes, der 26 Sprachen umfasst. Das Modell zeichnet sich insbesondere bei strukturierten Datenaufgaben aus und erreicht hohe Rückrufwerte sowohl beim Funktionsaufruf (ToolBench-Benchmark) als auch beim SQL-Schema-Matching (NSText2SQL-Benchmark). Am beeindruckendsten ist, dass es diese Ergebnisse liefert, während es Dokumente 15-mal schneller verarbeitet als vergleichbare Modelle wie bge-reranker-v2-m3, was es für Echtzeitanwendungen praktisch macht. Benutzer sollten jedoch beachten, dass für eine optimale Leistung eine CUDA-fähige GPU für die Inferenz erforderlich ist.

Anleitung

Für eine optimale Implementierung benötigt das Modell eine CUDA-fähige GPU und kann über verschiedene Kanäle genutzt werden, darunter die Reranker-API, gängige RAG-Frameworks wie Haystack und LangChain oder die private Bereitstellung über Cloud-Marktplätze. Das Modell eignet sich hervorragend für Szenarien, die ein präzises Verständnis über Sprachbarrieren und unterschiedliche Datentypen hinweg erfordern, und ist daher ideal für global agierende Unternehmen, die mit mehrsprachigen Inhalten, API-Dokumentationen oder Code-Repositories arbeiten. Mit einem Kontextfenster von 1024 Token und automatischer Segmentierung längerer Dokumente verarbeitet das Modell umfangreiche Inhalte effizient. Teams sollten dieses Modell in Betracht ziehen, wenn sie die Suchgenauigkeit über verschiedene Sprachen hinweg verbessern, Funktionsaufrufe für agentenbasierte RAG-Systeme benötigen oder die Code-Suchfunktionalität in mehrsprachigen Codebasen optimieren möchten. Besonders effektiv ist das Modell in Kombination mit Vektorsuchsystemen, da es das endgültige Ranking der gefundenen Dokumente deutlich verbessern kann.
Blogs, die dieses Modell erwähnen
Oktober 03, 2025 • 7 Minuten gelesen
Jina Reranker v3: 0.6B Listwise Reranker für SOTA Multilingual Retrieval
Ein neuer Listwise-Reranker mit 0,6 Milliarden Parametern, der die Anfrage und alle Kandidatendokumente in einem einzigen Kontextfenster berücksichtigt.
Jina AI
Light blue background with stylized text in the center, composed of small dots or squares, evoking a modern and minimalistic
April 16, 2025 • 10 Minuten gelesen
Über den Größen-Bias von Text-Embeddings und dessen Einfluss auf die Suche
Die Größenverzerrung (Size Bias) beschreibt, wie die Länge von Texteingaben die Ähnlichkeit beeinflusst, unabhängig von der semantischen Relevanz. Dies erklärt, warum Suchsysteme manchmal lange, kaum relevante Dokumente anstelle von kürzeren, präziseren Übereinstimmungen mit Ihrer Suchanfrage zurückgeben.
Scott Martens
Black background with a simple white ruler marked in centimeters, emphasizing a minimalist design.
April 08, 2025 • 21 Minuten gelesen
jina-reranker-m0: Mehrsprachiger multimodaler Dokument-Reranker
Wir stellen jina-reranker-m0 vor, unseren neuen mehrsprachigen multimodalen Reranker für das Abrufen visueller Dokumente, mit SOTA-Performance bei mehrsprachigen langen Dokumenten und Code-Suchaufgaben.
Jina AI
Modern dot matrix text display on a dark blue background, conveying a digital feel.
April 01, 2025 • 17 Minuten gelesen
Verwendung des DeepSeek R1 Reasoning Model in DeepSearch
Standardmäßiges LLM oder Reasoning-Modell - was ist besser für DeepSearch? In diesem Beitrag haben wir die Verwendung von DeepSeek-R1 in der DeepSearch-Implementierung zur Auswahl der nächsten Aktion untersucht.
Andrei Ungureanu
Alex C-G
Brown background with a stylized whale graphic and the text "THINK:" and ":SEARCH>" in code-like font.
März 12, 2025 • 11 Minuten gelesen
Snippet-Auswahl und URL-Ranking in DeepSearch/DeepResearch
Diese zwei Details verwandeln deine DeepSearch von mittelmäßig zu herausragend: die Auswahl der besten Textausschnitte aus langen Webseiten und das Ranking von URLs vor dem Crawling.
Han Xiao
Logo with words "THINK SEARCH THINK" in black dot and arrow patterns on an orange background, accompanied by horizontal lines
Büros
location_on
Sunnyvale, Kalifornien
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, USA
location_on
Berlin, Deutschland
Prinzessinnenstraße 19-20, 10969 Berlin, Deutschland
Stiftung durchsuchen
Leser
Einbettungen
Reranker
Jina API-Schlüssel abrufen
Ratenbegrenzung
API-Status
Unternehmen
Über uns
Kontaktieren Sie unseren Vertrieb
Pressemitteilungen
Praktikantenprogramm
Jina-Logo herunterladen
open_in_new
Elastic-Logo herunterladen
open_in_new
Bedingungen
Sicherheit
Terms & amp; Bedingungen
Privatsphäre
Cookie-Einstellungen
email
Jina AI von Elastic © 2020-2026.