Pressemitteilungen
Modelle
API
keyboard_arrow_down
Leser
Lesen Sie URLs und suchen Sie im Internet nach fundierteren LLMs.
Einbettungen
Multimodale und mehrsprachige Einbettungen von Weltklasse.
Reranker
Neural Retriever der Weltklasse zur Maximierung der Suchrelevanz.
Elastischer Inferenzdienst
Jina-Modelle nativ in Elasticsearch ausführen.
MCP terminalCLIarticlellms.txtsmart_toyAgentendata_objectSchemamenu_bookDokumente



Einloggen
login
Reranker
copyright CC BY-NC 4.0
open_in_new Beitrag veröffentlichen

jina-reranker-v3

Listwise-Reranker für die mehrsprachige Dokumentensuche nach SOTA
Lizenz
copyright CC-BY-NC-4.0
Veröffentlichungsdatum
calendar_month
2025-10-01
Eingang
abc
Text (Abfrage)
abc
Text (Dokument)
arrow_forward
Ausgabe
format_list_numbered
Ranglisten
Modelldetails
Parameter: 597M
Länge des Eingabetokens: 131K
Ausgabedimension: 256
Basismodell help_outline
open_in_new
Qwen3-0.6B
Ausgebildete Sprachen help_outline
24 Sprachen
Unterstützte Sprachen help_outline
93 Sprachen
Quantisierungen help_outline
GGUF
Apple Silicon-Unterstützung help_outline
MLX
Ähnliche Modelle
link
jina-reranker-v2-base-multilingual
link
jina-reranker-m0
Schlagwörter
listwise
multilingual
code-search
long-context
reranker
decoder-only
Erhältlich über
Elastischer InferenzdienstJina-APIAWS SageMakerMicrosoft AzureGoogle CloudUmarmendes Gesicht
E/A-Diagramm

mehrere

Dokumentieren

Abfrage

jina-reranker-v3

Rang

Wählen Sie Modelle zum Vergleichen aus
Publikationen (1)
AAAI 2026
Oktober 01, 2025
jina-reranker-v3: Last but Not Late Interaction for Document Reranking

Überblick

jina-reranker-v3 ist ein mehrsprachiger Dokument-Reranker mit 0,6B-Parametern, der eine neuartige Last-but-not-late-Interaktionsarchitektur einführt. Im Gegensatz zur separaten Kodierung von ColBERT mit Multi-Vektor-Matching führt dieses Modell kausale Selbstaufmerksamkeit zwischen Abfrage und Dokumenten innerhalb desselben Kontextfensters durch und ermöglicht so umfassende dokumentenübergreifende Interaktionen, bevor kontextbezogene Einbettungen aus dem letzten Token jedes Dokuments extrahiert werden. Basierend auf Qwen3-0.6B mit 28 Transformer-Schichten und einem leichten MLP-Projektor (1024→512→256) verarbeitet es bis zu 64 Dokumente gleichzeitig innerhalb eines 131K-Token-Kontexts. Das Modell erreicht mit 61,94 nDCG-10 eine hochmoderne BEIR-Leistung und ist dabei 10-mal kleiner als generative listenweise Reranker.

Methoden

Verwendet ein dreistufiges progressives Training mit mehrzieligem Verlust, das InfoNCE, dispersiven Verlust (0,45), dualen Matching-Verlust (0,85) und Ähnlichkeitsverlust (0,85) kombiniert. Stufe 1 verwendet LoRA-Feintuning (r=16, α=32) auf domänenspezifischen Datensätzen, einschließlich BGE-M3, Cornstack, mit 16 Dokumenten pro Abfrage. Stufe 2 erweitert den Kontext auf 8.192 Token und schürft harte Negative über Abrufsysteme hinweg mit bis zu 25 Negativen bei τ=0,05. Stufe 3 führt spezialisierte Modelle mit Gewichten von 0,25–0,65 zusammen. Spezielle Token doc_emb und query_emb markieren Einbettungsextraktionspositionen. Das Training verwendet strukturierte Eingabeaufforderungen mit System-/Benutzer-/Assistentenrollen und platziert die Abfrage sowohl am Anfang als auch am Ende, um eine beidseitige Aufmerksamkeit zu gewährleisten.

Leistung

Erreicht 61,94 nDCG-10 auf BEIR, den höchsten Wert aller bewerteten Reranker und eine Verbesserung von 4,88 % gegenüber jina-reranker-v2. Übertrifft die Multi-Hop-Abfrage mit 78,56 auf HotpotQA, die Faktenüberprüfung erreicht 93,95 auf FEVER. Die mehrsprachige Leistung erreicht 66,50 auf MIRACL in 18 Sprachen, mit Arabisch bei 78,69 und Thai bei 81,06. Die Codeabfrage erreicht 63,28 auf CoIR. Übertrifft 1,5B mxbai-rerank-large (61,44) mit 2,5-mal weniger Parametern. Zeigt eine Verbesserung von 5,43 % gegenüber bge-reranker-v2-m3 im gleichen Maßstab. Relativ stabil über die Dokumentreihenfolge hinweg: zufällig (62,54), absteigend (61,94), aufsteigend (61,52).

Anleitung

Verwenden Sie strukturierte Eingabevorlagen mit System-/Benutzer-/Assistentenrollen und speziellen Token für die Embedding-Extraktion. Verarbeiten Sie bis zu 64 Dokumente pro Vorwärtsdurchlauf für Sammlungen mit mehr als 131.000 Kontext. Optimal für zufällig oder nach absteigender Relevanz sortierte Dokumente. Nutzen Sie die dokumentenübergreifende Interaktion für vergleichende Ranking-Aufgaben. Für mehrsprachige Anwendungen bietet das Modell eine starke Zero-Shot-Übertragung über 18 Sprachen hinweg. Implementieren Sie Stapelverarbeitung für große Dokumentmengen und behalten Sie die Abfrage-Embeddings über Stapel hinweg konsistent bei. Berücksichtigen Sie die 256-dimensionalen Ausgabe-Embeddings für eine effiziente Ähnlichkeitsberechnung. Ideal für Anwendungen, die sowohl Ranking-Qualität als auch Inferenzeffizienz erfordern, insbesondere Multi-Hop-Argumentation und Faktenüberprüfung.
Blogs, die dieses Modell erwähnen
Oktober 03, 2025 • 7 Minuten gelesen
Jina Reranker v3: 0.6B Listwise Reranker für SOTA Multilingual Retrieval
Ein neuer Listwise-Reranker mit 0,6 Milliarden Parametern, der die Anfrage und alle Kandidatendokumente in einem einzigen Kontextfenster berücksichtigt.
Jina AI
Light blue background with stylized text in the center, composed of small dots or squares, evoking a modern and minimalistic
Januar 22, 2025 • 10 Minuten gelesen
Was können wir von ModernBERT lernen?
Größere Trainingsdaten, effiziente Parameter-Dimensionierung und eine tiefe, aber schlanke Architektur - ModernBERT weist den Weg für zukünftige BERT-ähnliche Modelle.
Nan Wang
Alex C-G
Futuristic illustration with a central white circle surrounded by white dots on a dotted background.
September 18, 2024 • 10 Minuten gelesen
Jina Embeddings v3: Ein wegweisendes mehrsprachiges Embedding-Modell
jina-embeddings-v3 ist ein wegweisendes mehrsprachiges Text-Embedding-Modell mit 570M Parametern und einer Token-Länge von 8192, das die neuesten proprietären Embeddings von OpenAI und Cohere bei MTEB übertrifft.
Jina AI
Dynamic image showing the characters "V3" formed by bright green dots varying in size on a black background.
Büros
location_on
Sunnyvale, Kalifornien
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, USA
location_on
Berlin, Deutschland
Prinzessinnenstraße 19-20, 10969 Berlin, Deutschland
Stiftung durchsuchen
Leser
Einbettungen
Reranker
Elastischer Inferenzdienst
Jina API-Schlüssel abrufen
Ratenbegrenzung
API-Status
Unternehmen
Über uns
Kontaktieren Sie unseren Vertrieb
Pressemitteilungen
Praktikantenprogramm
Jina-Logo herunterladen
open_in_new
Elastic-Logo herunterladen
open_in_new
Bedingungen
Sicherheit
Terms & amp; Bedingungen
Privatsphäre
Cookie-Einstellungen
email
Jina AI von Elastic © 2020-2026.