Notizia
Modelli
Prodotti
keyboard_arrow_down
Lettore
Leggi gli URL e cerca sul web per ottenere LLM più approfonditi.
Incorporamenti
Incorporamenti multilingue multimodali di livello mondiale.
Riclassificazione
Recupero neurale di livello mondiale per massimizzare la pertinenza della ricerca.
Ricerca profonda
Cerca, leggi e ragiona finché non trovi la risposta migliore.
Di più
keyboard_arrow_down
Classificatore
Classificazione zero-shot e few-shot per immagini e testo.
Segmentatore
Tagliare il testo lungo in blocchi ed effettuare la tokenizzazione.

Documentazione API
Generazione automatica di codice per il tuo IDE o LLM di Copilot
open_in_new


Azienda
keyboard_arrow_down
Chi siamo
Contatta le vendite
Programma di stagista
Unisciti a noi
open_in_new
Scarica il logo
open_in_new
Termini & Condizioni


Login
login
warning
Questo modello è obsoleto nei modelli più recenti.
copyright

jina-embeddings-v3

Modello di incorporamento multilingue di frontiera con prestazioni SOTA
Pubblicazione postarrow_forward
Licenza
copyright
CC-BY-NC-4.0
Data di rilascio
calendar_month
2024-09-18
Ingresso
abc
Testo
arrow_forward
Produzione
more_horiz
Vettore
Dettagli del modello
Parametri: 570M
Lunghezza del token di input: 8K
Dimensione di uscita: 1024
Supporto linguistico
🌍 Supporto multilingue
Modelli correlati
link
jina-embeddings-v2-base-en
link
jina-embeddings-v2-base-zh
link
jina-embeddings-v2-base-de
link
jina-embeddings-v2-base-es
link
jina-embeddings-v2-base-code
Etichette
text-embedding
multilingual
high-dimension
long-context
production
base-model
matryoshka
lora-adapters
Disponibile tramite
API di JinaLicenza commercialeAWS SageMakerMicrosoft AzureGoogle CloudFaccia abbracciata
Grafico I/O
Scegli i modelli da confrontare
Pubblicazioni (3)
ACL 2025
dicembre 17, 2024
AIR-Bench: Automated Heterogeneous Information Retrieval Benchmark
ECIR 2025
settembre 18, 2024
jina-embeddings-v3: Multilingual Embeddings With Task LoRA
SIGIR 2025
settembre 07, 2024
Late Chunking: Contextual Chunk Embeddings Using Long-Context Embedding Models

Panoramica

Jina Embeddings v3 è un modello di incorporamento di testo multilingue rivoluzionario che trasforma il modo in cui le organizzazioni gestiscono la comprensione e il recupero del testo tra le lingue. In sostanza, risolve la sfida critica di mantenere prestazioni elevate su più lingue e attività, mantenendo al contempo i requisiti computazionali gestibili. Il modello brilla in modo particolare negli ambienti di produzione in cui l'efficienza è importante: raggiunge prestazioni all'avanguardia con soli 570 milioni di parametri, rendendolo accessibile ai team che non possono permettersi il sovraccarico computazionale di modelli più grandi. Le organizzazioni che hanno bisogno di creare sistemi di ricerca multilingue scalabili o di analizzare contenuti oltre le barriere linguistiche troveranno questo modello particolarmente prezioso.

Metodi

L'architettura del modello rappresenta un'innovazione significativa nella tecnologia di incorporamento, costruita su una base di jina-XLM-RoBERTa con 24 livelli e potenziata con adattatori Low-Rank Adaptation (LoRA) specifici per attività. Gli adattatori LoRA sono componenti di rete neurale specializzati che ottimizzano il modello per diverse attività come recupero, classificazione o clustering senza aumentare significativamente il conteggio dei parametri: aggiungono meno del 3% ai parametri totali. Il modello incorpora Matryoshka Representation Learning (MRL), consentendo di ridurre in modo flessibile gli incorporamenti da 1024 a un minimo di 32 dimensioni, preservando al contempo le prestazioni. L'addestramento ha coinvolto un processo in tre fasi: pre-addestramento iniziale su testo multilingue da 89 lingue, messa a punto su testi accoppiati per la qualità dell'incorporamento e addestramento dell'adattatore specializzato per l'ottimizzazione delle attività. Il modello supporta lunghezze di contesto fino a 8.192 token tramite Rotary Position Embeddings (RoPE), con un'innovativa tecnica di regolazione della frequenza di base che migliora le prestazioni su testi sia brevi che lunghi.

Prestazione

Il modello dimostra un eccezionale rapporto efficienza-prestazioni nei test del mondo reale, superando sia le alternative open source che le soluzioni proprietarie di OpenAI e Cohere nelle attività in inglese, eccellendo negli scenari multilingue. La cosa più sorprendente è che ottiene risultati migliori di e5-mistral-7b-instruct, che ha 12 volte più parametri, evidenziando la sua notevole efficienza. Nelle valutazioni di benchmark MTEB, ottiene un punteggio medio di 65,52 in tutte le attività, con prestazioni particolarmente elevate in Accuratezza della classificazione (82,58) e Somiglianza delle frasi (85,80). Il modello mantiene prestazioni costanti in tutte le lingue, ottenendo un punteggio di 64,44 nelle attività multilingue. Quando si utilizza MRL per la riduzione delle dimensioni, mantiene prestazioni elevate anche a dimensioni inferiori, ad esempio, mantenendo il 92% delle sue prestazioni di recupero a 64 dimensioni rispetto alle 1024 dimensioni complete.

Orientamento

Per distribuire in modo efficace Jina Embeddings v3, i team devono considerare il loro caso d'uso specifico per selezionare l'adattatore di attività appropriato: retrieval.query e retrieval.passage per le applicazioni di ricerca, separazione per le attività di clustering, classificazione per la categorizzazione e corrispondenza di testo per la similarità semantica. Il modello richiede hardware compatibile con CUDA per prestazioni ottimali, sebbene la sua architettura efficiente implichi che necessiti di una memoria GPU notevolmente inferiore rispetto ad alternative più grandi. Per la distribuzione in produzione, l'integrazione di AWS SageMaker fornisce un percorso semplificato verso la scalabilità. Il modello eccelle nelle applicazioni multilingue ma potrebbe richiedere una valutazione aggiuntiva per le lingue a basse risorse. Sebbene supporti documenti lunghi fino a 8.192 token, le prestazioni ottimali si ottengono con la funzionalità di chunking tardivo per testi molto lunghi. I team devono evitare di utilizzare il modello per attività che richiedono generazione in tempo reale o ragionamento complesso: è progettato per l'incorporamento e il recupero, non per la generazione di testo o la risposta diretta alle domande.
Blog che menzionano questo modello
settembre 18, 2024 • 10 minuti letti
Jina Embeddings v3: Un Modello di Embedding Multilingue all'Avanguardia
jina-embeddings-v3 è un modello di embedding testuale multilingue all'avanguardia con 570M parametri e lunghezza token di 8192, che supera gli ultimi embedding proprietari di OpenAI e Cohere su MTEB.
Jina AI
Dynamic image showing the characters "V3" formed by bright green dots varying in size on a black background.
luglio 25, 2025 • 8 minuti letti
JinaVDR: nuovo benchmark di ricerca visiva di documenti con 95 attività in 20 lingue
JinaVDR è un nuovo benchmark che comprende 95 attività in 20 lingue per il recupero visivo di documenti, presto disponibile su MTEB.
Maximilian Werk
Alex C-G
Black-and-white design for "Jinavor Benchmark" with bold text. Below, "Visual Docs: 95 Tasks: 20 Languages" appears; an abstr
luglio 14, 2025 • 11 minuti letti
Ottimizzazione submodulare per la selezione di testo, il Reranking di passaggi e l'ingegneria del contesto
Mentre altri si affidano all'ottimizzazione dei Prompt e sperano per il meglio, dovresti imparare l'ottimizzazione submodulare che fornisce un framework basato su principi con garanzie teoriche per una migliore ingegneria del contesto.
Han Xiao
Network illustration of interconnected hexagons, some solid and some hollow blue, connected by red lines indicating paths or
luglio 04, 2025 • 13 minuti letti
Ottimizzazione submodulare per la generazione di query diversificate in DeepResearch
Molti conoscono l'importanza della diversità delle query in DeepResearch, ma pochi sanno come risolverla rigorosamente tramite l'ottimizzazione submodulare.
Han Xiao
Black and white typographic design of "1993" with a 3D effect, minimalistic black border, and a sense of depth on a white bac
giugno 25, 2025 • 13 minuti letti
Jina Embeddings v4: 向量模型 (Embeddings) universali per il recupero multimodale multilingue
Jina Embeddings v4 è un modello di 向量模型 (Embeddings) universale da 3,8 miliardi di parametri per il recupero multimodale e multilingue che supporta sia output di 向量模型 (Embeddings) a vettore singolo che a vettore multiplo.
Jina AI
Word "Embeddings" followed by a numeric or symbol representation, displayed in multiple colors on a technology-themed, colorf
Uffici
location_on
Sunnyvale, California
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, Stati Uniti
location_on
Berlino, Germania (sede centrale)
Prinzessinnenstraße 19-20, 10969 Berlino, Germania
location_on
Pechino, Cina
Livello 5, Edificio 6, No.48 Haidian West St. Pechino, Cina
location_on
Shenzen, Cina
402 Piano 4, Fu'an Technology Building, Shenzhen, Cina
Fondazione di ricerca
Lettore
Incorporamenti
Riclassificazione
Ricerca profonda
Classificatore
Segmentatore
Documentazione API
Ottieni la chiave API Jina
Limite di velocità
Stato dell'API
Azienda
Chi siamo
Contatta le vendite
Sala stampa
Programma di stagista
Unisciti a noi
open_in_new
Scarica il logo
open_in_new
Termini
Sicurezza
Termini & Condizioni
Privacy
Gestisci i cookie
email
Jina AI © 2020-2025.