Notizia
Modelli
Prodotti
keyboard_arrow_down
Lettore
Leggi gli URL e cerca sul web per ottenere LLM più approfonditi.
Incorporamenti
Incorporamenti multilingue multimodali di livello mondiale.
Riclassificazione
Recupero neurale di livello mondiale per massimizzare la pertinenza della ricerca.
Ricerca profonda
Cerca, leggi e ragiona finché non trovi la risposta migliore.
Di più
keyboard_arrow_down
Classificatore
Classificazione zero-shot e few-shot per immagini e testo.
Segmentatore
Tagliare il testo lungo in blocchi ed effettuare la tokenizzazione.

Documentazione API
Generazione automatica di codice per il tuo IDE o LLM di Copilot
open_in_new


Azienda
keyboard_arrow_down
Chi siamo
Contatta le vendite
Programma di stagista
Unisciti a noi
open_in_new
Scarica il logo
open_in_new
Termini & Condizioni


Login
login
warning
Questo modello è obsoleto nei modelli più recenti.
copyright

jina-embeddings-v3

Modello di incorporamento multilingue di frontiera con prestazioni SOTA
Pubblicazione postarrow_forward
Licenza
copyright
CC-BY-NC-4.0
Data di rilascio
calendar_month
2024-09-18
Ingresso
abc
Testo
arrow_forward
Produzione
more_horiz
Vettore
Dettagli del modello
Parametri: 570M
Lunghezza del token di input: 8K
Dimensione di uscita: 1024
Supporto linguistico
🌍 Supporto multilingue
Modelli correlati
link
jina-embeddings-v2-base-en
link
jina-embeddings-v2-base-zh
link
jina-embeddings-v2-base-de
link
jina-embeddings-v2-base-es
link
jina-embeddings-v2-base-code
Etichette
text-embedding
multilingual
high-dimension
long-context
production
base-model
matryoshka
lora-adapters
Disponibile tramite
API di JinaLicenza commercialeAWS SageMakerMicrosoft AzureGoogle CloudFaccia abbracciata
Grafico I/O
Scegli i modelli da confrontare
Pubblicazioni (3)
ACL 2025
dicembre 17, 2024
AIR-Bench: Automated Heterogeneous Information Retrieval Benchmark
ECIR 2025
settembre 18, 2024
jina-embeddings-v3: Multilingual Embeddings With Task LoRA
SIGIR 2025
settembre 07, 2024
Late Chunking: Contextual Chunk Embeddings Using Long-Context Embedding Models

Panoramica

Jina Embeddings v3 è un modello di incorporamento di testo multilingue rivoluzionario che trasforma il modo in cui le organizzazioni gestiscono la comprensione e il recupero del testo tra le lingue. In sostanza, risolve la sfida critica di mantenere prestazioni elevate su più lingue e attività, mantenendo al contempo i requisiti computazionali gestibili. Il modello brilla in modo particolare negli ambienti di produzione in cui l'efficienza è importante: raggiunge prestazioni all'avanguardia con soli 570 milioni di parametri, rendendolo accessibile ai team che non possono permettersi il sovraccarico computazionale di modelli più grandi. Le organizzazioni che hanno bisogno di creare sistemi di ricerca multilingue scalabili o di analizzare contenuti oltre le barriere linguistiche troveranno questo modello particolarmente prezioso.

Metodi

L'architettura del modello rappresenta un'innovazione significativa nella tecnologia di incorporamento, costruita su una base di jina-XLM-RoBERTa con 24 livelli e potenziata con adattatori Low-Rank Adaptation (LoRA) specifici per attività. Gli adattatori LoRA sono componenti di rete neurale specializzati che ottimizzano il modello per diverse attività come recupero, classificazione o clustering senza aumentare significativamente il conteggio dei parametri: aggiungono meno del 3% ai parametri totali. Il modello incorpora Matryoshka Representation Learning (MRL), consentendo di ridurre in modo flessibile gli incorporamenti da 1024 a un minimo di 32 dimensioni, preservando al contempo le prestazioni. L'addestramento ha coinvolto un processo in tre fasi: pre-addestramento iniziale su testo multilingue da 89 lingue, messa a punto su testi accoppiati per la qualità dell'incorporamento e addestramento dell'adattatore specializzato per l'ottimizzazione delle attività. Il modello supporta lunghezze di contesto fino a 8.192 token tramite Rotary Position Embeddings (RoPE), con un'innovativa tecnica di regolazione della frequenza di base che migliora le prestazioni su testi sia brevi che lunghi.

Prestazione

Il modello dimostra un eccezionale rapporto efficienza-prestazioni nei test del mondo reale, superando sia le alternative open source che le soluzioni proprietarie di OpenAI e Cohere nelle attività in inglese, eccellendo negli scenari multilingue. La cosa più sorprendente è che ottiene risultati migliori di e5-mistral-7b-instruct, che ha 12 volte più parametri, evidenziando la sua notevole efficienza. Nelle valutazioni di benchmark MTEB, ottiene un punteggio medio di 65,52 in tutte le attività, con prestazioni particolarmente elevate in Accuratezza della classificazione (82,58) e Somiglianza delle frasi (85,80). Il modello mantiene prestazioni costanti in tutte le lingue, ottenendo un punteggio di 64,44 nelle attività multilingue. Quando si utilizza MRL per la riduzione delle dimensioni, mantiene prestazioni elevate anche a dimensioni inferiori, ad esempio, mantenendo il 92% delle sue prestazioni di recupero a 64 dimensioni rispetto alle 1024 dimensioni complete.

Orientamento

Per distribuire in modo efficace Jina Embeddings v3, i team devono considerare il loro caso d'uso specifico per selezionare l'adattatore di attività appropriato: retrieval.query e retrieval.passage per le applicazioni di ricerca, separazione per le attività di clustering, classificazione per la categorizzazione e corrispondenza di testo per la similarità semantica. Il modello richiede hardware compatibile con CUDA per prestazioni ottimali, sebbene la sua architettura efficiente implichi che necessiti di una memoria GPU notevolmente inferiore rispetto ad alternative più grandi. Per la distribuzione in produzione, l'integrazione di AWS SageMaker fornisce un percorso semplificato verso la scalabilità. Il modello eccelle nelle applicazioni multilingue ma potrebbe richiedere una valutazione aggiuntiva per le lingue a basse risorse. Sebbene supporti documenti lunghi fino a 8.192 token, le prestazioni ottimali si ottengono con la funzionalità di chunking tardivo per testi molto lunghi. I team devono evitare di utilizzare il modello per attività che richiedono generazione in tempo reale o ragionamento complesso: è progettato per l'incorporamento e il recupero, non per la generazione di testo o la risposta diretta alle domande.
Blog che menzionano questo modello
settembre 18, 2024 • 10 minuti letti
Jina Embeddings v3: Un Modello di Embedding Multilingue all'Avanguardia
jina-embeddings-v3 è un modello di embedding testuale multilingue all'avanguardia con 570M parametri e lunghezza token di 8192, che supera gli ultimi embedding proprietari di OpenAI e Cohere su MTEB.
Jina AI
Dynamic image showing the characters "V3" formed by bright green dots varying in size on a black background.
giugno 25, 2025 • 12 minuti letti
Jina Embeddings v4: 向量模型 (Embeddings) universali per il recupero multimodale multilingue
Jina Embeddings v4 è un modello di 向量模型 (Embeddings) universale da 3,8 miliardi di parametri per il recupero multimodale e multilingue che supporta sia output di 向量模型 (Embeddings) a vettore singolo che a vettore multiplo.
Jina AI
Word "Embeddings" followed by a numeric or symbol representation, displayed in multiple colors on a technology-themed, colorf
maggio 28, 2025 • 4 minuti letti
Correlazioni: test di risonanza dei vettori modello (Embeddings) in GUI
Pur essendo molto seri riguardo a MTEB, amiamo anche testare le sensazioni. Correlations è una semplice GUI che utilizziamo per convalidare le citazioni in DeepSearch, per il debug del late chunking e per testare le sensazioni dei vettori modello (Embeddings). Ora è open source.
Jina AI
Technical screen showing green and yellow visual data, including charts in the lower half and a heat-map-like visualization a
maggio 07, 2025 • 9 minuti letti
La ricetta di Model Soup per gli Embeddings
Aumenta la robustezza e le prestazioni con le model soups: media dei pesi. Nessun costo aggiuntivo, risultati migliori.
Bo Wang
Scott Martens
Still life drawing of a purple bowl filled with apples and oranges on a white table. The scene features rich colors against a
aprile 16, 2025 • 10 minuti letti
Sull'influenza della distorsione dimensionale degli embedding di testo e il suo impatto sulla ricerca
Il bias della dimensione si riferisce a come la lunghezza degli input testuali influenza la similarità, indipendentemente dalla rilevanza semantica. Questo spiega perché i sistemi di ricerca a volte restituiscono documenti lunghi e poco pertinenti invece di corrispondenze più brevi e precise alla query.
Scott Martens
Black background with a simple white ruler marked in centimeters, emphasizing a minimalist design.
Uffici
location_on
Sunnyvale, California
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, Stati Uniti
location_on
Berlino, Germania (sede centrale)
Prinzessinnenstraße 19-20, 10969 Berlino, Germania
location_on
Pechino, Cina
Livello 5, Edificio 6, No.48 Haidian West St. Pechino, Cina
location_on
Shenzen, Cina
402 Piano 4, Fu'an Technology Building, Shenzhen, Cina
Fondazione di ricerca
Lettore
Incorporamenti
Riclassificazione
Ricerca profonda
Classificatore
Segmentatore
Documentazione API
Ottieni la chiave API Jina
Limite di velocità
Stato dell'API
Azienda
Chi siamo
Contatta le vendite
Sala stampa
Programma di stagista
Unisciti a noi
open_in_new
Scarica il logo
open_in_new
Termini
Sicurezza
Termini & Condizioni
Privacy
Gestisci i cookie
email
Jina AI © 2020-2025.