Disponibile tramite
Scegli i modelli da confrontare
Pubblicazioni (1)
Panoramica
Jina Embedding B v1 è un modello di embedding di testo specializzato progettato per trasformare il testo inglese in rappresentazioni numeriche ad alta dimensionalità mantenendo il significato semantico. Il modello risponde all'esigenza critica di embedding di testo efficienti e precisi negli ambienti di produzione, particolarmente prezioso per le organizzazioni che richiedono un equilibrio tra efficienza computazionale e qualità dell'embedding. Con i suoi 110M di parametri che generano embedding a 768 dimensioni, funge da soluzione pratica per i team che implementano sistemi di ricerca semantica, clustering di documenti o raccomandazione di contenuti senza richiedere ampie risorse computazionali.
Metodi
Il modello impiega un'architettura basata su codificatore T5 potenziata con pooling medio per generare rappresentazioni di lunghezza fissa. Addestrato sul dataset Linnaeus-Clean attentamente curato, che contiene 385 milioni di coppie di frasi di alta qualità filtrate da 1,6 miliardi di coppie iniziali, il modello è stato sottoposto a un processo di addestramento in due fasi. La prima fase ha utilizzato l'apprendimento contrastivo con perdita di InfoNCE su coppie di testo, mentre la seconda fase ha incorporato l'addestramento di triplette per perfezionare la capacità del modello di distinguere tra contenuti simili e dissimili. Questo approccio di addestramento innovativo, combinato con un rigoroso filtraggio dei dati che include il rilevamento della lingua e il controllo della coerenza, consente al modello di catturare efficacemente relazioni semantiche sfumate.
Prestazione
Nelle valutazioni del mondo reale, Jina Embedding B v1 dimostra capacità impressionanti, in particolare in attività di similarità testuale semantica. Il modello raggiunge prestazioni all'avanguardia su STS12 con un punteggio di 0,751, superando modelli consolidati come all-mpnet-base-v2 e all-minilm-l6-v2. Mostra prestazioni elevate in vari benchmark mantenendo tempi di inferenza efficienti. Tuttavia, gli utenti devono notare che il modello è specificamente ottimizzato per contenuti in lingua inglese e potrebbe non funzionare in modo ottimale su attività multilingue o specifiche del codice. Il modello è stato da allora sostituito da jina-embeddings-v2-base-en e jina-embeddings-v3, che offrono prestazioni migliorate in una gamma più ampia di casi d'uso.
Orientamento
Per un'implementazione ottimale, il modello richiede una GPU compatibile con CUDA, sebbene le sue dimensioni moderate consentano un'inferenza efficiente su hardware standard. Il modello accetta sequenze di input lunghe fino a 512 token ed è particolarmente adatto per ambienti di produzione in cui è fondamentale una generazione di incorporamenti coerente e affidabile. Offre le massime prestazioni su contenuti in lingua inglese ed è ideale per applicazioni come la ricerca semantica, il confronto di similarità di documenti e i sistemi di raccomandazione di contenuti. I team dovrebbero prendere in considerazione l'utilizzo delle versioni v2 o v3 più recenti per i nuovi progetti, in quanto offrono prestazioni migliorate e un supporto linguistico più ampio. Il modello non è consigliato per attività che richiedono una comprensione multilingue o una conoscenza di dominio specializzata al di fuori del testo inglese generale.