Notizia
Modelli
Prodotti
keyboard_arrow_down
Lettore
Leggi gli URL e cerca sul web per ottenere LLM più approfonditi.
Incorporamenti
Incorporamenti multilingue multimodali di livello mondiale.
Riclassificazione
Recupero neurale di livello mondiale per massimizzare la pertinenza della ricerca.
Ricerca profonda
Cerca, leggi e ragiona finché non trovi la risposta migliore.
Di più
keyboard_arrow_down
Classificatore
Classificazione zero-shot e few-shot per immagini e testo.
Segmentatore
Tagliare il testo lungo in blocchi ed effettuare la tokenizzazione.

Documentazione API
Generazione automatica di codice per il tuo IDE o LLM di Copilot
open_in_new


Azienda
keyboard_arrow_down
Chi siamo
Contatta le vendite
Programma di stagista
Unisciti a noi
open_in_new
Scarica il logo
open_in_new
Termini & Condizioni


Login
login
warning
Questo modello è obsoleto nei modelli più recenti.

jina-embedding-b-en-v1

La prima versione del modello Jina Embedding, la OG.
Licenza
license
Apache-2.0
Data di rilascio
calendar_month
2023-06-17
Ingresso
abc
Testo
arrow_forward
Produzione
more_horiz
Vettore
Dettagli del modello
Parametri: 110M
Lunghezza del token di input: 512
Dimensione di uscita: 768
Supporto linguistico
🇺🇸 Inglese
Modelli correlati
link
jina-embeddings-v2-base-en
link
jina-embeddings-v3
Etichette
text-embedding
english
base-model
legacy
bert-based
production
Disponibile tramite
Faccia abbracciata
Scegli i modelli da confrontare
Pubblicazioni (1)
EMNLP 2023
luglio 20, 2023
Jina Embeddings: A Novel Set of High-Performance Sentence Embedding Models

Panoramica

Jina Embedding B v1 è un modello di embedding di testo specializzato progettato per trasformare il testo inglese in rappresentazioni numeriche ad alta dimensionalità mantenendo il significato semantico. Il modello risponde all'esigenza critica di embedding di testo efficienti e precisi negli ambienti di produzione, particolarmente prezioso per le organizzazioni che richiedono un equilibrio tra efficienza computazionale e qualità dell'embedding. Con i suoi 110M di parametri che generano embedding a 768 dimensioni, funge da soluzione pratica per i team che implementano sistemi di ricerca semantica, clustering di documenti o raccomandazione di contenuti senza richiedere ampie risorse computazionali.

Metodi

Il modello impiega un'architettura basata su codificatore T5 potenziata con pooling medio per generare rappresentazioni di lunghezza fissa. Addestrato sul dataset Linnaeus-Clean attentamente curato, che contiene 385 milioni di coppie di frasi di alta qualità filtrate da 1,6 miliardi di coppie iniziali, il modello è stato sottoposto a un processo di addestramento in due fasi. La prima fase ha utilizzato l'apprendimento contrastivo con perdita di InfoNCE su coppie di testo, mentre la seconda fase ha incorporato l'addestramento di triplette per perfezionare la capacità del modello di distinguere tra contenuti simili e dissimili. Questo approccio di addestramento innovativo, combinato con un rigoroso filtraggio dei dati che include il rilevamento della lingua e il controllo della coerenza, consente al modello di catturare efficacemente relazioni semantiche sfumate.

Prestazione

Nelle valutazioni del mondo reale, Jina Embedding B v1 dimostra capacità impressionanti, in particolare in attività di similarità testuale semantica. Il modello raggiunge prestazioni all'avanguardia su STS12 con un punteggio di 0,751, superando modelli consolidati come all-mpnet-base-v2 e all-minilm-l6-v2. Mostra prestazioni elevate in vari benchmark mantenendo tempi di inferenza efficienti. Tuttavia, gli utenti devono notare che il modello è specificamente ottimizzato per contenuti in lingua inglese e potrebbe non funzionare in modo ottimale su attività multilingue o specifiche del codice. Il modello è stato da allora sostituito da jina-embeddings-v2-base-en e jina-embeddings-v3, che offrono prestazioni migliorate in una gamma più ampia di casi d'uso.

Orientamento

Per un'implementazione ottimale, il modello richiede una GPU compatibile con CUDA, sebbene le sue dimensioni moderate consentano un'inferenza efficiente su hardware standard. Il modello accetta sequenze di input lunghe fino a 512 token ed è particolarmente adatto per ambienti di produzione in cui è fondamentale una generazione di incorporamenti coerente e affidabile. Offre le massime prestazioni su contenuti in lingua inglese ed è ideale per applicazioni come la ricerca semantica, il confronto di similarità di documenti e i sistemi di raccomandazione di contenuti. I team dovrebbero prendere in considerazione l'utilizzo delle versioni v2 o v3 più recenti per i nuovi progetti, in quanto offrono prestazioni migliorate e un supporto linguistico più ampio. Il modello non è consigliato per attività che richiedono una comprensione multilingue o una conoscenza di dominio specializzata al di fuori del testo inglese generale.
Uffici
location_on
Sunnyvale, California
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, Stati Uniti
location_on
Berlino, Germania (sede centrale)
Prinzessinnenstraße 19-20, 10969 Berlino, Germania
location_on
Pechino, Cina
Livello 5, Edificio 6, No.48 Haidian West St. Pechino, Cina
location_on
Shenzen, Cina
402 Piano 4, Fu'an Technology Building, Shenzhen, Cina
Fondazione di ricerca
Lettore
Incorporamenti
Riclassificazione
Ricerca profonda
Classificatore
Segmentatore
Documentazione API
Ottieni la chiave API Jina
Limite di velocità
Stato dell'API
Azienda
Chi siamo
Contatta le vendite
Sala stampa
Programma di stagista
Unisciti a noi
open_in_new
Scarica il logo
open_in_new
Termini
Sicurezza
Termini & Condizioni
Privacy
Gestisci i cookie
email
Jina AI © 2020-2025.