Pressemitteilungen
Modelle
Produkte
keyboard_arrow_down
Leser
Lesen Sie URLs und suchen Sie im Internet nach fundierteren LLMs.
Einbettungen
Multimodale und mehrsprachige Einbettungen von Weltklasse.
Reranker
Neural Retriever der Weltklasse zur Maximierung der Suchrelevanz.
DeepSearch
Suchen, lesen und überlegen, bis die beste Antwort gefunden ist.
Mehr
keyboard_arrow_down
Klassifikator
Zero-Shot- und Few-Shot-Klassifizierung für Bild und Text.
Segmentierer
Schneiden Sie langen Text in Abschnitte und führen Sie eine Tokenisierung durch.

API-Dokumente
Automatische Codegenerierung für Ihre Copilot-IDE oder LLM
open_in_new


Unternehmen
keyboard_arrow_down
Über uns
Kontaktieren Sie unseren Vertrieb
Praktikantenprogramm
Begleiten Sie uns
open_in_new
Logo herunterladen
open_in_new
Terms & amp; Bedingungen


Einloggen
login
warning
Dieses Modell wird durch neuere Modelle ersetzt.

jina-embedding-b-en-v1

Die erste Version des Jina-Embedding-Modells, das OG.
Lizenz
license
Apache-2.0
Veröffentlichungsdatum
calendar_month
2023-06-17
Eingang
abc
Text
arrow_forward
Ausgabe
more_horiz
Vektor
Modelldetails
Parameter: 110M
Länge des Eingabetokens: 512
Ausgabedimension: 768
Sprachunterstützung
🇺🇸 Englisch
Ähnliche Modelle
link
jina-embeddings-v2-base-en
link
jina-embeddings-v3
Schlagwörter
text-embedding
english
base-model
legacy
bert-based
production
Erhältlich über
Umarmendes Gesicht
Wählen Sie Modelle zum Vergleichen aus
Publikationen (1)
EMNLP 2023
Juli 20, 2023
Jina Embeddings: A Novel Set of High-Performance Sentence Embedding Models

Überblick

Jina Embedding B v1 ist ein spezialisiertes Text-Embedding-Modell, das englische Texte in hochdimensionale numerische Darstellungen transformiert und dabei die semantische Bedeutung beibehält. Das Modell erfüllt den kritischen Bedarf an effizienten und genauen Text-Embeddings in Produktionsumgebungen und ist besonders wertvoll für Organisationen, die ein Gleichgewicht zwischen Rechenleistung und Einbettungsqualität benötigen. Mit seinen 110 Millionen Parametern, die 768-dimensionale Embeddings generieren, dient es als praktische Lösung für Teams, die semantische Such-, Dokumentclustering- oder Inhaltsempfehlungssysteme implementieren, ohne umfangreiche Rechenressourcen zu benötigen.

Methoden

Das Modell verwendet eine T5-Encoder-basierte Architektur, die mit Mean Pooling erweitert wurde, um Darstellungen mit fester Länge zu generieren. Das Modell wurde anhand des sorgfältig kuratierten Linnaeus-Clean-Datensatzes trainiert, der 385 Millionen hochwertige Satzpaare enthält, die aus anfänglich 1,6 Milliarden Paaren herausgefiltert wurden, und durchlief einen zweiphasigen Trainingsprozess. Die erste Phase nutzte kontrastives Lernen mit InfoNCE-Verlust bei Textpaaren, während die zweite Phase ein Triplet-Training beinhaltete, um die Fähigkeit des Modells zu verfeinern, zwischen ähnlichen und unähnlichen Inhalten zu unterscheiden. Dieser innovative Trainingsansatz, kombiniert mit strenger Datenfilterung einschließlich Spracherkennung und Konsistenzprüfung, ermöglicht es dem Modell, nuancierte semantische Beziehungen effektiv zu erfassen.

Leistung

Bei realen Tests zeigt Jina Embedding B v1 beeindruckende Fähigkeiten, insbesondere bei Aufgaben zur semantischen Textähnlichkeit. Das Modell erreicht mit einem Score von 0,751 eine Spitzenleistung bei STS12 und übertrifft damit etablierte Modelle wie all-mpnet-base-v2 und all-minilm-l6-v2. Es zeigt eine starke Leistung bei verschiedenen Benchmarks und behält gleichzeitig effiziente Inferenzzeiten bei. Benutzer sollten jedoch beachten, dass das Modell speziell für englischsprachige Inhalte optimiert ist und bei mehrsprachigen oder codespezifischen Aufgaben möglicherweise nicht optimal funktioniert. Das Modell wurde inzwischen durch jina-embeddings-v2-base-en und jina-embeddings-v3 ersetzt, die eine verbesserte Leistung für ein breiteres Spektrum von Anwendungsfällen bieten.

Anleitung

Für eine optimale Bereitstellung erfordert das Modell eine CUDA-fähige GPU, obwohl seine moderate Größe eine effiziente Inferenz auf Standardhardware ermöglicht. Das Modell akzeptiert Eingabesequenzen mit einer Länge von bis zu 512 Token und eignet sich besonders gut für Produktionsumgebungen, in denen eine konsistente, zuverlässige Einbettungsgenerierung von entscheidender Bedeutung ist. Es funktioniert am besten bei englischsprachigem Inhalt und ist ideal für Anwendungen wie semantische Suche, Dokumentähnlichkeitsvergleich und Inhaltsempfehlungssysteme. Teams sollten die Verwendung der neueren Versionen v2 oder v3 für neue Projekte in Betracht ziehen, da diese eine verbesserte Leistung und eine breitere Sprachunterstützung bieten. Das Modell wird nicht für Aufgaben empfohlen, die mehrsprachiges Verständnis oder spezielles Domänenwissen über allgemeine englische Texte hinaus erfordern.
Büros
location_on
Sunnyvale, Kalifornien
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, USA
location_on
Berlin, Deutschland (Hauptsitz)
Prinzessinnenstraße 19-20, 10969 Berlin, Deutschland
location_on
Peking, China
Ebene 5, Gebäude 6, Nr. 48 Haidian West St. Peking, China
location_on
Shenzhen, China
402 Etage 4, Fu'an Technology Building, Shenzhen, China
Stiftung durchsuchen
Leser
Einbettungen
Reranker
DeepSearch
Klassifikator
Segmentierer
API-Dokumentation
Jina API-Schlüssel abrufen
Ratenbegrenzung
API-Status
Unternehmen
Über uns
Kontaktieren Sie unseren Vertrieb
Pressemitteilungen
Praktikantenprogramm
Begleiten Sie uns
open_in_new
Logo herunterladen
open_in_new
Bedingungen
Sicherheit
Terms & amp; Bedingungen
Privatsphäre
Cookie-Einstellungen
email
Jina AI © 2020-2025.