Pressemitteilungen
Modelle
API
keyboard_arrow_down
Leser
Lesen Sie URLs und suchen Sie im Internet nach fundierteren LLMs.
Einbettungen
Multimodale und mehrsprachige Einbettungen von Weltklasse.
Reranker
Neural Retriever der Weltklasse zur Maximierung der Suchrelevanz.
MCP terminalCLIarticlellms.txtsmart_toyAgentendata_objectSchemamenu_bookDokumente



Einloggen
login

Einbettungen

Leistungsstarke multimodale, mehrsprachige Langkontext-Einbettungen für Such-, RAG- und Agentenanwendungen.

Einbettungs-API

Probieren Sie unsere erstklassigen Einbettungsmodelle aus, um Ihre Such- und RAG-Systeme zu verbessern. Beginnen Sie mit einer kostenlosen Testversion!
keyAPI-Schlüssel und Abrechnung
codeVerwendung
more_horizMehr
chevron_leftchevron_right

home
speedRatenbegrenzung
bug_reportProblem melden
help_outlineFAQ
Status
chevron_leftchevron_right


Beispieleingaben
Ändern Sie sie und sehen Sie, wie sich die Reaktion ändert!
Organic skincare for sensitive skin with aloe vera and chamomile: Imagine the soothing embrace of nature with our organic skincare range, crafted specifically for sensitive skin. Infused with the calming properties of aloe vera and chamomile, each product provides gentle nourishment and protection. Say goodbye to irritation and hello to a glowing, healthy complexion.
Bio-Hautpflege für empfindliche Haut mit Aloe Vera und Kamille: Erleben Sie die wohltuende Wirkung unserer Bio-Hautpflege, speziell für empfindliche Haut entwickelt. Mit den beruhigenden Eigenschaften von Aloe Vera und Kamille pflegen und schützen unsere Produkte Ihre Haut auf natürliche Weise. Verabschieden Sie sich von Hautirritationen und genießen Sie einen strahlenden Teint.
Cuidado de la piel orgánico para piel sensible con aloe vera y manzanilla: Descubre el poder de la naturaleza con nuestra línea de cuidado de la piel orgánico, diseñada especialmente para pieles sensibles. Enriquecidos con aloe vera y manzanilla, estos productos ofrecen una hidratación y protección suave. Despídete de las irritaciones y saluda a una piel radiante y saludable.
针对敏感肌专门设计的天然有机护肤产品:体验由芦荟和洋甘菊提取物带来的自然呵护。我们的护肤产品特别为敏感肌设计,温和滋润,保护您的肌肤不受刺激。让您的肌肤告别不适,迎来健康光彩。
新しいメイクのトレンドは鮮やかな色と革新的な技術に焦点を当てています: 今シーズンのメイクアップトレンドは、大胆な色彩と革新的な技術に注目しています。ネオンアイライナーからホログラフィックハイライターまで、クリエイティビティを解き放ち、毎回ユニークなルックを演出しましょう。

upload
Anfrage
curl https://api.jina.ai/v1/embeddings \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer " \
  -d @- <<EOFEOF
  {
    "normalized": true,
    "embedding_type": "float",
    "input": [
        "Organic skincare for sensitive skin with aloe vera and chamomile: Imagine the soothing embrace of nature with our organic skincare range, crafted specifically for sensitive skin. Infused with the calming properties of aloe vera and chamomile, each product provides gentle nourishment and protection. Say goodbye to irritation and hello to a glowing, healthy complexion.",
        "Bio-Hautpflege für empfindliche Haut mit Aloe Vera und Kamille: Erleben Sie die wohltuende Wirkung unserer Bio-Hautpflege, speziell für empfindliche Haut entwickelt. Mit den beruhigenden Eigenschaften von Aloe Vera und Kamille pflegen und schützen unsere Produkte Ihre Haut auf natürliche Weise. Verabschieden Sie sich von Hautirritationen und genießen Sie einen strahlenden Teint.",
        "Cuidado de la piel orgánico para piel sensible con aloe vera y manzanilla: Descubre el poder de la naturaleza con nuestra línea de cuidado de la piel orgánico, diseñada especialmente para pieles sensibles. Enriquecidos con aloe vera y manzanilla, estos productos ofrecen una hidratación y protección suave. Despídete de las irritaciones y saluda a una piel radiante y saludable.",
        "针对敏感肌专门设计的天然有机护肤产品:体验由芦荟和洋甘菊提取物带来的自然呵护。我们的护肤产品特别为敏感肌设计,温和滋润,保护您的肌肤不受刺激。让您的肌肤告别不适,迎来健康光彩。",
        "新しいメイクのトレンドは鮮やかな色と革新的な技術に焦点を当てています: 今シーズンのメイクアップトレンドは、大胆な色彩と革新的な技術に注目しています。ネオンアイライナーからホログラフィックハイライターまで、クリエイティビティを解き放ち、毎回ユニークなルックを演出しましょう。"
    ]
  }
EOFEOF


v5-Text: Neue SOTA kleine mehrsprachige Einbettungen

jina-embeddings-v5-text bietet Einbettungsqualität der fünften Generation in zwei effizienten Größen – einem kleinen Modell mit 677 Millionen und einem Nano-Modell mit 239 Millionen – mit aufgabenspezifischen LoRA-Adaptern, Matryoshka-Dimensionen, 32K Kontext und GGUF/MLX-Quantisierung für den Einsatz am Edge und setzt damit neue Maßstäbe für MMTEB, MTEB English und Retrieval-Aufgaben.
Versionshinweis lesenarrow_forward

v4: Universelle Einbettungen für multimodale mehrsprachige Abfrage

jina-embeddings-v4 ist unser bisher bedeutendster Sprung – ein 3,8-B-Modell, das Text und Bilder über einen einheitlichen Pfad einbettet und sowohl dichtes als auch spätes Interaktionsabrufen unterstützt. Dabei übertrifft es proprietäre Modelle von Google, OpenAI und Voyage AI, insbesondere beim Abrufen visuell ansprechender Dokumente.

Zwei Kaufmöglichkeiten

Abonnieren Sie unsere API oder kaufen Sie über Cloud-Anbieter.
radio_button_unchecked
cloud
Mit 3 Cloud-Service-Anbietern
Verwendet Ihr Unternehmen AWS oder Azure? Dann setzen Sie unsere Suchgrundlagenmodelle direkt auf diesen Plattformen in Ihrem Unternehmen ein, damit Ihre Daten sicher und konform bleiben.
AWS SageMaker
Einbettungen
Neubewerter
Microsoft Azure
Einbettungen
Neubewerter
Google Cloud
Einbettungen
radio_button_checked
Mit Jina Search Foundation API
Der einfachste Weg, auf alle unsere Produkte zuzugreifen. Laden Sie Tokens unterwegs auf.
Laden Sie diesen API-Schlüssel mit weiteren Token auf
Abhängig von Ihrem Standort werden Ihnen möglicherweise USD, EUR oder andere Währungen in Rechnung gestellt. Es können Steuern anfallen.
Bitte geben Sie zum Aufladen den richtigen API-Schlüssel ein
Verstehen Sie die Ratenbegrenzung
Ratenbegrenzungen sind die maximale Anzahl von Anfragen, die pro Minute pro IP-Adresse/API-Schlüssel (RPM) an eine API gestellt werden können. Nachfolgend erfahren Sie mehr über die Ratenbegrenzungen für jedes Produkt und jede Stufe.
keyboard_arrow_down
Ratenbegrenzung
Ratenbegrenzungen werden auf drei Arten verfolgt: RPM (Anfragen pro Minute) und TPM (Token pro Minute). Die Begrenzungen werden pro IP/API-Schlüssel erzwungen und ausgelöst, wenn zuerst der RPM- oder TPM-Schwellenwert erreicht wird. Wenn Sie im Anforderungsheader einen API-Schlüssel angeben, verfolgen wir die Ratenbegrenzungen nach Schlüssel und nicht nach IP-Adresse.
ProduktAPI-EndpunktBeschreibungarrow_upwardohne API-Schlüsselkey_offmit kostenlosem API-Schlüsselkeymit kostenpflichtigem API-Schlüsselkeymit Premium-API-SchlüsselkeyDurchschnittliche LatenzZählung der Token-NutzungZulässige Anfrage
Leser-APIhttps://r.jina.aiURL in LLM-freundlichen Text konvertieren20 RPM500 RPM500 RPMtrending_up5000 RPM7.9sZählen Sie die Anzahl der Token in der Ausgabeantwort.GET/POST
Leser-APIhttps://s.jina.aiDurchsuchen Sie das Web und konvertieren Sie die Ergebnisse in LLM-freundlichen Textblock100 RPM100 RPMtrending_up1000 RPM2.5sJede Anfrage kostet eine feste Anzahl an Token, beginnend bei 10000 TokenGET/POST
Einbettungs-APIhttps://api.jina.ai/v1/embeddingsKonvertieren Sie Text/Bilder in Vektoren mit fester Längeblock100 RPM & 100,000 TPM500 RPM & 2,000,000 TPMtrending_up5,000 RPM & 50,000,000 TPM
ssid_chart
hängt von der Eingangsgröße ab
help
Zählen Sie die Anzahl der Token in der Eingabeanforderung.POST
Reranker-APIhttps://api.jina.ai/v1/rerankOrdnen Sie Dokumente nach Abfrageblock100 RPM & 100,000 TPM500 RPM & 2,000,000 TPMtrending_up5,000 RPM & 50,000,000 TPM
ssid_chart
hängt von der Eingangsgröße ab
help
Zählen Sie die Anzahl der Token in der Eingabeanforderung.POST
Klassifizierer-APIhttps://api.jina.ai/v1/trainTrainieren eines Klassifikators anhand gekennzeichneter Beispieleblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
hängt von der Eingangsgröße ab
Token werden wie folgt gezählt: input_tokens × num_itersPOST
Klassifizierer-API (Nullschuss)https://api.jina.ai/v1/classifyKlassifizieren Sie Eingaben mithilfe der Zero-Shot-Klassifizierungblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
hängt von der Eingangsgröße ab
Token werden wie folgt gezählt: input_tokens + label_tokensPOST
Klassifizierer-API (Wenige Schüsse)https://api.jina.ai/v1/classifyKlassifizieren Sie Eingaben mit einem trainierten Few-Shot-Klassifikatorblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
hängt von der Eingangsgröße ab
Token werden wie folgt gezählt: input_tokensPOST
Segmenter-APIhttps://api.jina.ai/v1/segmentTokenisieren und Segmentieren von Langtext20 RPM200 RPM200 RPM1,000 RPM0.3sToken werden nicht als Nutzung gezählt.GET/POST
DeepSearchhttps://deepsearch.jina.ai/v1/chat/completionsÜberlegen, suchen und iterieren, um die beste Antwort zu findenblock50 RPM50 RPM500 RPM56.7sZählen Sie die Gesamtzahl der Token im gesamten Vorgang.POST

Bereitstellung vor Ort

Stellen Sie Jina Embeddings-Modelle in AWS Sagemaker und Microsoft Azure und bald auch in Google Cloud Services bereit, oder wenden Sie sich an unser Vertriebsteam, um angepasste Kubernetes-Bereitstellungen für Ihre Virtual Private Cloud und Ihre lokalen Server zu erhalten.
AWS SageMaker
Einbettungen
Neubewerter
Microsoft Azure
Einbettungen
Neubewerter
Google Cloud
Einbettungen
API-Integrationen
Unsere Einbettungs-API ist nativ in verschiedene renommierte Datenbanken, Vektorspeicher, RAG- und LLMOps-Frameworks integriert. Kopieren Sie zunächst einfach Ihren API-Schlüssel und fügen Sie ihn in eine der aufgeführten Integrationen ein, um einen schnellen und reibungslosen Start zu ermöglichen.
Vector Store
LLMOps
LAPPEN
Beobachtbarkeit
open_in_new
MongoDB
open_in_new
DataStax
open_in_new
Qdrant
open_in_new
Pinecone
open_in_new
Chroma
open_in_new
Weaviate
open_in_new
Milvus
open_in_new
Epsilla
open_in_new
MyScale
open_in_new
LlamaIndex
open_in_new
Haystack
open_in_new
Langchain
open_in_new
Dify
open_in_new
SuperDuperDB
open_in_new
DashVector
open_in_new
Portkey
open_in_new
Baseten
open_in_new
TiDB
open_in_new
LanceDB
open_in_new
Carbon

Unsere Veröffentlichungen

Erfahren Sie, wie unsere bahnbrechenden Suchmodelle von Grund auf trainiert wurden, und sehen Sie sich unsere neuesten Veröffentlichungen an. Lernen Sie unser Team bei EMNLP, SIGIR, ICLR, NeurIPS und ICML kennen!
arXiv
Februar 17, 2026
jina-embeddings-v5-text: Task-Targeted Embedding Distillation
arXiv
Februar 11, 2026
Embedding Inversion via Conditional Masked Diffusion Language Models
ICLR 2026
Januar 22, 2026
Embedding Compression via Spherical Coordinates
arXiv
Dezember 29, 2025
Vision Encoders in Vision-Language Models: A Survey
ICLR 2026
Dezember 04, 2025
Jina-VLM: Small Multilingual Vision Language Model
AAAI 2026
Oktober 01, 2025
jina-reranker-v3: Last but Not Late Interaction for Document Reranking
NeurIPS 2025
August 31, 2025
Efficient Code Embeddings from Code Generation Models
EMNLP 2025
Juni 24, 2025
jina-embeddings-v4: Universal Embeddings for Multimodal Multilingual Retrieval
ICLR 2025
März 04, 2025
ReaderLM-v2: Small Language Model for HTML to Markdown and JSON
ACL 2025
Dezember 17, 2024
AIR-Bench: Automated Heterogeneous Information Retrieval Benchmark
ICLR 2025
Dezember 12, 2024
jina-clip-v2: Multilingual Multimodal Embeddings for Text and Images
ECIR 2025
September 18, 2024
jina-embeddings-v3: Multilingual Embeddings With Task LoRA
SIGIR 2025
September 07, 2024
Late Chunking: Contextual Chunk Embeddings Using Long-Context Embedding Models
EMNLP 2024
August 30, 2024
Jina-ColBERT-v2: A General-Purpose Multilingual Late Interaction Retriever
WWW 2025
Juni 21, 2024
Leveraging Passage Embeddings for Efficient Listwise Reranking with Large Language Models
ICML 2024
Mai 30, 2024
Jina CLIP: Your CLIP Model Is Also Your Text Retriever
arXiv
Februar 26, 2024
Multi-Task Contrastive Learning for 8192-Token Bilingual Text Embeddings
arXiv
Oktober 30, 2023
Jina Embeddings 2: 8192-Token General-Purpose Text Embeddings for Long Documents
EMNLP 2023
Juli 20, 2023
Jina Embeddings: A Novel Set of High-Performance Sentence Embedding Models
19 Veröffentlichungen insgesamt.

Erfahren Sie mehr über Einbettungen

Wo soll man mit Einbettungen anfangen? Wir geben dir Deckung. Erfahren Sie mehr über Einbettungen von Grund auf mit unserem umfassenden Leitfaden.
Abstract illustration of a sound wave or heartbeat, formed by blue, orange, and gray dots on a white background.
März 11, 2026 • 7 Minuten gelesen
Bootstrapping Audio Embeddings from Multimodal LLMs
Turn any multimodal LLM into a small audio embedding model that beats CLAP with 25x less data.
Han Xiao
Fingerprint illustration made from numbers, showcasing digital and high-tech design on a light background.
März 06, 2026 • 6 Minuten gelesen
Identifying Embedding Models from Raw Numerical Values
A tiny transformer that fingerprints embedding models by reading raw numerical digits. No feature engineering.
Han Xiao
Abstract digital artwork in black and white, featuring scattered dots forming letters in a halftone effect. The central lette
Februar 19, 2026 • 7 Minuten gelesen
jina-embeddings-v5-text: New SOTA Small Multilingual Embeddings
Two sub-1B multilingual embeddings with best-in-class performance, available on Elastic Inference Service, Llama.cpp and MLX.
Han Xiao
jina-embeddings-v5-text: Task-Targeted Embedding Distillation
Februar 17, 2026
jina-embeddings-v5-text: Task-Targeted Embedding Distillation
Text embedding models are widely used for semantic similarity tasks, including information retrieval, clustering, and classification. General-purpose models are typically trained with single- or multi-stage processes using contrastive loss functions. We introduce a novel training regimen that combines model distillation techniques with task-specific contrastive loss to produce compact, high-performance embedding models. Our findings suggest that this approach is more effective for training small models than purely contrastive or distillation-based training paradigms alone. Benchmark scores for the resulting models, jina-embeddings-v5-text-small and jina-embeddings-v5-text-nano, exceed or match the state-of-the-art for models of similar size. jina-embeddings-v5-text models additionally support long texts (up to 32k tokens) in many languages, and generate embeddings that remain robust under truncation and binary quantization. Model weights are publicly available, hopefully inspiring further advances in embedding model development.

Vergleich von Reranker, Vector Search und BM25

Die folgende Tabelle bietet einen umfassenden Vergleich von Reranker, Vector/Embeddings Search und BM25 und hebt deren Stärken und Schwächen in verschiedenen Kategorien hervor.
RerankerVektorsucheBM25
Beste fürVerbesserte Suchpräzision und RelevanzErste, schnelle FilterungAllgemeine Textsuche für weitreichende Abfragen
Die GranularitätDetailliert: Unterdokument und AbfragesegmentBreit: Ganze DokumenteMittelstufe: Verschiedene Textsegmente
Komplexität der AbfragezeitHochMittelNiedrig
Zeitkomplexität indizierenNicht benötigtHochNiedrig, nutzt vorgefertigten Index
Komplexität der TrainingszeitHochHochNicht benötigt
SuchqualitätHervorragend für differenzierte AbfragenAusgewogen zwischen Effizienz und GenauigkeitKonsistent und zuverlässig für eine breite Palette von Abfragen
StärkenSehr präzise mit tiefem KontextverständnisSchnell und effizient, mit mäßiger GenauigkeitHoch skalierbar, mit nachgewiesener Wirksamkeit
Testen Sie die Reranker-API kostenlosProbieren Sie die Einbettungs-API kostenlos aus

Die Evolution des Einbettungsplakats

Entdecken Sie das ideale Poster für Ihren Raum mit fesselnden Infografiken oder atemberaubenden Bildern, die die Entwicklung der Texteinbettungsmodelle seit 1950 nachzeichnen.
Erfahren Sie, wie wir es gemacht haben
shopping_cartKaufen Sie eine gedruckte Kopie

FAQ

Wie wurden die Jina-Einbettungsmodelle trainiert?
keyboard_arrow_down
Detaillierte Informationen zu unseren Trainingsprozessen, Datenquellen und Evaluierungen finden Sie in unseren technischen Berichten auf arXiv für jina-embeddings-v3 und jina-embeddings-v4.
launcharXiv
Welche multimodalen Einbettungsmodelle verwenden Sie?
keyboard_arrow_down
jina-embeddings-v4 ist unser neuestes universelles multimodales Modell (3,8 Milliarden Parameter), das Text und Bilder mit 32.000 Kontextinformationen, dichte und interaktive Suche sowie Bestleistungen bei visuell reichhaltigen Dokumenten unterstützt. jina-clip-v2 ist eine schlankere Option (865 Millionen Parameter), die 89 Sprachen mit einer Bildauflösung von 512x512 Pixeln und Matrjoschka-Darstellungen unterstützt. Beide eignen sich hervorragend für die Suche nach Text-Text-, Text-Bild- und Bild-Bild-Daten.
launcharXiv
Welche Sprachen unterstützen Ihre Modelle?
keyboard_arrow_down
Sowohl jina-embeddings-v4 als auch jina-embeddings-v3 unterstützen 89 Sprachen und bieten eine hohe Leistungsfähigkeit im mehrsprachigen Bereich. Zu den 30 am häufigsten verwendeten Sprachen gehören: Arabisch, Bengali, Chinesisch, Dänisch, Niederländisch, Englisch, Finnisch, Französisch, Georgisch, Deutsch, Griechisch, Hindi, Indonesisch, Italienisch, Japanisch, Koreanisch, Lettisch, Norwegisch, Polnisch, Portugiesisch, Rumänisch, Russisch, Slowakisch, Spanisch, Schwedisch, Thailändisch, Türkisch, Ukrainisch, Urdu und Vietnamesisch. jina-clip-v2 unterstützt ebenfalls 89 Sprachen für multimodale Aufgaben.
launcharXiv
Was ist die maximale Länge für die Eingabe eines einzelnen Satzes?
keyboard_arrow_down
Die Kontextlänge variiert je nach Modell: jina-embeddings-v4 unterstützt bis zu 32.000 Tokens, während jina-embeddings-v3 und jina-clip-v2 bis zu 8.192 Tokens unterstützen. Ein Token kann von einem einzelnen Zeichen bis zu einem ganzen Wort reichen. Dieser erweiterte Kontext ermöglicht eine umfassende Dokumentenanalyse und ein präziseres Kontextverständnis für umfangreiche Textdaten.
Wie viele Sätze kann ich maximal in eine einzelne Anfrage einfügen?
keyboard_arrow_down
Es gibt keine feste Begrenzung für die Anzahl der Elemente pro Anfrage. Die API verarbeitet Eingaben intern anhand der Tokenanzahl, um die GPU optimal auszulasten. Sie können beliebig viele Texte oder Bilder in einer einzigen Anfrage senden.
Wie sende ich Bilder an multimodale Einbettungsmodelle?
keyboard_arrow_down
Für jina-embeddings-v4, jina-clip-v2 und jina-clip-v1 können Sie im Feld `input` der API-Anfrage entweder `url` oder `bytes` verwenden. Geben Sie bei `url` die URL des zu verarbeitenden Bildes an. Kodieren Sie bei `bytes` das Bild im Base64-Format. jina-embeddings-v4 kann außerdem PDF-Dokumente direkt einbetten, indem Sie eine PDF-URL oder Base64-kodierte PDF-Bytes übergeben.
Wie schneiden Jina-Embeddings-Modelle im Vergleich zu den neuesten Embeddings von OpenAI und Cohere ab?
keyboard_arrow_down
jina-embeddings-v4 ist unser neuestes Flaggschiffmodell und erzielt Bestleistungen bei der Suche nach visuell reichhaltigen Dokumenten (ViDoRe) und multimodalen Benchmarks. Bei rein textbasierten Aufgaben übertrifft jina-embeddings-v3 OpenAI und Cohere bei MTEB-Benchmarks für Englisch und Mehrsprachigkeit und ist dabei kleiner und effizienter. Beide Modelle unterstützen Matryoshka Representation Learning (MRL), wodurch eine Dimensionsreduktion (bis zu 32 bei v3, bis zu 128 bei v4) ohne signifikanten Leistungsverlust möglich ist.
Wie nahtlos ist der Übergang von OpenAIs Text-Embedding-3-Large zu Ihrer Lösung?
keyboard_arrow_down
Der Übergang ist optimiert, da unser API-Endpunkt mit den Eingabe- und Ausgabe-JSON-Schemata des text-embedding-3-large-Modells von OpenAI übereinstimmt. Diese Kompatibilität stellt sicher, dass Benutzer das OpenAI-Modell problemlos durch unseres ersetzen können, wenn sie den OpenAI-Endpunkt verwenden.
Wie werden Token bei der Verwendung von Jina-Clip-Modellen berechnet?
keyboard_arrow_down
Token werden basierend auf Textlänge und Bildgröße berechnet. Für Text in der Anfrage werden Token standardmäßig gezählt. Für Bilder werden die folgenden Schritte ausgeführt: 1. Kachelgröße: Jedes Bild wird in Kacheln unterteilt. Bei jina-embeddings-v4 sind die Kacheln 28 x 28 Pixel groß, bei jina-clip-v2 512 x 512 Pixel und bei jina-clip-v1 224 x 224 Pixel. 2. Abdeckung: Die Anzahl der Kacheln, die zur Abdeckung des Eingabebildes benötigt werden, wird berechnet. Auch wenn die Bildabmessungen nicht perfekt durch die Kachelgröße teilbar sind, werden Teilkacheln als vollständige Kacheln gezählt. 3. Gesamtzahl der Kacheln: Die Gesamtzahl der Kacheln, die das Bild abdecken, bestimmt die Kosten. Beispielsweise würde ein 600 x 600 Pixel großes Bild in jina-embeddings-v4 mit 22 x 22 Kacheln (484 Kacheln), in jina-clip-v2 mit 2 x 2 Kacheln (4 Kacheln) und in jina-clip-v1 mit 3 x 3 Kacheln (9 Kacheln) abgedeckt. 4. Kostenberechnung: Bei jina-embeddings-v4 kostet jede Kachel 10 Token, bei jina-clip-v2 4000 Token und bei jina-clip-v1 1000 Token. Beispiel: Für ein Bild mit den Abmessungen 600 x 600 Pixel: • Mit jina-embeddings-v4 • Das Bild wird in 28 x 28 Pixel große Kacheln unterteilt. • Die Gesamtzahl der benötigten Kacheln beträgt 22 (horizontal) x 22 (vertikal) = 484 Kacheln. • Die Kosten für jina-embeddings-v4 betragen 484 x 10 = 4840 Token. • Mit jina-clip-v2 • Das Bild wird in 512 x 512 Pixel große Kacheln unterteilt. • Die Gesamtzahl der benötigten Kacheln beträgt 2 (horizontal) x 2 (vertikal) = 4 Kacheln. • Die Kosten für jina-clip-v2 betragen 4 x 4000 = 16000 Token. • Mit jina-clip-v1 • Das Bild wird in 224 x 224 Pixel große Kacheln unterteilt. • Die Gesamtzahl der benötigten Kacheln beträgt 3 (horizontal) x 3 (vertikal) = 9 Kacheln. • Die Kosten für jina-clip-v1 betragen 9*1000 = 9000 Token.
Bieten Sie Modelle zum Einbetten von Bildern oder Audio an?
keyboard_arrow_down
Ja, jina-clip-v2 und jina-clip-v1 können sowohl Bilder als auch Texte einbetten. Einbettungsmodelle für weitere Modalitäten werden in Kürze angekündigt!
Können Jina Embedding-Modelle mit privaten oder Unternehmensdaten verfeinert werden?
keyboard_arrow_down
Bei Fragen zur Feinabstimmung unserer Modelle mit spezifischen Daten kontaktieren Sie uns bitte, um Ihre Anforderungen zu besprechen. Wir sind offen dafür, herauszufinden, wie unsere Modelle an Ihre Bedürfnisse angepasst werden können.
Kontakt
Können Ihre Endpunkte privat auf AWS, Azure oder GCP gehostet werden?
keyboard_arrow_down
Ja, unsere Dienste sind auf den Marktplätzen AWS, Azure und GCP verfügbar. Wenn Sie spezielle Anforderungen haben, kontaktieren Sie uns bitte unter sales AT jina.ai.
launchAWS SageMakerlaunchGoogle CloudlaunchMicrosoft Azure
Was ist der Parameter „task“ und wann sollte ich ihn verwenden?
keyboard_arrow_down
Der Parameter `task` in `jina-embeddings-v3` und `jina-embeddings-v4` aktiviert aufgabenspezifische LoRA-Adapter für optimale Leistung. Verwenden Sie `retrieval.query` für Suchanfragen, `retrieval.passage` für zu durchsuchende Dokumente, `text-matching` für semantische Ähnlichkeit, `classification` für Textklassifizierung und `separation` für Clustering-Aufgaben.
Was versteht man unter „Late-Interaction Retrieval“ und welche Modelle unterstützen es?
keyboard_arrow_down
jina-embeddings-v4 unterstützt sowohl die dichte (Einzelvektor-) als auch die späte Interaktionsabfrage (Mehrvektor-) über den Parameter output_type. Die späte Interaktionsabfrage erhält detailliertere Token-Informationen und ermöglicht so eine höhere Genauigkeit bei komplexen Anfragen. jina-colbert-v2 ist ein spezielles Modell für die späte Interaktionsabfrage.
Was ist Late Chunking und wann sollte ich es anwenden?
keyboard_arrow_down
Late Chunking ist eine Technik, die zunächst das gesamte Dokument mithilfe von Long-Context-Modellen einbettet und anschließend Chunk-Einbettungen aus den Token-Level-Repräsentationen extrahiert. Im Gegensatz zum naiven Chunking (erst Chunking, dann Einbetten) erhält Late Chunking den Kontext zwischen den Chunks und verbessert so die Suche in RAG-Anwendungen. Aktivieren Sie es über den Parameter `late_chunking` in `jina-embeddings-v3`.
Warum unterstützt die API eine andere Kontextlänge als die maximale Kapazität des Modells?
keyboard_arrow_down
Obwohl einige unserer Einbettungsmodelle architektonisch in der Lage sind, längere Kontextlängen zu verarbeiten, kann die API aufgrund von GPU-VRAM-Beschränkungen in unserer Inferenzinfrastruktur niedrigere Grenzwerte erzwingen. Die Verarbeitung sehr langer Sequenzen erfordert erheblichen Speicherbedarf. Wir optimieren unsere Serverkonfiguration, um Durchsatz, Latenz und Kosten für die meisten Anwendungsfälle optimal auszubalancieren. Falls Sie Unterstützung für erweiterte Kontextlängen benötigen, kontaktieren Sie bitte unser Vertriebsteam, um dedizierte Bereitstellungsoptionen zu besprechen.
Warum ist jina-embeddings-v4 kostenlos und warum ist es langsam?
keyboard_arrow_down
jina-embeddings-v4 basiert auf dem Qwen2-VL-Basismodell, das unter der Qwen-Forschungslizenz veröffentlicht ist. Diese Lizenz erlaubt ausschließlich Forschungszwecke und nichtkommerzielle Nutzung. Daher können wir jina-embeddings-v4 nicht als kommerzielles Produkt anbieten. Aus diesem Grund stellen wir das Modell kostenlos über unsere API zur Verfügung. jina-embeddings-v4 kann aus zwei Gründen langsamer erscheinen als andere Modelle: Erstens ist jina-embeddings-v4 ein deutlich größeres Modell als jina-embeddings-v3 und benötigt daher mehr Rechenzeit pro Anfrage. Zweitens drosseln wir den API-Durchsatz bewusst, um die Infrastrukturkosten zu kontrollieren, da wir dieses Modell nicht kommerzialisieren können. Nutzer sollten daher bei der Verwendung der jina-embeddings-v4-API keinen hohen Durchsatz oder Produktionsniveau erwarten. Für Produktionsworkloads, die einen höheren Durchsatz erfordern, empfehlen wir die Verwendung von jina-embeddings-v3 oder die Bereitstellung von jina-embeddings-v4 auf Ihrer eigenen Infrastruktur über Hugging Face.
Welche Ratenbegrenzungen gelten für die Embeddings API?
keyboard_arrow_down
Die Ratenbegrenzungen hängen von Ihrem API-Schlüsseltyp ab:

Kostenlos: 100 Anfragen pro Minute (RPM), 100.000 Anfragen pro Monat (TPM), 2 gleichzeitige Anfragen
Kostenpflichtig: 500 RPM, 2 Millionen TPM, 50 gleichzeitige Anfragen
Premium: 5.000 RPM, 50 Millionen TPM, 500 gleichzeitige Anfragen

Zusätzlich gilt eine IP-basierte Ratenbegrenzung von 10.000 Anfragen pro 60 Sekunden, um Missbrauch zu verhindern. Falls Sie höhere Limits benötigen, kontaktieren Sie bitte unser Vertriebsteam.
Welche Beschränkungen gelten für die Kontextlänge der einzelnen Einbettungsmodelle?
keyboard_arrow_down
Jedes Modell hat eine maximale Kontextlänge pro Eingabe:

jina-embeddings-v4: 32.768 Tokens
jina-embeddings-v3: 8.192 Tokens
jina-embeddings-v2-*: 8.192 Tokens
jina-clip-v1/v2: 8.192 Tokens
jina-colbert-v1/v2: 8.192 Tokens
jina-code-embeddings-*: 32.768 Tokens

Eingaben, die das Limit überschreiten, führen zu einem Fehler, es sei denn, truncate: true ist gesetzt. Dadurch wird die Eingabe automatisch auf die maximale Länge gekürzt.
Welche Dateigrößenbeschränkungen gelten für Bilder und PDFs?
keyboard_arrow_down
Die maximalen Dateigrößen sind: Bilder: 5 MB, PDFs: 8 MB. Größere Dateien werden mit einer Fehlermeldung abgelehnt.

Wie erhalte ich meinen API-Schlüssel?

video_not_supported

Wie hoch ist die Ratenbegrenzung?

Ratenbegrenzung
Ratenbegrenzungen werden auf drei Arten verfolgt: RPM (Anfragen pro Minute) und TPM (Token pro Minute). Die Begrenzungen werden pro IP/API-Schlüssel erzwungen und ausgelöst, wenn zuerst der RPM- oder TPM-Schwellenwert erreicht wird. Wenn Sie im Anforderungsheader einen API-Schlüssel angeben, verfolgen wir die Ratenbegrenzungen nach Schlüssel und nicht nach IP-Adresse.
ProduktAPI-EndpunktBeschreibungarrow_upwardohne API-Schlüsselkey_offmit kostenlosem API-Schlüsselkeymit kostenpflichtigem API-Schlüsselkeymit Premium-API-SchlüsselkeyDurchschnittliche LatenzZählung der Token-NutzungZulässige Anfrage
Leser-APIhttps://r.jina.aiURL in LLM-freundlichen Text konvertieren20 RPM500 RPM500 RPMtrending_up5000 RPM7.9sZählen Sie die Anzahl der Token in der Ausgabeantwort.GET/POST
Leser-APIhttps://s.jina.aiDurchsuchen Sie das Web und konvertieren Sie die Ergebnisse in LLM-freundlichen Textblock100 RPM100 RPMtrending_up1000 RPM2.5sJede Anfrage kostet eine feste Anzahl an Token, beginnend bei 10000 TokenGET/POST
Einbettungs-APIhttps://api.jina.ai/v1/embeddingsKonvertieren Sie Text/Bilder in Vektoren mit fester Längeblock100 RPM & 100,000 TPM500 RPM & 2,000,000 TPMtrending_up5,000 RPM & 50,000,000 TPM
ssid_chart
hängt von der Eingangsgröße ab
help
Zählen Sie die Anzahl der Token in der Eingabeanforderung.POST
Reranker-APIhttps://api.jina.ai/v1/rerankOrdnen Sie Dokumente nach Abfrageblock100 RPM & 100,000 TPM500 RPM & 2,000,000 TPMtrending_up5,000 RPM & 50,000,000 TPM
ssid_chart
hängt von der Eingangsgröße ab
help
Zählen Sie die Anzahl der Token in der Eingabeanforderung.POST
Klassifizierer-APIhttps://api.jina.ai/v1/trainTrainieren eines Klassifikators anhand gekennzeichneter Beispieleblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
hängt von der Eingangsgröße ab
Token werden wie folgt gezählt: input_tokens × num_itersPOST
Klassifizierer-API (Nullschuss)https://api.jina.ai/v1/classifyKlassifizieren Sie Eingaben mithilfe der Zero-Shot-Klassifizierungblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
hängt von der Eingangsgröße ab
Token werden wie folgt gezählt: input_tokens + label_tokensPOST
Klassifizierer-API (Wenige Schüsse)https://api.jina.ai/v1/classifyKlassifizieren Sie Eingaben mit einem trainierten Few-Shot-Klassifikatorblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
hängt von der Eingangsgröße ab
Token werden wie folgt gezählt: input_tokensPOST
Segmenter-APIhttps://api.jina.ai/v1/segmentTokenisieren und Segmentieren von Langtext20 RPM200 RPM200 RPM1,000 RPM0.3sToken werden nicht als Nutzung gezählt.GET/POST
DeepSearchhttps://deepsearch.jina.ai/v1/chat/completionsÜberlegen, suchen und iterieren, um die beste Antwort zu findenblock50 RPM50 RPM500 RPM56.7sZählen Sie die Gesamtzahl der Token im gesamten Vorgang.POST

Benötige ich eine gewerbliche Lizenz?

CC BY-NC Lizenz Selbstcheck

play_arrow
Nutzen Sie unsere offizielle API oder offizielle Images auf Azure, AWS oder GCP?
play_arrow
Ja
Keine Einschränkungen. Einfach anmelden und über unsere Website oder unseren Cloud-Marktplatz bezahlen.
play_arrow
NEIN
play_arrow
Sind Sie ein zahlender Elastic-Kunde?
play_arrow
Ja
Die kommerzielle Nutzung ist wahrscheinlich bereits in Ihrer Elastic-Lizenz enthalten. Wenden Sie sich im Zweifelsfall an Ihren Elastic-Vertriebsmitarbeiter.
Kontaktieren Sie unseren Vertrieb
play_arrow
NEIN
Derzeit können wir keine eigenständigen kommerziellen Lizenzverträge ausstellen. Bitte kontaktieren Sie Elastic Sales für weitere Informationen.
Kontaktieren Sie unseren Vertrieb
Häufige Fragen zu APIs
code
Kann ich denselben API-Schlüssel für Reader-, Einbettungs-, Neurang-, Klassifizierungs- und Feinabstimmungs-APIs verwenden?
keyboard_arrow_down
Ja, derselbe API-Schlüssel ist für alle Suchgrundlagenprodukte von Jina AI gültig. Dazu gehören die APIs zum Lesen, Einbetten, Neurangieren, Klassifizieren und Feinabstimmen, wobei die Token zwischen allen Diensten geteilt werden.
code
Kann ich die Token-Nutzung meines API-Schlüssels überwachen?
keyboard_arrow_down
Ja, die Token-Nutzung kann auf der Registerkarte „API-Schlüssel und Abrechnung“ überwacht werden, indem Sie Ihren API-Schlüssel eingeben. So können Sie den aktuellen Nutzungsverlauf und die verbleibenden Token anzeigen. Wenn Sie sich beim API-Dashboard angemeldet haben, können diese Details auch auf der Registerkarte „API-Schlüssel verwalten“ angezeigt werden.
code
Was soll ich tun, wenn ich meinen API-Schlüssel vergesse?
keyboard_arrow_down
code
Laufen API-Schlüssel ab?
keyboard_arrow_down
Nein, unsere API-Schlüssel haben kein Ablaufdatum. Wenn Sie jedoch vermuten, dass Ihr Schlüssel kompromittiert wurde und Sie ihn löschen möchten, wenden Sie sich bitte an unser Supportteam. Sie können Ihren Schlüssel auch im API-Schlüsselverwaltungs-Dashboard widerrufen.
Kontakt
code
Kann ich Token zwischen API-Schlüsseln übertragen?
keyboard_arrow_down
Ja, Sie können Token von einem Premium-Schlüssel auf einen anderen übertragen. Nachdem Sie sich auf dem API-Schlüsselverwaltungs-Dashboard bei Ihrem Konto angemeldet haben, verwenden Sie die Einstellungen des Schlüssels, den Sie übertragen möchten, um alle verbleibenden bezahlten Token zu übertragen.
code
Kann ich meinen API-Schlüssel widerrufen?
keyboard_arrow_down
Ja, Sie können Ihren API-Schlüssel widerrufen, wenn Sie glauben, dass er kompromittiert wurde. Durch das Widerrufen eines Schlüssels wird dieser sofort für alle Benutzer deaktiviert, die ihn gespeichert haben, und alle verbleibenden Guthaben und zugehörigen Eigenschaften werden dauerhaft unbrauchbar. Wenn es sich bei dem Schlüssel um einen Premium-Schlüssel handelt, haben Sie die Möglichkeit, das verbleibende bezahlte Guthaben vor dem Widerruf auf einen anderen Schlüssel zu übertragen. Beachten Sie, dass diese Aktion nicht rückgängig gemacht werden kann. Um einen Schlüssel zu widerrufen, gehen Sie zu den Schlüsseleinstellungen im Dashboard zur API-Schlüsselverwaltung.
code
Warum ist die erste Anfrage für einige Modelle langsam?
keyboard_arrow_down
Dies liegt daran, dass unsere serverlose Architektur bestimmte Modelle in Zeiten geringer Nutzung auslagert. Die erste Anfrage aktiviert oder „wärmt“ das Modell auf, was einige Sekunden dauern kann. Nach dieser ersten Aktivierung werden nachfolgende Anfragen viel schneller verarbeitet.
code
Werden meine API-Daten zum Trainieren Ihrer Modelle verwendet?
keyboard_arrow_down
Nein. Wir verwenden Ihre API-Anfragen, Eingaben oder Ausgaben niemals zum Trainieren unserer Embedding-, Reranker- oder anderer Modelle. Ihre Daten bleiben Ihr Eigentum. Wir erfüllen die Anforderungen von SOC 2 Typ I und Typ II.
code
Welche Ratenbegrenzungen gelten für Jina-APIs?
keyboard_arrow_down
Es gelten Ratenbegrenzungen pro API-Schlüssel:

Kostenlos: 100 RPM, 100.000 TPM, 2 gleichzeitige Anfragen
Kostenpflichtig: 500 RPM, 2 Mio. TPM, 50 gleichzeitige Anfragen
Premium: 5.000 RPM, 50 Mio. TPM, 500 gleichzeitige Anfragen

Zusätzlich gilt eine IP-basierte Ratenbegrenzung von 10.000 Anfragen pro 60 Sekunden. Diese Beschränkungen gelten für alle Jina-APIs (Embeddings, Reranker, Reader usw.).
code
Gibt es Beschränkungen hinsichtlich der Batchgröße für die APIs?
keyboard_arrow_down
Es gibt keine Beschränkung der Batchgröße für die Embeddings- und Reranker-APIs. Sie können beliebig viele Elemente oder Dokumente pro Anfrage senden. Beide APIs verarbeiten die Eingaben intern anhand der Tokenanzahl, um die GPU optimal auszulasten.
Häufige Fragen zur Abrechnung
attach_money
Erfolgt die Abrechnung nach der Anzahl der Sätze bzw. Anfragen?
keyboard_arrow_down
Unser Preismodell basiert auf der Gesamtzahl der verarbeiteten Token und bietet Benutzern die Flexibilität, diese Token auf eine beliebige Anzahl von Sätzen zu verteilen. Dies bietet eine kostengünstige Lösung für unterschiedliche Textanalyseanforderungen.
attach_money
Gibt es eine kostenlose Testversion für neue Benutzer?
keyboard_arrow_down
Wir bieten neuen Nutzern eine kostenlose Testversion mit zehn Millionen Token zur Nutzung unserer Modelle an. Der automatisch generierte API-Schlüssel ermöglicht die Nutzung. Sobald das Limit der kostenlosen Token erreicht ist, können Nutzer über den Reiter „Token kaufen“ ganz einfach zusätzliche Token für ihre API-Schlüssel erwerben.
attach_money
Werden für fehlgeschlagene Anfragen Token berechnet?
keyboard_arrow_down
Nein, für fehlgeschlagene Anfragen werden keine Token abgezogen.
attach_money
Welche Zahlungsmethoden werden akzeptiert?
keyboard_arrow_down
Zahlungen werden über Stripe abgewickelt und unterstützen zu Ihrer Bequemlichkeit eine Vielzahl von Zahlungsmethoden, darunter Kreditkarten, Google Pay und PayPal.
attach_money
Ist eine Rechnungsstellung für Token-Käufe verfügbar?
keyboard_arrow_down
Ja, beim Kauf von Tokens wird eine Rechnung an die E-Mail-Adresse ausgestellt, die mit Ihrem Stripe-Konto verknüpft ist.
Büros
location_on
Sunnyvale, Kalifornien
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, USA
location_on
Berlin, Deutschland
Prinzessinnenstraße 19-20, 10969 Berlin, Deutschland
Stiftung durchsuchen
Leser
Einbettungen
Reranker
Jina API-Schlüssel abrufen
Ratenbegrenzung
API-Status
Unternehmen
Über uns
Kontaktieren Sie unseren Vertrieb
Pressemitteilungen
Praktikantenprogramm
Jina-Logo herunterladen
open_in_new
Elastic-Logo herunterladen
open_in_new
Bedingungen
Sicherheit
Terms & amp; Bedingungen
Privatsphäre
Cookie-Einstellungen
email
Jina AI von Elastic © 2020-2026.