Pressemitteilungen
Modelle
Produkte
keyboard_arrow_down
Leser
Lesen Sie URLs und suchen Sie im Internet nach fundierteren LLMs.
Einbettungen
Multimodale und mehrsprachige Einbettungen von Weltklasse.
Reranker
Neural Retriever der Weltklasse zur Maximierung der Suchrelevanz.
DeepSearch
Suchen, lesen und überlegen, bis die beste Antwort gefunden ist.
Mehr
keyboard_arrow_down
Klassifikator
Zero-Shot- und Few-Shot-Klassifizierung für Bild und Text.
Segmentierer
Schneiden Sie langen Text in Abschnitte und führen Sie eine Tokenisierung durch.

MCP-Server
Fügen Sie mcp.jina.ai als Ihren MCP-Server hinzu, um in LLMs auf unsere API zuzugreifen
open_in_new
API-Dokumente
Automatische Codegenerierung für Ihre Copilot-IDE oder LLM
open_in_new


Unternehmen
keyboard_arrow_down
Über uns
Kontaktieren Sie unseren Vertrieb
Praktikantenprogramm
Terms & amp; Bedingungen
Logo herunterladen
open_in_new



Einloggen
login

DeepSearch

Suchen, lesen und überlegen, bis die beste Antwort gefunden ist.

play_arrowDemo

DeepSearch-API

Vollständig kompatibel mit dem Chat-API-Schema von OpenAI. Tauschen Sie einfach api.openai.com gegen deepsearch.jina.ai aus, um loszulegen.
keyAPI-Schlüssel und Abrechnung
codeVerwendung
more_horizMehr
chevron_leftchevron_right

home
speedRatenbegrenzung
bug_reportProblem melden
help_outlineFAQ
api
Status
chevron_leftchevron_right

Chatten Sie mit DeepSearch
Stimmungscheck mit einer einfachen Chat-Benutzeroberfläche. DeepSearch eignet sich am besten für komplexe Fragen, die iteratives Denken, Weltwissen oder aktuelle Informationen erfordern.
open_in_new
Nachrichten
Eine Liste der Nachrichten zwischen dem Benutzer und dem Assistenten, die die bisherige Konversation darstellen.
Bild/Dokument anhängen
Es werden verschiedene Nachrichtentypen (Modalitäten) unterstützt, wie Text (.txt, .pdf), Bilder (.png, .webp, .jpeg). Dateien bis zu 10 MB werden unterstützt und müssen im Voraus in Daten-URI codiert werden.
{
  "role": "user",
  "content": "hi"
}

upload
Anfrage
curl https://deepsearch.jina.ai/v1/chat/completions \
  -H "Content-Type: application/json"\
  -H "Authorization: Bearer " \
  -d @- <<EOFEOF
  {
    "model": "jina-deepsearch-v1",
    "messages": [
        {
            "role": "user",
            "content": "Hi!"
        },
        {
            "role": "assistant",
            "content": "Hi, how can I help you?"
        },
        {
            "role": "user",
            "content": "what's the latest blog post from jina ai?"
        }
    ],
    "stream": true,
    "reasoning_effort": "medium"
  }
EOFEOF


info
Dies ist der letzte Teil des Streams, der die endgültige Antwort, die besuchten URLs und die Token-Nutzung enthält. Klicken Sie auf die Schaltfläche oben, um eine Antwort in Echtzeit zu erhalten.
download
Antwort
fiber_manual_record 200 OK
timer
0.0 s
straighten
196,526 Token
{
  "id": "1742181758589",
  "object": "chat.completion.chunk",
  "created": 1742181758,
  "model": "jina-deepsearch-v1",
  "system_fingerprint": "fp_1742181758589",
  "choices": [
    {
      "index": 0,
      "delta": {
        "content": "The latest blog post from Jina AI is titled \"Snippet Selection and URL Ranking in DeepSearch/DeepResearch,\" published on March 12, 2025 [^1]. This post discusses how to improve the quality of DeepSearch by using late-chunking embeddings for snippet selection and rerankers to prioritize URLs before crawling. You can read the full post here: https://jina.ai/news/snippet-selection-and-url-ranking-in-deepsearch-deepresearch\n\n[^1]: Since our DeepSearch release on February 2nd 2025 we ve discovered two implementation details that greatly improved quality In both cases multilingual embeddings and rerankers are used in an in context manner operating at a much smaller scale than the traditional pre computed indices these models typically require  [jina.ai](https://jina.ai/news/snippet-selection-and-url-ranking-in-deepsearch-deepresearch)",
        "type": "text",
        "annotations": [
          {
            "type": "url_citation",
            "url_citation": {
              "title": "Snippet Selection and URL Ranking in DeepSearch/DeepResearch",
              "exactQuote": "Since our DeepSearch release on February 2nd 2025, we've discovered two implementation details that greatly improved quality. In both cases, multilingual embeddings and rerankers are used in an _\"in-context\"_ manner - operating at a much smaller scale than the traditional pre-computed indices these models typically require.",
              "url": "https://jina.ai/news/snippet-selection-and-url-ranking-in-deepsearch-deepresearch",
              "dateTime": "2025-03-13 06:48:01"
            }
          }
        ]
      },
      "logprobs": null,
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 169670,
    "completion_tokens": 27285,
    "total_tokens": 196526
  },
  "visitedURLs": [
    "https://github.com/jina-ai/node-DeepResearch/blob/main/src/utils/url-tools.ts",
    "https://huggingface.co/jinaai/jina-embeddings-v3",
    "https://github.com/jina-ai/reader",
    "https://zilliz.com/blog/training-text-embeddings-with-jina-ai",
    "https://threads.net/@unwind_ai/post/DGmhWCVswbe/media",
    "https://twitter.com/JinaAI_/status/1899840196507820173",
    "https://jina.ai/news?tag=tech-blog",
    "https://docs.llamaindex.ai/en/stable/examples/embeddings/jinaai_embeddings",
    "https://x.com/jinaai_",
    "https://x.com/JinaAI_/status/1899840202358784170",
    "https://tracxn.com/d/companies/jina-ai/__IQ81fOnU0FsDpagFjG-LrG0DMWHELqI6znTumZBQF-A/funding-and-investors",
    "https://jina.ai/models",
    "https://linkedin.com/posts/imohitmayank_jinaai-has-unveiled-the-ultimate-developer-activity-7300401711242711040-VD64",
    "https://medium.com/@tossy21/trying-out-jina-ais-node-deepresearch-c5b55d630ea6",
    "https://huggingface.co/jinaai/jina-clip-v2",
    "https://arxiv.org/abs/2409.10173",
    "https://milvus.io/docs/embed-with-jina.md",
    "https://seedtable.com/best-startups-in-china",
    "https://threads.net/@sung.kim.mw/post/DGhG-J_vREu/jina-ais-a-practical-guide-to-implementing-deepsearchdeepresearchthey-cover-desi",
    "https://elastic.co/search-labs/blog/jina-ai-embeddings-rerank-model-open-inference-api",
    "http://status.jina.ai/",
    "https://apidog.com/blog/recreate-openai-deep-research",
    "https://youtube.com/watch?v=QxHE4af5BQE",
    "https://sdxcentral.com/articles/news/cisco-engages-businesses-on-ai-strategies-at-greater-bay-area-2025/2025/02",
    "https://aws.amazon.com/blogs/machine-learning/build-rag-applications-using-jina-embeddings-v2-on-amazon-sagemaker-jumpstart",
    "https://reddit.com/r/perplexity_ai/comments/1ejbdqa/fastest_open_source_ai_search_engine",
    "https://search.jina.ai/",
    "https://sebastian-petrus.medium.com/build-openais-deep-research-open-source-alternative-4f21aed6d9f0",
    "https://medium.com/@elmo92/jina-reader-transforming-web-content-to-feed-llms-d238e827cc27",
    "https://openai.com/index/introducing-deep-research",
    "https://python.langchain.com/docs/integrations/tools/jina_search",
    "https://varindia.com/news/meta-is-in-talks-for-usd200-billion-ai-data-center-project",
    "https://varindia.com/news/Mira-Murati%E2%80%99s-new-AI-venture-eyes-$9-billion-valuation",
    "https://53ai.com/news/RAG/2025031401342.html",
    "https://arxiv.org/abs/2409.04701",
    "https://bigdatawire.com/this-just-in/together-ai-raises-305m-series-b-to-power-ai-model-training-and-inference",
    "https://github.blog/",
    "https://cdn-uploads.huggingface.co/production/uploads/660c3c5c8eec126bfc7aa326/MvwT9enRT7gOESHA_tpRj.jpeg",
    "https://cdn-uploads.huggingface.co/production/uploads/660c3c5c8eec126bfc7aa326/JNs_DrpFbr6ok_pSRUK4j.jpeg",
    "https://app.dealroom.co/lists/33530",
    "https://api-docs.deepseek.com/news/news250120",
    "https://sdxcentral.com/articles/news/ninjaone-raises-500-million-valued-at-5-billion/2025/02",
    "https://linkedin.com/sharing/share-offsite?url=https%3A%2F%2Fjina.ai%2Fnews%2Fa-practical-guide-to-implementing-deepsearch-deepresearch%2F",
    "https://twitter.com/intent/tweet?url=https%3A%2F%2Fjina.ai%2Fnews%2Fa-practical-guide-to-implementing-deepsearch-deepresearch%2F",
    "https://platform.openai.com/docs/api-reference/chat/create",
    "https://mp.weixin.qq.com/s/-pPhHDi2nz8hp5R3Lm_mww",
    "https://huggingface.us17.list-manage.com/subscribe?id=9ed45a3ef6&u=7f57e683fa28b51bfc493d048",
    "https://automatio.ai/",
    "https://sdk.vercel.ai/docs/introduction",
    "https://app.eu.vanta.com/jinaai/trust/vz7f4mohp0847aho84lmva",
    "https://apply.workable.com/huggingface/j/AF1D4E3FEB",
    "https://facebook.com/sharer/sharer.php?u=https%3A%2F%2Fjina.ai%2Fnews%2Fa-practical-guide-to-implementing-deepsearch-deepresearch%2F",
    "https://facebook.com/sharer/sharer.php?u=http%3A%2F%2F127.0.0.1%3A3000%2Fen-US%2Fnews%2Fsnippet-selection-and-url-ranking-in-deepsearch-deepresearch%2F",
    "https://reddit.com/submit?url=https%3A%2F%2Fjina.ai%2Fnews%2Fa-practical-guide-to-implementing-deepsearch-deepresearch%2F",
    "https://apply.workable.com/huggingface",
    "https://news.ycombinator.com/submitlink?u=https%3A%2F%2Fjina.ai%2Fnews%2Fa-practical-guide-to-implementing-deepsearch-deepresearch%2F",
    "https://news.ycombinator.com/submitlink?u=http%3A%2F%2F127.0.0.1%3A3000%2Fen-US%2Fnews%2Fsnippet-selection-and-url-ranking-in-deepsearch-deepresearch%2F",
    "https://docs.github.com/site-policy/privacy-policies/github-privacy-statement",
    "https://discord.jina.ai/",
    "https://docs.github.com/site-policy/github-terms/github-terms-of-service",
    "https://bigdatawire.com/this-just-in/qumulo-announces-30-million-funding",
    "https://x.ai/blog/grok-3",
    "https://m-ric-open-deep-research.hf.space/",
    "https://youtu.be/sal78ACtGTc?feature=shared&t=52",
    "https://mp.weixin.qq.com/s/apnorBj4TZs3-Mo23xUReQ",
    "https://perplexity.ai/hub/blog/introducing-perplexity-deep-research",
    "https://githubstatus.com/",
    "https://github.blog/changelog/2021-09-30-footnotes-now-supported-in-markdown-fields",
    "https://openai.com/index/introducing-operator",
    "mailto:[email protected]",
    "https://resources.github.com/learn/pathways",
    "https://status.jina.ai/",
    "https://reuters.com/technology/artificial-intelligence/tencents-messaging-app-weixin-launches-beta-testing-with-deepseek-2025-02-16",
    "https://scmp.com/tech/big-tech/article/3298981/baidu-adopts-deepseek-ai-models-chasing-tencent-race-embrace-hot-start",
    "https://microsoft.com/en-us/research/articles/magentic-one-a-generalist-multi-agent-system-for-solving-complex-tasks",
    "javascript:UC_UI.showSecondLayer();",
    "https://resources.github.com/",
    "https://storm-project.stanford.edu/research/storm",
    "https://blog.google/products/gemini/google-gemini-deep-research",
    "https://youtu.be/vrpraFiPUyA",
    "https://chat.baidu.com/search?extParamsJson=%7B%22enter_type%22%3A%22ai_explore_home%22%7D&isShowHello=1&pd=csaitab&setype=csaitab&usedModel=%7B%22modelName%22%3A%22DeepSeek-R1%22%7D",
    "https://app.dover.com/jobs/jinaai",
    "http://localhost:3000/",
    "https://docs.cherry-ai.com/",
    "https://en.wikipedia.org/wiki/Delayed_gratification",
    "https://support.github.com/?tags=dotcom-footer",
    "https://docs.jina.ai/",
    "https://skills.github.com/",
    "https://partner.github.com/",
    "https://help.x.com/resources/accessibility",
    "https://business.twitter.com/en/help/troubleshooting/how-twitter-ads-work.html",
    "https://business.x.com/en/help/troubleshooting/how-twitter-ads-work.html",
    "https://support.twitter.com/articles/20170514",
    "https://support.x.com/articles/20170514",
    "https://t.co/jnxcxPzndy",
    "https://t.co/6EtEMa9P05",
    "https://help.x.com/using-x/x-supported-browsers",
    "https://legal.twitter.com/imprint.html"
  ],
  "readURLs": [
    "https://jina.ai/news/a-practical-guide-to-implementing-deepsearch-deepresearch",
    "https://github.com/jina-ai/node-DeepResearch",
    "https://huggingface.co/blog/open-deep-research",
    "https://jina.ai/news/snippet-selection-and-url-ranking-in-deepsearch-deepresearch",
    "https://x.com/jinaai_?lang=en",
    "https://jina.ai/news",
    "https://x.com/joedevon/status/1896984525210837081",
    "https://github.com/jina-ai/node-DeepResearch/blob/main/src/tools/jina-latechunk.ts"
  ],
  "numURLs": 98
}

DeepSearch-Parameterhandbuch

Erfahren Sie, wie Sie die richtigen Parameter einstellen und die besten Ergebnisse erzielen.

Qualitätskontrolle

Bei DeepSearch gibt es grundsätzlich einen Kompromiss: Je mehr Schritte das System durchführt, desto hochwertigere Ergebnisse erhalten Sie, aber Sie verbrauchen auch mehr Token. Diese verbesserte Qualität resultiert aus umfassenderen, umfassenderen Suchen und einer tieferen Reflexion. Vier Hauptparameter steuern die Qualität von DeepSearch: „budget_tokens“, „max_attempts“, „team_size“ und „reasoning_effort“. Der Parameter „reasoning_effort“ ist im Wesentlichen eine voreingestellte Kombination aus „budget_tokens“ und „max_attempts“, die sorgfältig optimiert wurde. Für die meisten Nutzer ist die Anpassung von „reasoning_effort“ der einfachste Ansatz.

Budget-Token

„budget_tokens“ legt die maximal zulässige Anzahl an Token für den gesamten DeepSearch-Prozess fest. Dies umfasst alle Vorgänge, einschließlich Websuche, Lesen von Webseiten, Reflexion, Zusammenfassung und Codierung. Höhere Budgets führen naturgemäß zu einer besseren Antwortqualität. Der DeepSearch-Prozess wird beendet, sobald das Budget erschöpft ist oder eine zufriedenstellende Antwort gefunden wurde – je nachdem, was zuerst eintritt. Ist das Budget zuerst erschöpft, erhalten Sie zwar eine Antwort, diese ist jedoch möglicherweise nicht die endgültige, vollständig verfeinerte Antwort, da sie nicht alle durch „max_attempts“ definierten Qualitätsprüfungen bestanden hat.

Max. Versuche

„max_attempts“ bestimmt, wie oft das System während des DeepSearch-Prozesses versucht, ein Problem zu lösen. Jedes Mal, wenn DeepSearch eine Antwort liefert, muss es bestimmte, von einem internen Prüfer festgelegte Qualitätstests bestehen. Besteht die Antwort diese Tests nicht, gibt der Prüfer Feedback, das das System nutzt, um die Suche fortzusetzen und die Antwort zu verfeinern. Ein zu niedriger Wert für „max_attempts“ führt zwar zu schnellen Ergebnissen, die Qualität kann jedoch darunter leiden, da die Antwort möglicherweise nicht alle Qualitätsprüfungen besteht. Ein zu hoher Wert kann dazu führen, dass der Prozess in einer Endlosschleife feststeckt und immer wieder versucht, einen Fehler zu machen.

Das System gibt eine endgültige Antwort zurück, wenn entweder die Anzahl der Budgettoken oder die Anzahl der Versuche überschritten wird (je nachdem, was zuerst eintritt) oder wenn die Antwort alle Tests besteht und noch Budget und Versuche verfügbar sind.

Teamgröße

„Teamgröße“ beeinflusst die Qualität grundlegend anders als „Maximale Versuche“ und „Budgettoken“. Wenn „Teamgröße“ auf mehr als eins gesetzt ist, zerlegt das System das ursprüngliche Problem in Teilprobleme und untersucht diese unabhängig voneinander. Stellen Sie sich das wie ein Map-Reduce-Muster vor, bei dem ein großer Auftrag in kleinere, parallel ausgeführte Aufgaben zerlegt wird. Die endgültige Antwort ist dann eine Synthese der Ergebnisse jedes einzelnen Mitarbeiters. Wir nennen es „Teamgröße“, weil es ein Forschungsteam simuliert, in dem mehrere Agenten verschiedene Aspekte desselben Problems untersuchen und gemeinsam an einem Abschlussbericht arbeiten.

Beachten Sie, dass der Tokenverbrauch aller Agenten zu Ihren gesamten Budgettoken zählt, jeder Agent jedoch über unabhängige „Maximale Versuche“ verfügt. Das bedeutet, dass Agenten bei einer größeren Teamgröße, aber gleichen Budgettoken aufgrund von Budgetbeschränkungen möglicherweise früher als erwartet Antworten liefern. Wir empfehlen, sowohl Teamgröße als auch Budgettoken gemeinsam zu erhöhen, um jedem Agenten ausreichend Ressourcen für eine gründliche Arbeit zu geben.

Die Teamgröße bestimmt die Breite der Suche – sie bestimmt, wie viele verschiedene Aspekte untersucht werden. Budgettoken und maximale Versuche bestimmen die Tiefe der Suche – also wie gründlich jeder Aspekt untersucht wird.

Quellcodeverwaltung

DeepSearch setzt stark auf fundierte Informationen – die verwendeten Quellen. Qualität hängt nicht nur von algorithmischer Tiefe und Breite ab; woher DeepSearch seine Informationen bezieht, ist ebenso wichtig und oft der entscheidende Faktor. Sehen wir uns die wichtigsten Parameter an, die dies steuern.

Keine direkte Antwort

„no_direct_answer“ ist ein einfacher Schalter, der verhindert, dass das System in Schritt 1 eine Antwort zurückgibt. Ist dieser Schalter aktiviert, wird die Nutzung internen Wissens deaktiviert und das System wird gezwungen, immer zuerst im Internet zu suchen. Dadurch überdenkt das System selbst einfache Fragen wie „Welcher Tag ist heute?“ oder „Wie geht es Ihnen?“ oder grundlegendes Faktenwissen, das definitiv in den Trainingsdaten des Modells enthalten ist, wie z. B. „Wer war der 40. Präsident der USA?“.

Hostnamen-Kontrolle

Drei Parameter – „boost_hostnames“, „bad_hostnames“ und „only_hostnames“ – geben DeepSearch an, welche Webseiten priorisiert, vermieden oder ausschließlich verwendet werden sollen. Um zu verstehen, wie diese funktionieren, betrachten Sie den Such- und Lesevorgang in DeepSearch:

  1. Suchphase: Das System durchsucht das Web und ruft eine Liste von Website-URLs mit ihren Snippets ab.
  2. Auswahlphase: Das System entscheidet, welche URLs tatsächlich besucht werden (aus Zeit- und Kostengründen werden nicht alle besucht).
  • boost_hostnames: Die hier aufgeführten Domains erhalten eine höhere Priorität und werden mit höherer Wahrscheinlichkeit besucht.
  • bad_hostnames: Diese Domains werden nie besucht.
  • only_hostnames: Wenn definiert, werden nur URLs besucht, die diesen Hostnamen entsprechen.

Hier einige wichtige Hinweise zu Hostnamenparametern: Das System verwendet immer die von Suchmaschinen zurückgegebenen Snippets als erste Anhaltspunkte für den Aufbau von Argumentationsketten. Diese Hostnamenparameter beeinflussen nur, welche Webseiten das System besucht, nicht aber, wie es Suchanfragen formuliert.

Zweitens: Wenn die erfassten URLs nicht die in only_hostnames angegebenen Domänen enthalten, kann das System das Lesen von Webseiten vollständig einstellen. Wir empfehlen, diese Parameter nur zu verwenden, wenn Sie mit Ihrer Forschungsfrage vertraut sind und wissen, wo potenzielle Antworten wahrscheinlich zu finden sind (oder wo sie definitiv nicht zu finden sein sollten).

Sonderfall: Akademische Forschung

Für die akademische Forschung möchten Sie möglicherweise Such- und Lesevorgänge auf arxiv.org beschränken. Setzen Sie in diesem Fall einfach "search_provider": "arxiv", und alles basiert auf arxiv als einziger Quelle. Allgemeine oder triviale Fragen erhalten mit dieser Einschränkung jedoch möglicherweise keine effizienten Antworten. Verwenden Sie "search_provider": "arxiv" daher nur für ernsthafte akademische Forschung.

Suchsprachencode

``search_language_code` ist ein weiterer Parameter, der Webquellen beeinflusst, indem er das System zwingt, Abfragen in einer bestimmten Sprache zu generieren, unabhängig von der ursprünglichen Eingabe oder den dazwischenliegenden Argumentationsschritten. In der Regel wählt das System die Abfragesprache automatisch, um eine optimale Suchabdeckung zu erzielen. Manchmal ist jedoch eine manuelle Steuerung sinnvoll.

Anwendungsfälle für die Sprachsteuerung

Internationale Marktforschung: Wenn Sie den Einfluss einer lokalen Marke oder eines Unternehmens auf internationalen Märkten untersuchen, können Sie Abfragen mit "search_language_code": "en" so konfigurieren, dass sie immer Englisch verwenden, um eine globale Abdeckung zu gewährleisten. Alternativ können Sie die lokale Sprache für spezifischere regionale Informationen verwenden.

Globale Marktforschung mit nicht-englischen Eingabeaufforderungen: Wenn Ihre Eingaben immer auf Chinesisch oder Japanisch erfolgen (da Ihre Endnutzer hauptsächlich diese Sprachen sprechen), Ihr Rechercheumfang aber global und nicht nur auf lokale chinesische oder japanische Websites beschränkt ist, kann das System automatisch die Sprache Ihrer Eingabeaufforderung bevorzugen. Verwenden Sie diesen Parameter, um englische Abfragen für eine breitere internationale Abdeckung zu erzwingen.

Chatten Sie mit DeepSearch

Stimmungscheck mit einer einfachen Chat-Benutzeroberfläche. DeepSearch eignet sich am besten für komplexe Fragen, die iteratives Denken, Weltwissen oder aktuelle Informationen erfordern.
Wir haben gerade eine neue DeepSearch-Benutzeroberfläche eingeführt, die blitzschnell, minimalistisch und KOSTENLOS ist. Sehen Sie sie sich unter https://search.jina.ai an oder klicken Sie auf die Schaltfläche unten, um sie auszuprobieren!open_in_newNeue Benutzeroberfläche besuchen
Chat-Clients
Für ein optimales Erlebnis empfehlen wir die Verwendung professioneller Chat-Clients. DeepSearch ist vollständig mit dem Chat-API-Schema von OpenAI kompatibel und lässt sich daher problemlos mit jedem OpenAI-kompatiblen Client verwenden.
open_in_new
TypingMind
open_in_new
Chatwise
open_in_new
Cherry Studio
open_in_new
Chatbox
open_in_new
LobeChat
open_in_new
NextChat

Was ist DeepSearch?

DeepSearch kombiniert Websuche, Lesen und Argumentation für eine umfassende Untersuchung. Stellen Sie es sich als einen Agenten vor, dem Sie eine Rechercheaufgabe erteilen – er sucht umfassend und durchläuft mehrere Iterationen, bevor er eine Antwort liefert.

Standard-LLM

attach_money
ca. 1000 Token
access_time
ca. 1s
check
Schnelle Antworten auf Allgemeinwissensfragen
close
Kein Zugriff auf Echtzeit- oder Nachtrainingsinformationen möglich

Antworten werden ausschließlich aus vorab trainiertem Wissen mit einem festen Stichtag generiert

RAG und Grounded LLMs

attach_money
etwa 10.000 Token
access_time
ca. 3s
check
Fragen, die aktuelle oder domänenspezifische Informationen erfordern
close
Hat Probleme mit komplexen Fragen, die Multi-Hop-Argumentation erfordern

Antworten, die durch die Zusammenfassung der Ergebnisse einer Single-Pass-Suche generiert werden
Kann auch nach Trainingsende auf aktuelle Informationen zugreifen

DeepSearch

attach_money
etwa 500.000 Token
access_time
etwa 50er Jahre
check
Komplexe Fragen, die gründliche Recherche und Argumentation erfordern
info
Dauert länger als einfache LLM- oder RAG-Ansätze

Autonomer Agent, der iterativ sucht, liest und argumentiert
Entscheidet dynamisch über die nächsten Schritte auf Grundlage aktueller Erkenntnisse
Bewertet die Qualität der Antworten selbst, bevor Ergebnisse zurückgegeben werden
Kann durch mehrere Such- und Argumentationszyklen tief in Themen eintauchen

API-Preise

Die API-Preise basieren auf der Token-Nutzung. Ein API-Schlüssel gibt Ihnen Zugriff auf alle Produkte der Suchgrundlage.
Mit Jina Search Foundation API
Der einfachste Weg, auf alle unsere Produkte zuzugreifen. Laden Sie Tokens unterwegs auf.
Laden Sie diesen API-Schlüssel mit weiteren Token auf
Abhängig von Ihrem Standort werden Ihnen möglicherweise USD, EUR oder andere Währungen in Rechnung gestellt. Es können Steuern anfallen.
Bitte geben Sie zum Aufladen den richtigen API-Schlüssel ein
Verstehen Sie die Ratenbegrenzung
Ratenbegrenzungen sind die maximale Anzahl von Anfragen, die pro Minute pro IP-Adresse/API-Schlüssel (RPM) an eine API gestellt werden können. Nachfolgend erfahren Sie mehr über die Ratenbegrenzungen für jedes Produkt und jede Stufe.
keyboard_arrow_down
Ratenbegrenzung
Ratenbegrenzungen werden auf drei Arten verfolgt: RPM (Anfragen pro Minute) und TPM (Token pro Minute). Die Begrenzungen werden pro IP/API-Schlüssel erzwungen und ausgelöst, wenn zuerst der RPM- oder TPM-Schwellenwert erreicht wird. Wenn Sie im Anforderungsheader einen API-Schlüssel angeben, verfolgen wir die Ratenbegrenzungen nach Schlüssel und nicht nach IP-Adresse.
ProduktAPI-EndpunktBeschreibungarrow_upwardohne API-Schlüsselkey_offmit API-Schlüsselkeymit Premium-API-SchlüsselkeyDurchschnittliche LatenzZählung der Token-NutzungZulässige Anfrage
Leser-APIhttps://r.jina.aiURL in LLM-freundlichen Text konvertieren20 RPM500 RPMtrending_up5000 RPM7.9sZählen Sie die Anzahl der Token in der Ausgabeantwort.GET/POST
Leser-APIhttps://s.jina.aiDurchsuchen Sie das Web und konvertieren Sie die Ergebnisse in LLM-freundlichen Textblock100 RPMtrending_up1000 RPM2.5sJede Anfrage kostet eine feste Anzahl an Token, beginnend bei 10000 TokenGET/POST
DeepSearchhttps://deepsearch.jina.ai/v1/chat/completionsÜberlegen, suchen und iterieren, um die beste Antwort zu findenblock50 RPM500 RPM56.7sZählen Sie die Gesamtzahl der Token im gesamten Vorgang.POST
Einbettungs-APIhttps://api.jina.ai/v1/embeddingsKonvertieren Sie Text/Bilder in Vektoren mit fester Längeblock500 RPM & 1,000,000 TPMtrending_up2,000 RPM & 5,000,000 TPM
ssid_chart
hängt von der Eingangsgröße ab
help
Zählen Sie die Anzahl der Token in der Eingabeanforderung.POST
Reranker-APIhttps://api.jina.ai/v1/rerankOrdnen Sie Dokumente nach Abfrageblock500 RPM & 1,000,000 TPMtrending_up2,000 RPM & 5,000,000 TPM
ssid_chart
hängt von der Eingangsgröße ab
help
Zählen Sie die Anzahl der Token in der Eingabeanforderung.POST
Klassifizierer-APIhttps://api.jina.ai/v1/trainTrainieren eines Klassifikators anhand gekennzeichneter Beispieleblock20 RPM & 200,000 TPM60 RPM & 1,000,000 TPM
ssid_chart
hängt von der Eingangsgröße ab
Token werden wie folgt gezählt: input_tokens × num_itersPOST
Klassifizierer-API (Nullschuss)https://api.jina.ai/v1/classifyKlassifizieren Sie Eingaben mithilfe der Zero-Shot-Klassifizierungblock200 RPM & 500,000 TPM1,000 RPM & 3,000,000 TPM
ssid_chart
hängt von der Eingangsgröße ab
Token werden wie folgt gezählt: input_tokens + label_tokensPOST
Klassifizierer-API (Wenige Schüsse)https://api.jina.ai/v1/classifyKlassifizieren Sie Eingaben mit einem trainierten Few-Shot-Klassifikatorblock20 RPM & 200,000 TPM60 RPM & 1,000,000 TPM
ssid_chart
hängt von der Eingangsgröße ab
Token werden wie folgt gezählt: input_tokensPOST
Segmenter-APIhttps://api.jina.ai/v1/segmentTokenisieren und Segmentieren von Langtext20 RPM200 RPM1,000 RPM0.3sToken werden nicht als Nutzung gezählt.GET/POST

FAQ

Was ist DeepSearch?
keyboard_arrow_down
DeepSearch ist eine LLM-API, die iterative Such-, Lese- und Argumentationsvorgänge durchführt, bis sie eine genaue Antwort auf eine Abfrage findet oder ihr Token-Budgetlimit erreicht.
Wie unterscheidet sich DeepSearch von den umfassenden Recherchefunktionen von OpenAI und Gemini?
keyboard_arrow_down
Im Gegensatz zu OpenAI und Gemini konzentriert sich DeepSearch speziell darauf, durch Iteration genaue Antworten zu liefern, anstatt lange Artikel zu erstellen. Es ist für schnelle, präzise Antworten aus der Deep Web-Suche optimiert, anstatt umfassende Berichte zu erstellen.
Welchen API-Schlüssel benötige ich, um DeepSearch zu verwenden?
keyboard_arrow_down
Sie benötigen einen Jina-API-Schlüssel. Wir bieten 10 Millionen kostenlose Token für neue API-Schlüssel.
Was passiert, wenn DeepSearch sein Token-Budget erreicht? Gibt es eine unvollständige Antwort zurück?
keyboard_arrow_down
Es generiert eine endgültige Antwort auf Grundlage des gesamten gesammelten Wissens, anstatt einfach aufzugeben oder eine unvollständige Antwort zurückzugeben.
Garantiert DeepSearch genaue Antworten?
keyboard_arrow_down
Nein. Obwohl zur Verbesserung der Genauigkeit ein iterativer Suchvorgang verwendet wird, zeigt die Auswertung, dass bei Prüfungsfragen eine Bestehensquote von 75 % erreicht wird. Das ist zwar deutlich besser als der Basiswert von 0 % (Gemini-2.0-Flash), aber nicht perfekt.
Wie lange dauert eine typische DeepSearch-Abfrage?
keyboard_arrow_down
Es gibt erhebliche Unterschiede: Abfragen können zwischen 1 und 42 Schritte umfassen, wobei der Durchschnitt basierend auf Auswertungsdaten 4 Schritte beträgt. Das sind 20 Sekunden. Einfache Abfragen können schnell gelöst werden, während komplexe Forschungsfragen viele Iterationen und bis zu 120 Sekunden umfassen können.
Kann DeepSearch mit jedem OpenAI-kompatiblen Client wie Chatwise, CherryStudio oder ChatBox funktionieren?
keyboard_arrow_down
Ja, die offizielle DeepSearch-API unter deepsearch.jina.ai/v1/chat/completions ist vollständig mit dem OpenAI-API-Schema kompatibel und verwendet „jina-deepsearch-v1“ als Modellnamen. Daher ist es ganz einfach, von OpenAI zu DeepSearch zu wechseln und es mit lokalen Clients oder jedem OpenAI-kompatiblen Client zu verwenden. Für ein nahtloses Erlebnis empfehlen wir dringend Chatwise.
Was sind die Ratenbegrenzungen für die API?
keyboard_arrow_down
Ratenbegrenzungen variieren je nach API-Schlüsselebene und reichen von 10 RPM bis 30 RPM. Dies ist bei Anwendungen mit hohem Abfragevolumen zu berücksichtigen.
Was ist der Inhalt des -Tags?
keyboard_arrow_down
DeepSearch verpackt Denkschritte in XML-Tags ... und liefert anschließend die endgültige Antwort, wobei es dem OpenAI-Streaming-Format folgt, jedoch mit diesen speziellen Markierungen für die Gedankenkette.
Verwendet DeepSearch Jina Reader für die Websuche und das Lesen?
keyboard_arrow_down
Ja. Jina Reader wird zum Suchen und Lesen im Internet verwendet und bietet dem System die Möglichkeit, effizient auf Webinhalte zuzugreifen und diese zu verarbeiten.
Warum verwendet DeepSearch so viele Token für meine Abfragen?
keyboard_arrow_down
Ja, die Token-Nutzung von DeepSearch bei komplexen Abfragen ist wohl hoch – im Durchschnitt 70.000 Token im Vergleich zu 500 für einfache LLM-Antworten. Dies zeigt die Tiefe der Recherche, hat aber auch Auswirkungen auf die Kosten.
Gibt es eine Möglichkeit, die Anzahl der Schritte zu kontrollieren oder zu begrenzen?
keyboard_arrow_down
Das System wird in erster Linie durch das Token-Budget und nicht durch die Schrittzahl gesteuert. Sobald das Token-Budget überschritten ist, wechselt es in den Beast-Modus zur Generierung der endgültigen Antwort. Weitere Einzelheiten finden Sie unter reasoning_effort.
Wie zuverlässig sind die Referenzen in den Antworten?
keyboard_arrow_down
Referenzen werden als so wichtig erachtet, dass das System, wenn eine Antwort als endgültig gilt, aber keine Referenzen enthält, mit der Suche fortfährt, anstatt die Antwort zu akzeptieren.
Kann DeepSearch Fragen zu zukünftigen Ereignissen verarbeiten?
keyboard_arrow_down
Ja, aber mit umfangreichen Forschungsschritten. Das Beispiel „Wer wird 2028 Präsident sein?“ zeigt, dass es mit spekulativen Fragen durch mehrere Forschungsiterationen umgehen kann, obwohl die Genauigkeit solcher Vorhersagen nicht garantiert ist.

Wie erhalte ich meinen API-Schlüssel?

video_not_supported

Wie hoch ist die Ratenbegrenzung?

Ratenbegrenzung
Ratenbegrenzungen werden auf drei Arten verfolgt: RPM (Anfragen pro Minute) und TPM (Token pro Minute). Die Begrenzungen werden pro IP/API-Schlüssel erzwungen und ausgelöst, wenn zuerst der RPM- oder TPM-Schwellenwert erreicht wird. Wenn Sie im Anforderungsheader einen API-Schlüssel angeben, verfolgen wir die Ratenbegrenzungen nach Schlüssel und nicht nach IP-Adresse.
ProduktAPI-EndpunktBeschreibungarrow_upwardohne API-Schlüsselkey_offmit API-Schlüsselkeymit Premium-API-SchlüsselkeyDurchschnittliche LatenzZählung der Token-NutzungZulässige Anfrage
Leser-APIhttps://r.jina.aiURL in LLM-freundlichen Text konvertieren20 RPM500 RPMtrending_up5000 RPM7.9sZählen Sie die Anzahl der Token in der Ausgabeantwort.GET/POST
Leser-APIhttps://s.jina.aiDurchsuchen Sie das Web und konvertieren Sie die Ergebnisse in LLM-freundlichen Textblock100 RPMtrending_up1000 RPM2.5sJede Anfrage kostet eine feste Anzahl an Token, beginnend bei 10000 TokenGET/POST
DeepSearchhttps://deepsearch.jina.ai/v1/chat/completionsÜberlegen, suchen und iterieren, um die beste Antwort zu findenblock50 RPM500 RPM56.7sZählen Sie die Gesamtzahl der Token im gesamten Vorgang.POST
Einbettungs-APIhttps://api.jina.ai/v1/embeddingsKonvertieren Sie Text/Bilder in Vektoren mit fester Längeblock500 RPM & 1,000,000 TPMtrending_up2,000 RPM & 5,000,000 TPM
ssid_chart
hängt von der Eingangsgröße ab
help
Zählen Sie die Anzahl der Token in der Eingabeanforderung.POST
Reranker-APIhttps://api.jina.ai/v1/rerankOrdnen Sie Dokumente nach Abfrageblock500 RPM & 1,000,000 TPMtrending_up2,000 RPM & 5,000,000 TPM
ssid_chart
hängt von der Eingangsgröße ab
help
Zählen Sie die Anzahl der Token in der Eingabeanforderung.POST
Klassifizierer-APIhttps://api.jina.ai/v1/trainTrainieren eines Klassifikators anhand gekennzeichneter Beispieleblock20 RPM & 200,000 TPM60 RPM & 1,000,000 TPM
ssid_chart
hängt von der Eingangsgröße ab
Token werden wie folgt gezählt: input_tokens × num_itersPOST
Klassifizierer-API (Nullschuss)https://api.jina.ai/v1/classifyKlassifizieren Sie Eingaben mithilfe der Zero-Shot-Klassifizierungblock200 RPM & 500,000 TPM1,000 RPM & 3,000,000 TPM
ssid_chart
hängt von der Eingangsgröße ab
Token werden wie folgt gezählt: input_tokens + label_tokensPOST
Klassifizierer-API (Wenige Schüsse)https://api.jina.ai/v1/classifyKlassifizieren Sie Eingaben mit einem trainierten Few-Shot-Klassifikatorblock20 RPM & 200,000 TPM60 RPM & 1,000,000 TPM
ssid_chart
hängt von der Eingangsgröße ab
Token werden wie folgt gezählt: input_tokensPOST
Segmenter-APIhttps://api.jina.ai/v1/segmentTokenisieren und Segmentieren von Langtext20 RPM200 RPM1,000 RPM0.3sToken werden nicht als Nutzung gezählt.GET/POST
Häufige Fragen zu APIs
code
Kann ich denselben API-Schlüssel für Reader-, Einbettungs-, Neurang-, Klassifizierungs- und Feinabstimmungs-APIs verwenden?
keyboard_arrow_down
Ja, derselbe API-Schlüssel ist für alle Suchgrundlagenprodukte von Jina AI gültig. Dazu gehören die APIs zum Lesen, Einbetten, Neurangieren, Klassifizieren und Feinabstimmen, wobei die Token zwischen allen Diensten geteilt werden.
code
Kann ich die Token-Nutzung meines API-Schlüssels überwachen?
keyboard_arrow_down
Ja, die Token-Nutzung kann auf der Registerkarte „API-Schlüssel und Abrechnung“ überwacht werden, indem Sie Ihren API-Schlüssel eingeben. So können Sie den aktuellen Nutzungsverlauf und die verbleibenden Token anzeigen. Wenn Sie sich beim API-Dashboard angemeldet haben, können diese Details auch auf der Registerkarte „API-Schlüssel verwalten“ angezeigt werden.
code
Was soll ich tun, wenn ich meinen API-Schlüssel vergesse?
keyboard_arrow_down
code
Laufen API-Schlüssel ab?
keyboard_arrow_down
Nein, unsere API-Schlüssel haben kein Ablaufdatum. Wenn Sie jedoch vermuten, dass Ihr Schlüssel kompromittiert wurde und Sie ihn löschen möchten, wenden Sie sich bitte an unser Supportteam. Sie können Ihren Schlüssel auch im API-Schlüsselverwaltungs-Dashboard widerrufen.
Kontakt
code
Kann ich Token zwischen API-Schlüsseln übertragen?
keyboard_arrow_down
Ja, Sie können Token von einem Premium-Schlüssel auf einen anderen übertragen. Nachdem Sie sich auf dem API-Schlüsselverwaltungs-Dashboard bei Ihrem Konto angemeldet haben, verwenden Sie die Einstellungen des Schlüssels, den Sie übertragen möchten, um alle verbleibenden bezahlten Token zu übertragen.
code
Kann ich meinen API-Schlüssel widerrufen?
keyboard_arrow_down
Ja, Sie können Ihren API-Schlüssel widerrufen, wenn Sie glauben, dass er kompromittiert wurde. Durch das Widerrufen eines Schlüssels wird dieser sofort für alle Benutzer deaktiviert, die ihn gespeichert haben, und alle verbleibenden Guthaben und zugehörigen Eigenschaften werden dauerhaft unbrauchbar. Wenn es sich bei dem Schlüssel um einen Premium-Schlüssel handelt, haben Sie die Möglichkeit, das verbleibende bezahlte Guthaben vor dem Widerruf auf einen anderen Schlüssel zu übertragen. Beachten Sie, dass diese Aktion nicht rückgängig gemacht werden kann. Um einen Schlüssel zu widerrufen, gehen Sie zu den Schlüsseleinstellungen im Dashboard zur API-Schlüsselverwaltung.
code
Warum ist die erste Anfrage für einige Modelle langsam?
keyboard_arrow_down
Dies liegt daran, dass unsere serverlose Architektur bestimmte Modelle in Zeiten geringer Nutzung auslagert. Die erste Anfrage aktiviert oder „wärmt“ das Modell auf, was einige Sekunden dauern kann. Nach dieser ersten Aktivierung werden nachfolgende Anfragen viel schneller verarbeitet.
code
Werden Benutzereingabedaten zum Training Ihrer Modelle verwendet?
keyboard_arrow_down
Wir halten uns an eine strikte Datenschutzrichtlinie und verwenden keine Benutzereingabedaten zum Trainieren unserer Modelle. Wir sind außerdem SOC 2 Typ I und Typ II-konform und gewährleisten so hohe Sicherheits- und Datenschutzstandards.
Häufige Fragen zur Abrechnung
attach_money
Erfolgt die Abrechnung nach der Anzahl der Sätze bzw. Anfragen?
keyboard_arrow_down
Unser Preismodell basiert auf der Gesamtzahl der verarbeiteten Token und bietet Benutzern die Flexibilität, diese Token auf eine beliebige Anzahl von Sätzen zu verteilen. Dies bietet eine kostengünstige Lösung für unterschiedliche Textanalyseanforderungen.
attach_money
Gibt es eine kostenlose Testversion für neue Benutzer?
keyboard_arrow_down
Wir bieten neuen Nutzern eine kostenlose Testversion mit zehn Millionen Token zur Nutzung unserer Modelle an. Der automatisch generierte API-Schlüssel ermöglicht die Nutzung. Sobald das Limit der kostenlosen Token erreicht ist, können Nutzer über den Reiter „Token kaufen“ ganz einfach zusätzliche Token für ihre API-Schlüssel erwerben.
attach_money
Werden für fehlgeschlagene Anfragen Token berechnet?
keyboard_arrow_down
Nein, für fehlgeschlagene Anfragen werden keine Token abgezogen.
attach_money
Welche Zahlungsmethoden werden akzeptiert?
keyboard_arrow_down
Zahlungen werden über Stripe abgewickelt und unterstützen zu Ihrer Bequemlichkeit eine Vielzahl von Zahlungsmethoden, darunter Kreditkarten, Google Pay und PayPal.
attach_money
Ist eine Rechnungsstellung für Token-Käufe verfügbar?
keyboard_arrow_down
Ja, beim Kauf von Tokens wird eine Rechnung an die E-Mail-Adresse ausgestellt, die mit Ihrem Stripe-Konto verknüpft ist.
Büros
location_on
Sunnyvale, Kalifornien
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, USA
location_on
Berlin, Deutschland (Hauptsitz)
Prinzessinnenstraße 19-20, 10969 Berlin, Deutschland
Stiftung durchsuchen
Leser
Einbettungen
Reranker
DeepSearch
Klassifikator
Segmentierer
Jina API-Schlüssel abrufen
Ratenbegrenzung
API-Status
Unternehmen
Über uns
Kontaktieren Sie unseren Vertrieb
Pressemitteilungen
Praktikantenprogramm
Logo herunterladen
open_in_new
Bedingungen
Sicherheit
Terms & amp; Bedingungen
Privatsphäre
Cookie-Einstellungen
email
Jina AI © 2020-2025.