DeepSearch-API
api.openai.com
gegen deepsearch.jina.ai
aus, um loszulegen.reasoning_effort
.reasoning_effort
.{
"role": "user",
"content": "hi"
}
curl https://deepsearch.jina.ai/v1/chat/completions \
-H "Content-Type: application/json"\
-H "Authorization: Bearer " \
-d @- <<EOFEOF
{
"model": "jina-deepsearch-v1",
"messages": [
{
"role": "user",
"content": "Hi!"
},
{
"role": "assistant",
"content": "Hi, how can I help you?"
},
{
"role": "user",
"content": "what's the latest blog post from jina ai?"
}
],
"stream": true,
"reasoning_effort": "medium"
}
EOFEOF
{
"id": "1742181758589",
"object": "chat.completion.chunk",
"created": 1742181758,
"model": "jina-deepsearch-v1",
"system_fingerprint": "fp_1742181758589",
"choices": [
{
"index": 0,
"delta": {
"content": "The latest blog post from Jina AI is titled \"Snippet Selection and URL Ranking in DeepSearch/DeepResearch,\" published on March 12, 2025 [^1]. This post discusses how to improve the quality of DeepSearch by using late-chunking embeddings for snippet selection and rerankers to prioritize URLs before crawling. You can read the full post here: https://jina.ai/news/snippet-selection-and-url-ranking-in-deepsearch-deepresearch\n\n[^1]: Since our DeepSearch release on February 2nd 2025 we ve discovered two implementation details that greatly improved quality In both cases multilingual embeddings and rerankers are used in an in context manner operating at a much smaller scale than the traditional pre computed indices these models typically require [jina.ai](https://jina.ai/news/snippet-selection-and-url-ranking-in-deepsearch-deepresearch)",
"type": "text",
"annotations": [
{
"type": "url_citation",
"url_citation": {
"title": "Snippet Selection and URL Ranking in DeepSearch/DeepResearch",
"exactQuote": "Since our DeepSearch release on February 2nd 2025, we've discovered two implementation details that greatly improved quality. In both cases, multilingual embeddings and rerankers are used in an _\"in-context\"_ manner - operating at a much smaller scale than the traditional pre-computed indices these models typically require.",
"url": "https://jina.ai/news/snippet-selection-and-url-ranking-in-deepsearch-deepresearch",
"dateTime": "2025-03-13 06:48:01"
}
}
]
},
"logprobs": null,
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 169670,
"completion_tokens": 27285,
"total_tokens": 196526
},
"visitedURLs": [
"https://github.com/jina-ai/node-DeepResearch/blob/main/src/utils/url-tools.ts",
"https://huggingface.co/jinaai/jina-embeddings-v3",
"https://github.com/jina-ai/reader",
"https://zilliz.com/blog/training-text-embeddings-with-jina-ai",
"https://threads.net/@unwind_ai/post/DGmhWCVswbe/media",
"https://twitter.com/JinaAI_/status/1899840196507820173",
"https://jina.ai/news?tag=tech-blog",
"https://docs.llamaindex.ai/en/stable/examples/embeddings/jinaai_embeddings",
"https://x.com/jinaai_",
"https://x.com/JinaAI_/status/1899840202358784170",
"https://tracxn.com/d/companies/jina-ai/__IQ81fOnU0FsDpagFjG-LrG0DMWHELqI6znTumZBQF-A/funding-and-investors",
"https://jina.ai/models",
"https://linkedin.com/posts/imohitmayank_jinaai-has-unveiled-the-ultimate-developer-activity-7300401711242711040-VD64",
"https://medium.com/@tossy21/trying-out-jina-ais-node-deepresearch-c5b55d630ea6",
"https://huggingface.co/jinaai/jina-clip-v2",
"https://arxiv.org/abs/2409.10173",
"https://milvus.io/docs/embed-with-jina.md",
"https://seedtable.com/best-startups-in-china",
"https://threads.net/@sung.kim.mw/post/DGhG-J_vREu/jina-ais-a-practical-guide-to-implementing-deepsearchdeepresearchthey-cover-desi",
"https://elastic.co/search-labs/blog/jina-ai-embeddings-rerank-model-open-inference-api",
"http://status.jina.ai/",
"https://apidog.com/blog/recreate-openai-deep-research",
"https://youtube.com/watch?v=QxHE4af5BQE",
"https://sdxcentral.com/articles/news/cisco-engages-businesses-on-ai-strategies-at-greater-bay-area-2025/2025/02",
"https://aws.amazon.com/blogs/machine-learning/build-rag-applications-using-jina-embeddings-v2-on-amazon-sagemaker-jumpstart",
"https://reddit.com/r/perplexity_ai/comments/1ejbdqa/fastest_open_source_ai_search_engine",
"https://search.jina.ai/",
"https://sebastian-petrus.medium.com/build-openais-deep-research-open-source-alternative-4f21aed6d9f0",
"https://medium.com/@elmo92/jina-reader-transforming-web-content-to-feed-llms-d238e827cc27",
"https://openai.com/index/introducing-deep-research",
"https://python.langchain.com/docs/integrations/tools/jina_search",
"https://varindia.com/news/meta-is-in-talks-for-usd200-billion-ai-data-center-project",
"https://varindia.com/news/Mira-Murati%E2%80%99s-new-AI-venture-eyes-$9-billion-valuation",
"https://53ai.com/news/RAG/2025031401342.html",
"https://arxiv.org/abs/2409.04701",
"https://bigdatawire.com/this-just-in/together-ai-raises-305m-series-b-to-power-ai-model-training-and-inference",
"https://github.blog/",
"https://cdn-uploads.huggingface.co/production/uploads/660c3c5c8eec126bfc7aa326/MvwT9enRT7gOESHA_tpRj.jpeg",
"https://cdn-uploads.huggingface.co/production/uploads/660c3c5c8eec126bfc7aa326/JNs_DrpFbr6ok_pSRUK4j.jpeg",
"https://app.dealroom.co/lists/33530",
"https://api-docs.deepseek.com/news/news250120",
"https://sdxcentral.com/articles/news/ninjaone-raises-500-million-valued-at-5-billion/2025/02",
"https://linkedin.com/sharing/share-offsite?url=https%3A%2F%2Fjina.ai%2Fnews%2Fa-practical-guide-to-implementing-deepsearch-deepresearch%2F",
"https://twitter.com/intent/tweet?url=https%3A%2F%2Fjina.ai%2Fnews%2Fa-practical-guide-to-implementing-deepsearch-deepresearch%2F",
"https://platform.openai.com/docs/api-reference/chat/create",
"https://mp.weixin.qq.com/s/-pPhHDi2nz8hp5R3Lm_mww",
"https://huggingface.us17.list-manage.com/subscribe?id=9ed45a3ef6&u=7f57e683fa28b51bfc493d048",
"https://automatio.ai/",
"https://sdk.vercel.ai/docs/introduction",
"https://app.eu.vanta.com/jinaai/trust/vz7f4mohp0847aho84lmva",
"https://apply.workable.com/huggingface/j/AF1D4E3FEB",
"https://facebook.com/sharer/sharer.php?u=https%3A%2F%2Fjina.ai%2Fnews%2Fa-practical-guide-to-implementing-deepsearch-deepresearch%2F",
"https://facebook.com/sharer/sharer.php?u=http%3A%2F%2F127.0.0.1%3A3000%2Fen-US%2Fnews%2Fsnippet-selection-and-url-ranking-in-deepsearch-deepresearch%2F",
"https://reddit.com/submit?url=https%3A%2F%2Fjina.ai%2Fnews%2Fa-practical-guide-to-implementing-deepsearch-deepresearch%2F",
"https://apply.workable.com/huggingface",
"https://news.ycombinator.com/submitlink?u=https%3A%2F%2Fjina.ai%2Fnews%2Fa-practical-guide-to-implementing-deepsearch-deepresearch%2F",
"https://news.ycombinator.com/submitlink?u=http%3A%2F%2F127.0.0.1%3A3000%2Fen-US%2Fnews%2Fsnippet-selection-and-url-ranking-in-deepsearch-deepresearch%2F",
"https://docs.github.com/site-policy/privacy-policies/github-privacy-statement",
"https://discord.jina.ai/",
"https://docs.github.com/site-policy/github-terms/github-terms-of-service",
"https://bigdatawire.com/this-just-in/qumulo-announces-30-million-funding",
"https://x.ai/blog/grok-3",
"https://m-ric-open-deep-research.hf.space/",
"https://youtu.be/sal78ACtGTc?feature=shared&t=52",
"https://mp.weixin.qq.com/s/apnorBj4TZs3-Mo23xUReQ",
"https://perplexity.ai/hub/blog/introducing-perplexity-deep-research",
"https://githubstatus.com/",
"https://github.blog/changelog/2021-09-30-footnotes-now-supported-in-markdown-fields",
"https://openai.com/index/introducing-operator",
"mailto:[email protected]",
"https://resources.github.com/learn/pathways",
"https://status.jina.ai/",
"https://reuters.com/technology/artificial-intelligence/tencents-messaging-app-weixin-launches-beta-testing-with-deepseek-2025-02-16",
"https://scmp.com/tech/big-tech/article/3298981/baidu-adopts-deepseek-ai-models-chasing-tencent-race-embrace-hot-start",
"https://microsoft.com/en-us/research/articles/magentic-one-a-generalist-multi-agent-system-for-solving-complex-tasks",
"javascript:UC_UI.showSecondLayer();",
"https://resources.github.com/",
"https://storm-project.stanford.edu/research/storm",
"https://blog.google/products/gemini/google-gemini-deep-research",
"https://youtu.be/vrpraFiPUyA",
"https://chat.baidu.com/search?extParamsJson=%7B%22enter_type%22%3A%22ai_explore_home%22%7D&isShowHello=1&pd=csaitab&setype=csaitab&usedModel=%7B%22modelName%22%3A%22DeepSeek-R1%22%7D",
"https://app.dover.com/jobs/jinaai",
"http://localhost:3000/",
"https://docs.cherry-ai.com/",
"https://en.wikipedia.org/wiki/Delayed_gratification",
"https://support.github.com/?tags=dotcom-footer",
"https://docs.jina.ai/",
"https://skills.github.com/",
"https://partner.github.com/",
"https://help.x.com/resources/accessibility",
"https://business.twitter.com/en/help/troubleshooting/how-twitter-ads-work.html",
"https://business.x.com/en/help/troubleshooting/how-twitter-ads-work.html",
"https://support.twitter.com/articles/20170514",
"https://support.x.com/articles/20170514",
"https://t.co/jnxcxPzndy",
"https://t.co/6EtEMa9P05",
"https://help.x.com/using-x/x-supported-browsers",
"https://legal.twitter.com/imprint.html"
],
"readURLs": [
"https://jina.ai/news/a-practical-guide-to-implementing-deepsearch-deepresearch",
"https://github.com/jina-ai/node-DeepResearch",
"https://huggingface.co/blog/open-deep-research",
"https://jina.ai/news/snippet-selection-and-url-ranking-in-deepsearch-deepresearch",
"https://x.com/jinaai_?lang=en",
"https://jina.ai/news",
"https://x.com/joedevon/status/1896984525210837081",
"https://github.com/jina-ai/node-DeepResearch/blob/main/src/tools/jina-latechunk.ts"
],
"numURLs": 98
}
DeepSearch-Parameterhandbuch
Qualitätskontrolle
Bei DeepSearch gibt es grundsätzlich einen Kompromiss: Je mehr Schritte das System durchführt, desto hochwertigere Ergebnisse erhalten Sie, aber Sie verbrauchen auch mehr Token. Diese verbesserte Qualität resultiert aus umfassenderen, umfassenderen Suchen und einer tieferen Reflexion. Vier Hauptparameter steuern die Qualität von DeepSearch: „budget_tokens“, „max_attempts“, „team_size“ und „reasoning_effort“. Der Parameter „reasoning_effort“ ist im Wesentlichen eine voreingestellte Kombination aus „budget_tokens“ und „max_attempts“, die sorgfältig optimiert wurde. Für die meisten Nutzer ist die Anpassung von „reasoning_effort“ der einfachste Ansatz.
Budget-Token
„budget_tokens“ legt die maximal zulässige Anzahl an Token für den gesamten DeepSearch-Prozess fest. Dies umfasst alle Vorgänge, einschließlich Websuche, Lesen von Webseiten, Reflexion, Zusammenfassung und Codierung. Höhere Budgets führen naturgemäß zu einer besseren Antwortqualität. Der DeepSearch-Prozess wird beendet, sobald das Budget erschöpft ist oder eine zufriedenstellende Antwort gefunden wurde – je nachdem, was zuerst eintritt. Ist das Budget zuerst erschöpft, erhalten Sie zwar eine Antwort, diese ist jedoch möglicherweise nicht die endgültige, vollständig verfeinerte Antwort, da sie nicht alle durch „max_attempts“ definierten Qualitätsprüfungen bestanden hat.
Max. Versuche
„max_attempts“ bestimmt, wie oft das System während des DeepSearch-Prozesses versucht, ein Problem zu lösen. Jedes Mal, wenn DeepSearch eine Antwort liefert, muss es bestimmte, von einem internen Prüfer festgelegte Qualitätstests bestehen. Besteht die Antwort diese Tests nicht, gibt der Prüfer Feedback, das das System nutzt, um die Suche fortzusetzen und die Antwort zu verfeinern. Ein zu niedriger Wert für „max_attempts“ führt zwar zu schnellen Ergebnissen, die Qualität kann jedoch darunter leiden, da die Antwort möglicherweise nicht alle Qualitätsprüfungen besteht. Ein zu hoher Wert kann dazu führen, dass der Prozess in einer Endlosschleife feststeckt und immer wieder versucht, einen Fehler zu machen.
Das System gibt eine endgültige Antwort zurück, wenn entweder die Anzahl der Budgettoken oder die Anzahl der Versuche überschritten wird (je nachdem, was zuerst eintritt) oder wenn die Antwort alle Tests besteht und noch Budget und Versuche verfügbar sind.
Teamgröße
„Teamgröße“ beeinflusst die Qualität grundlegend anders als „Maximale Versuche“ und „Budgettoken“. Wenn „Teamgröße“ auf mehr als eins gesetzt ist, zerlegt das System das ursprüngliche Problem in Teilprobleme und untersucht diese unabhängig voneinander. Stellen Sie sich das wie ein Map-Reduce-Muster vor, bei dem ein großer Auftrag in kleinere, parallel ausgeführte Aufgaben zerlegt wird. Die endgültige Antwort ist dann eine Synthese der Ergebnisse jedes einzelnen Mitarbeiters. Wir nennen es „Teamgröße“, weil es ein Forschungsteam simuliert, in dem mehrere Agenten verschiedene Aspekte desselben Problems untersuchen und gemeinsam an einem Abschlussbericht arbeiten.
Beachten Sie, dass der Tokenverbrauch aller Agenten zu Ihren gesamten Budgettoken zählt, jeder Agent jedoch über unabhängige „Maximale Versuche“ verfügt. Das bedeutet, dass Agenten bei einer größeren Teamgröße, aber gleichen Budgettoken aufgrund von Budgetbeschränkungen möglicherweise früher als erwartet Antworten liefern. Wir empfehlen, sowohl Teamgröße als auch Budgettoken gemeinsam zu erhöhen, um jedem Agenten ausreichend Ressourcen für eine gründliche Arbeit zu geben.
Die Teamgröße bestimmt die Breite der Suche – sie bestimmt, wie viele verschiedene Aspekte untersucht werden. Budgettoken und maximale Versuche bestimmen die Tiefe der Suche – also wie gründlich jeder Aspekt untersucht wird.
Quellcodeverwaltung
DeepSearch setzt stark auf fundierte Informationen – die verwendeten Quellen. Qualität hängt nicht nur von algorithmischer Tiefe und Breite ab; woher DeepSearch seine Informationen bezieht, ist ebenso wichtig und oft der entscheidende Faktor. Sehen wir uns die wichtigsten Parameter an, die dies steuern.
Keine direkte Antwort
„no_direct_answer“ ist ein einfacher Schalter, der verhindert, dass das System in Schritt 1 eine Antwort zurückgibt. Ist dieser Schalter aktiviert, wird die Nutzung internen Wissens deaktiviert und das System wird gezwungen, immer zuerst im Internet zu suchen. Dadurch überdenkt das System selbst einfache Fragen wie „Welcher Tag ist heute?“ oder „Wie geht es Ihnen?“ oder grundlegendes Faktenwissen, das definitiv in den Trainingsdaten des Modells enthalten ist, wie z. B. „Wer war der 40. Präsident der USA?“.
Hostnamen-Kontrolle
Drei Parameter – „boost_hostnames“, „bad_hostnames“ und „only_hostnames“ – geben DeepSearch an, welche Webseiten priorisiert, vermieden oder ausschließlich verwendet werden sollen. Um zu verstehen, wie diese funktionieren, betrachten Sie den Such- und Lesevorgang in DeepSearch:
- Suchphase: Das System durchsucht das Web und ruft eine Liste von Website-URLs mit ihren Snippets ab.
- Auswahlphase: Das System entscheidet, welche URLs tatsächlich besucht werden (aus Zeit- und Kostengründen werden nicht alle besucht).
boost_hostnames
: Die hier aufgeführten Domains erhalten eine höhere Priorität und werden mit höherer Wahrscheinlichkeit besucht.bad_hostnames
: Diese Domains werden nie besucht.only_hostnames
: Wenn definiert, werden nur URLs besucht, die diesen Hostnamen entsprechen.
Hier einige wichtige Hinweise zu Hostnamenparametern: Das System verwendet immer die von Suchmaschinen zurückgegebenen Snippets als erste Anhaltspunkte für den Aufbau von Argumentationsketten. Diese Hostnamenparameter beeinflussen nur, welche Webseiten das System besucht, nicht aber, wie es Suchanfragen formuliert.
Zweitens: Wenn die erfassten URLs nicht die in only_hostnames
angegebenen Domänen enthalten, kann das System das Lesen von Webseiten vollständig einstellen. Wir empfehlen, diese Parameter nur zu verwenden, wenn Sie mit Ihrer Forschungsfrage vertraut sind und wissen, wo potenzielle Antworten wahrscheinlich zu finden sind (oder wo sie definitiv nicht zu finden sein sollten).
Sonderfall: Akademische Forschung
Für die akademische Forschung möchten Sie möglicherweise Such- und Lesevorgänge auf arxiv.org beschränken. Setzen Sie in diesem Fall einfach "search_provider": "arxiv"
, und alles basiert auf arxiv als einziger Quelle. Allgemeine oder triviale Fragen erhalten mit dieser Einschränkung jedoch möglicherweise keine effizienten Antworten. Verwenden Sie "search_provider": "arxiv"
daher nur für ernsthafte akademische Forschung.
Suchsprachencode
``search_language_code` ist ein weiterer Parameter, der Webquellen beeinflusst, indem er das System zwingt, Abfragen in einer bestimmten Sprache zu generieren, unabhängig von der ursprünglichen Eingabe oder den dazwischenliegenden Argumentationsschritten. In der Regel wählt das System die Abfragesprache automatisch, um eine optimale Suchabdeckung zu erzielen. Manchmal ist jedoch eine manuelle Steuerung sinnvoll.
Anwendungsfälle für die Sprachsteuerung
Internationale Marktforschung: Wenn Sie den Einfluss einer lokalen Marke oder eines Unternehmens auf internationalen Märkten untersuchen, können Sie Abfragen mit "search_language_code": "en"
so konfigurieren, dass sie immer Englisch verwenden, um eine globale Abdeckung zu gewährleisten. Alternativ können Sie die lokale Sprache für spezifischere regionale Informationen verwenden.
Globale Marktforschung mit nicht-englischen Eingabeaufforderungen: Wenn Ihre Eingaben immer auf Chinesisch oder Japanisch erfolgen (da Ihre Endnutzer hauptsächlich diese Sprachen sprechen), Ihr Rechercheumfang aber global und nicht nur auf lokale chinesische oder japanische Websites beschränkt ist, kann das System automatisch die Sprache Ihrer Eingabeaufforderung bevorzugen. Verwenden Sie diesen Parameter, um englische Abfragen für eine breitere internationale Abdeckung zu erzwingen.
Chatten Sie mit DeepSearch
Was ist DeepSearch?
Standard-LLM
RAG und Grounded LLMs
DeepSearch
API-Preise
Produkt | API-Endpunkt | Beschreibungarrow_upward | ohne API-Schlüsselkey_off | mit API-Schlüsselkey | mit Premium-API-Schlüsselkey | Durchschnittliche Latenz | Zählung der Token-Nutzung | Zulässige Anfrage | |
---|---|---|---|---|---|---|---|---|---|
Leser-API | https://r.jina.ai | URL in LLM-freundlichen Text konvertieren | 20 RPM | 500 RPM | trending_up5000 RPM | 7.9s | Zählen Sie die Anzahl der Token in der Ausgabeantwort. | GET/POST | |
Leser-API | https://s.jina.ai | Durchsuchen Sie das Web und konvertieren Sie die Ergebnisse in LLM-freundlichen Text | block | 100 RPM | trending_up1000 RPM | 2.5s | Jede Anfrage kostet eine feste Anzahl an Token, beginnend bei 10000 Token | GET/POST | |
DeepSearch | https://deepsearch.jina.ai/v1/chat/completions | Überlegen, suchen und iterieren, um die beste Antwort zu finden | block | 50 RPM | 500 RPM | 56.7s | Zählen Sie die Gesamtzahl der Token im gesamten Vorgang. | POST | |
Einbettungs-API | https://api.jina.ai/v1/embeddings | Konvertieren Sie Text/Bilder in Vektoren mit fester Länge | block | 500 RPM & 1,000,000 TPM | trending_up2,000 RPM & 5,000,000 TPM | ssid_chart hängt von der Eingangsgröße ab help | Zählen Sie die Anzahl der Token in der Eingabeanforderung. | POST | |
Reranker-API | https://api.jina.ai/v1/rerank | Ordnen Sie Dokumente nach Abfrage | block | 500 RPM & 1,000,000 TPM | trending_up2,000 RPM & 5,000,000 TPM | ssid_chart hängt von der Eingangsgröße ab help | Zählen Sie die Anzahl der Token in der Eingabeanforderung. | POST | |
Klassifizierer-API | https://api.jina.ai/v1/train | Trainieren eines Klassifikators anhand gekennzeichneter Beispiele | block | 20 RPM & 200,000 TPM | 60 RPM & 1,000,000 TPM | ssid_chart hängt von der Eingangsgröße ab | Token werden wie folgt gezählt: input_tokens × num_iters | POST | |
Klassifizierer-API (Nullschuss) | https://api.jina.ai/v1/classify | Klassifizieren Sie Eingaben mithilfe der Zero-Shot-Klassifizierung | block | 200 RPM & 500,000 TPM | 1,000 RPM & 3,000,000 TPM | ssid_chart hängt von der Eingangsgröße ab | Token werden wie folgt gezählt: input_tokens + label_tokens | POST | |
Klassifizierer-API (Wenige Schüsse) | https://api.jina.ai/v1/classify | Klassifizieren Sie Eingaben mit einem trainierten Few-Shot-Klassifikator | block | 20 RPM & 200,000 TPM | 60 RPM & 1,000,000 TPM | ssid_chart hängt von der Eingangsgröße ab | Token werden wie folgt gezählt: input_tokens | POST | |
Segmenter-API | https://api.jina.ai/v1/segment | Tokenisieren und Segmentieren von Langtext | 20 RPM | 200 RPM | 1,000 RPM | 0.3s | Token werden nicht als Nutzung gezählt. | GET/POST |