Entrega eventos a medida que ocurren a través de eventos enviados por el servidor, incluidos los pasos de razonamiento y las respuestas finales. Recomendamos enfáticamente mantener esta opción habilitada, ya que las solicitudes de DeepSearch pueden tardar un tiempo considerable en completarse. Deshabilitar la transmisión puede generar errores de "tiempo de espera 524".
Esfuerzo de razonamiento
medium
arrow_drop_down
Fichas de presupuesto
Esto determina la cantidad máxima de tokens que se permite utilizar en el proceso DeepSearch. Los presupuestos más grandes pueden mejorar la calidad de la respuesta al permitir una búsqueda más exhaustiva para consultas complejas, aunque es posible que DeepSearch no utilice todo el presupuesto asignado. Esto anula el parámetro reasoning_effort.
Intentos máximos
El número máximo de reintentos para resolver un problema (y todos los subproblemas) en el proceso DeepSearch. Un valor mayor permite que DeepSearch vuelva a intentar resolver el problema utilizando diferentes enfoques de razonamiento y estrategias de abordaje. Este parámetro anula el parámetro reasoning_effort.
Sin respuesta directa
Obliga al modelo a realizar más pasos de reflexión/búsqueda incluso cuando la consulta parece trivial. Esto es útil si se utiliza DeepSearch en escenarios donde se está seguro de que la consulta siempre lo requiere, en lugar de para preguntas triviales como "¿1+1=?".
Máximo de URL devueltas
El número máximo de URL a incluir en la respuesta/fragmento final. Las URL se ordenan por relevancia y otros factores importantes.
Búsqueda optimizada de Arxiv
Experimental
Motor de búsqueda optimizado para artículos de investigación de arXiv. Esto restringirá la búsqueda únicamente a arXiv.
Salida estructurada
Esto habilita salidas estructuradas que garantizan que la respuesta final del modelo coincidirá con el esquema JSON proporcionado.
Lenguaje de consulta de búsqueda
Forzar el idioma de la consulta de búsqueda. Útil cuando es más probable que los recursos estén en un idioma específico. El sistema lo determina automáticamente por defecto.
Responder y pensar en el lenguaje
Fuerce el idioma de la respuesta y piense con el código de idioma dado. Por defecto, se determina automáticamente a partir del idioma principal de los mensajes de entrada. La calidad de la respuesta puede verse ligeramente afectada por el idioma.
Buenos dominios
Una lista de dominios con mayor prioridad para la recuperación de contenido. Útil para fuentes de alta calidad y específicas de cada dominio que ofrecen contenido valioso.
Dominios malos
Una lista de dominios que deben excluirse estrictamente de la recuperación de contenido. Se suele usar para filtrar sitios web considerados spam, de baja calidad o irrelevantes.
Solo dominios
Lista de dominios que se incluirán exclusivamente en la recuperación de contenido. Se ignorarán los demás dominios. Útil para búsquedas específicas de dominio.
Mensajes
Una lista de mensajes entre el usuario y el asistente que comprende la conversación hasta el momento.
person
Usuario
smart_toy
Asistente
person
Usuario
Adjuntar imagen/documento
Se admiten distintos tipos de mensajes (modalidades), como texto (.txt, .pdf), imágenes (.png, .webp, .jpeg). Se admiten archivos de hasta 10 MB y deben estar codificados en la URL de datos por adelantado.
Mensaje de texto simple
arrow_drop_down
{"role":"user","content":"hi"}
upload
Pedido
Bash
Idioma
arrow_drop_down
curl https://deepsearch.jina.ai/v1/chat/completions \-H"Content-Type: application/json"\-H"Authorization: Bearer "\-d @- <<EOFEOF
{
"model": "jina-deepsearch-v1",
"messages": [
{
"role": "user",
"content": "Hi!"
},
{
"role": "assistant",
"content": "Hi, how can I help you?"
},
{
"role": "user",
"content": "what's the latest blog post from jina ai?"
}
],
"stream": true,
"reasoning_effort": "medium",
"max_attempts": 1,
"no_direct_answer": false
}
EOFEOF
info
Este es el último fragmento del flujo que contiene la respuesta final, las URL visitadas y el uso del token. Haga clic en el botón de arriba para obtener una respuesta en tiempo real.
download
Respuesta
fiber_manual_record 200 OK
timer
0.0 s
straighten
196,526 Fichas
{"id":"1742181758589","object":"chat.completion.chunk","created":1742181758,"model":"jina-deepsearch-v1","system_fingerprint":"fp_1742181758589","choices":[{"index":0,"delta":{"content":"The latest blog post from Jina AI is titled \"Snippet Selection and URL Ranking in DeepSearch/DeepResearch,\" published on March 12, 2025 [^1]. This post discusses how to improve the quality of DeepSearch by using late-chunking embeddings for snippet selection and rerankers to prioritize URLs before crawling. You can read the full post here: https://jina.ai/news/snippet-selection-and-url-ranking-in-deepsearch-deepresearch\n\n[^1]: Since our DeepSearch release on February 2nd 2025 we ve discovered two implementation details that greatly improved quality In both cases multilingual embeddings and rerankers are used in an in context manner operating at a much smaller scale than the traditional pre computed indices these models typically require [jina.ai](https://jina.ai/news/snippet-selection-and-url-ranking-in-deepsearch-deepresearch)","type":"text","annotations":[{"type":"url_citation","url_citation":{"title":"Snippet Selection and URL Ranking in DeepSearch/DeepResearch","exactQuote":"Since our DeepSearch release on February 2nd 2025, we've discovered two implementation details that greatly improved quality. In both cases, multilingual embeddings and rerankers are used in an _\"in-context\"_ manner - operating at a much smaller scale than the traditional pre-computed indices these models typically require.","url":"https://jina.ai/news/snippet-selection-and-url-ranking-in-deepsearch-deepresearch","dateTime":"2025-03-13 06:48:01"}}]},"logprobs":null,"finish_reason":"stop"}],"usage":{"prompt_tokens":169670,"completion_tokens":27285,"total_tokens":196526},"visitedURLs":["https://github.com/jina-ai/node-DeepResearch/blob/main/src/utils/url-tools.ts","https://huggingface.co/jinaai/jina-embeddings-v3","https://github.com/jina-ai/reader","https://zilliz.com/blog/training-text-embeddings-with-jina-ai","https://threads.net/@unwind_ai/post/DGmhWCVswbe/media","https://twitter.com/JinaAI_/status/1899840196507820173","https://jina.ai/news?tag=tech-blog","https://docs.llamaindex.ai/en/stable/examples/embeddings/jinaai_embeddings","https://x.com/jinaai_","https://x.com/JinaAI_/status/1899840202358784170","https://tracxn.com/d/companies/jina-ai/__IQ81fOnU0FsDpagFjG-LrG0DMWHELqI6znTumZBQF-A/funding-and-investors","https://jina.ai/models","https://linkedin.com/posts/imohitmayank_jinaai-has-unveiled-the-ultimate-developer-activity-7300401711242711040-VD64","https://medium.com/@tossy21/trying-out-jina-ais-node-deepresearch-c5b55d630ea6","https://huggingface.co/jinaai/jina-clip-v2","https://arxiv.org/abs/2409.10173","https://milvus.io/docs/embed-with-jina.md","https://seedtable.com/best-startups-in-china","https://threads.net/@sung.kim.mw/post/DGhG-J_vREu/jina-ais-a-practical-guide-to-implementing-deepsearchdeepresearchthey-cover-desi","https://elastic.co/search-labs/blog/jina-ai-embeddings-rerank-model-open-inference-api","http://status.jina.ai/","https://apidog.com/blog/recreate-openai-deep-research","https://youtube.com/watch?v=QxHE4af5BQE","https://sdxcentral.com/articles/news/cisco-engages-businesses-on-ai-strategies-at-greater-bay-area-2025/2025/02","https://aws.amazon.com/blogs/machine-learning/build-rag-applications-using-jina-embeddings-v2-on-amazon-sagemaker-jumpstart","https://reddit.com/r/perplexity_ai/comments/1ejbdqa/fastest_open_source_ai_search_engine","https://search.jina.ai/","https://sebastian-petrus.medium.com/build-openais-deep-research-open-source-alternative-4f21aed6d9f0","https://medium.com/@elmo92/jina-reader-transforming-web-content-to-feed-llms-d238e827cc27","https://openai.com/index/introducing-deep-research","https://python.langchain.com/docs/integrations/tools/jina_search","https://varindia.com/news/meta-is-in-talks-for-usd200-billion-ai-data-center-project","https://varindia.com/news/Mira-Murati%E2%80%99s-new-AI-venture-eyes-$9-billion-valuation","https://53ai.com/news/RAG/2025031401342.html","https://arxiv.org/abs/2409.04701","https://bigdatawire.com/this-just-in/together-ai-raises-305m-series-b-to-power-ai-model-training-and-inference","https://github.blog/","https://cdn-uploads.huggingface.co/production/uploads/660c3c5c8eec126bfc7aa326/MvwT9enRT7gOESHA_tpRj.jpeg","https://cdn-uploads.huggingface.co/production/uploads/660c3c5c8eec126bfc7aa326/JNs_DrpFbr6ok_pSRUK4j.jpeg","https://app.dealroom.co/lists/33530","https://api-docs.deepseek.com/news/news250120","https://sdxcentral.com/articles/news/ninjaone-raises-500-million-valued-at-5-billion/2025/02","https://linkedin.com/sharing/share-offsite?url=https%3A%2F%2Fjina.ai%2Fnews%2Fa-practical-guide-to-implementing-deepsearch-deepresearch%2F","https://twitter.com/intent/tweet?url=https%3A%2F%2Fjina.ai%2Fnews%2Fa-practical-guide-to-implementing-deepsearch-deepresearch%2F","https://platform.openai.com/docs/api-reference/chat/create","https://mp.weixin.qq.com/s/-pPhHDi2nz8hp5R3Lm_mww","https://huggingface.us17.list-manage.com/subscribe?id=9ed45a3ef6&u=7f57e683fa28b51bfc493d048","https://automatio.ai/","https://sdk.vercel.ai/docs/introduction","https://app.eu.vanta.com/jinaai/trust/vz7f4mohp0847aho84lmva","https://apply.workable.com/huggingface/j/AF1D4E3FEB","https://facebook.com/sharer/sharer.php?u=https%3A%2F%2Fjina.ai%2Fnews%2Fa-practical-guide-to-implementing-deepsearch-deepresearch%2F","https://facebook.com/sharer/sharer.php?u=http%3A%2F%2F127.0.0.1%3A3000%2Fen-US%2Fnews%2Fsnippet-selection-and-url-ranking-in-deepsearch-deepresearch%2F","https://reddit.com/submit?url=https%3A%2F%2Fjina.ai%2Fnews%2Fa-practical-guide-to-implementing-deepsearch-deepresearch%2F","https://apply.workable.com/huggingface","https://news.ycombinator.com/submitlink?u=https%3A%2F%2Fjina.ai%2Fnews%2Fa-practical-guide-to-implementing-deepsearch-deepresearch%2F","https://news.ycombinator.com/submitlink?u=http%3A%2F%2F127.0.0.1%3A3000%2Fen-US%2Fnews%2Fsnippet-selection-and-url-ranking-in-deepsearch-deepresearch%2F","https://docs.github.com/site-policy/privacy-policies/github-privacy-statement","https://discord.jina.ai/","https://docs.github.com/site-policy/github-terms/github-terms-of-service","https://bigdatawire.com/this-just-in/qumulo-announces-30-million-funding","https://x.ai/blog/grok-3","https://m-ric-open-deep-research.hf.space/","https://youtu.be/sal78ACtGTc?feature=shared&t=52","https://mp.weixin.qq.com/s/apnorBj4TZs3-Mo23xUReQ","https://perplexity.ai/hub/blog/introducing-perplexity-deep-research","https://githubstatus.com/","https://github.blog/changelog/2021-09-30-footnotes-now-supported-in-markdown-fields","https://openai.com/index/introducing-operator","mailto:[email protected]","https://resources.github.com/learn/pathways","https://status.jina.ai/","https://reuters.com/technology/artificial-intelligence/tencents-messaging-app-weixin-launches-beta-testing-with-deepseek-2025-02-16","https://scmp.com/tech/big-tech/article/3298981/baidu-adopts-deepseek-ai-models-chasing-tencent-race-embrace-hot-start","https://microsoft.com/en-us/research/articles/magentic-one-a-generalist-multi-agent-system-for-solving-complex-tasks","javascript:UC_UI.showSecondLayer();","https://resources.github.com/","https://storm-project.stanford.edu/research/storm","https://blog.google/products/gemini/google-gemini-deep-research","https://youtu.be/vrpraFiPUyA","https://chat.baidu.com/search?extParamsJson=%7B%22enter_type%22%3A%22ai_explore_home%22%7D&isShowHello=1&pd=csaitab&setype=csaitab&usedModel=%7B%22modelName%22%3A%22DeepSeek-R1%22%7D","https://app.dover.com/jobs/jinaai","http://localhost:3000/","https://docs.cherry-ai.com/","https://en.wikipedia.org/wiki/Delayed_gratification","https://support.github.com/?tags=dotcom-footer","https://docs.jina.ai/","https://skills.github.com/","https://partner.github.com/","https://help.x.com/resources/accessibility","https://business.twitter.com/en/help/troubleshooting/how-twitter-ads-work.html","https://business.x.com/en/help/troubleshooting/how-twitter-ads-work.html","https://support.twitter.com/articles/20170514","https://support.x.com/articles/20170514","https://t.co/jnxcxPzndy","https://t.co/6EtEMa9P05","https://help.x.com/using-x/x-supported-browsers","https://legal.twitter.com/imprint.html"],"readURLs":["https://jina.ai/news/a-practical-guide-to-implementing-deepsearch-deepresearch","https://github.com/jina-ai/node-DeepResearch","https://huggingface.co/blog/open-deep-research","https://jina.ai/news/snippet-selection-and-url-ranking-in-deepsearch-deepresearch","https://x.com/jinaai_?lang=en","https://jina.ai/news","https://x.com/joedevon/status/1896984525210837081","https://github.com/jina-ai/node-DeepResearch/blob/main/src/tools/jina-latechunk.ts"],"numURLs":98}
key
Clave API
visibility_off
Fichas disponibles
0
Esta es tu clave única. ¡Guárdala de forma segura!
Comprobación de vibraciones con una interfaz de chat sencilla. DeepSearch es ideal para preguntas complejas que requieren razonamiento iterativo, conocimiento del mundo o información actualizada.
Acabamos de lanzar una nueva interfaz de usuario de DeepSearch que es ultrarrápida, minimalista y GRATUITA. ¡Échale un vistazo en https://search.jina.ai o haz clic en el botón a continuación para probarla!open_in_newVisita la nueva interfaz de usuario
Para obtener la mejor experiencia, recomendamos utilizar clientes de chat profesionales. DeepSearch es totalmente compatible con el esquema de API de chat de OpenAI, lo que facilita su uso con cualquier cliente compatible con OpenAI.
DeepSearch combina la búsqueda web, la lectura y el razonamiento para realizar una investigación exhaustiva. Piense en él como un agente al que le asigna una tarea de investigación: realiza una búsqueda exhaustiva y realiza múltiples iteraciones antes de proporcionar una respuesta.
LLM estándar
attach_money
alrededor de 1000 tokens
access_time
alrededor de 1s
check
Respuestas rápidas a preguntas de conocimientos generales
close
No se puede acceder a información en tiempo real o posterior al entrenamiento
Las respuestas se generan puramente a partir de conocimientos previamente entrenados con una fecha límite fija.
RAG y LLM fundamentados
attach_money
alrededor de 10.000 tokens
access_time
alrededor de 3s
check
Preguntas que requieren información actual o específica del dominio
close
Tiene dificultades con preguntas complejas que requieren razonamiento de múltiples saltos.
Respuestas generadas al resumir los resultados de una búsqueda de una sola pasada
Puede acceder a información actual más allá del límite de capacitación
Búsqueda profunda
attach_money
alrededor de 500.000 tokens
access_time
Alrededor de los 50
check
Preguntas complejas que requieren investigación y razonamiento exhaustivos
info
Requiere más tiempo que los enfoques LLM o RAG simples
Agente autónomo que busca, lee y razona iterativamente
Decide dinámicamente los próximos pasos en función de los hallazgos actuales.
Autoevalúa la calidad de la respuesta antes de devolver los resultados
Puede realizar inmersiones profundas en temas a través de múltiples ciclos de búsqueda y razonamiento.
El precio de la API se basa en el uso de tokens. Una clave API le otorga acceso a todos los productos de Search Foundation.
Con la API de Jina Search Foundation
La forma más sencilla de acceder a todos nuestros productos. Recarga tokens a medida que avanzas.
Ingresa la clave API que deseas recargar
error
visibility_off
Recarga esta clave API con más tokens
Dependiendo de su ubicación, es posible que se le cobre en USD, EUR u otras monedas. Se pueden aplicar impuestos.
Ingrese la clave API correcta para recargar
Entender el límite de velocidad
Los límites de velocidad son la cantidad máxima de solicitudes que se pueden realizar a una API en un minuto por dirección IP/clave API (RPM). Obtenga más información sobre los límites de velocidad para cada producto y nivel a continuación.
keyboard_arrow_down
Límite de velocidad
Los límites de velocidad se controlan de tres maneras: RPM (solicitudes por minuto) y TPM (tokens por minuto). Los límites se aplican por IP/clave API y se activan cuando se alcanza primero el umbral de RPM o TPM. Al proporcionar una clave API en el encabezado de la solicitud, controlamos los límites de velocidad por clave, no por dirección IP.
Columnas
arrow_drop_down
Producto
Punto final de API
Descripciónarrow_upward
Sin clave APIkey_off
con clave APIkey
con clave API Premiumkey
Latencia media
Recuento de uso de tokens
Solicitud Permitida
API de lector
https://r.jina.ai
Convertir URL a texto compatible con LLM
20 RPM
500 RPM
trending_up5000 RPM
7.9s
Cuente la cantidad de tokens en la respuesta de salida.
GET/POST
API de lector
https://s.jina.ai
Busque en la web y convierta los resultados en texto compatible con LLM
block
100 RPM
trending_up1000 RPM
2.5s
Cada solicitud cuesta una cantidad fija de tokens, a partir de 10000 tokens
GET/POST
Búsqueda profunda
https://deepsearch.jina.ai/v1/chat/completions
Razonar, buscar e iterar para encontrar la mejor respuesta.
block
50 RPM
500 RPM
56.7s
Cuente el número total de tokens en todo el proceso.
POST
API de incrustación
https://api.jina.ai/v1/embeddings
Convertir texto/imágenes en vectores de longitud fija
block
500 RPM & 1,000,000 TPM
trending_up2,000 RPM & 5,000,000 TPM
ssid_chart
depende del tamaño de entrada
help
Cuente la cantidad de tokens en la solicitud de entrada.
POST
API de reclasificación
https://api.jina.ai/v1/rerank
Clasificar documentos por consulta
block
500 RPM & 1,000,000 TPM
trending_up2,000 RPM & 5,000,000 TPM
ssid_chart
depende del tamaño de entrada
help
Cuente la cantidad de tokens en la solicitud de entrada.
POST
API de clasificador
https://api.jina.ai/v1/train
Entrenar un clasificador usando ejemplos etiquetados
block
20 RPM & 200,000 TPM
60 RPM & 1,000,000 TPM
ssid_chart
depende del tamaño de entrada
Los tokens se cuentan como: input_tokens × num_iters
POST
API de clasificador (Disparo cero)
https://api.jina.ai/v1/classify
Clasificar las entradas utilizando la clasificación de disparo cero
block
200 RPM & 500,000 TPM
1,000 RPM & 3,000,000 TPM
ssid_chart
depende del tamaño de entrada
Los tokens se cuentan como: input_tokens + label_tokens
POST
API de clasificador (Pocos disparos)
https://api.jina.ai/v1/classify
Clasifique las entradas utilizando un clasificador de pocos disparos entrenado
block
20 RPM & 200,000 TPM
60 RPM & 1,000,000 TPM
ssid_chart
depende del tamaño de entrada
Los tokens se cuentan como: input_tokens
POST
API de segmentación
https://api.jina.ai/v1/segment
Tokenizar y segmentar textos largos
20 RPM
200 RPM
1,000 RPM
0.3s
El token no se cuenta como uso.
GET/POST
Recarga automática de saldo de token bajo
Recomendado para un servicio ininterrumpido en producción. Cuando el saldo de su token caiga por debajo del límite establecido, recargaremos automáticamente su método de pago guardado por el último paquete comprado, hasta que se alcance el límite.
info El 6 de mayo de 2025, implementamos un nuevo modelo de precios. Si habilitaste la recarga automática antes de esta fecha, seguirás pagando el precio anterior (el que pagaste al comprar). El nuevo precio solo aplica si modificas la configuración de recarga automática o compras una nueva clave API.
DeepSearch es una API LLM que realiza búsquedas, lecturas y razonamientos iterativos hasta que encuentra una respuesta precisa a una consulta o alcanza su límite de presupuesto de tokens.
¿En qué se diferencia DeepSearch de las capacidades de investigación profunda de OpenAI y Gemini?
keyboard_arrow_down
A diferencia de OpenAI y Gemini, DeepSearch se centra específicamente en brindar respuestas precisas mediante iteraciones en lugar de generar artículos extensos. Está optimizado para obtener respuestas rápidas y precisas a partir de búsquedas en la web profunda en lugar de crear informes completos.
¿Qué clave API necesito para utilizar DeepSearch?
keyboard_arrow_down
Necesita una clave API de Jina. Ofrecemos 10 millones de tokens gratis para nuevas claves API.
¿Qué sucede cuando DeepSearch alcanza su presupuesto de tokens? ¿Devuelve una respuesta incompleta?
keyboard_arrow_down
Genera una respuesta final basada en todo el conocimiento acumulado, en lugar de simplemente darse por vencido o devolver una respuesta incompleta.
¿DeepSearch garantiza respuestas precisas?
keyboard_arrow_down
No. Si bien utiliza un proceso de búsqueda iterativo para mejorar la precisión, la evaluación muestra que logra una tasa de aprobación del 75 % en las preguntas de la prueba, significativamente mejor que la línea de base del 0 % (gemini-2.0-flash), pero no perfecta.
¿Cuánto tiempo tarda una consulta típica de DeepSearch?
keyboard_arrow_down
Varía significativamente: las consultas pueden requerir entre 1 y 42 pasos, con un promedio de 4 pasos según los datos de evaluación. Eso equivale a 20 segundos. Las consultas simples pueden resolverse rápidamente, mientras que las preguntas de investigación complejas pueden implicar muchas iteraciones y hasta 120 segundos.
¿Puede DeepSearch funcionar con cualquier cliente compatible con OpenAI como Chatwise, CherryStudio o ChatBox?
keyboard_arrow_down
Sí, la API oficial de DeepSearch en deepsearch.jina.ai/v1/chat/completions es totalmente compatible con el esquema de API de OpenAI, y utiliza "jina-deepsearch-v1" como nombre de modelo. Por lo tanto, es muy fácil cambiar de OpenAI a DeepSearch y usarla con clientes locales o cualquier cliente compatible con OpenAI. Recomendamos encarecidamente Chatwise para una experiencia perfecta.
¿Cuáles son los límites de velocidad para la API?
keyboard_arrow_down
Los límites de velocidad varían según el nivel de clave API y van desde 10 RPM hasta 30 RPM. Es importante tener esto en cuenta para aplicaciones con grandes volúmenes de consultas.
¿Cuál es el contenido dentro de la etiqueta <think>?
keyboard_arrow_down
DeepSearch envuelve los pasos de pensamiento en etiquetas XML ... y proporciona la respuesta final después, siguiendo el formato de transmisión de OpenAI pero con estos marcadores especiales para la cadena de pensamientos.
¿DeepSearch utiliza Jina Reader para búsquedas y lecturas web?
keyboard_arrow_down
Sí. Jina Reader se utiliza para búsquedas y lecturas web, lo que proporciona al sistema la capacidad de acceder y procesar contenido web de manera eficiente.
¿Por qué DeepSearch utiliza tantos tokens para mis consultas?
keyboard_arrow_down
Sí, el uso de tokens de DeepSearch en consultas complejas es indiscutiblemente alto: un promedio de 70 000 tokens en comparación con los 500 para las respuestas LLM básicas. Esto demuestra la profundidad de la investigación, pero también tiene implicaciones de costos.
¿Hay alguna forma de controlar o limitar el número de pasos?
keyboard_arrow_down
El sistema se controla principalmente por el presupuesto de tokens en lugar del conteo de pasos. Una vez que se excede el presupuesto de tokens, ingresa al modo Bestia para generar la respuesta final. Consulte reasoning_effort para obtener más detalles.
¿Qué tan confiables son las referencias en las respuestas?
keyboard_arrow_down
Las referencias se consideran tan importantes que si una respuesta se considera definitiva pero carece de referencias, el sistema continúa buscando en lugar de aceptar la respuesta.
¿Puede DeepSearch manejar preguntas sobre eventos futuros?
keyboard_arrow_down
Sí, pero con pasos de investigación extensos. El ejemplo de "quién será presidente en 2028" muestra que puede manejar preguntas especulativas a través de múltiples iteraciones de investigación, aunque no se garantiza la precisión de tales predicciones.
Los límites de velocidad se controlan de tres maneras: RPM (solicitudes por minuto) y TPM (tokens por minuto). Los límites se aplican por IP/clave API y se activan cuando se alcanza primero el umbral de RPM o TPM. Al proporcionar una clave API en el encabezado de la solicitud, controlamos los límites de velocidad por clave, no por dirección IP.
Columnas
arrow_drop_down
Producto
Punto final de API
Descripciónarrow_upward
Sin clave APIkey_off
con clave APIkey
con clave API Premiumkey
Latencia media
Recuento de uso de tokens
Solicitud Permitida
API de lector
https://r.jina.ai
Convertir URL a texto compatible con LLM
20 RPM
500 RPM
trending_up5000 RPM
7.9s
Cuente la cantidad de tokens en la respuesta de salida.
GET/POST
API de lector
https://s.jina.ai
Busque en la web y convierta los resultados en texto compatible con LLM
block
100 RPM
trending_up1000 RPM
2.5s
Cada solicitud cuesta una cantidad fija de tokens, a partir de 10000 tokens
GET/POST
Búsqueda profunda
https://deepsearch.jina.ai/v1/chat/completions
Razonar, buscar e iterar para encontrar la mejor respuesta.
block
50 RPM
500 RPM
56.7s
Cuente el número total de tokens en todo el proceso.
POST
API de incrustación
https://api.jina.ai/v1/embeddings
Convertir texto/imágenes en vectores de longitud fija
block
500 RPM & 1,000,000 TPM
trending_up2,000 RPM & 5,000,000 TPM
ssid_chart
depende del tamaño de entrada
help
Cuente la cantidad de tokens en la solicitud de entrada.
POST
API de reclasificación
https://api.jina.ai/v1/rerank
Clasificar documentos por consulta
block
500 RPM & 1,000,000 TPM
trending_up2,000 RPM & 5,000,000 TPM
ssid_chart
depende del tamaño de entrada
help
Cuente la cantidad de tokens en la solicitud de entrada.
POST
API de clasificador
https://api.jina.ai/v1/train
Entrenar un clasificador usando ejemplos etiquetados
block
20 RPM & 200,000 TPM
60 RPM & 1,000,000 TPM
ssid_chart
depende del tamaño de entrada
Los tokens se cuentan como: input_tokens × num_iters
POST
API de clasificador (Disparo cero)
https://api.jina.ai/v1/classify
Clasificar las entradas utilizando la clasificación de disparo cero
block
200 RPM & 500,000 TPM
1,000 RPM & 3,000,000 TPM
ssid_chart
depende del tamaño de entrada
Los tokens se cuentan como: input_tokens + label_tokens
POST
API de clasificador (Pocos disparos)
https://api.jina.ai/v1/classify
Clasifique las entradas utilizando un clasificador de pocos disparos entrenado
block
20 RPM & 200,000 TPM
60 RPM & 1,000,000 TPM
ssid_chart
depende del tamaño de entrada
Los tokens se cuentan como: input_tokens
POST
API de segmentación
https://api.jina.ai/v1/segment
Tokenizar y segmentar textos largos
20 RPM
200 RPM
1,000 RPM
0.3s
El token no se cuenta como uso.
GET/POST
Preguntas comunes relacionadas con API
code
¿Puedo usar la misma clave API para las API de lectura, inserción, reclasificación, clasificación y ajuste?
keyboard_arrow_down
Sí, la misma clave API es válida para todos los productos de la base de búsqueda de Jina AI. Esto incluye las API de lectura, incrustación, reclasificación, clasificación y ajuste, con tokens compartidos entre todos los servicios.
code
¿Puedo monitorear el uso del token de mi clave API?
keyboard_arrow_down
Sí, el uso de tokens se puede monitorear en la pestaña "Clave API y facturación" ingresando su clave API, lo que le permite ver el historial de uso reciente y los tokens restantes. Si ha iniciado sesión en el panel de API, estos detalles también se pueden ver en la pestaña "Administrar clave API".
code
¿Qué debo hacer si olvido mi clave API?
keyboard_arrow_down
Si ha perdido una clave recargada y desea recuperarla, comuníquese con el servicio de asistencia de jina.ai con su correo electrónico registrado para recibir asistencia. Se recomienda iniciar sesión para mantener su clave API almacenada de forma segura y de fácil acceso.
No, nuestras claves API no tienen fecha de vencimiento. Sin embargo, si sospecha que su clave ha sido comprometida y desea retirarla, comuníquese con nuestro equipo de soporte para obtener ayuda. También puede revocar su clave en el panel de administración de claves API.
Sí, puedes transferir tokens de una clave premium a otra. Después de iniciar sesión en tu cuenta en el panel de administración de claves API, usa la configuración de la clave que deseas transferir para mover todos los tokens pagos restantes.
code
¿Puedo revocar mi clave API?
keyboard_arrow_down
Sí, puedes revocar tu clave API si crees que se ha visto comprometida. Al revocar una clave, se deshabilitará de inmediato para todos los usuarios que la hayan almacenado, y todo el saldo restante y las propiedades asociadas quedarán inutilizables de forma permanente. Si la clave es una clave premium, tienes la opción de transferir el saldo restante pagado a otra clave antes de la revocación. Ten en cuenta que esta acción no se puede deshacer. Para revocar una clave, ve a la configuración de claves en el panel de control de administración de claves API.
code
¿Por qué la primera solicitud de algunos modelos es lenta?
keyboard_arrow_down
Esto se debe a que nuestra arquitectura sin servidor descarga ciertos modelos durante períodos de bajo uso. La solicitud inicial activa o "calienta" el modelo, lo que puede tardar unos segundos. Después de esta activación inicial, las solicitudes posteriores se procesan mucho más rápido.
code
¿Se utilizan los datos de entrada del usuario para entrenar sus modelos?
keyboard_arrow_down
Cumplimos con una estricta política de privacidad y no utilizamos los datos ingresados por los usuarios para entrenar nuestros modelos. También cumplimos con los estándares SOC 2 Tipo I y Tipo II, lo que garantiza altos estándares de seguridad y privacidad.
Preguntas comunes relacionadas con la facturación
attach_money
¿La facturación se basa en el número de sentencias o solicitudes?
keyboard_arrow_down
Nuestro modelo de precios se basa en la cantidad total de tokens procesados, lo que permite a los usuarios la flexibilidad de asignar estos tokens en cualquier cantidad de oraciones, ofreciendo una solución rentable para diversos requisitos de análisis de texto.
attach_money
¿Hay una prueba gratuita disponible para nuevos usuarios?
keyboard_arrow_down
Ofrecemos una prueba gratuita de bienvenida a los nuevos usuarios, que incluye diez millones de tokens para usar con cualquiera de nuestros modelos, gracias a una clave API generada automáticamente. Una vez alcanzado el límite de tokens gratuitos, los usuarios pueden comprar fácilmente tokens adicionales para sus claves API a través de la pestaña "Comprar tokens".
attach_money
¿Se cobran tokens por solicitudes fallidas?
keyboard_arrow_down
No, los tokens no se deducen por solicitudes fallidas.
attach_money
¿Qué métodos de pago se aceptan?
keyboard_arrow_down
Los pagos se procesan a través de Stripe y admiten una variedad de métodos de pago que incluyen tarjetas de crédito, Google Pay y PayPal para su comodidad.
attach_money
¿Está disponible la facturación para compras de tokens?
keyboard_arrow_down
Sí, se emitirá una factura a la dirección de correo electrónico asociada a su cuenta de Stripe tras la compra de tokens.
Oficinas
location_on
Sunnyvale, California
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, EE. UU.
location_on
Berlín, Alemania (sede central)
Prinzessinnenstraße 19-20, 10969 Berlín, Alemania
location_on
Beijing, China
Piso 5, Edificio 6, No.48 Haidian West St. Pekín, China
location_on
Shenzhen, China
Piso 402, Edificio de Tecnología Fu'an, Shenzhen, China