Noticias
Modelos
API
keyboard_arrow_down
Lector
Lea las URL y busque en la web para obtener una base más sólida para su LLM.
Incrustaciones
Integraciones multilingües y multimodales de clase mundial.
reclasificador
Recuperador neuronal de clase mundial para maximizar la relevancia de la búsqueda.
Servicio de inferencia elástica
Ejecuta modelos Jina de forma nativa dentro de Elasticsearch.
MCP terminalCLIarticlellms.txtsmart_toyAgentesdata_objectEsquemamenu_bookDocumentos



Acceso
login

Contactar con ventas

Haga crecer su negocio con Jina AI.

nights_stay El equipo de ventas está fuera, regresa en 8h

Dos formas de comprar

Suscríbete a nuestra API o compra a través de proveedores de la nube.
radio_button_unchecked
cloud
Con 3 proveedores de servicios en la nube
¿Su empresa utiliza AWS o Azure? Luego, implemente directamente nuestros modelos básicos de búsqueda en estas plataformas de su empresa, para que sus datos se mantengan seguros y cumplan con las normas.
AWS SageMaker
Incrustaciones
reclasificador
Microsoft Azure
Incrustaciones
reclasificador
Google Cloud
Incrustaciones
radio_button_checked
Con la API de Jina Search Foundation
La forma más sencilla de acceder a todos nuestros productos. Recarga tokens a medida que avanzas.
Recarga esta clave API con más tokens
Dependiendo de su ubicación, es posible que se le cobre en USD, EUR u otras monedas. Se pueden aplicar impuestos.
Ingrese la clave API correcta para recargar
Entender el límite de velocidad
Los límites de velocidad son la cantidad máxima de solicitudes que se pueden realizar a una API en un minuto por dirección IP/clave API (RPM). Obtenga más información sobre los límites de velocidad para cada producto y nivel a continuación.
keyboard_arrow_down
Límite de velocidad
Los límites de velocidad se controlan de tres maneras: RPM (solicitudes por minuto) y TPM (tokens por minuto). Los límites se aplican por IP/clave API y se activan cuando se alcanza primero el umbral de RPM o TPM. Al proporcionar una clave API en el encabezado de la solicitud, controlamos los límites de velocidad por clave, no por dirección IP.
ProductoPunto final de APIDescripciónarrow_upwardSin clave APIkey_offcon clave API gratuitakeycon clave API de pagokeycon clave API PremiumkeyLatencia mediaRecuento de uso de tokensSolicitud Permitida
API de lectorhttps://r.jina.aiConvertir URL a texto compatible con LLM20 RPM500 RPM500 RPMtrending_up5000 RPM7.9sCuente la cantidad de tokens en la respuesta de salida.GET/POST
API de lectorhttps://s.jina.aiBusque en la web y convierta los resultados en texto compatible con LLMblock100 RPM100 RPMtrending_up1000 RPM2.5sCada solicitud cuesta una cantidad fija de tokens, a partir de 10000 tokensGET/POST
API de incrustaciónhttps://api.jina.ai/v1/embeddingsConvertir texto/imágenes en vectores de longitud fijablock100 RPM & 100,000 TPM500 RPM & 2,000,000 TPMtrending_up5,000 RPM & 50,000,000 TPM
ssid_chart
depende del tamaño de entrada
help
Cuente la cantidad de tokens en la solicitud de entrada.POST
API de reclasificaciónhttps://api.jina.ai/v1/rerankClasificar documentos por consultablock100 RPM & 100,000 TPM500 RPM & 2,000,000 TPMtrending_up5,000 RPM & 50,000,000 TPM
ssid_chart
depende del tamaño de entrada
help
Cuente la cantidad de tokens en la solicitud de entrada.POST
API de clasificadorhttps://api.jina.ai/v1/trainEntrenar un clasificador usando ejemplos etiquetadosblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
depende del tamaño de entrada
Los tokens se cuentan como: input_tokens × num_itersPOST
API de clasificador (Disparo cero)https://api.jina.ai/v1/classifyClasificar las entradas utilizando la clasificación de disparo ceroblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
depende del tamaño de entrada
Los tokens se cuentan como: input_tokens + label_tokensPOST
API de clasificador (Pocos disparos)https://api.jina.ai/v1/classifyClasifique las entradas utilizando un clasificador de pocos disparos entrenadoblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
depende del tamaño de entrada
Los tokens se cuentan como: input_tokensPOST
API de segmentaciónhttps://api.jina.ai/v1/segmentTokenizar y segmentar textos largos20 RPM200 RPM200 RPM1,000 RPM0.3sEl token no se cuenta como uso.GET/POST
Búsqueda profundahttps://deepsearch.jina.ai/v1/chat/completionsRazonar, buscar e iterar para encontrar la mejor respuesta.block50 RPM50 RPM500 RPM56.7sCuente el número total de tokens en todo el proceso.POST

Preguntas más frecuentes

Jina AI × Elastic

handshake
¿Se conservará la marca Jina?
keyboard_arrow_down
Sí. Jina se está transformando en una marca modelo. Es como si Qwen se convirtiera en Alibaba, GPT en OpenAI o Kimi en Moonshot. Gradualmente, cambiaremos la identidad legal de la empresa de "Jina AI" a Elastic, lo que permitirá a Jina AI centrarse exclusivamente en modelos de base de búsqueda como marca.
handshake
¿En qué se centrará Jina AI en el futuro?
keyboard_arrow_down
Integraciones, rerankers y pequeños modelos de lenguaje para una mejor búsqueda. Nuestra misión aún no está cumplida; siempre hemos mantenido nuestro objetivo: convertirnos en un proveedor de modelos de búsqueda de primer nivel.
handshake
¿Continuarán las ofertas de API y de mercado en la nube?
keyboard_arrow_down
Sí. Las API de lectura, de incrustación y de reranker se seguirán desarrollando y manteniendo. Cada modelo que lancemos también lo publicaremos en plataformas de mercado en la nube. Puede seguir utilizando nuestros servicios de API como antes. La única excepción es que no podemos prestar servicio a entidades o países sujetos a los controles de exportación de EE. UU.
handshake
¿Seguiréis lanzando modelos con pesos abiertos en Hugging Face?
keyboard_arrow_down
Sí. En Elastic, Jina seguirá ampliando las fronteras de los modelos de base de búsqueda y seguiremos lanzando modelos de ponderaciones abiertas.
handshake
¿Bajo qué licencia se publicarán estos modelos abiertos?
keyboard_arrow_down
Continuaremos publicando bajo CC-BY-NC 4.0 a menos que las circunstancias cambien, lo cual es poco probable.
handshake
¿Continuarás publicando artículos de investigación?
keyboard_arrow_down
Sí. Cada modelo que publiquemos estará respaldado por un artículo riguroso y seguiremos presentándolo a importantes conferencias como ICLR, EMNLP, SIGIR, NeurIPS e ICML.
handshake
Aún no soy cliente de Jina ni de Elastic, pero quiero usar la API Reader, las API de modelos o las imágenes del marketplace en la nube. ¿Qué debo hacer?
keyboard_arrow_down
Simplemente regístrese y pague a través de nuestro sitio web o del mercado en la nube correspondiente, como antes.
handshake
Ya soy cliente de pago de Elastic y quiero usar la API Reader, las API de modelos o las imágenes del marketplace en la nube. ¿Qué debo hacer?
keyboard_arrow_down
Actualmente, nuestros productos no forman parte de los SKU de Elastic, por lo que deberá pagar a través de nuestro sitio web para acceder a estos servicios. Próximamente, los modelos Jina estarán disponibles a través del Servicio de Inferencia de Elastic.
handshake
Soy cliente de pago de Elastic y quiero usar los modelos de incrustación y reranking de Jina localmente con fines comerciales, no a través de la API ni de un marketplace en la nube. ¿Qué debo hacer?
keyboard_arrow_down
Si tiene una licencia de pago de Elastic, es muy probable que el uso comercial de nuestros modelos ya esté incluido. Puede empezar a usarlos directamente. Si tiene alguna duda, póngase en contacto con su representante de ventas de Elastic o con Field SE; ellos se pondrán en contacto con nosotros para confirmarlo.
handshake
No soy cliente de Elastic y quiero usar los modelos de incrustación y reranking de Jina localmente con fines comerciales, no a través de API ni de un marketplace en la nube. ¿Qué debo hacer?
keyboard_arrow_down
Dado que actualmente nos estamos integrando con Elastic, pronto se aclarará el camino a seguir. Por ahora, no podemos emitir acuerdos de licencia comerciales independientes para nuestros modelos.
handshake
Estoy contratando sus servicios como entidad china. ¿Puedo obtener una factura en chino (发票)?
keyboard_arrow_down
No tenemos una entidad legal en China, por lo que no podemos emitir facturas en ese país. Las facturas las emite Jina AI GmbH, nuestra sede en Alemania.
handshake
Quiero firmar un contrato con Jina AI. ¿Qué debo hacer?
keyboard_arrow_down
Los acuerdos contractuales siempre han sido una pequeña parte del modelo comercial de Jina AI: la mayoría de nuestros clientes se autogestionan con precios de pago por uso. Aunque estamos en proceso de integración con Elastic, no estamos emitiendo nuevos contratos por el momento.
handshake
Soy cliente de pago de Elastic y quiero aprender las mejores prácticas para usar incrustaciones y modelos de reranking, o estoy interesado en el desarrollo de Jina AI en general. ¿Qué debo hacer?
keyboard_arrow_down
Comuníquese con su representante de ventas de Elastic y podremos organizar una reunión entre usted, el equipo de Jina AI y Elastic para analizarlo.

¿Cómo obtener mi clave API?

video_not_supported

¿Cuál es el límite de velocidad?

Límite de velocidad
Los límites de velocidad se controlan de tres maneras: RPM (solicitudes por minuto) y TPM (tokens por minuto). Los límites se aplican por IP/clave API y se activan cuando se alcanza primero el umbral de RPM o TPM. Al proporcionar una clave API en el encabezado de la solicitud, controlamos los límites de velocidad por clave, no por dirección IP.
ProductoPunto final de APIDescripciónarrow_upwardSin clave APIkey_offcon clave API gratuitakeycon clave API de pagokeycon clave API PremiumkeyLatencia mediaRecuento de uso de tokensSolicitud Permitida
API de lectorhttps://r.jina.aiConvertir URL a texto compatible con LLM20 RPM500 RPM500 RPMtrending_up5000 RPM7.9sCuente la cantidad de tokens en la respuesta de salida.GET/POST
API de lectorhttps://s.jina.aiBusque en la web y convierta los resultados en texto compatible con LLMblock100 RPM100 RPMtrending_up1000 RPM2.5sCada solicitud cuesta una cantidad fija de tokens, a partir de 10000 tokensGET/POST
API de incrustaciónhttps://api.jina.ai/v1/embeddingsConvertir texto/imágenes en vectores de longitud fijablock100 RPM & 100,000 TPM500 RPM & 2,000,000 TPMtrending_up5,000 RPM & 50,000,000 TPM
ssid_chart
depende del tamaño de entrada
help
Cuente la cantidad de tokens en la solicitud de entrada.POST
API de reclasificaciónhttps://api.jina.ai/v1/rerankClasificar documentos por consultablock100 RPM & 100,000 TPM500 RPM & 2,000,000 TPMtrending_up5,000 RPM & 50,000,000 TPM
ssid_chart
depende del tamaño de entrada
help
Cuente la cantidad de tokens en la solicitud de entrada.POST
API de clasificadorhttps://api.jina.ai/v1/trainEntrenar un clasificador usando ejemplos etiquetadosblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
depende del tamaño de entrada
Los tokens se cuentan como: input_tokens × num_itersPOST
API de clasificador (Disparo cero)https://api.jina.ai/v1/classifyClasificar las entradas utilizando la clasificación de disparo ceroblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
depende del tamaño de entrada
Los tokens se cuentan como: input_tokens + label_tokensPOST
API de clasificador (Pocos disparos)https://api.jina.ai/v1/classifyClasifique las entradas utilizando un clasificador de pocos disparos entrenadoblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
depende del tamaño de entrada
Los tokens se cuentan como: input_tokensPOST
API de segmentaciónhttps://api.jina.ai/v1/segmentTokenizar y segmentar textos largos20 RPM200 RPM200 RPM1,000 RPM0.3sEl token no se cuenta como uso.GET/POST
Búsqueda profundahttps://deepsearch.jina.ai/v1/chat/completionsRazonar, buscar e iterar para encontrar la mejor respuesta.block50 RPM50 RPM500 RPM56.7sCuente el número total de tokens en todo el proceso.POST

¿Necesito una licencia comercial?

Autocomprobación de licencia CC BY-NC

play_arrow
¿Está utilizando nuestra API oficial o imágenes oficiales en Azure, AWS o GCP?
play_arrow
Sí
Sin restricciones. Simplemente regístrate y paga a través de nuestro sitio web o plataforma en la nube.
play_arrow
No
play_arrow
¿Es usted un cliente pago de Elastic?
play_arrow
Sí
Es probable que el uso comercial ya esté incluido en su licencia de Elastic. Si tiene alguna duda, contacte con su representante de ventas de Elastic.
Contactar con ventas
play_arrow
No
Actualmente no podemos emitir contratos de licencia comerciales independientes. Para más información, contacte con el departamento de Ventas de Elastic.
Contactar con ventas

Otras preguntas

Preguntas comunes relacionadas con los lectores
¿Cuáles son los costos asociados con el uso de Reader API?
keyboard_arrow_down
La API del lector es gratuita para uso básico: simplemente añade "https://r.jina.ai/" al principio de tu URL. Para límites de velocidad más altos, puedes proporcionar una clave API que cobra tokens según la longitud del contenido. Consulta la pregunta 16 para obtener más información sobre los límites de velocidad.
¿Cómo funciona la API Reader?
keyboard_arrow_down
La API Reader utiliza un proxy para recuperar cualquier URL y representar su contenido en un navegador para extraer contenido principal de alta calidad.
¿La API Reader es de código abierto?
keyboard_arrow_down
Sí, la API Reader es de código abierto y está disponible en el repositorio GitHub de Jina AI.
¿Cuál es la latencia típica de la API Reader?
keyboard_arrow_down
La API Reader generalmente procesa las URL y devuelve el contenido en 2 segundos, aunque las páginas complejas o dinámicas pueden requerir más tiempo.
¿Por qué debería utilizar Reader API en lugar de raspar la página yo mismo?
keyboard_arrow_down
El scraping puede ser complicado y poco confiable, particularmente con páginas complejas o dinámicas. Reader API proporciona una salida optimizada y confiable de texto limpio y listo para LLM.
¿La API Reader admite varios idiomas?
keyboard_arrow_down
La API Reader devuelve contenido en el idioma original de la URL. No proporciona servicios de traducción.
¿Qué debo hacer si un sitio web bloquea la API de Reader?
keyboard_arrow_down
Si tiene problemas de bloqueo, comuníquese con nuestro equipo de soporte para obtener ayuda y resolución.
¿Puede la API Reader extraer contenido de archivos PDF?
keyboard_arrow_down
Si bien está diseñada principalmente para páginas web, la API Reader puede extraer contenido de archivos PDF vistos en formato HTML en sitios web como arXiv, pero no está optimizada para la extracción general de PDF.
¿Puede la API Reader procesar contenido multimedia de páginas web?
keyboard_arrow_down
Sí, Reader puede subtitular imágenes en páginas web usando el encabezado x-with-generated-alt. Esto añade etiquetas alt descriptivas a las imágenes que no las tienen, lo que permite a los LLM comprender el contenido visual. Se planea incluir resúmenes de video en futuras versiones.
¿Es posible utilizar la API de Reader en archivos HTML locales?
keyboard_arrow_down
No, la API Reader solo puede procesar contenido de URL de acceso público.
¿Reader API almacena en caché el contenido?
keyboard_arrow_down
Si solicita la misma URL en un plazo de 5 minutos, la API de Reader devolverá el contenido almacenado en caché.
¿Puedo usar Reader API para acceder al contenido tras un inicio de sesión?
keyboard_arrow_down
Lamentablemente no.
¿Puedo utilizar la API de Reader para acceder a PDF en arXiv?
keyboard_arrow_down
Sí, puede utilizar la compatibilidad con PDF nativo del Reader (https://r.jina.ai/https://arxiv.org/pdf/2310.19923v4) o utilizar la versión HTML de arXiv (https:// r.jina.ai/https://arxiv.org/html/2310.19923v4)
¿Cómo funciona el título de imagen en Reader?
keyboard_arrow_down
Reader subtitula todas las imágenes en la URL especificada y agrega `Imagen [idx]: [caption]` como etiqueta alt (si inicialmente carecen de una). Esto permite a los LLM posteriores interactuar con las imágenes para razonar, resumir, etc.
¿Cuál es la escalabilidad del Reader? ¿Puedo usarlo en producción?
keyboard_arrow_down
La API Reader está diseñada para ser altamente escalable. Se escala automáticamente en función del tráfico en tiempo real y las solicitudes de concurrencia máxima ahora son de alrededor de 4000. Lo mantenemos activamente como uno de los productos principales de Jina AI. Así que siéntete libre de usarlo en producción.
¿Cuál es el límite de velocidad de la API Reader?
keyboard_arrow_down
Encuentre la información más reciente sobre el límite de tarifas en la siguiente tabla. Tenga en cuenta que estamos trabajando activamente para mejorar el límite de velocidad y el rendimiento de Reader API; la tabla se actualizará en consecuencia.
speedLímite de tarifa
¿Qué es Reader-LM? ¿Cómo puedo utilizarlo?
keyboard_arrow_down
ReaderLM-v2 es nuestro último modelo de lenguaje pequeño (SLM) para convertir HTML sin formato en Markdown limpio o JSON. Ofrece una mejora de calidad tres veces superior a la versión 1 y puede extraer datos estructurados mediante esquemas JSON o instrucciones de lenguaje natural. Puede usarlo directamente a través de la API de Reader con el encabezado x-respond-with: readerlm-v2 o implementarlo desde plataformas en la nube (AWS, Azure, GCP).
launchAWS SageMakerlaunchGoogle CloudlaunchMicrosoft Azure
¿Cómo extraigo datos estructurados de páginas web?
keyboard_arrow_down
Utilice el encabezado x-json-schema con una definición de esquema JSON o el encabezado x-instruction con instrucciones en lenguaje natural. Ambas funciones son compatibles con ReaderLM-v2 para extraer campos específicos, como precios, títulos, fechas, etc., de cualquier página web a formato JSON estructurado.
¿Reader elude activamente la protección anti-bots del sitio web?
keyboard_arrow_down
No. Reader no elude ni evita activamente ningún mecanismo de defensa del sitio web, sistema anti-bots ni control de acceso. Si un sitio web detecta nuestro servicio como un bot y bloquea la solicitud, se respeta el resultado. Operamos como un cliente web estándar y no empleamos técnicas diseñadas para evadir los sistemas de detección.
¿Actualizar de una clave API gratuita a una paga me dará acceso a más sitios web?
keyboard_arrow_down
No. Actualizar de un nivel gratuito a una clave API de pago no otorga acceso a sitios web adicionales ni evita las restricciones de sitios. La diferencia entre los niveles radica principalmente en los límites de velocidad y las optimizaciones de rendimiento. Una clave API de pago proporciona un mayor rendimiento de solicitudes y un procesamiento más rápido, pero no permite el acceso a sitios web que bloquean nuestro servicio.
Preguntas comunes relacionadas con incrustaciones
¿Cómo se entrenaron los modelos de incrustación de Jina?
keyboard_arrow_down
Para obtener información detallada sobre nuestros procesos de capacitación, fuentes de datos y evaluaciones, consulte nuestros informes técnicos en arXiv para jina-embeddings-v3 y jina-embeddings-v4.
launcharXiv
¿Cuáles son sus modelos de incrustación multimodal?
keyboard_arrow_down
jina-embeddings-v4 es nuestro modelo multimodal universal más reciente (3800 millones de parámetros) compatible con texto e imágenes con contexto de 32 K, recuperación densa y de interacción tardía, y rendimiento SOTA en documentos visualmente ricos. jina-clip-v2 es una opción más ligera (865 millones de parámetros) compatible con 89 idiomas con una resolución de imagen de 512 x 512 y representaciones de Matryoshka. Ambos son excelentes en tareas de recuperación de texto a texto, texto a imagen e imagen a imagen.
launcharXiv
¿Qué idiomas admiten sus modelos?
keyboard_arrow_down
Tanto jina-embeddings-v4 como jina-embeddings-v3 admiten 89 idiomas con un excelente rendimiento multilingüe. Los 30 idiomas principales incluyen: alemán, árabe, bengalí, chino, coreano, danés, eslovaco, español, finlandés, francés, georgiano, griego, hindi, indonesio, inglés, italiano, japonés, letón, noruego, polaco, portugués, rumano, ruso, sueco, tailandés, turco, ucraniano, urdu y vietnamita. jina-clip-v2 también admite 89 idiomas para tareas multimodales.
launcharXiv
¿Cuál es la longitud máxima para la entrada de una sola oración?
keyboard_arrow_down
La longitud del contexto varía según el modelo: jina-embeddings-v4 admite hasta 32 000 tokens, mientras que jina-embeddings-v3 y jina-clip-v2 admiten hasta 8192 tokens. Un token puede abarcar desde un solo carácter hasta una palabra completa. Este contexto extendido permite un análisis exhaustivo de documentos y una mayor precisión en la comprensión del contexto para datos textuales extensos.
¿Cuál es el número máximo de frases que puedo incluir en una sola solicitud?
keyboard_arrow_down
No hay un límite estricto en la cantidad de elementos por solicitud. La API agrupa las entradas internamente por número de tokens para optimizar el uso de la GPU. Puedes enviar tantos textos o imágenes como necesites en una sola solicitud.
¿Cómo envío imágenes a modelos de incrustación multimodal?
keyboard_arrow_down
Para jina-embeddings-v4, jina-clip-v2 y jina-clip-v1, puede usar url o bytes en el campo input de la solicitud de API. Para url, proporcione la URL de la imagen que desea procesar. Para bytes, codifique la imagen en formato base64. jina-embeddings-v4 también puede incrustar documentos PDF directamente pasando una URL de PDF o bytes de PDF codificados en base64.
¿Cómo se comparan los modelos de Jina Embeddings con las últimas incorporaciones de OpenAI y Cohere?
keyboard_arrow_down
jina-embeddings-v4 es nuestro modelo insignia más reciente, que alcanza la excelencia en la recuperación de documentos visualmente enriquecidos (ViDoRe) y en pruebas multimodales. Para tareas de solo texto, jina-embeddings-v3 supera a OpenAI y Cohere en las pruebas MTEB de inglés y multilingüe, además de ser más pequeño y eficiente. Ambos modelos son compatibles con el aprendizaje de representación Matryoshka (MRL), lo que permite el truncamiento de dimensiones (hasta 32 para la versión 3 y hasta 128 para la versión 4) sin una pérdida significativa de rendimiento.
¿Qué tan fluida es la transición de text-embedding-3-large de OpenAI a su solución?
keyboard_arrow_down
La transición se simplifica, ya que nuestro punto final de API coincide con los esquemas JSON de entrada y salida del modelo text-embedding-3-large de OpenAI. Esta compatibilidad garantiza que los usuarios puedan reemplazar fácilmente el modelo de OpenAI por el nuestro cuando utilicen el punto final de OpenAI.
¿Cómo se calculan los tokens cuando se utilizan los modelos jina-clip?
keyboard_arrow_down
Los tokens se calculan en función de la longitud del texto y el tamaño de la imagen. Para el texto de la solicitud, los tokens se contabilizan de la forma estándar. Para las imágenes, se realizan los siguientes pasos: 1. Tamaño del mosaico: Cada imagen se divide en mosaicos. Para jina-embeddings-v4, los mosaicos miden 28x28 píxeles, para jina-clip-v2, los mosaicos miden 512x512 píxeles, mientras que para jina-clip-v1, los mosaicos miden 224x224 píxeles. 2. Cobertura: Se calcula el número de mosaicos necesarios para cubrir la imagen de entrada. Incluso si las dimensiones de la imagen no son perfectamente divisibles por el tamaño del mosaico, los mosaicos parciales se contabilizan como mosaicos completos. 3. Mosaicos totales: El número total de mosaicos que cubren la imagen determina el coste. Por ejemplo, una imagen de 600x600 píxeles estaría cubierta por mosaicos de 22x22 (484 mosaicos) en jina-embeddings-v4, por mosaicos de 2x2 (4 mosaicos) en jina-clip-v2 y por mosaicos de 3x3 (9 mosaicos) en jina-clip-v1. 4. Cálculo del coste: Para jina-embeddings-v4, cada mosaico cuesta 10 tokens; para jina-clip-v2, cada mosaico cuesta 4000 tokens; mientras que para jina-clip-v1, cada mosaico cuesta 1000 tokens. Ejemplo: Para una imagen con dimensiones de 600x600 píxeles: • Con jina-embeddings-v4 • La imagen se divide en mosaicos de 28x28 píxeles. • El número total de mosaicos requeridos es 22 (horizontales) x 22 (verticales) = 484 mosaicos. • El costo de jina-embeddings-v4 será de 484*10 = 4840 tokens. • Con jina-clip-v2 • La imagen se divide en mosaicos de 512x512 píxeles. • El número total de mosaicos requeridos es 2 (horizontales) x 2 (verticales) = 4 mosaicos. • El costo de jina-clip-v2 será de 4*4000 = 16000 tokens. • Con jina-clip-v1 • La imagen se divide en mosaicos de 224x224 píxeles. • El número total de fichas necesarias es 3 (horizontales) x 3 (verticales) = 9 fichas. • El coste de jina-clip-v1 será 9*1000 = 9000 tokens.
¿Proporcionan modelos para incrustar imágenes o audio?
keyboard_arrow_down
Sí, jina-clip-v2 y jina-clip-v1 pueden incorporar imágenes y textos. ¡Pronto anunciaremos la incorporación de modelos en más modalidades!
¿Se pueden ajustar los modelos de Jina Embedding con datos privados o de la empresa?
keyboard_arrow_down
Si tiene consultas sobre cómo ajustar nuestros modelos con datos específicos, contáctenos para analizar sus requisitos. Estamos abiertos a explorar cómo nuestros modelos se pueden adaptar para satisfacer sus necesidades.
Contacto
¿Se pueden alojar sus puntos finales de forma privada en AWS, Azure o GCP?
keyboard_arrow_down
Sí, nuestros servicios están disponibles en los mercados de AWS, Azure y GCP. Si tiene requisitos específicos, comuníquese con nosotros a sales AT jina.ai.
launchAWS SageMakerlaunchGoogle CloudlaunchMicrosoft Azure
¿Qué es el parámetro 'tarea' y cuándo debo usarlo?
keyboard_arrow_down
El parámetro task en jina-embeddings-v3 y jina-embeddings-v4 activa adaptadores LoRA específicos de cada tarea para un rendimiento óptimo. Utilice retrieval.query para consultas de búsqueda, retrieval.passage para documentos que se buscarán, text-matching para similitud semántica, classification para clasificación de texto y separation para tareas de agrupamiento.
¿Qué es la recuperación de interacción tardía y qué modelos la admiten?
keyboard_arrow_down
jina-embeddings-v4 admite la recuperación densa (de un solo vector) y la de interacción tardía (multivector) mediante el parámetro output_type. La interacción tardía conserva información más detallada a nivel de token para una mayor precisión de recuperación en consultas complejas. jina-colbert-v2 es un modelo dedicado a la interacción tardía.
¿Qué es la fragmentación tardía y cuándo debo utilizarla?
keyboard_arrow_down
La fragmentación tardía es una técnica que primero integra todo el documento mediante modelos de contexto extenso y luego extrae las incrustaciones de fragmentos de las representaciones a nivel de token. A diferencia de la fragmentación simple (fragmentar primero, luego incrustar), la fragmentación tardía preserva el contexto entre fragmentos, lo que mejora la recuperación para aplicaciones RAG. Habilítela mediante el parámetro late_chunking en jina-embeddings-v3.
¿Por qué la API admite una longitud de contexto diferente a la capacidad máxima del modelo?
keyboard_arrow_down
Si bien algunos de nuestros modelos de incrustación tienen la capacidad arquitectónica de procesar contextos más largos, la API puede imponer límites inferiores debido a las limitaciones de VRAM de la GPU en nuestra infraestructura de inferencia. Procesar secuencias muy largas requiere una cantidad considerable de memoria, por lo que optimizamos nuestra configuración de servicio para equilibrar el rendimiento, la latencia y el coste en la mayoría de los casos de uso. Si necesita compatibilidad con contextos más largos, póngase en contacto con nuestro equipo de ventas para hablar sobre opciones de implementación dedicadas.
¿Por qué jina-embeddings-v4 es gratuito y por qué es lento?
keyboard_arrow_down
jina-embeddings-v4 se basa en el modelo base Qwen2-VL, publicado bajo la Licencia de Investigación de Qwen. Esta licencia solo permite su uso con fines de investigación y no comerciales, lo que significa que no podemos ofrecer jina-embeddings-v4 como producto comercial. Por ello, ofrecemos acceso gratuito al modelo a través de nuestra API. Hay dos razones por las que jina-embeddings-v4 puede parecer más lento que otros modelos: en primer lugar, jina-embeddings-v4 es un modelo significativamente más grande que jina-embeddings-v3, por lo que requiere inherentemente más tiempo de cálculo por solicitud. En segundo lugar, dado que no podemos comercializar este modelo, limitamos intencionalmente el rendimiento de la API para gestionar los costes de infraestructura. Los usuarios no deben esperar un rendimiento de alto volumen ni de producción al utilizar la API jina-embeddings-v4. Para cargas de trabajo de producción que requieren un mayor rendimiento, recomendamos usar jina-embeddings-v3 o implementar jina-embeddings-v4 en su propia infraestructura a través de Hugging Face.
¿Cuáles son los límites de velocidad para la API de incrustaciones?
keyboard_arrow_down
Los límites de velocidad dependen del tipo de clave API:

Gratis: 100 RPM, 100 000 TPM, 2 solicitudes simultáneas
Pago: 500 RPM, 2 000 000 TPM, 50 solicitudes simultáneas
Premium: 5000 RPM, 50 000 000 TPM, 500 solicitudes simultáneas

Además, existe un límite de velocidad basado en IP de 10 000 solicitudes cada 60 segundos para evitar abusos. Si necesita límites mayores, póngase en contacto con nuestro equipo de ventas.
¿Cuáles son los límites de longitud de contexto para cada modelo de incrustación?
keyboard_arrow_down
Cada modelo tiene una longitud máxima de contexto por entrada:

jina-embeddings-v4: 32,768 tokens
jina-embeddings-v3: 8,192 tokens
jina-embeddings-v2-*: 8,192 tokens
jina-clip-v1/v2: 8,192 tokens
jina-colbert-v1/v2: 8,192 tokens
jina-code-embeddings-*: 32,768 tokens

Las entradas que excedan el límite devolverán un error a menos que se configure truncate: true, lo que trunca automáticamente a la longitud máxima.
¿Cuáles son los límites de tamaño de archivo para imágenes y archivos PDF?
keyboard_arrow_down
Los tamaños máximos de archivo son: Imágenes: 5 MB, PDF: 8 MB. Los archivos más grandes se rechazarán con un error.
Preguntas comunes relacionadas con el reranker
¿Cuánto cuesta la API de Reranker?
keyboard_arrow_down
El precio de la API Reranker se ajusta a nuestra estructura de precios de la API Embedding. Comienza con 10 millones de tokens gratuitos por cada nueva clave API. Además de los tokens gratuitos, hay diferentes paquetes disponibles para su compra. Para más información, visite nuestra sección de precios.
¿Cuáles son las diferencias entre los rerankers de Jina?
keyboard_arrow_down
jina-reranker-v3 es nuestro reranker insignia más reciente con una novedosa arquitectura de lista que logra una recuperación multilingüe SOTA con una longitud de contexto de 131K. jina-reranker-m0 es nuestro reranker multimodal para clasificar documentos visuales en diferentes idiomas. jina-reranker-v2-base-multilingual es un codificador cruzado compatible con más de 100 idiomas con llamada de funciones y recuperación de código. jina-colbert-v2 utiliza interacción tardía para 89 idiomas con tamaños de incrustación controlados por el usuario.
¿Los Jina Rerankers son de código abierto?
keyboard_arrow_down
Sí, todos nuestros rerankers (jina-reranker-v3, jina-reranker-m0, jina-reranker-v2-base-multilingual y jina-colbert-v2) son de código abierto y están disponibles bajo la licencia CC-BY-NC 4.0. Puedes usar, compartir y adaptar los modelos con fines no comerciales.
¿Los rerankers admiten varios idiomas?
keyboard_arrow_down
Sí, todos nuestros rerankers admiten la recuperación multilingüe. jina-reranker-v3 y jina-reranker-v2-base-multilingual admiten más de 100 idiomas. jina-reranker-m0 admite la clasificación visual de documentos multilingües. jina-colbert-v2 admite 89 idiomas.
¿Cuál es la longitud máxima de contexto para cada modelo de reranker?
keyboard_arrow_down
La longitud del contexto varía según el modelo:

jina-reranker-v3: 131.072 tokens (consulta + todos los documentos combinados) con truncamiento automático
jina-reranker-m0: 10.000 tokens
jina-reranker-v2-base-multilingual: 1.024 tokens con fragmentación automática para documentos más largos
jina-reranker-v1-*: 1.024 tokens con fragmentación automática
jina-colbert-v2: 8.192 tokens

Para los rerankers v1/v2, las consultas se truncan automáticamente y los documentos largos se fragmentan con agrupación máxima en fragmentos.
¿Existe un límite en la cantidad de documentos que puedo reclasificar por consulta?
keyboard_arrow_down
No hay un límite estricto en la cantidad de documentos por solicitud. Al igual que nuestra API de incrustaciones, la API de reranking agrupa las entradas internamente por número de tokens para optimizar el uso de la GPU. Puede enviar tantos documentos como necesite en una sola solicitud.
¿Qué latencia puedo esperar al reclasificar 100 documentos?
keyboard_arrow_down
La latencia varía de 100 milisegundos a 7 segundos, dependiendo en gran medida de la longitud de los documentos y de la consulta. Por ejemplo, reclasificar 100 documentos de 256 tokens cada uno con una consulta de 64 tokens lleva unos 150 milisegundos. Aumentar la longitud del documento a 4096 tokens aumenta el tiempo a 3,5 segundos. Si la longitud de la consulta aumenta a 512 tokens, el tiempo aumenta aún más a 7 segundos.
A continuación se muestra el costo de tiempo de reclasificar una consulta y 100 documentos en milisegundos:
Número de tokens en cada documento
Número de tokens en la consulta256512102420484096
64156323136621073571
128194369137721233598
256273475139721554299
5124681385211435367068
¿Es posible alojar sus puntos finales de forma privada en AWS, Azure o GCP?
keyboard_arrow_down
Sí, nuestros servicios están disponibles en los mercados de AWS, Azure y GCP. Si tiene requisitos específicos, comuníquese con nosotros a sales AT jina.ai.
launchAWS SageMakerlaunchGoogle CloudlaunchMicrosoft Azure
¿Ofrecen un reranker ajustado en datos específicos del dominio?
keyboard_arrow_down
Si está interesado en un reranker ajustado y adaptado a datos de dominio específicos, comuníquese con nuestro equipo de ventas. Nuestro equipo responderá a su consulta con prontitud.
Contacto
¿Cuál es el tamaño mínimo de imagen para los documentos?
keyboard_arrow_down
El tamaño de imagen mínimo aceptable para el modelo jina-reranker-m0 es 28x28 píxeles.
¿Qué es la reordenación por listas y en qué se diferencia de la reordenación por puntos?
keyboard_arrow_down
jina-reranker-v3 utiliza una novedosa arquitectura de lista que puntúa todos los documentos en una sola pasada, lo que permite la comparación entre documentos. Los rerankers puntuales tradicionales (como la versión 2) puntúan cada documento de forma independiente según la consulta. El reranking de lista logra una mayor precisión al comprender la relevancia relativa de todo el conjunto de candidatos.
¿Por qué la API admite una longitud de contexto diferente a la capacidad máxima del modelo?
keyboard_arrow_down
Si bien algunos de nuestros modelos de reranking tienen la capacidad arquitectónica para procesar contextos más largos, la API puede imponer límites más bajos debido a las limitaciones de VRAM de la GPU en nuestra infraestructura de inferencia. Procesar secuencias muy largas requiere una cantidad considerable de memoria, por lo que optimizamos nuestra configuración de servicio para equilibrar el rendimiento, la latencia y el costo en la mayoría de los casos de uso. Si necesita compatibilidad con contextos más largos, comuníquese con nuestro equipo de ventas para hablar sobre opciones de implementación dedicadas.
¿Cuáles son los límites de velocidad para la API de Reranker?
keyboard_arrow_down
Los límites de velocidad dependen del tipo de clave API:

Gratuita: 100 RPM, 100 000 TPM, 2 solicitudes simultáneas
De pago: 500 RPM, 2 000 000 TPM, 50 solicitudes simultáneas
Premium: 5000 RPM, 50 000 000 TPM, 500 solicitudes simultáneas

También hay un límite de velocidad basado en IP de 10 000 solicitudes cada 60 segundos. Los mismos límites de velocidad se aplican a las API de incrustaciones y rerankers.
Preguntas comunes relacionadas con API
code
¿Puedo usar la misma clave API para las API de lectura, inserción, reclasificación, clasificación y ajuste?
keyboard_arrow_down
Sí, la misma clave API es válida para todos los productos de la base de búsqueda de Jina AI. Esto incluye las API de lectura, incrustación, reclasificación, clasificación y ajuste, con tokens compartidos entre todos los servicios.
code
¿Puedo monitorear el uso del token de mi clave API?
keyboard_arrow_down
Sí, el uso de tokens se puede monitorear en la pestaña "Clave API y facturación" ingresando su clave API, lo que le permite ver el historial de uso reciente y los tokens restantes. Si ha iniciado sesión en el panel de API, estos detalles también se pueden ver en la pestaña "Administrar clave API".
code
¿Qué debo hacer si olvido mi clave API?
keyboard_arrow_down
Si ha perdido una clave recargada y desea recuperarla, comuníquese con el servicio de asistencia de jina.ai con su correo electrónico registrado para recibir asistencia. Se recomienda iniciar sesión para mantener su clave API almacenada de forma segura y de fácil acceso.
Contacto
code
¿Caducan las claves API?
keyboard_arrow_down
No, nuestras claves API no tienen fecha de vencimiento. Sin embargo, si sospecha que su clave ha sido comprometida y desea retirarla, comuníquese con nuestro equipo de soporte para obtener ayuda. También puede revocar su clave en el panel de administración de claves API.
Contacto
code
¿Puedo transferir tokens entre claves API?
keyboard_arrow_down
Sí, puedes transferir tokens de una clave premium a otra. Después de iniciar sesión en tu cuenta en el panel de administración de claves API, usa la configuración de la clave que deseas transferir para mover todos los tokens pagos restantes.
code
¿Puedo revocar mi clave API?
keyboard_arrow_down
Sí, puedes revocar tu clave API si crees que se ha visto comprometida. Al revocar una clave, se deshabilitará de inmediato para todos los usuarios que la hayan almacenado, y todo el saldo restante y las propiedades asociadas quedarán inutilizables de forma permanente. Si la clave es una clave premium, tienes la opción de transferir el saldo restante pagado a otra clave antes de la revocación. Ten en cuenta que esta acción no se puede deshacer. Para revocar una clave, ve a la configuración de claves en el panel de control de administración de claves API.
code
¿Por qué la primera solicitud de algunos modelos es lenta?
keyboard_arrow_down
Esto se debe a que nuestra arquitectura sin servidor descarga ciertos modelos durante períodos de bajo uso. La solicitud inicial activa o "calienta" el modelo, lo que puede tardar unos segundos. Después de esta activación inicial, las solicitudes posteriores se procesan mucho más rápido.
code
¿Se utilizan mis datos de API para entrenar sus modelos?
keyboard_arrow_down
No. Nunca utilizamos sus solicitudes, entradas ni salidas de API para entrenar nuestros modelos de incrustación, reranking ni ningún otro. Sus datos siguen siendo suyos. Cumplimos con las normas SOC 2 Tipo I y Tipo II.
code
¿Cuáles son los límites de velocidad para las API de Jina?
keyboard_arrow_down
Se aplican límites de velocidad por clave de API:

Gratis: 100 RPM, 100 000 TPM, 2 solicitudes simultáneas
Pago: 500 RPM, 2 000 000 TPM, 50 solicitudes simultáneas
Premium: 5000 RPM, 50 000 000 TPM, 500 solicitudes simultáneas

También hay un límite de velocidad basado en IP de 10 000 solicitudes cada 60 segundos. Estos límites se aplican a todas las API de Jina (Incrustaciones, Reranker, Lector, etc.).
code
¿Existen límites de tamaño de lote para las API?
keyboard_arrow_down
No hay límite de tamaño de lote para las API de incrustaciones ni para las de reranking. Puede enviar tantos elementos o documentos como necesite por solicitud. Ambas API procesan las entradas internamente por lotes según el número de tokens para optimizar el uso de la GPU.
Preguntas comunes relacionadas con la facturación
attach_money
¿La facturación se basa en el número de sentencias o solicitudes?
keyboard_arrow_down
Nuestro modelo de precios se basa en la cantidad total de tokens procesados, lo que permite a los usuarios la flexibilidad de asignar estos tokens en cualquier cantidad de oraciones, ofreciendo una solución rentable para diversos requisitos de análisis de texto.
attach_money
¿Hay una prueba gratuita disponible para nuevos usuarios?
keyboard_arrow_down
Ofrecemos una prueba gratuita de bienvenida a los nuevos usuarios, que incluye diez millones de tokens para usar con cualquiera de nuestros modelos, gracias a una clave API generada automáticamente. Una vez alcanzado el límite de tokens gratuitos, los usuarios pueden comprar fácilmente tokens adicionales para sus claves API a través de la pestaña "Comprar tokens".
attach_money
¿Se cobran tokens por solicitudes fallidas?
keyboard_arrow_down
No, los tokens no se deducen por solicitudes fallidas.
attach_money
¿Qué métodos de pago se aceptan?
keyboard_arrow_down
Los pagos se procesan a través de Stripe y admiten una variedad de métodos de pago que incluyen tarjetas de crédito, Google Pay y PayPal para su comodidad.
attach_money
¿Está disponible la facturación para compras de tokens?
keyboard_arrow_down
Sí, se emitirá una factura a la dirección de correo electrónico asociada a su cuenta de Stripe tras la compra de tokens.
Preguntas frecuentes relacionadas con DeepSearch
¿Qué es DeepSearch?
keyboard_arrow_down
DeepSearch es una API LLM que realiza búsquedas, lecturas y razonamientos iterativos hasta que encuentra una respuesta precisa a una consulta o alcanza su límite de presupuesto de tokens.
¿En qué se diferencia DeepSearch de las capacidades de investigación profunda de OpenAI y Gemini?
keyboard_arrow_down
A diferencia de OpenAI y Gemini, DeepSearch se centra específicamente en brindar respuestas precisas mediante iteraciones en lugar de generar artículos extensos. Está optimizado para obtener respuestas rápidas y precisas a partir de búsquedas en la web profunda en lugar de crear informes completos.
¿Qué clave API necesito para utilizar DeepSearch?
keyboard_arrow_down
Necesita una clave API de Jina. Ofrecemos 10 millones de tokens gratis para nuevas claves API.
¿Qué sucede cuando DeepSearch alcanza su presupuesto de tokens? ¿Devuelve una respuesta incompleta?
keyboard_arrow_down
Genera una respuesta final basada en todo el conocimiento acumulado, en lugar de simplemente darse por vencido o devolver una respuesta incompleta.
¿DeepSearch garantiza respuestas precisas?
keyboard_arrow_down
No. Si bien utiliza un proceso de búsqueda iterativo para mejorar la precisión, la evaluación muestra que logra una tasa de aprobación del 75 % en las preguntas de la prueba, significativamente mejor que la línea de base del 0 % (gemini-2.0-flash), pero no perfecta.
¿Cuánto tiempo tarda una consulta típica de DeepSearch?
keyboard_arrow_down
Varía significativamente: las consultas pueden requerir entre 1 y 42 pasos, con un promedio de 4 pasos según los datos de evaluación. Eso equivale a 20 segundos. Las consultas simples pueden resolverse rápidamente, mientras que las preguntas de investigación complejas pueden implicar muchas iteraciones y hasta 120 segundos.
¿Puede DeepSearch funcionar con cualquier cliente compatible con OpenAI como Chatwise, CherryStudio o ChatBox?
keyboard_arrow_down
Sí, la API oficial de DeepSearch en deepsearch.jina.ai/v1/chat/completions es totalmente compatible con el esquema de API de OpenAI, y utiliza "jina-deepsearch-v1" como nombre de modelo. Por lo tanto, es muy fácil cambiar de OpenAI a DeepSearch y usarla con clientes locales o cualquier cliente compatible con OpenAI. Recomendamos encarecidamente Chatwise para una experiencia perfecta.
¿Cuáles son los límites de velocidad para la API?
keyboard_arrow_down
Los límites de velocidad varían según el nivel de clave API y van desde 10 RPM hasta 30 RPM. Es importante tener esto en cuenta para aplicaciones con grandes volúmenes de consultas.
¿Cuál es el contenido dentro de la etiqueta ?
keyboard_arrow_down
DeepSearch envuelve los pasos de pensamiento en etiquetas XML ... y proporciona la respuesta final después, siguiendo el formato de transmisión de OpenAI pero con estos marcadores especiales para la cadena de pensamientos.
¿DeepSearch utiliza Jina Reader para búsquedas y lecturas web?
keyboard_arrow_down
Sí. Jina Reader se utiliza para búsquedas y lecturas web, lo que proporciona al sistema la capacidad de acceder y procesar contenido web de manera eficiente.
¿Por qué DeepSearch utiliza tantos tokens para mis consultas?
keyboard_arrow_down
Sí, el uso de tokens de DeepSearch en consultas complejas es indiscutiblemente alto: un promedio de 70 000 tokens en comparación con los 500 para las respuestas LLM básicas. Esto demuestra la profundidad de la investigación, pero también tiene implicaciones de costos.
¿Hay alguna forma de controlar o limitar el número de pasos?
keyboard_arrow_down
El sistema se controla principalmente por el presupuesto de tokens en lugar del conteo de pasos. Una vez que se excede el presupuesto de tokens, ingresa al modo Bestia para generar la respuesta final. Consulte reasoning_effort para obtener más detalles.
¿Qué tan confiables son las referencias en las respuestas?
keyboard_arrow_down
Las referencias se consideran tan importantes que si una respuesta se considera definitiva pero carece de referencias, el sistema continúa buscando en lugar de aceptar la respuesta.
¿Puede DeepSearch manejar preguntas sobre eventos futuros?
keyboard_arrow_down
Sí, pero con pasos de investigación extensos. El ejemplo de "quién será presidente en 2028" muestra que puede manejar preguntas especulativas a través de múltiples iteraciones de investigación, aunque no se garantiza la precisión de tales predicciones.
Preguntas frecuentes relacionadas con los clasificadores
¿Qué diferencias hay entre las etiquetas en zero-shot y few-shot?
keyboard_arrow_down
Zero-shot requiere etiquetas semánticas durante la clasificación y none durante el entrenamiento, mientras que few-shot requiere etiquetas durante el entrenamiento pero no en la clasificación. Esto significa que zero-shot es mejor para necesidades de clasificación flexibles e inmediatas, mientras que few-shot es mejor para categorías fijas y específicas del dominio que pueden evolucionar con el tiempo.
¿Para qué sirve num_iters y cómo debo usarlo?
keyboard_arrow_down
num_iters controla la intensidad del entrenamiento: los valores más altos refuerzan los ejemplos importantes, mientras que los valores más bajos minimizan el impacto de los datos menos confiables. Se puede utilizar para implementar el aprendizaje consciente del tiempo al otorgar a los ejemplos recientes un mayor número de iteraciones, lo que lo hace valioso para desarrollar patrones de datos.
¿Cómo funciona el intercambio de clasificadores públicos?
keyboard_arrow_down
Cualquiera que tenga el classifier_id puede usar clasificadores públicos, consumiendo su propia cuota de tokens. Los usuarios no pueden acceder a los datos de entrenamiento ni a la configuración, y no pueden ver las solicitudes de clasificación de otros, lo que permite compartir clasificadores de forma segura.
¿Cuántos datos necesito para que la función de pocos disparos funcione bien?
keyboard_arrow_down
La clasificación de pocos disparos requiere de 200 a 400 ejemplos de entrenamiento para superar la clasificación de cero disparos. Si bien en última instancia logra una mayor precisión, necesita este período de calentamiento para volverse efectiva. La clasificación de cero disparos proporciona un rendimiento constante de inmediato sin datos de entrenamiento.
¿Puede manejar múltiples idiomas y tanto texto como imágenes?
keyboard_arrow_down
Sí, la API admite consultas multilingües mediante jina-embeddings-v3 y clasificación multimodal (texto/imagen) mediante jina-clip-v2 o jina-embeddings-v4, con soporte para URL o imágenes codificadas en base64 en la misma solicitud.
¿Cuáles son los límites estrictos que debo conocer?
keyboard_arrow_down
Zero-shot admite 256 clases sin límite de clasificadores, mientras que few-shot está limitado a 16 clases y 16 clasificadores. Ambos admiten 1024 entradas por solicitud y 8192 tokens por entrada.
¿Cómo manejo los cambios de datos a lo largo del tiempo?
keyboard_arrow_down
El modo de pocos disparos permite la actualización continua a través del punto final /train para adaptarse a los patrones de datos cambiantes. Puede agregar nuevos ejemplos o clases de manera incremental cuando cambia la distribución de datos, sin tener que reconstruir todo el clasificador.
¿Qué pasa con mis datos de entrenamiento después de enviarlos?
keyboard_arrow_down
La API utiliza aprendizaje en línea de una sola pasada: los ejemplos de entrenamiento actualizan los pesos del clasificador, pero no se almacenan posteriormente. Esto significa que no se pueden recuperar datos de entrenamiento históricos, pero garantiza la privacidad y la eficiencia de los recursos.
Cero disparos versus pocos disparos: ¿cuándo utilizar cuál?
keyboard_arrow_down
Comience con el método zero-shot para obtener resultados inmediatos y cuando necesite una clasificación flexible con etiquetas semánticas. Cambie al método few-shot cuando tenga entre 200 y 400 ejemplos, necesite mayor precisión o necesite manejar datos específicos del dominio o sensibles al tiempo.
¿Puedo utilizar diferentes modelos para diferentes idiomas/tareas?
keyboard_arrow_down
Sí, puede elegir entre jina-embeddings-v3 para la clasificación de texto (especialmente bueno para multilingües), jina-clip-v2 para la clasificación multimodal (89 idiomas) o jina-embeddings-v4 para la clasificación multimodal multilingüe universal.
Preguntas frecuentes relacionadas con el segmentador
¿Cuánto cuesta la API Segmenter?
keyboard_arrow_down
La API de Segmenter es de uso gratuito. Si proporciona su clave API, podrá acceder a un límite de velocidad más alto y no se le cobrará por su clave.
Si no proporciono una clave API, ¿cuál es el límite de velocidad?
keyboard_arrow_down
Sin una clave API, puede acceder a la API de Segmenter con un límite de velocidad de 20 RPM.
Si proporciono una clave API, ¿cuál es el límite de velocidad?
keyboard_arrow_down
Con una clave API, puede acceder a la API de Segmenter con un límite de velocidad de 200 RPM. Para los usuarios pagos premium, el límite de velocidad es de 1000 RPM.
¿Cobrarás los tokens de mi clave API?
keyboard_arrow_down
No, su clave API solo se utiliza para acceder a un límite de velocidad más alto.
¿La API de Segmenter admite varios idiomas?
keyboard_arrow_down
Sí, la API de Segmenter es multilingüe y admite más de 100 idiomas.
¿Cuál es la diferencia entre las solicitudes GET y POST?
keyboard_arrow_down
Las solicitudes GET se utilizan únicamente para contar la cantidad de tokens en un texto, lo que le permite integrarlo fácilmente como un contador en su aplicación. Las solicitudes POST admiten más parámetros y funciones, como devolver los primeros/últimos N tokens.
¿Cuál es la longitud máxima que puedo tokenizar por solicitud?
keyboard_arrow_down
Puede enviar hasta 64k caracteres por solicitud.
¿Cómo funciona la función de fragmentación? ¿Se trata de fragmentación semántica?
keyboard_arrow_down
La función de fragmentación segmenta documentos largos en fragmentos más pequeños según señales estructurales comunes, lo que garantiza una segmentación precisa del texto en fragmentos significativos. Básicamente, se trata de un patrón de expresiones regulares (¡grande!) que segmenta el texto según ciertas características sintácticas que suelen coincidir con los límites semánticos, como los finales de las oraciones, los saltos de párrafo, la puntuación y ciertas conjunciones. No se trata de fragmentación semántica. Esta expresión regular (grande) es tan potente como puede serlo dentro de las limitaciones de las expresiones regulares. Equilibra la complejidad y el rendimiento. Si bien la verdadera comprensión semántica no es posible con las expresiones regulares, se aproxima bien al contexto mediante señales estructurales comunes.
¿Cómo se manejan tokens especiales como 'endoftext' en la API de Segmenter?
keyboard_arrow_down
Si la entrada contiene tokens especiales, nuestra API Segmenter los colocará en el campo 'special_tokens'. Esto le permite identificarlos fácilmente y manejarlos como corresponde para sus tareas posteriores, por ejemplo, eliminarlos antes de introducir el texto en un LLM para evitar ataques de inyección.
¿La función de chunking admite otros idiomas además del inglés?
keyboard_arrow_down
Además de los idiomas occidentales, la fragmentación también funciona bien con el chino, el japonés y el coreano.
Preguntas comunes relacionadas con el ajuste automático
¿Cuánto cuesta la API de ajuste fino?
keyboard_arrow_down
La función está actualmente en fase beta y cuesta 1 millón de tokens por modelo optimizado. Puedes usar tu clave API de la API de Integración/Reranking si tiene suficientes tokens, o crear una nueva clave API que incluye 10 millones de tokens gratuitos.
¿Qué necesito ingresar? ¿Necesito proporcionar datos de entrenamiento?
keyboard_arrow_down
No es necesario proporcionar ningún dato de entrenamiento. Simplemente describa su dominio de destino (el dominio para el cual desea que se optimicen las incrustaciones ajustadas) en lenguaje natural, o use una URL como referencia, y nuestro sistema generará datos sintéticos para entrenar el modelo.
¿Cuánto tiempo lleva perfeccionar un modelo?
keyboard_arrow_down
Unos 30 minutos.
¿Dónde se almacenan los modelos ajustados?
keyboard_arrow_down
Los modelos ajustados y los datos sintéticos se almacenan públicamente en el centro de modelos de Hugging Face.
Si proporciono una URL de referencia, ¿cómo la usa el sistema?
keyboard_arrow_down
El sistema utiliza la API Reader para recuperar el contenido de la URL. Luego analiza el contenido para resumir el tono y el dominio, que utiliza como pautas para generar datos sintéticos. Por lo tanto, la URL debe ser de acceso público y representativa del dominio de destino.
¿Puedo ajustar un modelo para un idioma específico?
keyboard_arrow_down
Sí, puede ajustar un modelo para un idioma distinto del inglés. El sistema detecta automáticamente el idioma de las instrucciones de su dominio y genera datos sintéticos en consecuencia. También recomendamos elegir el modelo base adecuado para el idioma de destino. Por ejemplo, si se dirige a un dominio alemán, debe seleccionar 'jina-embeddings-v2-base-de' como modelo base.
¿Puedo ajustar incrustaciones que no sean de Jina, por ejemplo, bge-M3?
keyboard_arrow_down
No, nuestra API de ajuste solo admite modelos Jina v2.
¿Cómo se garantiza la calidad de los modelos ajustados?
keyboard_arrow_down
Al final del proceso de ajuste, el sistema evalúa el modelo utilizando un conjunto de pruebas disponible e informa las métricas de rendimiento. Recibirá un correo electrónico detallando el rendimiento antes y después de este equipo de prueba. También le recomendamos que evalúe el modelo en su propio equipo de prueba para garantizar su calidad.
¿Cómo se generan datos sintéticos?
keyboard_arrow_down
El sistema genera datos sintéticos integrando la instrucción del dominio objetivo que usted proporciona con el razonamiento de los agentes de LLM. Produce tripletes negativos duros, que son esenciales para entrenar modelos de incrustación de alta calidad. Para obtener más detalles, consulte nuestro próximo artículo de investigación sobre Arxiv.
¿Puedo mantener la privacidad de mis modelos ajustados y mis datos sintéticos?
keyboard_arrow_down
Actualmente no. Tenga en cuenta que esta función aún está en versión beta. Almacenar los modelos ajustados y los datos sintéticos públicamente en el centro de modelos de Hugging Face nos ayuda a nosotros y a la comunidad a evaluar la calidad de la capacitación. En el futuro, planeamos ofrecer una opción de almacenamiento privado.
¿Cómo puedo utilizar el modelo ajustado?
keyboard_arrow_down
Dado que todos los modelos ajustados se cargan en Hugging Face, puedes acceder a ellos a través de SentenceTransformers simplemente especificando el nombre del modelo.
Nunca recibí el correo electrónico con los resultados de la evaluación. ¿Qué tengo que hacer?
keyboard_arrow_down
Por favor revisa tu carpeta de spam. Si aún no puede encontrarlo, comuníquese con nuestro equipo de soporte utilizando la dirección de correo electrónico que proporcionó.
Contacto
Oficinas
location_on
Sunnyvale, California
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, EE. UU.
location_on
Berlín, Alemania
Prinzessinnenstraße 19-20, 10969 Berlín, Alemania
Fundación de búsqueda
Lector
Incrustaciones
reclasificador
Servicio de inferencia elástica
Obtener la clave API de Jina
Límite de velocidad
Estado de la API
Compañía
Sobre nosotros
Contactar con ventas
Sala de prensa
Programa de prácticas
Descargar el logotipo de Jina
open_in_new
Descargar el logotipo de Elastic
open_in_new
Términos
Seguridad
Términos y condiciones
Privacidad
Administrar cookies
email
Jina AI de Elastic © 2020-2026.