Noticias
Modelos
API
keyboard_arrow_down
Lector
Lea las URL y busque en la web para obtener una base más sólida para su LLM.
Incrustaciones
Integraciones multilingües y multimodales de clase mundial.
reclasificador
Recuperador neuronal de clase mundial para maximizar la relevancia de la búsqueda.
Servicio de inferencia elástica
Ejecuta modelos Jina de forma nativa dentro de Elasticsearch.
MCP terminalCLIarticlellms.txtsmart_toyAgentesdata_objectEsquemamenu_bookDocumentos



Acceso
login
warning
Este modelo está obsoleto por los modelos más nuevos.
Incrustaciones
copyright CC BY-NC 4.0
open_in_new Publicación de lanzamiento

jina-embeddings-v3

Modelo de integración multilingüe de Frontier con rendimiento SOTA
Licencia
copyright CC-BY-NC-4.0
Fecha de lanzamiento
calendar_month
2024-09-18
Aporte
abc
Texto
arrow_forward
Producción
more_horiz
Vector
Dimensiones de la matrioska help_outline
32
64
128
256
512
768
1024
Fragmentación tardía help_outline
check_circle
Yes
Detalles del modelo
Parámetros: 570M
Longitud del token de entrada: 8K
Dimensión de salida: 1024
Modelo base help_outline
open_in_new
XLM-RoBERTa Large
Idiomas entrenados help_outline
32 idiomas
Idiomas admitidos help_outline
108 idiomas
Modelos relacionados
link
jina-embeddings-v2-base-en
link
jina-embeddings-v2-base-zh
link
jina-embeddings-v2-base-de
link
jina-embeddings-v2-base-es
link
jina-embeddings-v2-base-code
Tareas admitidas
search Recuperación
compare_arrows Coincidencia de texto
call_split Separación
label Clasificación
Etiquetas
text-embedding
multilingual
high-dimension
long-context
production
base-model
matryoshka
lora-adapters
Disponible a través de
Servicio de inferencia elásticaAPI de JinaAWS SageMakerMicrosoft AzureNube de GoogleCara abrazada
Gráfico de E/S

Texto

jina-embeddings-v3

Tarea

Vector

Elige modelos para comparar
Publicaciones (3)
ACL 2025
diciembre 17, 2024
AIR-Bench: Automated Heterogeneous Information Retrieval Benchmark
ECIR 2025
septiembre 18, 2024
jina-embeddings-v3: Multilingual Embeddings With Task LoRA
SIGIR 2025
septiembre 07, 2024
Late Chunking: Contextual Chunk Embeddings Using Long-Context Embedding Models

Descripción general

Jina Embeddings v3 es un innovador modelo de incrustación de texto multilingüe que transforma la forma en que las organizaciones manejan la comprensión y recuperación de texto en todos los idiomas. En esencia, resuelve el desafío crítico de mantener un alto rendimiento en varios idiomas y tareas, al mismo tiempo que mantiene los requisitos computacionales manejables. El modelo se destaca particularmente en entornos de producción donde la eficiencia es importante: logra un rendimiento de vanguardia con solo 570 millones de parámetros, lo que lo hace accesible para equipos que no pueden permitirse la sobrecarga computacional de modelos más grandes. Las organizaciones que necesitan crear sistemas de búsqueda escalables y multilingües o analizar contenido a través de barreras lingüísticas encontrarán este modelo especialmente valioso.

Métodos

La arquitectura del modelo representa una innovación significativa en la tecnología de incrustación, construida sobre una base de jina-XLM-RoBERTa con 24 capas y mejorada con adaptadores de adaptación de bajo rango (LoRA) específicos de la tarea. Los adaptadores LoRA son componentes de red neuronal especializados que optimizan el modelo para diferentes tareas como recuperación, clasificación o agrupamiento sin aumentar significativamente el recuento de parámetros: agregan menos del 3% a los parámetros totales. El modelo incorpora aprendizaje de representación Matryoshka (MRL), lo que permite reducir de manera flexible las incrustaciones de 1024 a tan solo 32 dimensiones, al tiempo que se preserva el rendimiento. El entrenamiento implicó un proceso de tres etapas: preentrenamiento inicial en texto multilingüe de 89 idiomas, ajuste fino en textos emparejados para la calidad de incrustación y entrenamiento especializado de adaptadores para la optimización de tareas. El modelo admite longitudes de contexto de hasta 8192 tokens a través de incrustaciones de posición rotatoria (RoPE), con una innovadora técnica de ajuste de frecuencia base que mejora el rendimiento tanto en textos cortos como largos.

Actuación

El modelo demuestra una relación eficiencia-rendimiento excepcional en pruebas del mundo real, superando tanto a las alternativas de código abierto como a las soluciones propietarias de OpenAI y Cohere en tareas en inglés, a la vez que se destaca en escenarios multilingües. Lo más sorprendente es que logra mejores resultados que e5-mistral-7b-instruct, que tiene 12 veces más parámetros, lo que resalta su notable eficiencia. En las evaluaciones de referencia de MTEB, logra una puntuación promedio de 65,52 en todas las tareas, con un desempeño particularmente sólido en Precisión de clasificación (82,58) y Similitud de oraciones (85,80). El modelo mantiene un rendimiento constante en todos los idiomas, con una puntuación de 64,44 en tareas multilingües. Al utilizar MRL para la reducción de dimensiones, mantiene un rendimiento sólido incluso en dimensiones más bajas; por ejemplo, mantiene el 92 % de su rendimiento de recuperación en 64 dimensiones en comparación con las 1024 dimensiones completas.

Guía

Para implementar Jina Embeddings v3 de manera eficaz, los equipos deben considerar su caso de uso específico para seleccionar el adaptador de tareas adecuado: retrieval.query y retrieval.passage para aplicaciones de búsqueda, separación para tareas de agrupamiento, clasificación para categorización y coincidencia de texto para similitud semántica. El modelo requiere hardware compatible con CUDA para un rendimiento óptimo, aunque su arquitectura eficiente significa que necesita significativamente menos memoria de GPU que las alternativas más grandes. Para la implementación de producción, la integración de AWS SageMaker proporciona una ruta optimizada hacia la escalabilidad. El modelo se destaca en aplicaciones multilingües, pero puede requerir una evaluación adicional para idiomas con bajos recursos. Si bien admite documentos largos de hasta 8192 tokens, se logra un rendimiento óptimo con la función de fragmentación tardía para textos muy largos. Los equipos deben evitar usar el modelo para tareas que requieran generación en tiempo real o razonamiento complejo: está diseñado para la incrustación y la recuperación, no para la generación de texto o la respuesta directa a preguntas.
Blogs que mencionan este modelo
septiembre 18, 2024 • 10 minutos de lectura
Jina Embeddings v3: Un Modelo de Embeddings Multilingüe de Vanguardia
jina-embeddings-v3 es un modelo de vanguardia de embeddings de texto multilingüe con 570M parámetros y una longitud de token de 8192, que supera a los últimos embeddings propietarios de OpenAI y Cohere en MTEB.
Jina AI
Dynamic image showing the characters "V3" formed by bright green dots varying in size on a black background.
marzo 06, 2026 • 6 minutos de lectura
Identificación de modelos de embeddings a partir de valores numéricos brutos
Un transformer diminuto que identifica modelos de embeddings leyendo dígitos numéricos en bruto. Sin ingeniería de características.
Han Xiao
Fingerprint illustration made from numbers, showcasing digital and high-tech design on a light background.
febrero 19, 2026 • 7 minutos de lectura
jina-embeddings-v5-text: New SOTA Small Multilingual Embeddings
Two sub-1B multilingual embeddings with best-in-class performance, available on Elastic Inference Service, Llama.cpp and MLX.
Han Xiao
Abstract digital artwork in black and white, featuring scattered dots forming letters in a halftone effect. The central lette
octubre 03, 2025 • 7 minutos de lectura
Jina Reranker v3: Reranker Listwise de 0.6B para la recuperación multilingüe SOTA
Nuevo reranker listwise de 0.6B parámetros que considera la consulta y todos los documentos candidatos en una sola ventana de contexto.
Jina AI
Light blue background with stylized text in the center, composed of small dots or squares, evoking a modern and minimalistic
septiembre 04, 2025 • 6 minutos de lectura
Jina Code Embeddings: Recuperación de código SOTA a 0.5B y 1.5B
LLM de generación de código → Embeddings de código: los modelos de 0.5B/1.5B alcanzan un rendimiento SOTA en 25 benchmarks de recuperación de código.
Jina AI
Green "Code Embeddings" text displayed in a LED dot style on a black background, evoking a futuristic and technological atmos
Oficinas
location_on
Sunnyvale, California
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, EE. UU.
location_on
Berlín, Alemania
Prinzessinnenstraße 19-20, 10969 Berlín, Alemania
Fundación de búsqueda
Lector
Incrustaciones
reclasificador
Servicio de inferencia elástica
Obtener la clave API de Jina
Límite de velocidad
Estado de la API
Compañía
Sobre nosotros
Contactar con ventas
Sala de prensa
Programa de prácticas
Descargar el logotipo de Jina
open_in_new
Descargar el logotipo de Elastic
open_in_new
Términos
Seguridad
Términos y condiciones
Privacidad
Administrar cookies
email
Jina AI de Elastic © 2020-2026.