Noticias
Modelos
Productos
keyboard_arrow_down
Lector
Lea las URL y busque en la web para obtener una base más sólida para su LLM.
Incrustaciones
Integraciones multilingües y multimodales de clase mundial.
reclasificador
Recuperador neuronal de clase mundial para maximizar la relevancia de la búsqueda.
Búsqueda profunda
Busca, lee y razona hasta encontrar la mejor respuesta.
Más
keyboard_arrow_down
Clasificador
Clasificación de cero disparos y pocos disparos para imágenes y texto.
Segmentador
Corta el texto largo en fragmentos y haz tokenización.

Documentación de la API
Generación automática de código para su IDE o LLM de Copilot
open_in_new


Compañía
keyboard_arrow_down
Sobre nosotros
Contactar con ventas
Programa de prácticas
Únete a nosotros
open_in_new
Descargar logotipo
open_in_new
Términos y condiciones


Acceso
login
warning
Este modelo está obsoleto por los modelos más nuevos.
copyright

jina-embeddings-v3

Modelo de integración multilingüe de Frontier con rendimiento SOTA
Publicación de lanzamientoarrow_forward
Licencia
copyright
CC-BY-NC-4.0
Fecha de lanzamiento
calendar_month
2024-09-18
Aporte
abc
Texto
arrow_forward
Producción
more_horiz
Vector
Detalles del modelo
Parámetros: 570M
Longitud del token de entrada: 8K
Dimensión de salida: 1024
Soporte de idioma
🌍 Soporte multilingüe
Modelos relacionados
link
jina-embeddings-v2-base-en
link
jina-embeddings-v2-base-zh
link
jina-embeddings-v2-base-de
link
jina-embeddings-v2-base-es
link
jina-embeddings-v2-base-code
Etiquetas
text-embedding
multilingual
high-dimension
long-context
production
base-model
matryoshka
lora-adapters
Disponible a través de
API de JinaLicencia comercialAWS SageMakerMicrosoft AzureNube de GoogleCara abrazada
Gráfico de E/S
Elige modelos para comparar
Publicaciones (3)
ACL 2025
diciembre 17, 2024
AIR-Bench: Automated Heterogeneous Information Retrieval Benchmark
ECIR 2025
septiembre 18, 2024
jina-embeddings-v3: Multilingual Embeddings With Task LoRA
SIGIR 2025
septiembre 07, 2024
Late Chunking: Contextual Chunk Embeddings Using Long-Context Embedding Models

Descripción general

Jina Embeddings v3 es un innovador modelo de incrustación de texto multilingüe que transforma la forma en que las organizaciones manejan la comprensión y recuperación de texto en todos los idiomas. En esencia, resuelve el desafío crítico de mantener un alto rendimiento en varios idiomas y tareas, al mismo tiempo que mantiene los requisitos computacionales manejables. El modelo se destaca particularmente en entornos de producción donde la eficiencia es importante: logra un rendimiento de vanguardia con solo 570 millones de parámetros, lo que lo hace accesible para equipos que no pueden permitirse la sobrecarga computacional de modelos más grandes. Las organizaciones que necesitan crear sistemas de búsqueda escalables y multilingües o analizar contenido a través de barreras lingüísticas encontrarán este modelo especialmente valioso.

Métodos

La arquitectura del modelo representa una innovación significativa en la tecnología de incrustación, construida sobre una base de jina-XLM-RoBERTa con 24 capas y mejorada con adaptadores de adaptación de bajo rango (LoRA) específicos de la tarea. Los adaptadores LoRA son componentes de red neuronal especializados que optimizan el modelo para diferentes tareas como recuperación, clasificación o agrupamiento sin aumentar significativamente el recuento de parámetros: agregan menos del 3% a los parámetros totales. El modelo incorpora aprendizaje de representación Matryoshka (MRL), lo que permite reducir de manera flexible las incrustaciones de 1024 a tan solo 32 dimensiones, al tiempo que se preserva el rendimiento. El entrenamiento implicó un proceso de tres etapas: preentrenamiento inicial en texto multilingüe de 89 idiomas, ajuste fino en textos emparejados para la calidad de incrustación y entrenamiento especializado de adaptadores para la optimización de tareas. El modelo admite longitudes de contexto de hasta 8192 tokens a través de incrustaciones de posición rotatoria (RoPE), con una innovadora técnica de ajuste de frecuencia base que mejora el rendimiento tanto en textos cortos como largos.

Actuación

El modelo demuestra una relación eficiencia-rendimiento excepcional en pruebas del mundo real, superando tanto a las alternativas de código abierto como a las soluciones propietarias de OpenAI y Cohere en tareas en inglés, a la vez que se destaca en escenarios multilingües. Lo más sorprendente es que logra mejores resultados que e5-mistral-7b-instruct, que tiene 12 veces más parámetros, lo que resalta su notable eficiencia. En las evaluaciones de referencia de MTEB, logra una puntuación promedio de 65,52 en todas las tareas, con un desempeño particularmente sólido en Precisión de clasificación (82,58) y Similitud de oraciones (85,80). El modelo mantiene un rendimiento constante en todos los idiomas, con una puntuación de 64,44 en tareas multilingües. Al utilizar MRL para la reducción de dimensiones, mantiene un rendimiento sólido incluso en dimensiones más bajas; por ejemplo, mantiene el 92 % de su rendimiento de recuperación en 64 dimensiones en comparación con las 1024 dimensiones completas.

Guía

Para implementar Jina Embeddings v3 de manera eficaz, los equipos deben considerar su caso de uso específico para seleccionar el adaptador de tareas adecuado: retrieval.query y retrieval.passage para aplicaciones de búsqueda, separación para tareas de agrupamiento, clasificación para categorización y coincidencia de texto para similitud semántica. El modelo requiere hardware compatible con CUDA para un rendimiento óptimo, aunque su arquitectura eficiente significa que necesita significativamente menos memoria de GPU que las alternativas más grandes. Para la implementación de producción, la integración de AWS SageMaker proporciona una ruta optimizada hacia la escalabilidad. El modelo se destaca en aplicaciones multilingües, pero puede requerir una evaluación adicional para idiomas con bajos recursos. Si bien admite documentos largos de hasta 8192 tokens, se logra un rendimiento óptimo con la función de fragmentación tardía para textos muy largos. Los equipos deben evitar usar el modelo para tareas que requieran generación en tiempo real o razonamiento complejo: está diseñado para la incrustación y la recuperación, no para la generación de texto o la respuesta directa a preguntas.
Blogs que mencionan este modelo
septiembre 18, 2024 • 10 minutos de lectura
Jina Embeddings v3: Un Modelo de Embeddings Multilingüe de Vanguardia
jina-embeddings-v3 es un modelo de vanguardia de embeddings de texto multilingüe con 570M parámetros y una longitud de token de 8192, que supera a los últimos embeddings propietarios de OpenAI y Cohere en MTEB.
Jina AI
Dynamic image showing the characters "V3" formed by bright green dots varying in size on a black background.
julio 25, 2025 • 8 minutos de lectura
JinaVDR: Nuevo benchmark de recuperación visual de documentos con 95 tareas en 20 idiomas
JinaVDR es un nuevo benchmark que abarca 95 tareas en 20 idiomas para la recuperación visual de documentos, y pronto estará disponible en MTEB.
Maximilian Werk
Alex C-G
Black-and-white design for "Jinavor Benchmark" with bold text. Below, "Visual Docs: 95 Tasks: 20 Languages" appears; an abstr
julio 14, 2025 • 11 minutos de lectura
Optimización submodular para la selección de texto, el reordenamiento de pasajes y la ingeniería de contexto
Mientras que otros confían en el ajuste de *prompts* y esperan lo mejor, tú deberías aprender optimización submodular, que proporciona un marco de trabajo con principios y garantías teóricas para una mejor ingeniería de contexto.
Han Xiao
Network illustration of interconnected hexagons, some solid and some hollow blue, connected by red lines indicating paths or
julio 04, 2025 • 13 minutos de lectura
Optimización submodular para la generación de consultas diversas en DeepResearch
Muchos conocen la importancia de la diversidad de consultas en DeepResearch, pero pocos saben cómo resolverla rigurosamente a través de la optimización submodular.
Han Xiao
Black and white typographic design of "1993" with a 3D effect, minimalistic black border, and a sense of depth on a white bac
junio 25, 2025 • 13 minutos de lectura
Jina Embeddings v4:向量模型 (Embeddings) 通用模型,适用于多模态多语言检索
Jina Embeddings v4 es un modelo de "向量模型 (Embeddings)" universal de 3.8 mil millones de parámetros para la recuperación multimodal y multilingüe que admite salidas de "向量模型 (Embeddings)" de un solo vector y de múltiples vectores.
Jina AI
Word "Embeddings" followed by a numeric or symbol representation, displayed in multiple colors on a technology-themed, colorf
Oficinas
location_on
Sunnyvale, California
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, EE. UU.
location_on
Berlín, Alemania (sede central)
Prinzessinnenstraße 19-20, 10969 Berlín, Alemania
location_on
Beijing, China
Piso 5, Edificio 6, No.48 Haidian West St. Pekín, China
location_on
Shenzhen, China
Piso 402, Edificio de Tecnología Fu'an, Shenzhen, China
Fundación de búsqueda
Lector
Incrustaciones
reclasificador
Búsqueda profunda
Clasificador
Segmentador
Documentación API
Obtener la clave API de Jina
Límite de velocidad
Estado de la API
Compañía
Sobre nosotros
Contactar con ventas
Sala de prensa
Programa de prácticas
Únete a nosotros
open_in_new
Descargar logotipo
open_in_new
Términos
Seguridad
Términos y condiciones
Privacidad
Administrar cookies
email
Jina AI © 2020-2025.