Noticias
Modelos
Productos
keyboard_arrow_down
Lector
Lea las URL y busque en la web para obtener una base más sólida para su LLM.
Incrustaciones
Integraciones multilingües y multimodales de clase mundial.
reclasificador
Recuperador neuronal de clase mundial para maximizar la relevancia de la búsqueda.
Búsqueda profunda
Busca, lee y razona hasta encontrar la mejor respuesta.
Más
keyboard_arrow_down
Clasificador
Clasificación de cero disparos y pocos disparos para imágenes y texto.
Segmentador
Corta el texto largo en fragmentos y haz tokenización.

Servidor MCP
Agregue mcp.jina.ai como su servidor MCP para acceder a nuestra API en LLM
open_in_new
Documentación de la API
Generación automática de código para su IDE o LLM de Copilot
open_in_new


Compañía
keyboard_arrow_down
Sobre nosotros
Contactar con ventas
Programa de prácticas
Únete a nosotros
open_in_new
Descargar logotipo
open_in_new
Términos y condiciones


Acceso
login
copyright

jina-code-embeddings-0.5b

Incorporaciones de código eficientes a partir de modelos de generación de código
Publicación de lanzamientoarrow_forward
Licencia
copyright
CC-BY-NC-4.0
Fecha de lanzamiento
calendar_month
2025-09-01
Aporte
abc
Texto (Código)
arrow_forward
Producción
more_horiz
Vector
Dimensiones de la matrioska
64
128
256
512
896
Detalles del modelo
Parámetros: 0.5B
Longitud del token de entrada: 32K
Dimensión de salida: 896
Soporte de idioma
🌍 Soporte multilingüe
Cuantizaciones
GGUF
Modelos relacionados
link
jina-code-embeddings-1.5b
link
jina-embeddings-v2-base-code
Etiquetas
code-embeddings
programming-languages
semantic-code-search
code-similarity
long-context
text-embeddings
multilingual-code
docstring-search
Disponible a través de
API de JinaAWS SageMakerMicrosoft AzureNube de GoogleCara abrazada
Gráfico de E/S
Elige modelos para comparar
Publicaciones (1)
arXiv
agosto 31, 2025
Efficient Code Embeddings from Code Generation Models

Descripción general

jina-code-embeddings-0.5b es un modelo de incrustación de código con 494 millones de parámetros, diseñado para recuperar código de consultas en lenguaje natural, preguntas y respuestas técnicas e identificar código similar en diferentes lenguajes. Basado en la estructura principal de Qwen2.5-Coder-0.5B, genera incrustaciones mediante la agrupación de últimos tokens y aborda la limitación fundamental de los modelos tradicionales de incrustación de código que dependen de datos alineados escasos, como comentarios y cadenas de documentación. El modelo aprovecha la abundante documentación y código no alineados utilizados en el entrenamiento LLM, logrando un rendimiento de vanguardia a pesar de su tamaño compacto. Admite cinco categorías de tareas con prefijos de instrucción específicos: NL2Code, TechQA, Code2Code, Code2NL y Code2Completion. El modelo implementa el aprendizaje de representación Matryoshka para incrustaciones truncables, lo que permite un equilibrio flexible entre precisión y recursos.

Métodos

El modelo emplea entrenamiento contrastivo con pérdida de InfoNCE con temperatura τ=0,05, tamaño de lote 512 y longitud de secuencia 512. Los datos de entrenamiento incluyen tareas de código MTEB, CoSQA+, conjuntos de datos públicos adaptados y datos sintéticos GPT-4o para escenarios poco frecuentes. Los prefijos de instrucción específicos de cada tarea condicionan el modelo de forma diferente para consultas y documentos; por ejemplo, NL2Code utiliza "Buscar el fragmento de código más relevante dada la siguiente consulta:" para las consultas. El entrenamiento en cuatro GPU A100 para 1500 pasos tardó 8,3 horas. La agrupación del último token superó a la agrupación de atención media y latente en estudios de ablación. El enfoque contrastivo trata los pares consulta-documento como positivos y las combinaciones cruzadas como negativos dentro de cada lote.

Actuación

Alcanza un promedio general del 78,41 % y un promedio de código MTEB del 78,72 % en todos los benchmarks. Entre sus puntuaciones más destacadas se incluyen el 96,77 % en HumanEval, el 89,01 % en MBPP, el 98,31 % en WikiSQL y el 99,70 % en CodeChefXLang. Supera a Qwen3-Embedding-0.6B de tamaño similar y a modelos más grandes como jina-embeddings-v4 (74,11 %) y gemini-embedding-001 (77,38 %). Destaca en la recuperación de código a código con un 90,37 % en CodeTransOceanContest. Excelente rendimiento en NL2Code con un 85,73 % en COIR-CodeSearchNet y un 95,98 % en Doc2Code. Se han demostrado sus capacidades de preguntas y respuestas técnicas con un 91,04 % en StackOverflowQA.

Guía

Utilice siempre prefijos de instrucciones específicos de la tarea para consultas y documentos. Aproveche las incrustaciones de Matryoshka para equilibrar la calidad y los recursos: comience con dimensiones completas y trunque según sea necesario. El tamaño óptimo del lote es de 512 tokens, con una longitud de secuencia de 512. Utilice la similitud de coseno para comparar incrustaciones. Excelente para la búsqueda de código multilingüe gracias a un rendimiento del 99,70 % de CodeChefXLang. Considere la recuperación en dos etapas con los candidatos iniciales de este modelo, seguida de una reclasificación. Ideal para la implementación en el borde y aplicaciones en tiempo real gracias a su tamaño compacto. Almacene en caché las incrustaciones de acceso frecuente e implemente la indexación jerárquica para bases de código grandes.
Blogs que mencionan este modelo
septiembre 04, 2025 • 6 minutos de lectura
Jina Code Embeddings: Recuperación de código SOTA a 0.5B y 1.5B
LLM de generación de código → Embeddings de código: los modelos de 0.5B/1.5B alcanzan un rendimiento SOTA en 25 benchmarks de recuperación de código.
Jina AI
Green "Code Embeddings" text displayed in a LED dot style on a black background, evoking a futuristic and technological atmos
Oficinas
location_on
Sunnyvale, California
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, EE. UU.
location_on
Berlín, Alemania (sede central)
Prinzessinnenstraße 19-20, 10969 Berlín, Alemania
location_on
Beijing, China
Piso 5, Edificio 6, No.48 Haidian West St. Pekín, China
location_on
Shenzhen, China
Piso 402, Edificio de Tecnología Fu'an, Shenzhen, China
Fundación de búsqueda
Lector
Incrustaciones
reclasificador
Búsqueda profunda
Clasificador
Segmentador
Documentación API
Obtener la clave API de Jina
Límite de velocidad
Estado de la API
Compañía
Sobre nosotros
Contactar con ventas
Sala de prensa
Programa de prácticas
Únete a nosotros
open_in_new
Descargar logotipo
open_in_new
Términos
Seguridad
Términos y condiciones
Privacidad
Administrar cookies
email
Jina AI © 2020-2025.