Disponible a través de
Gráfico de E/S
Elige modelos para comparar
Descripción general
Jina Reranker v2 Base Multilingual es un modelo de codificador cruzado diseñado para mejorar la precisión de búsqueda en diferentes barreras lingüísticas y tipos de datos. Este reranker aborda el desafío crítico de la recuperación precisa de información en entornos multilingües, especialmente valioso para empresas globales que necesitan refinar los resultados de búsqueda en diferentes idiomas y tipos de contenido. Con soporte para más de 100 idiomas y capacidades únicas en llamadas de funciones y búsqueda de código, sirve como una solución unificada para equipos que requieren un refinamiento preciso de la búsqueda en contenido internacional, documentación de API y bases de código multilingües. El diseño compacto de 278M de parámetros del modelo lo hace particularmente atractivo para las organizaciones que buscan equilibrar el alto rendimiento con la eficiencia de los recursos.
Métodos
El modelo emplea una arquitectura de codificador cruzado mejorada con Flash Attention 2, lo que permite la comparación directa entre consultas y documentos para una evaluación de relevancia más precisa. Entrenado mediante un proceso de cuatro etapas, el modelo primero establece las capacidades del idioma inglés, luego incorpora progresivamente datos multilingües e interlingüísticos, antes del refinamiento final con ejemplos negativos. Este innovador enfoque de entrenamiento, combinado con la implementación de Flash Attention 2, permite al modelo gestionar una longitud de contexto de hasta 1024 tokens, con compatibilidad con fragmentación automática para documentos más extensos. La eficiencia de la arquitectura le permite gestionar tareas complejas de reclasificación en varios idiomas con un rendimiento seis veces superior al de su predecesor, a la vez que garantiza una evaluación de relevancia precisa mediante la interacción directa entre la consulta y el documento.
Actuación
En evaluaciones del mundo real, el modelo demuestra capacidades excepcionales en diversos puntos de referencia. Alcanza un rendimiento de vanguardia en la clasificación de AirBench para sistemas RAG y muestra sólidos resultados en tareas multilingües, incluido el conjunto de datos MKQA que cubre 26 idiomas. El modelo se destaca particularmente en tareas de datos estructurados, logrando altos puntajes de recuperación tanto en llamadas de funciones (punto de referencia ToolBench) como en coincidencias de esquemas SQL (punto de referencia NSText2SQL). Lo más impresionante es que ofrece estos resultados mientras procesa documentos 15 veces más rápido que modelos comparables como bge-reranker-v2-m3, lo que lo hace práctico para aplicaciones en tiempo real. Sin embargo, los usuarios deben tener en cuenta que el rendimiento óptimo requiere una GPU compatible con CUDA para la inferencia.
Guía
Para una implementación óptima, el modelo requiere una GPU compatible con CUDA y se puede acceder a él a través de múltiples canales, incluyendo la API Reranker, los principales frameworks RAG como Haystack y LangChain, o de forma privada a través de marketplaces en la nube. El modelo destaca en escenarios que requieren una comprensión precisa de las barreras lingüísticas y los tipos de datos, lo que lo hace ideal para empresas globales que trabajan con contenido multilingüe, documentación de API o repositorios de código. Con una ventana de contexto de 1024 tokens y fragmentación automática para documentos más largos, el modelo gestiona el contenido extendido de forma eficiente. Los equipos deberían considerar este modelo cuando necesiten mejorar la precisión de las búsquedas en diferentes idiomas, requieran capacidades de llamada a funciones para sistemas RAG con agentes o deseen mejorar la funcionalidad de búsqueda de código en bases de código multilingües. El modelo es especialmente eficaz cuando se utiliza junto con sistemas de búsqueda vectorial, donde puede mejorar significativamente la clasificación final de los documentos recuperados.
Blogs que mencionan este modelo









