Новости
Модели
Продукты
keyboard_arrow_down
Глубокий поиск
Ищите, читайте и рассуждайте, пока не найдете лучший ответ.
Читатель
Читайте URL-адреса и ищите информацию в Интернете для получения более подходящей подготовки для получения степени магистра права.
Вложения
Мультимодальные многоязычные вложения мирового класса.
Реранкер
Нейронный ретривер мирового класса для максимального повышения релевантности поиска.
Более
keyboard_arrow_down
Классификатор
Классификация изображений и текста по нулевому и небольшому количеству кадров.
Сегментатор
Разрежьте длинный текст на куски и выполните токенизацию.

API-документы
Автоматическая генерация кода для вашего второго пилота IDE или LLM
open_in_new


Компания
keyboard_arrow_down
О нас
Связаться с отделом продаж
Стажерская программа
Присоединяйтесь к нам
open_in_new
Скачать логотип
open_in_new
Условия использования


Авторизоваться
login
copyright

jina-embeddings-v3

Модель многоязыкового встраивания Frontier с производительностью SOTA
Выпуск Постarrow_forward
Лицензия
copyright
CC-BY-NC-4.0
Дата выпуска
calendar_month
2024-09-18
Вход
abc
Текст
arrow_forward
Выход
more_horiz
Вектор
Подробности модели
Параметры: 570M
Длина входного токена: 8K
Выходной размер: 1024
Поддержка языков
🌍 Многоязычная поддержка
Похожие модели
link
jina-embeddings-v2-base-en
link
jina-embeddings-v2-base-zh
link
jina-embeddings-v2-base-de
link
jina-embeddings-v2-base-es
link
jina-embeddings-v2-base-code
Теги
text-embedding
multilingual
high-dimension
long-context
production
base-model
matryoshka
lora-adapters
Доступно через
API ДжинаКоммерческая лицензияAWS SageMakerMicrosoft AzureGoogle ОблакоОбнимающее лицо
График ввода-вывода
Выберите модели для сравнения
Публикации (3)
arXiv
декабрь 17, 2024
AIR-Bench: Automated Heterogeneous Information Retrieval Benchmark
ECIR 2025
сентябрь 18, 2024
jina-embeddings-v3: Multilingual Embeddings With Task LoRA
arXiv
сентябрь 07, 2024
Late Chunking: Contextual Chunk Embeddings Using Long-Context Embedding Models

Обзор

Jina Embeddings v3 — это новаторская многоязычная модель встраивания текста, которая преобразует то, как организации справляются с пониманием и поиском текста на разных языках. По своей сути, она решает критическую задачу поддержания высокой производительности на разных языках и задачах, сохраняя при этом управляемость вычислительных требований. Модель особенно блестит в производственных средах, где важна эффективность — она достигает самой современной производительности всего с 570 млн параметров, что делает ее доступной для команд, которые не могут позволить себе вычислительные издержки более крупных моделей. Организации, которым необходимо создавать масштабируемые многоязычные поисковые системы или анализировать контент, несмотря на языковые барьеры, найдут эту модель особенно ценной.

Методы

Архитектура модели представляет собой значительное новшество в технологии встраивания, построенное на основе jina-XLM-RoBERTa с 24 слоями и улучшенное с помощью адаптеров Low-Rank Adaptation (LoRA) для конкретных задач. Адаптеры LoRA — это специализированные компоненты нейронной сети, которые оптимизируют модель для различных задач, таких как поиск, классификация или кластеризация, без значительного увеличения количества параметров — они добавляют менее 3% к общему количеству параметров. Модель включает в себя Matryoshka Representation Learning (MRL), что позволяет гибко сокращать встраивания с 1024 до 32 измерений, сохраняя производительность. Обучение включало трехэтапный процесс: начальное предварительное обучение на многоязычном тексте из 89 языков, тонкую настройку на парных текстах для качества встраивания и специализированное обучение адаптера для оптимизации задач. Модель поддерживает длину контекста до 8192 токенов с помощью Rotary Position Embeddings (RoPE) с инновационной методикой регулировки базовой частоты, которая повышает производительность как для коротких, так и для длинных текстов.

Производительность

Модель демонстрирует исключительное соотношение эффективности и производительности в реальных тестах, превосходя как альтернативы с открытым исходным кодом, так и фирменные решения от OpenAI и Cohere в задачах на английском языке, при этом превосходя в многоязычных сценариях. Самое удивительное, что она достигает лучших результатов, чем e5-mistral-7b-instruct, которая имеет в 12 раз больше параметров, что подчеркивает ее замечательную эффективность. В оценках MTEB она достигает среднего балла 65,52 по всем задачам, с особенно высокими показателями точности классификации (82,58) и сходства предложений (85,80). Модель сохраняет стабильную производительность на разных языках, набрав 64,44 балла на многоязычных задачах. При использовании MRL для сокращения размерности она сохраняет высокую производительность даже в более низких размерностях - например, сохраняя 92% своей производительности поиска при 64 измерениях по сравнению с полными 1024 измерениями.

Руководство

Для эффективного развертывания Jina Embeddings v3 команды должны рассмотреть свой конкретный вариант использования, чтобы выбрать подходящий адаптер задач: retrieval.query и retrieval.passage для поисковых приложений, разделение для задач кластеризации, классификация для категоризации и сопоставление текста для семантического сходства. Для оптимальной производительности модели требуется оборудование с поддержкой CUDA, хотя ее эффективная архитектура означает, что ей требуется значительно меньше памяти GPU, чем более крупным альтернативам. Для производственного развертывания интеграция AWS SageMaker обеспечивает оптимизированный путь к масштабируемости. Модель отлично работает в многоязычных приложениях, но может потребовать дополнительной оценки для языков с низкими ресурсами. Хотя она поддерживает длинные документы до 8192 токенов, оптимальная производительность достигается с помощью функции позднего фрагментирования для очень длинных текстов. Командам следует избегать использования модели для задач, требующих генерации в реальном времени или сложных рассуждений — она предназначена для встраивания и извлечения, а не для генерации текста или прямых ответов на вопросы.
Блоги, в которых упоминается эта модель
сентябрь 18, 2024 • 10 минуты чтения
Jina Embeddings v3: Передовая мультиязычная модель для создания эмбеддингов
jina-embeddings-v3 - это передовая многоязычная модель текстовых эмбеддингов с 570M параметров и длиной токена 8192, превосходящая по показателям последние проприетарные эмбеддинги от OpenAI и Cohere на бенчмарке MTEB.
Jina AI
Dynamic image showing the characters "V3" formed by bright green dots varying in size on a black background.
май 07, 2025 • 9 минуты чтения
Рецепт "супа" моделей для эмбеддингов
Повысьте надежность и производительность с помощью model soups: усреднение весов. Никаких дополнительных затрат, лучшие результаты.
Bo Wang
Scott Martens
Still life drawing of a purple bowl filled with apples and oranges on a white table. The scene features rich colors against a
апрель 16, 2025 • 10 минуты чтения
О влиянии размерного смещения текстовых эмбеддингов на поисковые результаты
Размерное искажение описывает то, как длина текстовых данных влияет на оценку схожести, независимо от семантической релевантности. Это объясняет, почему поисковые системы иногда возвращают длинные, малорелевантные документы вместо более коротких и точных совпадений с вашим запросом.
Scott Martens
Black background with a simple white ruler marked in centimeters, emphasizing a minimalist design.
апрель 08, 2025 • 21 минуты чтения
jina-reranker-m0: Многоязычный мультимодальный ранжировщик документов
Представляем jina-reranker-m0, наш новый мультиязычный мультимодальный ранжировщик для поиска визуальных документов, демонстрирующий передовую производительность в задачах поиска многоязычных длинных документов и программного кода.
Jina AI
Modern dot matrix text display on a dark blue background, conveying a digital feel.
март 12, 2025 • 11 минуты чтения
Выбор фрагментов и ранжирование URL в DeepSearch/DeepResearch
Два эти момента превращают ваш DeepSearch из посредственного в великолепный: отбор лучших фрагментов из длинных веб-страниц и ранжирование URL-адресов перед их обходом.
Han Xiao
Logo with words "THINK SEARCH THINK" in black dot and arrow patterns on an orange background, accompanied by horizontal lines
Офисы
location_on
Саннивейл, Калифорния
710 Lakeway Dr, Ste 200, Саннивейл, Калифорния 94085, США
location_on
Берлин, Германия (штаб-квартира)
Prinzessinnenstraße 19-20, 10969 Берлин, Германия
location_on
Пекин, Китай
Уровень 5, здание 6, ул. Хайдянь Вест, д. 48, Пекин, Китай
location_on
Шэньчжэнь, Китай
402, этаж 4, здание Fu'an Technology, Шэньчжэнь, Китай
Поиск Фонда
Глубокий поиск
Читатель
Вложения
Реранкер
Классификатор
Сегментатор
API-документация
Получить API-ключ Jina
Ограничение скорости
Статус API
Компания
О нас
Связаться с отделом продаж
отдел новостей
Стажерская программа
Присоединяйтесь к нам
open_in_new
Скачать логотип
open_in_new
Условия
Безопасность
Условия использования
Конфиденциальность
Управление файлами cookie
email
Jina AI © 2020-2025.