Новости
Модели
API
keyboard_arrow_down
Читатель
Читайте URL-адреса и ищите информацию в Интернете для получения более подходящей подготовки для получения степени магистра права.
Вложения
Мультимодальные многоязычные вложения мирового класса.
Реранкер
Нейронный ретривер мирового класса для максимального повышения релевантности поиска.
Elastic Inference Service
Запускайте модели Jina непосредственно в Elasticsearch.
MCP terminalCLIarticlellms.txtsmart_toyАгентыdata_objectСхемаmenu_bookДокументы



Авторизоваться
login

Связаться с отделом продаж

Развивайте свой бизнес с Jina AI.

Два способа покупки

Подпишитесь на наш API или приобретите подписку через облачных провайдеров.
radio_button_unchecked
cloud
С 3 поставщиками облачных услуг
Ваша компания использует AWS или Azure? Затем напрямую разверните наши модели базы поиска на этих платформах в вашей компании, чтобы ваши данные оставались в безопасности и соответствовали требованиям.
AWS SageMaker
Вложения
Реранкер
Microsoft Azure
Вложения
Реранкер
Google Cloud
Вложения
radio_button_checked
С API Jina Search Foundation
Самый простой способ получить доступ ко всем нашим продуктам. Пополняйте токены по мере использования.
Пополните этот ключ API дополнительными токенами
В зависимости от вашего местоположения с вас может взиматься плата в долларах США, евро или других валютах. Могут взиматься налоги.
Пожалуйста, введите правильный ключ API для пополнения счета.
Понять ограничение скорости
Ограничения скорости — это максимальное количество запросов, которые можно сделать к API в течение минуты на IP-адрес/ключ API (RPM). Узнайте больше об ограничениях скорости для каждого продукта и уровня ниже.
keyboard_arrow_down
Ограничение скорости
Ограничения скорости отслеживаются тремя способами: RPM (запросы в минуту) и TPM (токены в минуту). Ограничения применяются для каждого IP/API-ключа и срабатывают при достижении порогового значения RPM или TPM. Когда вы указываете ключ API в заголовке запроса, мы отслеживаем ограничения скорости по ключу, а не по IP-адресу.
ПродуктКонечная точка APIОписаниеarrow_upwardбез API-ключаkey_offс бесплатным API-ключомkeyс платным API-ключомkeyс премиум-ключом APIkeyСредняя задержкаПодсчет использования токеновРазрешенный запрос
API-интерфейс читателяhttps://r.jina.aiПреобразовать URL в текст, понятный LLM20 RPM500 RPM500 RPMtrending_up5000 RPM7.9sПодсчитайте количество токенов в выходном ответе.GET/POST
API-интерфейс читателяhttps://s.jina.aiПоиск в Интернете и преобразование результатов в текст, понятный LLMblock100 RPM100 RPMtrending_up1000 RPM2.5sКаждый запрос стоит фиксированное количество токенов, начиная с 10000 токенов.GET/POST
API реранкераhttps://api.jina.ai/v1/rerankРанжировать документы по запросуblock100 RPM & 100,000 TPM500 RPM & 2,000,000 TPMtrending_up5,000 RPM & 50,000,000 TPM
ssid_chart
зависит от размера входных данных
help
Подсчитайте количество токенов во входном запросе.POST
Встраивание APIhttps://api.jina.ai/v1/embeddingsПреобразование текста/изображений в векторы фиксированной длиныblock100 RPM & 100,000 TPM500 RPM & 2,000,000 TPMtrending_up5,000 RPM & 50,000,000 TPM
ssid_chart
зависит от размера входных данных
help
Подсчитайте количество токенов во входном запросе.POST
API классификатораhttps://api.jina.ai/v1/trainОбучить классификатор с использованием маркированных примеровblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
зависит от размера входных данных
Токены подсчитываются как: input_tokens × num_itersPOST
API классификатора (Несколько выстрелов)https://api.jina.ai/v1/classifyКлассифицируйте входные данные с помощью обученного классификатора с несколькими попыткамиblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
зависит от размера входных данных
Токены учитываются как: input_tokensPOST
API классификатора (Нулевой выстрел)https://api.jina.ai/v1/classifyКлассифицируйте входные данные, используя классификацию с нулевым результатомblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
зависит от размера входных данных
Токены считаются как: input_tokens + label_tokensPOST
API сегментатораhttps://api.jina.ai/v1/segmentТокенизация и сегментация длинного текста20 RPM200 RPM200 RPM1,000 RPM0.3sТокен не считается использованием.GET/POST
Глубокий поискhttps://deepsearch.jina.ai/v1/chat/completionsРассуждайте, ищите и повторяйте, чтобы найти лучший ответ.block50 RPM50 RPM500 RPM56.7sПодсчитайте общее количество токенов за весь процесс.POST

Часто задаваемые вопросы

Jina AI × Elastic

handshake
Будет ли сохранен бренд Jina?
keyboard_arrow_down
Да. Jina трансформируется в бренд, ориентированный на поисковые модели. Представьте это как переход от Qwen к Alibaba, от GPT к OpenAI или от Kimi к Moonshot. Мы постепенно изменим юридическое наименование компании с "Jina AI" на Elastic, что позволит Jina AI сосредоточиться исключительно на моделях поисковой оптимизации как бренде.
handshake
На чём Jina AI сосредоточит свои усилия в дальнейшем?
keyboard_arrow_down
Встраивание данных, переранжирование и небольшие языковые модели для улучшения поиска. Наша миссия еще не выполнена — мы никогда не скрывали своей цели: стать поставщиком поисковых моделей мирового класса.
handshake
Будут ли и дальше предлагаться API и облачные сервисы?
keyboard_arrow_down
Да. Разработка и поддержка API для чтения, API для встраивания и API для ранжирования будут продолжены. Для каждой выпущенной нами модели мы также будем публиковать ее на облачных платформах. Вы можете продолжать использовать наши API-сервисы, как и раньше. Единственное исключение — мы не можем обслуживать организации или страны, подпадающие под действие экспортного контроля США.
handshake
Вы по-прежнему будете публиковать модели для тренировок с открытыми весами на Hugging Face?
keyboard_arrow_down
Да. В Elastic Джина продолжит расширять границы возможностей моделей поисковой оптимизации, и мы продолжим выпускать модели с открытыми весами.
handshake
Под какой лицензией будут выпущены эти открытые модели?
keyboard_arrow_down
Мы продолжим публиковать материалы под лицензией CC-BY-NC 4.0, если только обстоятельства не изменятся, что маловероятно.
handshake
Вы продолжите публиковать научные статьи?
keyboard_arrow_down
Да. Каждая выпущенная нами модель будет подкреплена серьезной научной статьей, и мы продолжим подавать заявки на участие в ведущих конференциях, таких как ICLR, EMNLP, SIGIR, NeurIPS и ICML.
handshake
Я пока не являюсь клиентом Jina или Elastic, но хочу использовать API для чтения, API для работы с моделями или образы из облачного маркетплейса. Что мне следует сделать?
keyboard_arrow_down
Просто зарегистрируйтесь и оплатите через наш веб-сайт или соответствующую облачную торговую площадку, как и раньше.
handshake
Я уже являюсь платным клиентом Elastic и хочу использовать API для чтения, API для работы с моделями или образы из облачного маркетплейса. Что мне следует сделать?
keyboard_arrow_down
В настоящее время наши продукты не входят в ассортимент Elastic, поэтому для доступа к этим услугам вам по-прежнему потребуется оплачивать их через наш веб-сайт. В ближайшем будущем модели Jina будут доступны через Elastic Inference Service.
handshake
Я являюсь платным клиентом Elastic и хочу использовать модели встраивания и переранжирования Jina локально в коммерческих целях — не через API или облачный маркетплейс. Что мне следует сделать?
keyboard_arrow_down
Если у вас есть платная лицензия Elastic, коммерческое использование наших моделей, скорее всего, уже включено. Вы можете начать использовать их напрямую. Если вы не уверены, пожалуйста, свяжитесь с вашим представителем отдела продаж Elastic или специалистом по технической поддержке на местах — они свяжутся с нами для подтверждения.
handshake
Я не являюсь клиентом Elastic, и хочу использовать модели встраивания и переранжирования Jina локально в коммерческих целях — не через API или облачный маркетплейс. Что мне следует сделать?
keyboard_arrow_down
В настоящее время мы интегрируемся с Elastic, поэтому дальнейшие шаги скоро станут яснее. На данный момент мы не можем заключать отдельные коммерческие лицензионные соглашения на наши модели.
handshake
Я приобретаю ваши услуги как китайская организация. Могу ли я получить китайский счет-фактуру (发票)?
keyboard_arrow_down
У нас нет юридического лица в Китае, поэтому мы не можем выставлять счета в Китае. Счета выставляет компания Jina AI GmbH, наш головной офис в Германии.
handshake
Я хочу заключить контракт с Jina AI. Что мне следует сделать?
keyboard_arrow_down
Договорные соглашения всегда составляли лишь небольшую часть коммерческой модели Jina AI — большинство наших клиентов используют самообслуживание с оплатой по мере использования. В настоящее время, пока мы интегрируемся с Elastic, мы не заключаем новые контракты.
handshake
Я являюсь платным клиентом Elastic и хочу узнать о лучших практиках использования эмбеддингов и моделей переранжирования, или же меня в целом интересует разработка Jina AI. Что мне следует сделать?
keyboard_arrow_down
Свяжитесь с представителем отдела продаж Elastic, и мы организуем встречу между вами, командой Jina AI и представителями Elastic для обсуждения вопросов.

Как получить мой ключ API?

video_not_supported

Каков предел ставки?

Ограничение скорости
Ограничения скорости отслеживаются тремя способами: RPM (запросы в минуту) и TPM (токены в минуту). Ограничения применяются для каждого IP/API-ключа и срабатывают при достижении порогового значения RPM или TPM. Когда вы указываете ключ API в заголовке запроса, мы отслеживаем ограничения скорости по ключу, а не по IP-адресу.
ПродуктКонечная точка APIОписаниеarrow_upwardбез API-ключаkey_offс бесплатным API-ключомkeyс платным API-ключомkeyс премиум-ключом APIkeyСредняя задержкаПодсчет использования токеновРазрешенный запрос
API-интерфейс читателяhttps://r.jina.aiПреобразовать URL в текст, понятный LLM20 RPM500 RPM500 RPMtrending_up5000 RPM7.9sПодсчитайте количество токенов в выходном ответе.GET/POST
API-интерфейс читателяhttps://s.jina.aiПоиск в Интернете и преобразование результатов в текст, понятный LLMblock100 RPM100 RPMtrending_up1000 RPM2.5sКаждый запрос стоит фиксированное количество токенов, начиная с 10000 токенов.GET/POST
API реранкераhttps://api.jina.ai/v1/rerankРанжировать документы по запросуblock100 RPM & 100,000 TPM500 RPM & 2,000,000 TPMtrending_up5,000 RPM & 50,000,000 TPM
ssid_chart
зависит от размера входных данных
help
Подсчитайте количество токенов во входном запросе.POST
Встраивание APIhttps://api.jina.ai/v1/embeddingsПреобразование текста/изображений в векторы фиксированной длиныblock100 RPM & 100,000 TPM500 RPM & 2,000,000 TPMtrending_up5,000 RPM & 50,000,000 TPM
ssid_chart
зависит от размера входных данных
help
Подсчитайте количество токенов во входном запросе.POST
API классификатораhttps://api.jina.ai/v1/trainОбучить классификатор с использованием маркированных примеровblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
зависит от размера входных данных
Токены подсчитываются как: input_tokens × num_itersPOST
API классификатора (Несколько выстрелов)https://api.jina.ai/v1/classifyКлассифицируйте входные данные с помощью обученного классификатора с несколькими попыткамиblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
зависит от размера входных данных
Токены учитываются как: input_tokensPOST
API классификатора (Нулевой выстрел)https://api.jina.ai/v1/classifyКлассифицируйте входные данные, используя классификацию с нулевым результатомblock25 RPM & 25,000 TPM125 RPM & 500,000 TPM1,250 RPM & 12,000,000 TPM
ssid_chart
зависит от размера входных данных
Токены считаются как: input_tokens + label_tokensPOST
API сегментатораhttps://api.jina.ai/v1/segmentТокенизация и сегментация длинного текста20 RPM200 RPM200 RPM1,000 RPM0.3sТокен не считается использованием.GET/POST
Глубокий поискhttps://deepsearch.jina.ai/v1/chat/completionsРассуждайте, ищите и повторяйте, чтобы найти лучший ответ.block50 RPM50 RPM500 RPM56.7sПодсчитайте общее количество токенов за весь процесс.POST

Нужна ли мне коммерческая лицензия?

Самостоятельная проверка лицензии CC BY-NC

play_arrow
Вы используете наш официальный API или официальные образы в Azure, AWS или GCP?
play_arrow
Да
Никаких ограничений. Просто зарегистрируйтесь и оплатите через наш сайт или облачную торговую площадку.
play_arrow
Нет
play_arrow
Вы являетесь платным клиентом Elastic?
play_arrow
Да
Вероятно, коммерческое использование уже включено в вашу лицензию Elastic. Если вы не уверены, свяжитесь с представителем отдела продаж Elastic.
Связаться с отделом продаж
play_arrow
Нет
В настоящее время мы не можем заключать отдельные коммерческие лицензионные соглашения. Для получения дополнительной информации, пожалуйста, свяжитесь с отделом продаж Elastic.
Связаться с отделом продаж

Другие вопросы

Общие вопросы, связанные с читателями
Каковы затраты, связанные с использованием Reader API?
keyboard_arrow_down
API для чтения бесплатен для базового использования — просто добавьте 'https://r.jina.ai/' к вашему URL. Для более высоких лимитов запросов вы можете указать ключ API, который будет взимать токены в зависимости от длины контента. Подробности об ограничениях запросов см. в вопросе 16.
Как работает API Reader?
keyboard_arrow_down
API Reader использует прокси-сервер для получения любого URL-адреса, отображая его содержимое в браузере для извлечения высококачественного основного контента.
Является ли Reader API открытым исходным кодом?
keyboard_arrow_down
Да, Reader API имеет открытый исходный код и доступен в репозитории Jina AI GitHub.
Какова типичная задержка для Reader API?
keyboard_arrow_down
Reader API обычно обрабатывает URL-адреса и возвращает контент в течение 2 секунд, хотя для сложных или динамических страниц может потребоваться больше времени.
Почему мне следует использовать Reader API вместо того, чтобы самостоятельно очищать страницу?
keyboard_arrow_down
Парсинг может быть сложным и ненадежным, особенно для сложных или динамических страниц. Reader API обеспечивает оптимизированный и надежный вывод чистого текста, готового к LLM.
Поддерживает ли Reader API несколько языков?
keyboard_arrow_down
API Reader возвращает контент на исходном языке URL-адреса. Он не предоставляет услуги перевода.
Что делать, если веб-сайт блокирует Reader API?
keyboard_arrow_down
Если у вас возникли проблемы с блокировкой, обратитесь в нашу службу поддержки для помощи и решения.
Может ли Reader API извлекать контент из PDF-файлов?
keyboard_arrow_down
Хотя Reader API в первую очередь предназначен для веб-страниц, он может извлекать контент из PDF-файлов, просматриваемых в формате HTML на таких веб-сайтах, как arXiv, но он не оптимизирован для общего извлечения PDF-файлов.
Может ли Reader API обрабатывать медиаконтент с веб-страниц?
keyboard_arrow_down
Да, Reader может добавлять подписи к изображениям на веб-страницах, используя заголовок x-with-generated-alt. Это добавляет описательные alt-теги к изображениям, у которых их нет, что позволяет студентам, изучающим английский как второй язык, понимать визуальный контент. Функция создания видео-резюме планируется к выпуску в будущих версиях.
Можно ли использовать Reader API для локальных файлов HTML?
keyboard_arrow_down
Нет, Reader API может обрабатывать контент только с общедоступных URL-адресов.
Кэширует ли Reader API контент?
keyboard_arrow_down
Если вы запросите тот же URL-адрес в течение 5 минут, Reader API вернет кэшированный контент.
Могу ли я использовать API Reader для доступа к контенту после входа в систему?
keyboard_arrow_down
К сожалению нет.
Могу ли я использовать Reader API для доступа к PDF-файлам на arXiv?
keyboard_arrow_down
Да, вы можете использовать встроенную поддержку PDF в Reader (https://r.jina.ai/https://arxiv.org/pdf/2310.19923v4) или HTML-версию из arXiv (https:// r.jina.ai/https://arxiv.org/html/2310.19923v4)
Как работает подпись к изображению в Reader?
keyboard_arrow_down
Reader подписывает все изображения по указанному URL-адресу и добавляет `Image [idx]: [caption]` в качестве альтернативного тега (если он изначально отсутствует). Это позволяет последующим LLM-специалистам взаимодействовать с изображениями при рассуждениях, обобщениях и т. д.
Какова масштабируемость Reader? Могу ли я использовать его в производстве?
keyboard_arrow_down
Reader API разработан с учетом высокой масштабируемости. Он автоматически масштабируется на основе трафика в реальном времени, а максимальное количество параллельных запросов сейчас составляет около 4000. Мы активно поддерживаем его как один из основных продуктов Jina AI. Так что смело используйте его в производстве.
Каков предел скорости API Reader?
keyboard_arrow_down
Актуальную информацию об ограничениях скорости можно найти в таблице ниже. Обратите внимание, что мы активно работаем над улучшением ограничения скорости и производительности Reader API, таблица будет соответствующим образом обновлена.
speedОграничение скорости
Что такое Reader-LM? Как им пользоваться?
keyboard_arrow_down
ReaderLM-v2 — это наша новейшая модель обработки естественного языка (SLM) для преобразования необработанного HTML в чистый Markdown или JSON. Она обеспечивает трехкратное улучшение качества по сравнению с версией 1 и может извлекать структурированные данные с использованием JSON-схемы или инструкций на естественном языке. Вы можете использовать ее напрямую через API Reader с заголовком x-respond-with: readerlm-v2 или развернуть ее из облачных маркетплейсов (AWS, Azure, GCP).
launchAWS SageMakerlaunchGoogle CloudlaunchMicrosoft Azure
Как извлечь структурированные данные с веб-страниц?
keyboard_arrow_down
Используйте заголовок x-json-schema с определением схемы JSON или заголовок x-instruction с инструкциями на естественном языке. Обе функции работают с ReaderLM-v2 для извлечения определенных полей, таких как цены, заголовки, даты и т. д., с любой веб-страницы в структурированный формат JSON.
Действительно ли Reader активно обходит защиту веб-сайтов от ботов?
keyboard_arrow_down
Нет. Reader не обходит и не игнорирует механизмы защиты веб-сайтов, системы защиты от ботов или средства контроля доступа. Если веб-сайт распознает наш сервис как бота и блокирует запрос, это решение принимается во внимание. Мы работаем как стандартный веб-клиент и не используем методы, предназначенные для обхода систем обнаружения.
Позволит ли переход с бесплатного на платный API-ключ получить доступ к большему количеству веб-сайтов?
keyboard_arrow_down
Нет. Переход с бесплатного уровня на платный API-ключ не предоставляет доступ к дополнительным веб-сайтам и не обходит никаких ограничений сайтов. Разница между уровнями заключается в основном в ограничениях скорости запросов и оптимизации производительности. Платный API-ключ обеспечивает более высокую пропускную способность запросов и более быструю обработку, но он не предоставляет доступ к веб-сайтам, блокирующим наш сервис.
Общие вопросы, связанные с встраиваниями
Как обучались модели встраивания Jina?
keyboard_arrow_down
Подробную информацию о наших процессах обучения, источниках данных и оценках можно найти в наших технических отчетах на arXiv по jina-embeddings-v3 и jina-embeddings-v4.
launcharXiv
Какие у вас модели мультимодального встраивания?
keyboard_arrow_down
jina-embeddings-v4 — это наша новейшая универсальная мультимодальная модель (3,8 млрд параметров), поддерживающая текст и изображения с контекстом 32 тыс., плотным поиском и поиском с поздним взаимодействием, а также демонстрирующая лучшие результаты на визуально насыщенных документах. jina-clip-v2 — это более лёгкий вариант (865 млн параметров), поддерживающий 89 языков, с разрешением изображений 512x512 и представлением в виде матрёшки. Обе модели превосходно справляются с задачами поиска текста-текста, текста-изображения и изображения-изображения.
launcharXiv
Какие языки поддерживают ваши модели?
keyboard_arrow_down
Оба модуля jina-embeddings-v4 и jina-embeddings-v3 поддерживают 89 языков и демонстрируют высокую производительность в многоязычной среде. В число 30 наиболее популярных языков входят: арабский, бенгальский, китайский, датский, нидерландский, английский, финский, французский, грузинский, немецкий, греческий, хинди, индонезийский, итальянский, японский, корейский, латышский, норвежский, польский, португальский, румынский, русский, словацкий, испанский, шведский, тайский, турецкий, украинский, урду и вьетнамский. jina-clip-v2 также поддерживает 89 языков для мультимодальных задач.
launcharXiv
Какова максимальная длина ввода одного предложения?
keyboard_arrow_down
Длина контекста варьируется в зависимости от модели: jina-embeddings-v4 поддерживает до 32 000 токенов, в то время как jina-embeddings-v3 и jina-clip-v2 поддерживают до 8192 токенов. Токен может представлять собой как один символ, так и целое слово. Расширенный контекст обеспечивает всесторонний анализ документов и более высокую точность понимания контекста для больших объемов текстовых данных.
Какое максимальное количество предложений я могу включить в один запрос?
keyboard_arrow_down
Жестких ограничений на количество элементов в одном запросе нет. API внутренне группирует входные данные по количеству токенов для оптимального использования графического процессора. Вы можете отправить столько текстовых сообщений или изображений, сколько необходимо, в одном запросе.
Как отправить изображения в модели мультимодального встраивания?
keyboard_arrow_down
Для jina-embeddings-v4, jina-clip-v2 и jina-clip-v1 в поле input запроса API можно использовать либо url, либо bytes. Для url укажите URL изображения, которое вы хотите обработать. Для bytes закодируйте изображение в формате base64. jina-embeddings-v4 также может напрямую встраивать PDF-документы, передавая URL PDF-файла или закодированные в base64 байта PDF-файла.
Как модели Jina Embeddings соотносятся с новейшими встраиваниями OpenAI и Cohere?
keyboard_arrow_down
jina-embeddings-v4 — наша новейшая флагманская модель, демонстрирующая лучшие результаты в задачах поиска визуально насыщенных документов (ViDoRe) и многомодальных тестах. В задачах, связанных только с текстом, jina-embeddings-v3 превосходит OpenAI и Cohere в тестах MTEB English и Multilingual, при этом будучи меньше по размеру и эффективнее. Обе модели поддерживают обучение представлению «матрёшка» (MRL), позволяющее усекать размерность (до 32 для v3, до 128 для v4) без существенной потери производительности.
Насколько плавным будет переход от text-embedding-3-large от OpenAI к вашему решению?
keyboard_arrow_down
Переход оптимизирован, так как наша конечная точка API соответствует входным и выходным схемам JSON модели OpenAI text-embedding-3-large. Эта совместимость гарантирует, что пользователи могут легко заменить модель OpenAI на нашу при использовании конечной точки OpenAI.
Как рассчитываются токены при использовании моделей jina-clip?
keyboard_arrow_down
Токены рассчитываются на основе длины текста и размера изображения. Для текста в запросе токены подсчитываются стандартным образом. Для изображений выполняются следующие шаги: 1. Размер плитки: каждое изображение делится на плитки. Для jina-embeddings-v4 плитки имеют размер 28x28 пикселей, для jina-clip-v2 — 512x512 пикселей, а для jina-clip-v1 — 224x224 пикселя. 2. Покрытие: вычисляется количество плиток, необходимых для покрытия входного изображения. Даже если размеры изображения не делятся на размер плитки, частичные плитки считаются полными плитками. 3. Общее количество плиток: общее количество плиток, покрывающих изображение, определяет стоимость. Например, изображение размером 600x600 пикселей будет покрыто плитками 22x22 (484 плитки) в jina-embeddings-v4, плитками 2x2 (4 плитки) в jina-clip-v2 и плитками 3x3 (9 плиток) в jina-clip-v1. 4. Расчет стоимости: для jina-embeddings-v4 каждая плитка стоит 10 токенов, для jina-clip-v2 каждая плитка стоит 4000 токенов, а для jina-clip-v1 каждая плитка стоит 1000 токенов. Пример: Для изображения размером 600x600 пикселей: • С jina-embeddings-v4 • Изображение делится на плитки размером 28x28 пикселей. • Общее количество требуемых плиток составляет 22 (по горизонтали) x 22 (по вертикали) = 484 плитки. • Стоимость для jina-embeddings-v4 составит 484*10 = 4840 токенов. • С jina-clip-v2 • Изображение делится на плитки размером 512x512 пикселей. • Общее количество требуемых плиток составляет 2 (по горизонтали) x 2 (по вертикали) = 4 плитки. • Стоимость для jina-clip-v2 составит 4*4000 = 16000 токенов. • С jina-clip-v1 • Изображение делится на плитки размером 224x224 пикселей. • Общее количество требуемых плиток составляет 3 (по горизонтали) x 3 (по вертикали) = 9 плиток. • Стоимость jina-clip-v1 составит 9*1000 = 9000 токенов.
Предоставляете ли вы модели для встраивания изображений или аудио?
keyboard_arrow_down
Да, jina-clip-v2 и jina-clip-v1 могут встраивать как изображения, так и тексты. Скоро будет объявлено о встраивании моделей в большем количестве модальностей!
Можно ли точно настроить модели Jina Embedding с использованием частных данных или данных компании?
keyboard_arrow_down
По вопросам точной настройки наших моделей с использованием конкретных данных свяжитесь с нами, чтобы обсудить ваши требования. Мы открыты для изучения того, как наши модели могут быть адаптированы к вашим потребностям.
Контакт
Могут ли ваши конечные точки размещаться в частном порядке на AWS, Azure или GCP?
keyboard_arrow_down
Да, наши услуги доступны на торговых площадках AWS, Azure и GCP. Если у вас есть особые требования, свяжитесь с нами по адресу sales AT jina.ai.
launchAWS SageMakerlaunchGoogle CloudlaunchMicrosoft Azure
Что представляет собой параметр 'task' и когда его следует использовать?
keyboard_arrow_down
Параметр task в пакетах jina-embeddings-v3 и jina-embeddings-v4 активирует адаптеры LoRA, специфичные для каждой задачи, для оптимальной производительности. Используйте retrieval.query для поисковых запросов, retrieval.passage для поиска документов, text-matching для определения семантического сходства, classification для классификации текста и separation для задач кластеризации.
Что такое извлечение информации при позднем взаимодействии и какие модели его поддерживают?
keyboard_arrow_down
jina-embeddings-v4 поддерживает как плотный (одновекторный), так и многовекторный (с поздним взаимодействием) поиск с помощью параметра output_type. Позднее взаимодействие сохраняет более детальную информацию на уровне токенов для повышения точности поиска сложных запросов. jina-colbert-v2 — это специализированная модель для позднего взаимодействия.
Что такое «позднее сегментирование» и когда его следует использовать?
keyboard_arrow_down
Метод поздней сегментации (late chunking) сначала встраивает весь документ, используя модели с длинным контекстом, а затем извлекает векторные представления фрагментов из представлений на уровне токенов. В отличие от наивной сегментации (сначала фрагмент, затем встраивание), поздная сегментация сохраняет контекст между фрагментами, улучшая поиск для приложений RAG. Включить её можно с помощью параметра late_chunking в файле jina-embeddings-v3.
Почему API поддерживает длину контекста, отличающуюся от максимальной емкости модели?
keyboard_arrow_down
Хотя некоторые из наших моделей встраивания архитектурно способны обрабатывать контексты большей длины, API может устанавливать более низкие ограничения из-за ограничений видеопамяти графического процессора в нашей инфраструктуре вывода. Обработка очень длинных последовательностей требует значительного объема памяти, и мы оптимизируем нашу конфигурацию обслуживания, чтобы сбалансировать пропускную способность, задержку и стоимость для большинства сценариев использования. Если вам требуется поддержка контекстов большей длины, пожалуйста, свяжитесь с нашей командой продаж, чтобы обсудить варианты выделенного развертывания.
Почему jina-embeddings-v4 бесплатна и почему она работает медленно?
keyboard_arrow_down
Модель `jina-embeddings-v4` построена на основе базовой модели Qwen2-VL, распространяемой под лицензией Qwen Research License. Эта лицензия разрешает только исследовательское и некоммерческое использование, что означает, что мы не можем предлагать `jina-embeddings-v4` в качестве коммерческого продукта. В результате мы предоставляем доступ к модели бесплатно через наш API. Существует две причины, по которым `jina-embeddings-v4` может казаться медленнее, чем другие модели: во-первых, `jina-embeddings-v4` значительно больше, чем `jina-embeddings-v3`, поэтому она по своей природе требует больше вычислительного времени на каждый запрос. Во-вторых, поскольку мы не можем коммерциализировать эту модель, мы намеренно ограничиваем пропускную способность API для управления затратами на инфраструктуру. Пользователям не следует ожидать высокой пропускной способности или уровня производственной среды при использовании API `jina-embeddings-v4`. Для производственных нагрузок, требующих более высокой пропускной способности, мы рекомендуем использовать jina-embeddings-v3 или развернуть jina-embeddings-v4 на вашей собственной инфраструктуре с помощью Hugging Face.
Каковы ограничения скорости запросов к API Embeddings?
keyboard_arrow_down
Ограничения скорости зависят от типа вашего API-ключа:

Бесплатно: 100 RPM, 100K TPM, 2 одновременных запроса
Платно: 500 RPM, 2M TPM, 50 одновременных запросов
Премиум: 5000 RPM, 50M TPM, 500 одновременных запросов

Кроме того, существует ограничение скорости на основе IP-адреса в 10 000 запросов за 60 секунд для предотвращения злоупотреблений. Если вам нужны более высокие лимиты, пожалуйста, свяжитесь с нашей командой продаж.
Каковы ограничения по длине контекста для каждой модели встраивания?
keyboard_arrow_down
Для каждой модели существует максимальная длина контекста на вход:

jina-embeddings-v4: 32 768 токенов
jina-embeddings-v3: 8 192 токена
jina-embeddings-v2-*: 8 192 токена
jina-clip-v1/v2: 8 192 токена
jina-colbert-v1/v2: 8 192 токена
jina-code-embeddings-*: 32 768 токенов

Входные данные, превышающие лимит, будут возвращать ошибку, если не установлен параметр truncate: true, который автоматически обрезает данные до максимальной длины.
Каковы ограничения по размеру файлов для изображений и PDF-файлов?
keyboard_arrow_down
Максимальный размер файлов: Изображения: 5 МБ, PDF: 8 МБ. Файлы большего размера будут отклонены с ошибкой.
Общие вопросы, связанные с реранкером
Сколько стоит API Reranker?
keyboard_arrow_down
Цены на API Reranker соответствуют нашей структуре ценообразования Embedding API. Они начинаются с 10 миллионов бесплатных токенов за каждый новый ключ API. Помимо бесплатных токенов, для покупки доступны различные пакеты. Для получения более подробной информации посетите наш раздел цен.
В чём разница между программами для переранжирования рейтинга Джины?
keyboard_arrow_down
jina-reranker-v3 — это наш новейший флагманский инструмент для ранжирования документов с новой архитектурой, основанной на списках, обеспечивающий наилучшую многоязычную обработку с длиной контекста 131 000 символов. jina-reranker-m0 — это наш многомодальный инструмент для ранжирования визуальных документов на разных языках. jina-reranker-v2-base-multilingual — это кросс-кодировщик, поддерживающий более 100 языков, с возможностью вызова функций и поиска кода. jina-colbert-v2 использует позднее взаимодействие для 89 языков с возможностью управления размерами встраивания пользователем.
Имеют ли Jina Rerankers открытый исходный код?
keyboard_arrow_down
Да, все наши программы для переранжирования (jina-reranker-v3, jina-reranker-m0, jina-reranker-v2-base-multilingual и jina-colbert-v2) являются открытым исходным кодом и доступны под лицензией CC-BY-NC 4.0. Вы можете свободно использовать, распространять и адаптировать модели для некоммерческих целей.
Поддерживают ли рераннеры несколько языков?
keyboard_arrow_down
Да, все наши инструменты ранжирования поддерживают многоязычный поиск. jina-reranker-v3 и jina-reranker-v2-base-multilingual поддерживают более 100 языков. jina-reranker-m0 поддерживает многоязычное визуальное ранжирование документов. jina-colbert-v2 поддерживает 89 языков.
Какова максимальная длина контекста для каждой модели переранжирования?
keyboard_arrow_down
Длина контекста варьируется в зависимости от модели:

jina-reranker-v3: 131 072 токена (запрос + все документы вместе) с автоматическим усечением
jina-reranker-m0: 10 000 токенов
jina-reranker-v2-base-multilingual: 1024 токена с автоматическим разбиением на фрагменты для более длинных документов
jina-reranker-v1-*: 1024 токена с автоматическим разбиением на фрагменты
jina-colbert-v2: 8192 токена

Для реранжеров v1/v2 запросы автоматически усекаются, а длинные документы разбиваются на фрагменты с максимальным пулингом по фрагментам.
Существует ли ограничение на количество документов, которые я могу переранжировать за один запрос?
keyboard_arrow_down
Жестких ограничений на количество документов в одном запросе нет. Как и наш API для работы с эмбеддингами, API Reranker внутренне группирует входные данные по количеству токенов для оптимального использования графического процессора. Вы можете отправить столько документов, сколько необходимо, в одном запросе.
Какую задержку можно ожидать при изменении ранжирования 100 документов?
keyboard_arrow_down
Задержка варьируется от 100 миллисекунд до 7 секунд и во многом зависит от длины документов и запроса. Например, переоценка 100 документов по 256 токенов каждый с помощью запроса из 64 токенов занимает около 150 миллисекунд. Увеличение длины документа до 4096 токенов увеличивает время до 3,5 секунд. Если длина запроса увеличивается до 512 токенов, время увеличивается до 7 секунд.
Ниже приведены временные затраты на переоценку одного запроса и 100 документов в миллисекундах:
Количество токенов в каждом документе
Количество токенов в запросе256512102420484096
64156323136621073571
128194369137721233598
256273475139721554299
5124681385211435367068
Можно ли разместить ваши конечные точки в частном порядке на AWS, Azure или GCP?
keyboard_arrow_down
Да, наши услуги доступны на торговых площадках AWS, Azure и GCP. Если у вас есть особые требования, свяжитесь с нами по адресу sales AT jina.ai.
launchAWS SageMakerlaunchGoogle CloudlaunchMicrosoft Azure
Предлагаете ли вы точно настроенный механизм изменения рейтинга на основе данных, специфичных для конкретного домена?
keyboard_arrow_down
Если вы заинтересованы в точно настроенном механизме изменения рейтинга, адаптированном к конкретным данным домена, свяжитесь с нашим отделом продаж. Наша команда оперативно ответит на ваш запрос.
Контакт
Каков минимальный размер изображения для документов?
keyboard_arrow_down
Минимально допустимый размер изображения для модели jina-reranker-m0 составляет 28x28 пикселей.
Что такое построчное переранжирование и чем оно отличается от точечного?
keyboard_arrow_down
jina-reranker-v3 использует новую архитектуру пошагового ранжирования, которая оценивает все документы вместе за один проход, что позволяет сравнивать документы между собой. Традиционные точечные реранжировщики (например, v2) оценивают каждый документ независимо от запроса. Пошаговое реранжирование обеспечивает более высокую точность за счет понимания относительной релевантности во всем наборе кандидатов.
Почему API поддерживает длину контекста, отличающуюся от максимальной емкости модели?
keyboard_arrow_down
Хотя некоторые из наших моделей переранжирования архитектурно способны обрабатывать контексты большей длины, API может устанавливать более низкие ограничения из-за ограничений видеопамяти графического процессора в нашей инфраструктуре вывода. Обработка очень длинных последовательностей требует значительного объема памяти, и мы оптимизируем нашу конфигурацию обслуживания, чтобы сбалансировать пропускную способность, задержку и стоимость для большинства сценариев использования. Если вам требуется поддержка контекстов большей длины, пожалуйста, свяжитесь с нашей командой продаж, чтобы обсудить варианты выделенного развертывания.
Каковы ограничения скорости запросов к API Reranker?
keyboard_arrow_down
Ограничения скорости зависят от типа вашего API-ключа:

Бесплатно: 100 RPM, 100K TPM, 2 одновременных запроса
Платно: 500 RPM, 2M TPM, 50 одновременных запросов
Премиум: 5000 RPM, 50M TPM, 500 одновременных запросов

Также существует ограничение скорости на основе IP-адреса — 10 000 запросов за 60 секунд. Те же ограничения скорости применяются как к API Embeddings, так и к API Reranker.
Общие вопросы, связанные с API
code
Могу ли я использовать один и тот же ключ API для чтения, встраивания, переранжирования, классификации и тонкой настройки API?
keyboard_arrow_down
Да, тот же ключ API действителен для всех продуктов search foundation от Jina AI. Это включает в себя API считывателя, встраивания, переранжирования, классификации и тонкой настройки, с общими токенами для всех сервисов.
code
Могу ли я отслеживать использование токена моего ключа API?
keyboard_arrow_down
Да, использование токенов можно отслеживать на вкладке «API Key & Billing», введя свой API-ключ, что позволит вам просматривать недавнюю историю использования и оставшиеся токены. Если вы вошли в панель управления API, эти данные также можно просмотреть на вкладке «Manage API Key».
code
Что мне делать, если я забуду свой ключ API?
keyboard_arrow_down
Если вы потеряли пополненный ключ и хотите его восстановить, обратитесь в службу поддержки AT jina.ai, указав зарегистрированный адрес электронной почты, чтобы получить помощь. Рекомендуется войти в систему, чтобы ваш ключ API был надежно сохранен и легко доступен.
Контакт
code
Срок действия ключей API истекает?
keyboard_arrow_down
Нет, наши ключи API не имеют срока действия. Однако, если вы подозреваете, что ваш ключ был скомпрометирован, и хотите его удалить, обратитесь в нашу службу поддержки за помощью. Вы также можете отозвать свой ключ в панели управления ключами API.
Контакт
code
Могу ли я передавать токены между ключами API?
keyboard_arrow_down
Да, вы можете перенести токены с одного премиум-ключа на другой. После входа в свою учетную запись на панели управления ключами API используйте настройки ключа, который вы хотите перенести, чтобы переместить все оставшиеся оплаченные токены.
code
Могу ли я отозвать свой ключ API?
keyboard_arrow_down
Да, вы можете отозвать свой ключ API, если считаете, что он был скомпрометирован. Отзыв ключа немедленно отключит его для всех пользователей, которые его сохранили, а весь оставшийся баланс и связанные с ним свойства станут навсегда непригодными для использования. Если ключ является премиум-ключом, у вас есть возможность перевести оставшийся оплаченный баланс на другой ключ перед отзывом. Обратите внимание, что это действие нельзя отменить. Чтобы отозвать ключ, перейдите к настройкам ключа на панели управления ключами API.
code
Почему первый запрос для некоторых моделей выполняется медленно?
keyboard_arrow_down
Это происходит потому, что наша архитектура Serverless выгружает определенные модели в периоды низкого использования. Первоначальный запрос активирует или «разогревает» модель, что может занять несколько секунд. После этой первоначальной активации последующие запросы обрабатываются гораздо быстрее.
code
Используются ли данные из моего API для обучения ваших моделей?
keyboard_arrow_down
Нет. Мы никогда не используем ваши API-запросы, входные или выходные данные для обучения наших моделей эмбеддинга, реранжирования или любых других моделей. Ваши данные остаются вашими. Мы соответствуем стандартам SOC 2 Type I и Type II.
code
Каковы ограничения скорости запросов к API Jina?
keyboard_arrow_down
Для каждого ключа API действуют ограничения по количеству запросов:

Бесплатно: 100 RPM, 100K TPM, 2 одновременных запроса
Платно: 500 RPM, 2M TPM, 50 одновременных запросов
Премиум: 5000 RPM, 50M TPM, 500 одновременных запросов

Также существует ограничение по IP-адресу в 10 000 запросов за 60 секунд. Эти ограничения применяются ко всем API Jina (Embeddings, Reranker, Reader и т. д.).
code
Существуют ли ограничения на размер пакета для API?
keyboard_arrow_down
Для API Embeddings и Reranker нет ограничений по размеру пакета. Вы можете отправлять столько элементов или документов, сколько необходимо, за один запрос. Оба API обрабатывают входные данные пакетами по количеству токенов для оптимального использования графического процессора.
Общие вопросы, связанные с выставлением счетов
attach_money
Выставление счетов зависит от количества предложений или запросов?
keyboard_arrow_down
Наша модель ценообразования основана на общем количестве обработанных токенов, что позволяет пользователям гибко распределять эти токены по любому количеству предложений, предлагая экономически эффективное решение для разнообразных требований к анализу текста.
attach_money
Доступна ли бесплатная пробная версия для новых пользователей?
keyboard_arrow_down
Мы предлагаем приветственную бесплатную пробную версию для новых пользователей, которая включает десять миллионов токенов для использования с любой из наших моделей, с помощью автоматически сгенерированного ключа API. После того, как будет достигнут лимит бесплатных токенов, пользователи могут легко приобрести дополнительные токены для своих ключей API через вкладку «Купить токены».
attach_money
Взимаются ли токены за неудачные запросы?
keyboard_arrow_down
Нет, токены не снимаются за неудачные запросы.
attach_money
Какие способы оплаты принимаются?
keyboard_arrow_down
Платежи обрабатываются через Stripe, поддерживающий для вашего удобства различные способы оплаты, включая кредитные карты, Google Pay и PayPal.
attach_money
Доступно ли выставление счетов за покупку токенов?
keyboard_arrow_down
Да, после покупки токенов на адрес электронной почты, связанный с вашей учетной записью Stripe, будет выставлен счет.
Распространенные вопросы, связанные с DeepSearch
Что такое DeepSearch?
keyboard_arrow_down
DeepSearch — это API LLM, который выполняет итеративный поиск, чтение и рассуждения до тех пор, пока не найдет точный ответ на запрос или не достигнет лимита бюджета токенов.
Чем DeepSearch отличается от возможностей глубоких исследований OpenAI и Gemini?
keyboard_arrow_down
В отличие от OpenAI и Gemini, DeepSearch специально фокусируется на предоставлении точных ответов посредством итерации, а не на создании длинных статей. Он оптимизирован для быстрых, точных ответов из глубокого веб-поиска, а не для создания всесторонних отчетов.
Какой ключ API мне нужен для использования DeepSearch?
keyboard_arrow_down
Вам нужен ключ API Jina. Мы предлагаем 10M бесплатных токенов для новых ключей API.
Что происходит, когда DeepSearch достигает своего бюджета токенов? Возвращает ли он неполный ответ?
keyboard_arrow_down
Он генерирует окончательный ответ на основе всех накопленных знаний, а не просто отказывается от ответа или возвращает неполный ответ.
Гарантирует ли DeepSearch точные ответы?
keyboard_arrow_down
Нет. Хотя для повышения точности используется итеративный процесс поиска, оценка показывает, что он достигает 75%-ного процента успешных ответов на тестовых вопросах, что значительно лучше базового показателя в 0% (gemini-2.0-flash), но не идеально.
Сколько времени занимает типичный запрос DeepSearch?
keyboard_arrow_down
Он значительно варьируется - запросы могут занимать от 1 до 42 шагов, в среднем 4 шага на основе данных оценки. Это 20 секунд. Простые запросы могут быть решены быстро, в то время как сложные исследовательские вопросы могут включать много итераций и до 120 секунд.
Может ли DeepSearch работать с любым совместимым с OpenAI клиентом, таким как Chatwise, CherryStudio или ChatBox?
keyboard_arrow_down
Да, официальный API DeepSearch по адресу deepsearch.jina.ai/v1/chat/completions полностью совместим со схемой API OpenAI, используя 'jina-deepsearch-v1' в качестве имени модели. Поэтому очень легко переключиться с OpenAI на DeepSearch и использовать с локальными клиентами или любым клиентом, совместимым с OpenAI. Мы настоятельно рекомендуем Chatwise для бесперебойного опыта.
Каковы ограничения скорости для API?
keyboard_arrow_down
Ограничения скорости зависят от уровня ключа API и составляют от 10 RPM до 30 RPM. Это важно учитывать для приложений с большим объемом запросов.
Каково содержимое тега ?
keyboard_arrow_down
DeepSearch оборачивает шаги мышления в теги XML ... и затем предоставляет окончательный ответ, следуя формату потоковой передачи OpenAI, но с этими специальными маркерами для цепочки мыслей.
Использует ли DeepSearch Jina Reader для веб-поиска и чтения?
keyboard_arrow_down
Да. Jina Reader используется для веб-поиска и чтения, предоставляя системе возможность эффективного доступа и обработки веб-контента.
Почему DeepSearch использует так много токенов для моих запросов?
keyboard_arrow_down
Да, использование токенов DeepSearch в сложных запросах, возможно, высоко — в среднем 70 000 токенов по сравнению с 500 для базовых ответов LLM. Это показывает глубину исследования, но также имеет финансовые последствия.
Есть ли способ контролировать или ограничивать количество шагов?
keyboard_arrow_down
Система в первую очередь контролируется бюджетом токенов, а не количеством шагов. После превышения бюджета токенов она переходит в режим Beast Mode для генерации окончательного ответа. Проверьте reasoning_effort для получения более подробной информации.
Насколько надежны ссылки в ответах?
keyboard_arrow_down
Ссылки считаются настолько важными, что если ответ считается окончательным, но не имеет ссылок, система продолжает поиск, а не принимает ответ.
Может ли DeepSearch обрабатывать вопросы о будущих событиях?
keyboard_arrow_down
Да, но с обширными этапами исследования. Пример «кто будет президентом в 2028 году» показывает, что он может обрабатывать спекулятивные вопросы посредством нескольких итераций исследования, хотя точность таких прогнозов не гарантируется.
Общие вопросы, связанные с классификатором
Чем отличаются метки в нулевом и малом количестве снимков?
keyboard_arrow_down
Zero-shot требует семантических меток во время классификации и ничего во время обучения, в то время как few-shot требует меток во время обучения, но не классификации. Это означает, что zero-shot лучше подходит для гибких, немедленных потребностей в классификации, в то время как few-shot лучше подходит для фиксированных, специфичных для домена категорий, которые могут меняться со временем.
Для чего нужен num_iters и как его использовать?
keyboard_arrow_down
num_iters контролирует интенсивность обучения — более высокие значения усиливают важные примеры, а более низкие значения минимизируют влияние менее надежных данных. Его можно использовать для внедрения обучения с учетом времени, предоставляя недавним примерам более высокие числа итераций, что делает его ценным для развивающихся шаблонов данных.
Как работает публичный обмен классификаторами?
keyboard_arrow_down
Публичные классификаторы могут использоваться любым человеком с classifier_id, потребляя собственную квоту токенов. Пользователи не могут получить доступ к данным обучения или конфигурации и не могут видеть запросы классификации других, что позволяет безопасно делиться классификаторами.
Сколько данных мне нужно для эффективной работы метода few-shot?
keyboard_arrow_down
Few-shot требует 200-400 обучающих примеров, чтобы превзойти классификацию zero-shot. Хотя в конечном итоге он достигает более высокой точности, ему необходим этот период разминки, чтобы стать эффективным. Zero-shot обеспечивает постоянную производительность немедленно без обучающих данных.
Может ли он обрабатывать несколько языков и текст/изображения?
keyboard_arrow_down
Да, API поддерживает многоязычные запросы с использованием jina-embeddings-v3 и многомодальную (текст/изображение) классификацию с использованием jina-clip-v2 или jina-embeddings-v4, с поддержкой изображений в формате URL или base64 в одном запросе.
О каких жестких ограничениях мне следует знать?
keyboard_arrow_down
Zero-shot поддерживает 256 классов без ограничения по классификаторам, в то время как few-shot ограничен 16 классами и 16 классификаторами. Оба поддерживают 1024 входа на запрос и 8192 токена на вход.
Как обрабатывать изменения данных с течением времени?
keyboard_arrow_down
Режим Few-shot позволяет непрерывно обновлять конечную точку /train для адаптации к изменяющимся шаблонам данных. Вы можете постепенно добавлять новые примеры или классы при изменении распределения данных, не перестраивая весь классификатор.
Что происходит с моими тренировочными данными после их отправки?
keyboard_arrow_down
API использует однопроходное онлайн-обучение — обучающие примеры обновляют веса классификатора, но не сохраняются после этого. Это означает, что вы не можете извлечь исторические обучающие данные, но это обеспечивает конфиденциальность и эффективность ресурсов.
Нулевой или малый выстрел — когда какой использовать?
keyboard_arrow_down
Начните с нулевого выстрела для немедленных результатов и когда вам нужна гибкая классификация с семантическими метками. Переключитесь на несколько выстрелов, когда у вас 200-400 примеров, нужна более высокая точность или вам нужно обрабатывать доменно-зависимые/временные данные.
Могу ли я использовать разные модели для разных языков/задач?
keyboard_arrow_down
Да, вы можете выбрать между jina-embeddings-v3 для классификации текста (особенно хорошо подходит для многоязычных данных), jina-clip-v2 для мультимодальной классификации (89 языков) или jina-embeddings-v4 для универсальной мультимодальной многоязычной классификации.
Распространенные вопросы, связанные с сегментатором
Сколько стоит API Segmenter?
keyboard_arrow_down
API Segmenter можно использовать бесплатно. Предоставляя свой ключ API, вы можете получить доступ к более высокому пределу скорости, и ваш ключ не будет оплачиваться.
Если я не предоставлю ключ API, каков предел скорости?
keyboard_arrow_down
Без ключа API вы можете получить доступ к API Segmenter со скоростью 20 об/мин.
Если я предоставлю ключ API, каков предел скорости?
keyboard_arrow_down
С помощью API-ключа вы можете получить доступ к API Segmenter с ограничением скорости 200 RPM. Для платных пользователей премиум-подписки ограничение скорости составляет 1000 RPM.
Будете ли вы взимать плату за токены с моего ключа API?
keyboard_arrow_down
Нет, ваш ключ API используется только для доступа к более высокому лимиту скорости.
Поддерживает ли API Segmenter несколько языков?
keyboard_arrow_down
Да, API Segmenter многоязычен и поддерживает более 100 языков.
В чем разница между запросами GET и POST?
keyboard_arrow_down
Запросы GET используются исключительно для подсчета количества токенов в тексте, что позволяет вам легко интегрировать его в качестве счетчика в ваше приложение. Запросы POST поддерживают больше параметров и функций, таких как возврат первых/последних N токенов.
Какую максимальную длину я могу токенизировать за один запрос?
keyboard_arrow_down
Вы можете отправить до 64 тыс. символов за один запрос.
Как работает функция фрагментации? Это семантическая фрагментация?
keyboard_arrow_down
Функция фрагментации сегментирует длинные документы на более мелкие фрагменты на основе общих структурных сигналов, обеспечивая точную сегментацию текста на значимые фрагменты. По сути, это (большой!) шаблон регулярного выражения, который сегментирует текст на основе определенных синтаксических признаков, которые часто совпадают с семантическими границами, такими как окончания предложений, разрывы абзацев, пунктуация и определенные союзы. Это не семантическое фрагментирование. Это (большое) регулярное выражение настолько мощно, насколько это возможно в рамках ограничений регулярных выражений. Оно уравновешивает сложность и производительность. Хотя истинное семантическое понимание невозможно с помощью регулярных выражений, оно хорошо аппроксимирует контекст с помощью общих структурных сигналов.
Как вы обрабатываете специальные токены, такие как «endoftext» в API Segmenter?
keyboard_arrow_down
Если входные данные содержат специальные токены, наш API Segmenter поместит их в поле «special_tokens». Это позволяет вам легко идентифицировать их и обрабатывать соответствующим образом для ваших последующих задач, например, удаляя их перед подачей текста в LLM для предотвращения атак с инъекциями.
Поддерживает ли функция фрагментации другие языки, кроме английского?
keyboard_arrow_down
Помимо западных языков, разбиение на фрагменты также хорошо работает с китайским, японским и корейским языками.
Распространенные вопросы, связанные с автоматической точной настройкой
Сколько стоит API тонкой настройки?
keyboard_arrow_down
Функция в настоящее время находится в стадии бета-тестирования и стоит 1 млн токенов за тонкую настройку модели. Вы можете использовать существующий ключ API из API Embedding/Reranker, если у него достаточно токенов, или вы можете создать новый ключ API, который включает 10 млн бесплатных токенов.
Что мне нужно ввести? Нужно ли мне предоставлять данные обучения?
keyboard_arrow_down
Вам не нужно предоставлять какие-либо данные для обучения. Просто опишите свой целевой домен (домен, для которого вы хотите оптимизировать точно настроенные внедрения) на естественном языке или используйте URL-адрес в качестве ссылки, и наша система сгенерирует синтетические данные для обучения модели.
Сколько времени занимает доводка модели?
keyboard_arrow_down
Около 30 минут.
Где хранятся доработанные модели?
keyboard_arrow_down
Точно настроенные модели и синтетические данные хранятся публично в хабе моделей Hugging Face.
Если я предоставлю ссылочный URL-адрес, как система его будет использовать?
keyboard_arrow_down
Система использует API Reader для получения контента по URL-адресу. Затем он анализирует контент, чтобы обобщить тон и предметную область, которые он использует в качестве ориентиров для создания синтетических данных. Следовательно, URL-адрес должен быть общедоступным и представлять целевой домен.
Могу ли я точно настроить модель для конкретного языка?
keyboard_arrow_down
Да, вы можете настроить модель для языка, отличного от английского. Система автоматически определяет язык инструкций вашего домена и соответствующим образом генерирует синтетические данные. Мы также рекомендуем выбрать подходящую базовую модель для целевого языка. Например, если вы ориентируетесь на немецкий домен, вам следует выбрать jina-embeddings-v2-base-de в качестве базовой модели.
Могу ли я точно настроить встраивания, отличные от Jina, например, bge-M3?
keyboard_arrow_down
Нет, наш API тонкой настройки поддерживает только модели Jina v2.
Как вы обеспечиваете качество доработанных моделей?
keyboard_arrow_down
В конце процесса точной настройки система оценивает модель с использованием отложенного набора тестов и сообщает показатели производительности. Вы получите электронное письмо с подробным описанием производительности до и после этого набора тестов. Вам также рекомендуется оценить модель на собственном тестовом наборе, чтобы убедиться в ее качестве.
Как генерировать синтетические данные?
keyboard_arrow_down
Система генерирует синтетические данные путем интеграции предоставленных вами инструкций целевой области с рассуждениями агентов LLM. Он создает жесткие отрицательные триплеты, которые необходимы для обучения высококачественных моделей внедрения. Для получения более подробной информации, пожалуйста, обратитесь к нашему предстоящему исследованию Arxiv.
Могу ли я сохранить конфиденциальность своих точно настроенных моделей и синтетических данных?
keyboard_arrow_down
В данный момент нет. Обратите внимание, что эта функция все еще находится в стадии бета-тестирования. Публичное хранение точно настроенных моделей и синтетических данных в центре моделей Hugging Face помогает нам и сообществу оценить качество обучения. В будущем мы планируем предложить вариант частного хранения.
Как я могу использовать доработанную модель?
keyboard_arrow_down
Поскольку все доработанные модели загружаются в Hugging Face, вы можете получить к ним доступ через SentenceTransformers, просто указав имя модели.
Я так и не получил письмо с результатами оценки. Что я должен делать?
keyboard_arrow_down
Пожалуйста, проверьте папку со спамом. Если вы все еще не можете его найти, свяжитесь с нашей службой поддержки, используя указанный вами адрес электронной почты.
Контакт
Офисы
location_on
Саннивейл, Калифорния
710 Lakeway Dr, Ste 200, Саннивейл, Калифорния 94085, США
location_on
Берлин, Германия
Prinzessinnenstraße 19-20, 10969 Берлин, Германия
Поиск Фонда
Читатель
Вложения
Реранкер
Elastic Inference Service
Получить API-ключ Jina
Ограничение скорости
Статус API
Компания
О нас
Связаться с отделом продаж
отдел новостей
Стажерская программа
Загрузить логотип Jina
open_in_new
Скачать логотип Elastic
open_in_new
Условия
Безопасность
Условия использования
Конфиденциальность
Управление файлами cookie
email
Jina AI от Elastic © 2020-2026.