Nouvelles
Modèles
API
keyboard_arrow_down
Lecteur
Lisez les URL et effectuez des recherches sur le Web pour de meilleurs LLM de base.
Intégrations
Intégrations multimodales et multilingues de classe mondiale.
Reclasseur
Récupérateur neuronal de classe mondiale pour maximiser la pertinence de la recherche.
Service d'inférence élastique
Exécutez les modèles Jina nativement au sein d'Elasticsearch.
MCP terminalCLIarticlellms.txtsmart_toyAgentsdata_objectSchémamenu_bookDocuments



Se connecter
login
Architecture
Démarrage
Conclusion
star
Mis en exergue
communiqué de presse
décembre 04, 2025

Jina-VLM : Petit modèle de langage visuel multilingue

Nouveau modèle de langage de vision 2B atteint SOTA sur VQA multilingue, sans oubli catastrophique sur les tâches textuelles uniquement.
Jina AI
Jina AI • 7 minutes lues
Jina-VLM : Petit modèle de langage vision multilingue
Nous présentons Jina-VLM, un modèle de langage vision de 2,4 milliards de paramètres qui réalise des performances de pointe en matière de question-réponse visuel multilingue parmi les VLM ouverts à l'échelle de 2B. Le modèle couple un encodeur de vision SigLIP2 avec une base de langage Qwen3 via un connecteur de pooling d'attention qui permet un traitement efficace en termes de nombre de词元 d'images à résolution arbitraire. Sur l'ensemble des benchmarks VQA standard et des évaluations multilingues, Jina-VLM surpasse les modèles comparables tout en conservant des performances textuelles compétitives.
arXiv.orgAndreas Koukounas
jinaai/jina-vlm · Hugging Face
Nous sommes engagés dans une démarche visant à faire progresser et à démocratiser l'intelligence artificielle grâce à l'open source et à la science ouverte.

Nous lançons jina-vlm, un modèle de langage vision de 2,4 milliards de paramètres qui réalise des performances de pointe en matière de question-réponse visuel multilingue parmi les VLM ouverts à l'échelle de 2B. En combinant un encodeur de vision SigLIP2 avec une base de langage Qwen3 via un connecteur de pooling d'attention, jina-vlm offre de solides performances dans 29 langues tout en restant suffisamment efficace pour fonctionner sur du matériel grand public.

Modèle Taille VQA Moy. MMMB Multi. MMB DocVQA OCRBench
jina-vlm 2.4B 72.3 78.8 74.3 90.6 778
Qwen2-VL-2B 2.1B 66.4 71.3 69.4 89.2 809
Qwen3-VL-2B 2.8B 71.6 75.0 72.3 92.3 858
InternVL3-2B 2.2B 69.2 73.6 71.9 87.4 835
InternVL3.5-2B 2.2B 71.6 74.6 70.9 88.5 836
Distribution des performances dans 6 langues sur le benchmark MMMB : arabe, chinois, anglais, portugais, russe et turc. MMMB évalue la compréhension multimodale multilingue à travers divers types de questions visuelles.
Distribution des performances dans 6 langues sur Multilingual MMBench : arabe, chinois, anglais, portugais, russe et turc. Ce benchmark teste les capacités de raisonnement visuel et de perception interlingues.
Distribution des performances sur 8 benchmarks de question-réponse visuel : AI2D (diagrammes), ChartQA (graphiques), TextVQA (texte de scène), DocVQA (documents), InfoVQA (infographies), OCRBench (OCR), SEED-2-Plus (scènes diverses) et CharXiv (figures scientifiques).
Distribution des performances sur 3 benchmarks de compréhension du monde réel : RealWorldQA (scénarios pratiques), MME-RealWorld (perception du monde réel) et R-Bench (évaluation de la robustesse).
Distribution des performances sur 5 benchmarks textuels comparant jina-vlm à sa base Qwen3-1.7B : MMLU (connaissances), MMLU-Pro (raisonnement avancé), GSM-8K (mathématiques), ARC-C (science) et HellaSwag (bon sens).

tagArchitecture

Architecture de jina-vlm. Les images sont redimensionnées pour s'adapter à une grille d'un maximum de 12 tuiles se chevauchant, plus une vignette globale. Chaque tuile est un carré de 378x378 recadré ; les tuiles adjacentes se chevauchent de 112 pixels avec un pas de 266 pixels entre les origines des tuiles. Une grille 4x3 couvre donc 1176x910 pixels, et les images dépassant cette résolution effective sont réduites pour s'adapter au budget des tuiles. Chaque tuile produit 729 patchs via SigLIP2. Le connecteur VL concatène les caractéristiques des couches 24 et 18, les troisième et avant-dernières couches, puis applique un pooling d'attention 2x2 pour réduire 729 词元 à 182 avant de projeter vers la dimension du décodeur. Les 词元 visuels sont combinés avec des Embeddings de texte pour le décodeur Qwen3.

Deux défis ont limité le déploiement pratique des VLM : les capacités multilingues se dégradent souvent lors de l'adaptation à la vision, et les VLM de haute qualité restent coûteux en termes de calcul. jina-vlm relève ces deux défis grâce à des choix architecturaux judicieux : notre connecteur de pooling d'attention réduit les 词元 visuels de 4× avec un impact minimal sur les performances, et une recette d'entraînement qui préserve explicitement les capacités multilingues.

L'innovation architecturale clé est notre connecteur vision-langage. Plutôt que de transmettre les 729 词元 visuels par tuile au modèle de langage, nous appliquons un pooling d'attention 2×2 qui réduit ce nombre à 182 词元, soit une réduction de 4× avec une perte d'information minimale. Le connecteur fonctionne comme suit :

  1. Fusion des caractéristiques multicouches : Nous concaténons les caractéristiques des couches ViT 18 et 24 (avant-dernière et neuvième avant-dernière), en capturant à la fois les détails spatiaux fins et la sémantique de haut niveau.
  2. Pooling d'attention : Pour chaque voisinage de patch 2×2, nous calculons une requête comme la moyenne des caractéristiques du voisinage, puis nous appliquons une attention croisée pour produire une seule représentation mise en commun.
  3. Projection SwiGLU : Les caractéristiques mises en commun sont projetées vers la dimension du modèle de langage via une unité linéaire à porte.

Ce gain d'efficacité est décrit ci-dessous :

Métrique Sans pooling Avec pooling Réduction
词元 visuels (12 tuiles + vignette) 9,477 2,366 4.0×
FLOPs de préremplissage LLM 27.2 TFLOPs 6.9 TFLOPs 3.9×
Mémoire du cache KV 2.12 GB 0.53 GB 4.0×

Étant donné que le ViT traite chaque tuile de manière identique, quel que soit le pooling, ces économies s'appliquent exclusivement au modèle de langage, qui est le coût dominant pendant l'inférence.

tagProcédure d'entraînement

Un mode de défaillance courant dans l'entraînement des VLM est l'oubli catastrophique : le modèle de langage perd ses capacités textuelles lorsqu'il s'adapte aux entrées visuelles. Ceci est particulièrement aigu pour les modèles multilingues, où l'adaptation à la vision peut dégrader les performances sur les langues autres que l'anglais.

Nous abordons ce problème grâce à un pipeline d'entraînement en deux étapes avec des données multilingues explicites et une préservation du texte seul.

Étape 1 : Entraînement à l'alignement

La première étape se concentre sur l'ancrage sémantique interlinguistique en utilisant des ensembles de données de légendes couvrant divers domaines visuels : scènes naturelles, documents, infographies et diagrammes. Il est essentiel d'inclure 15 % de données textuelles pour maintenir la compréhension du langage de la base. Le connecteur utilise un taux d'apprentissage plus élevé (2e-4) et un échauffement plus court que l'encodeur et le décodeur, ce qui lui permet de s'adapter rapidement tandis que les composants pré-entraînés changent progressivement.

Étape 2 : Ajustement fin des instructions

La deuxième étape consiste à entraîner le suivi des instructions pour les tâches de VQA et de raisonnement. Nous combinons des ensembles de données publics couvrant le VQA académique, la compréhension de documents, l'OCR, les mathématiques et le raisonnement, avec des données d'instructions textuelles pour maintenir les capacités linguistiques.

Les données combinées comprennent environ 5 millions d'échantillons multimodaux et 12 milliards de 词元 sur 29 langues, dont environ la moitié en anglais et le reste en chinois, arabe, allemand, espagnol, français, italien, japonais, coréen, portugais, russe, turc, vietnamien, thaï, indonésien, hindi, bengali et autres.

tagDémarrage

tagVia l'API Jina

Nous fournissons une API compatible avec OpenAI à l'adresse https://api-beta-vlm.jina.ai.

tagImage à partir d'une URL

Format Exemple
URL HTTP/HTTPS https://example.com/image.jpg
URI de données Base64 data:image/jpeg;base64,/9j/4AAQ...
curl https://api-beta-vlm.jina.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $JINA_API_KEY" \
  -d '{
    "model": "jina-vlm",
    "messages": [{
      "role": "user",
      "content": [
        {"type": "text", "text": "Describe this image"},
        {"type": "image_url", "image_url": {"url": "https://example.com/photo.jpg"}}
      ]
    }]
  }'

Image locale (base64)

curl https://api-beta-vlm.jina.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $JINA_API_KEY" \
  -d '{
    "model": "jina-vlm",
    "messages": [{
      "role": "user",
      "content": [
        {"type": "text", "text": "What is in this image?"},
        {"type": "image_url", "image_url": {"url": "data:image/jpeg;base64,'$(base64 -i image.jpg)'"}}
      ]
    }]
  }'

Requête textuelle uniquement

curl https://api-beta-vlm.jina.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $JINA_API_KEY" \
  -d '{
    "model": "jina-vlm",
    "messages": [{"role": "user", "content": "What is the capital of France?"}]
  }'

Réponse en streaming

Ajoutez "stream": true pour recevoir les 词元 au fur et à mesure de leur génération :

curl https://api-beta-vlm.jina.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $JINA_API_KEY" \
  -d '{
    "model": "jina-vlm",
    "stream": true,
    "messages": [{"role": "user", "content": "Write a haiku about coding"}]
  }'

Lorsque le service démarre à froid, vous recevrez :

{
  "error": {
    "message": "Model is loading, please retry in 30-60 seconds. Cold start takes ~30s after the service scales up.",
    "code": 503
  }
}

Réessayez simplement votre requête après avoir attendu.

tagVia CLI

Le référentiel HuggingFace comprend un script infer.py pour des expériences rapides :

# Single image
python infer.py -i image.jpg -p "What's in this image?"

# Streaming output
python infer.py -i image.jpg -p "Describe this image" --stream

# Multiple images
python infer.py -i img1.jpg -i img2.jpg -p "Compare these images"

# Text-only
python infer.py -p "What is the capital of France?"

tagVia Transformers

from transformers import AutoModelForCausalLM, AutoProcessor
import torch
from PIL import Image

# Load model and processor
model = AutoModelForCausalLM.from_pretrained(
    "jinaai/jina-vlm",
    torch_dtype=torch.bfloat16,
    trust_remote_code=True,
    device_map="auto"
)
processor = AutoProcessor.from_pretrained(
    "jinaai/jina-vlm",
    trust_remote_code=True
)

# Load an image
image = Image.open("document.png")

# Create the conversation
messages = [
    {
        "role": "user",
        "content": [
            {"type": "image", "image": image},
            {"type": "text", "text": "What is the main topic of this document?"}
        ]
    }
]

# Process and generate
inputs = processor.apply_chat_template(
    messages,
    add_generation_prompt=True,
    tokenize=True,
    return_dict=True,
    return_tensors="pt"
).to(model.device)

outputs = model.generate(**inputs, max_new_tokens=256, do_sample=False)
response = processor.decode(outputs[0], skip_special_tokens=True)
print(response)

tagConclusion

jina-vlm démontre que les petits VLM peuvent atteindre une forte compréhension visuelle multilingue grâce à des choix architecturaux et de formation judicieux. Le connecteur de mise en commun de l'attention offre une réduction de 4× du nombre de 词元 avec un impact minimal sur les performances, et l'incorporation de données textuelles uniquement pendant la formation multimodale préserve les capacités linguistiques qui se dégraderaient autrement.

Nous notons plusieurs limitations de l'approche actuelle :

  • Surcharge de la mosaïque : le traitement évolue linéairement avec le nombre de mosaïques. Pour les images à très haute résolution, cela peut devenir important. De plus, la mosaïque peut nuire aux tâches nécessitant une compréhension globale de la scène, telles que le comptage d'objets ou le raisonnement spatial au-delà des limites des mosaïques. La vignette globale atténue partiellement ce problème, mais les approches en résolution native peuvent être mieux adaptées à de telles tâches.
  • Raisonnement multi-images : les performances sur les benchmarks multi-images sont plus faibles en raison de données d'entraînement limitées dans ce régime. L'optimisation des réponses visuelles concises semble entrer en conflit avec le raisonnement multi-étapes étendu, comme en témoigne la dégradation de MMLU-Pro.

Les travaux futurs pourraient explorer une gestion de la résolution plus efficace, des améliorations ciblées pour les tâches de comptage et spatiales, et étudier si notre recette de formation multilingue se transpose à des échelles de modèles plus grandes.

Catégories:
star
Mis en exergue
communiqué de presse
rss_feed

En savoir plus
février 19, 2026 • 7 minutes lues
jina-embeddings-v5-text: New SOTA Small Multilingual Embeddings
Han Xiao
Abstract digital artwork in black and white, featuring scattered dots forming letters in a halftone effect. The central lette
octobre 03, 2025 • 7 minutes lues
Jina Reranker v3 : 重排器 Listwise de 0,6B pour une récupération multilingue SOTA
Jina AI
Light blue background with stylized text in the center, composed of small dots or squares, evoking a modern and minimalistic
septembre 04, 2025 • 6 minutes lues
Jina Code Embeddings : Recherche de code SOTA à 0,5B et 1,5B
Jina AI
Green "Code Embeddings" text displayed in a LED dot style on a black background, evoking a futuristic and technological atmos
Des bureaux
location_on
Sunnyvale, Californie
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, États-Unis
location_on
Berlin, Allemagne
Prinzessinnenstraße 19-20, 10969 Berlin, Allemagne
Fondation Recherche
Lecteur
Intégrations
Reclasseur
Service d'inférence élastique
open_in_new
Obtenir la clé API Jina
Limite de taux
Statut de l'API
Entreprise
À propos de nous
Contacter le service commercial
Rédaction
Programme de stage
Télécharger le logo Jina
open_in_new
Télécharger le logo Elastic
open_in_new
Termes
Sécurité
termes et conditions
Confidentialité
Gérer les cookies
email
Jina AI par Elastic © 2020-2026.