ニュース
モデル
製品
keyboard_arrow_down
読者
URL を読み取ったり検索したりすると、大規模なモデルのサポートが向上します。
ベクトルモデル
世界クラスのマルチモーダル、多言語埋め込み。
並べ替え者
検索の関連性を最大化する世界クラスのニューラルレトリーバー。
ディープサーチ
最善の答えが見つかるまで、検索し、読み、推論してください。
もっと
keyboard_arrow_down
分類子
画像とテキストのゼロショットおよび少数ショットの分類。
スライサー
長いテキストをチャンクまたはトークンに分割します。

APIドキュメント
AIプログラミングアシスタントIDEまたは大規模モデル用のコードを自動生成
open_in_new


会社
keyboard_arrow_down
私たちについて
営業担当者に問い合わせる
インターンプログラム
参加しませんか
open_in_new
ロゴをダウンロード
open_in_new
利用規約


ログイン
login
copyright

jina-embeddings-v4

マルチモーダル・多言語検索のための汎用ベクトルモデル
リリースノートarrow_forward
ライセンス
copyright
CC-BY-NC-4.0
発売日
calendar_month
2025-06-24
入力
abc
文章
image
写真
picture_as_pdf
PDF
arrow_forward
出力
more_horiz
ベクター
apps
マルチベクトル
モデル詳細
パラメータ: 3.8B
単語の長さを入力してください: 32K
画像サイズを入力してください: 768×28×28
出力寸法: 2048
言語サポート
🌍 多言語サポート
関連機種
link
jina-embeddings-v3
link
jina-clip-v2
ラベル
multimodal-embedding
document retrieval
multilingual
multi-vector
long-context
production
matryoshka
以下の方法で入手できます
API商用ライセンスアマゾンクラウドマイクロソフトクラウドグーグルクラウド顔を抱きしめる
I/O 図 1
I/O 図 2
I/O 図 3
I/O 図 4
比較するモデルを選択してください
出版物 (1)
arXiv
6月 24, 2025
jina-embeddings-v4: Universal Embeddings for Multimodal Multilingual Retrieval

概要

Jina Embeddings V4は、38億パラメータのマルチモーダルベクトルモデルであり、統一されたテキストと画像の表現機能を提供します。Qwen2.5-VL-3B-Instructバックボーンネットワーク上に構築されたこのモデルのアーキテクチャは、遅延インタラクティブスタイルにおける単一ベクトルと複数ベクトルをサポートし、従来のCLIPスタイルのデュアルエンコーダモデルの限界を打ち破りました。このモデルは、3つのタスク固有のLoRAアダプター(それぞれ60Mパラメータ)を統合し、固定されたバックボーンネットワークの重みを変更することなく、さまざまな検索シナリオ(非対称クエリドキュメント検索、セマンティックテキスト類似性、コード検索など)でパフォーマンスを最適化します。このモデルは、表、グラフ、ダイアグラム、スクリーンショット、混合メディア形式などの視覚的に豊富なコンテンツを統一された処理パスで処理することに優れており、従来のアーキテクチャに存在するモダリティギャップを縮小します。このモデルは多言語機能をサポートし、最大 32,768 個のトークン化された入力テキストを処理し、画像を 20 メガピクセルにサイズ変更できるため、さまざまな言語やドメインにまたがるさまざまなドキュメント検索およびクロスモーダル検索アプリケーションに適しています。

方法

Jina Embeddings V4は、CLIPスタイルのデュアルエンコーダーアプローチとは異なる、統合型マルチモーダル言語モデルアーキテクチャを実装しています。このモデルは、共有パスを介して入力を処理します。まず、ビジュアルエンコーダーを介して画像をトークンシーケンスに変換し、次にコンテキストアテンションレイヤーを備えた言語モデルデコーダーを介してテキストと画像のモダリティをまとめて処理します。このアーキテクチャは、異なるユースケースに対応するために2つの出力モードをサポートしています。シングルベクトルは、Matryoshka表現学習によって128次元に切り捨てられ、効率的な類似検索のために平均プーリングによって生成される2048次元ベクトルを生成します。マルチベクトルは、後期インタラクティブスタイル検索のために、投影層を介して各トークンを128次元出力します。このモデルには、特殊な最適化を提供する3つのタスク固有のLoRAアダプターが含まれています。検索アダプターは、プレフィックスベースの非対称エンコーディングとハードネガティブサンプルトレーニングを使用してクエリドキュメントシナリオを処理します。テキストマッチングアダプターは、CoSENT損失関数を使用して意味的類似性タスクを処理します。コードアダプターは、自然言語からコードへの検索アプリケーションに重点を置いています。トレーニングは 2 つのフェーズに分かれています。最初のペアワイズ トレーニングでは、300 を超えるソースからのテキスト間およびテキストと画像のペアに対して対照的な InfoNCE 損失を使用して実行され、その後、トリプレット ベースのアプローチと各ドメインの要件に合わせて調整された特殊な損失関数を使用して、3 つの LoRA アダプターのタスク固有の微調整が行われます。

パフォーマンス

Jina Embeddings V4は、複数のベンチマークカテゴリーで非常に競争力のあるパフォーマンスを達成しました。画像文書検索では、JinaVDRベンチマークで平均スコア72.19を達成しました。これはColPali-v1.2の64.50を上回ります。また、ViDoReベンチマークでは平均スコア84.11を達成しました。これはColPaliの83.90を上回ります。さらに、マルチベクターモードではViDoReのスコア90.17を達成しました。クロスモーダル検索では、CLIPベンチマークで84.11を達成しました。これはjina-clip-v2の81.12、nllb-clip-large-siglipの83.19を上回ります。テキスト検索タスクでは、MTEB-enで55.97、MMTEBで66.49を達成し、長文文書処理にも優れており、LongEmbedでは67.11を達成しました(前モデルの55.66を上回っています)。セマンティックテキスト類似性評価でも優れた性能を示し、英語STSタスクで85.89、多言語STSベンチマークで72.70のスコアを獲得しました。コード検索機能はCoIRベンチマークで71.59に達しましたが、voyage-code-3(77.33)などの専用モデルはこの分野でより高いスコアを獲得しています。クロスモーダルアライメント性能はOpenAI CLIPの0.15に対して0.71と向上し、マルチモーダルモデルにおけるモダリティギャップ問題に対処しています。視覚的に豊富なタスクでは、マルチベクター モードがシングルベクター モードよりも一貫して優れたパフォーマンスを発揮しますが、シングルベクター モードは標準的な検索シナリオで効率的なパフォーマンスを提供します。

ガイド

Jina Embeddings V4 を効果的に使用するには、アプリケーションのニーズに合わせて適切な LoRA アダプタを選択してください。クエリとドキュメントの構造が異なる非対称クエリドキュメント検索シナリオでは、「Retrieve」アダプタを使用し、クエリと段落の内容を区別するために適切なプレフィックスを使用してください。「Text Matching」アダプタは、クエリへの回答ではなく類似コンテンツの検索を目的とするセマンティック類似性タスクと対称検索に適しており、ドキュメントクラスタリング、重複検出、コンテンツ推奨システムに最適です。プログラミング関連のアプリケーションでは、「Code」アダプタが自然言語からコードへの検索、コード間の類似性検索、技術的な質疑応答シナリオに最適化されています。パフォーマンスと効率性の要件に基づいて出力モードを選択してください。シングルベクトルは効率的な類似性検索を提供し、ストレージ容量が限られた環境に適しており、切り捨て次元により、許容可能な品質のトレードオフで次元を 2048 から 128-512 に削減できます。一方、マルチベクトルは複雑な検索タスク、特にリッチなビジュアルコンテンツを含む文書を扱う際に高い精度を提供します。後者では、インタラクションスコアリングによって詳細な関係性を捉えることができます。このモデルの統合アーキテクチャにより、テキストと画像が混在する入力を、別途エンコーダーやビジュアル文書のOCR前処理を必要とせずに処理できます。このモデルのクロスモーダルアライメント機能と多言語サポートにより、国際的なアプリケーションにも適しています。本番環境での展開では、メモリ要件を計画する際に、LoRAアダプタあたり60MBのパラメータオーバーヘッドを考慮してください。また、3つのアダプタすべてを2%未満の追加メモリ使用量で同時に維持できるため、推論中に柔軟なタスク切り替えが可能になります。
このモデルについて言及しているブログ
6月 30, 2025 • 8 読む時間
jina-embeddings-v4の量子化対応学習 量子化対応学習 (Quantization-Aware Training) は、モデルを量子化された形式でトレーニングする技術であり、推論時のパフォーマンスと効率を向上させます。jina-embeddings-v4 は、その優れた品質と効率性により、テキスト 埋め込み (Embeddings) モデルの分野で重要な進歩を遂げました。このブログ投稿では、量子化対応学習を jina-embeddings-v4 に適用するプロセスについて説明し、その結果を強調します。 **量子化対応学習の利点** 量子化対応学習には、次のような多くの利点があります。 * **モデルサイズの縮小:** 量子化により、モデルのサイズを大幅に縮小できるため、ストレージ要件が軽減され、ダウンロード時間が短縮されます。 * **推論速度の向上:** 量子化されたモデルは、多くの場合、浮動小数点モデルよりも高速に実行できるため、レイテンシーが重要なアプリケーションに適しています。 * **エネルギー効率の向上:** 量子化されたモデルは、浮動小数点モデルよりも消費電力が少ないため、モバイルデバイスやエッジデバイスに最適です。 **jina-embeddings-v4 の量子化対応学習** jina-embeddings-v4 の量子化対応学習は、次の手順で構成されます。 1. **データの準備:** 大量のテキストデータのセットを使用して、モデルをトレーニングします。 2. **モデルのトレーニング:** 量子化対応学習を使用して、モデルをトレーニングします。これにより、モデルは量子化された形式で実行されるように最適化されます。 3. **評価:** トレーニングされたモデルの品質を評価します。 4. **デプロイ:** 量子化されたモデルをデプロイして、テキスト埋め込みを生成します。 **結果** jina-embeddings-v4 の量子化対応学習により、モデルの品質を大幅に損なうことなく、モデルサイズと推論時間を大幅に削減できました。 | モデル | サイズ | 平均精度 | |---|---|---| | jina-embeddings-v4 (浮動小数点) | 1.4GB | 0.76 | | jina-embeddings-v4 (量子化) | 360MB | 0.75 | 結果からわかるように、量子化されたモデルのサイズは 75% 縮小され、平均精度はわずか 1% 低下しました。 **結論** 量子化対応学習は、jina-embeddings-v4 のパフォーマンスと効率を向上させるための強力な技術です。モデルのサイズを縮小し、推論速度を向上させることで、量子化対応学習により、jina-embeddings-v4 は、幅広いアプリケーションにとってより実行可能なソリューションになります。
量子化は、より小さなベクトルモデル (Embeddings) を提供します。ファインチューニングされた量子化は、さらにロスレスなベクトルモデル (Embeddings) を提供することを示します。
Andrei Ungureanu
Scott Martens
Bo Wang
Retro-style digital screen displaying four pixelated images: a cat, a woman, an abstract figure, and a man's portrait, with l
7月 14, 2025 • 11 読む時間
テキスト選択、パッセージの重排器(Reranker)、およびコンテキストエンジニアリングのための劣モジュラ最適化
他の人がプロンプトチューニングに頼って運を天に任せる中、あなたはより良いコンテキストエンジニアリングのための理論的な保証を備えた、原則に基づいたフレームワークを提供する劣モジュラ最適化を学ぶべきです。
Han Xiao
Network illustration of interconnected hexagons, some solid and some hollow blue, connected by red lines indicating paths or
6月 25, 2025 • 12 読む時間
Jina Embeddings v4:マルチモーダル多言語検索のためのユニバーサルなベクトルモデル (Embeddings)
Jina 向量模型 (Embeddings) v4 は、38 億のパラメータを持つユニバーサルな 向量模型 (Embedding) モデルであり、マルチモーダルおよび多言語の検索に対応し、シングルベクトルとマルチベクトルの 向量模型 (Embedding) 出力をサポートします。
Jina AI
Word "Embeddings" followed by a numeric or symbol representation, displayed in multiple colors on a technology-themed, colorf
3月 07, 2025 • 14 読む時間
4Kトークンを超えると長文コンテキスト埋め込みモデルは盲目になる
"needle-in-haystack"(針を干し草の山から探す)のような新しいタスクで埋め込みモデルを調査したところ、4K トークンを超えると、完全な語彙一致やクエリ拡張を用いても、長文脈中でシグナルとノイズを区別できず、ただのランダムな選択と変わらないことが分かりました。
Saahil Ognawala
Alex C-G
Vertical repetition of the word 'HAYSTACK' with a solitary 'NEEDLE' on a yellowish background.
1月 22, 2025 • 10 読む時間
ModernBERT から何を学ぶべきか?
より大規模なトレーニングデータ、効率的なパラメータサイジング、そして深くて薄いアーキテクチャを特徴とする ModernBERT は、今後の BERT 系モデルの方向性を示しています。
Nan Wang
Alex C-G
Futuristic illustration with a central white circle surrounded by white dots on a dotted background.
オフィス
location_on
カリフォルニア州サニーベール
710 Lakeway Dr、Ste 200、サニーベール、CA 94085、アメリカ合衆国
location_on
ドイツ、ベルリン(本社)
Prinzessinnenstraße 19-20、10969 ベルリン、ドイツ
location_on
中国、北京
中国北京市海淀区西街48号ビル6号5階
location_on
深セン、中国
ルーム 402、4 階、福安テクノロジービル、深セン、中国
検索ベース
読者
ベクトルモデル
並べ替え者
ディープサーチ
分類子
スライサー
APIドキュメント
Jina APIキーを取得する
レート制限
APIステータス
会社
私たちについて
営業担当者に問い合わせる
ニュース
インターンプログラム
参加しませんか
open_in_new
ロゴをダウンロード
open_in_new
条項
安全性
利用規約
プライバシー
Cookieを管理する
email
Jina AI © 2020-2025.