Notizia
Modelli
Prodotti
keyboard_arrow_down
Lettore
Leggi gli URL e cerca sul web per ottenere LLM più approfonditi.
Incorporamenti
Incorporamenti multilingue multimodali di livello mondiale.
Riclassificazione
Recupero neurale di livello mondiale per massimizzare la pertinenza della ricerca.
Ricerca profonda
Cerca, leggi e ragiona finché non trovi la risposta migliore.
Di più
keyboard_arrow_down
Classificatore
Classificazione zero-shot e few-shot per immagini e testo.
Segmentatore
Tagliare il testo lungo in blocchi ed effettuare la tokenizzazione.

Documentazione API
Generazione automatica di codice per il tuo IDE o LLM di Copilot
open_in_new


Azienda
keyboard_arrow_down
Chi siamo
Contatta le vendite
Programma di stagista
Unisciti a noi
open_in_new
Scarica il logo
open_in_new
Termini & Condizioni


Login
login

Contatta le vendite

Fai crescere la tua attività con Jina AI.
calculateConfiguratore di licenze aziendali

Tre modi per acquistare

Iscriviti alla nostra API, acquista tramite provider cloud o ottieni una licenza commerciale per la tua organizzazione.
radio_button_unchecked
cloud
Con 3 fornitori di servizi cloud
La tua azienda utilizza AWS o Azure? Quindi distribuisci direttamente i nostri modelli di base di ricerca su queste piattaforme nella tua azienda, in modo che i tuoi dati rimangano sicuri e conformi.
AWS SageMaker
Incorporamenti
Riclassificazione
Microsoft Azure
Incorporamenti
Riclassificazione
Google Cloud
Incorporamenti
Riclassificazione
radio_button_checked
Con l'API Jina Search Foundation
Il modo più semplice per accedere a tutti i nostri prodotti. Ricarica i token man mano che procedi.
Ricarica questa chiave API con più token
A seconda della tua posizione, l'addebito potrebbe essere effettuato in USD, EUR o altre valute. Potrebbero essere applicate tasse.
Inserisci la chiave API corretta per ricaricare
Comprendere il limite di velocità
I limiti di velocità sono il numero massimo di richieste che possono essere effettuate a un'API entro un minuto per indirizzo IP/chiave API (RPM). Scopri di più sui limiti di velocità per ogni prodotto e livello di seguito.
keyboard_arrow_down
Limite di velocità
I limiti di velocità vengono monitorati in tre modi: RPM (richieste al minuto) e TPM (token al minuto). I limiti vengono applicati per IP/chiave API e vengono attivati al raggiungimento della soglia RPM o TPM. Quando si fornisce una chiave API nell'intestazione della richiesta, i limiti di velocità vengono monitorati per chiave anziché per indirizzo IP.
ProdottoPunto finale APIDescrizionearrow_upwardsenza chiave APIkey_offcon chiave APIkeycon chiave API PremiumkeyLatenza mediaConteggio dell'utilizzo del tokenRichiesta consentita
API del lettorehttps://r.jina.aiConvertire l'URL in testo compatibile con LLM20 RPM500 RPMtrending_up5000 RPM7.9sContare il numero di token nella risposta di output.GET/POST
API del lettorehttps://s.jina.aiCerca sul web e converti i risultati in testo compatibile con LLMblock100 RPMtrending_up1000 RPM2.5sOgni richiesta costa un numero fisso di token, a partire da 10000 tokenGET/POST
Ricerca profondahttps://deepsearch.jina.ai/v1/chat/completionsRagiona, cerca e ripeti per trovare la risposta miglioreblock50 RPM500 RPM56.7sContare il numero totale di token nell'intero processo.POST
API di riclassificazionehttps://api.jina.ai/v1/rerankClassifica i documenti per queryblock500 RPM & 1,000,000 TPMtrending_up2,000 RPM & 5,000,000 TPM
ssid_chart
dipende dalla dimensione dell'input
help
Conta il numero di token nella richiesta di input.POST
Incorporamento dell'APIhttps://api.jina.ai/v1/embeddingsConvertire testo/immagini in vettori di lunghezza fissablock500 RPM & 1,000,000 TPMtrending_up2,000 RPM & 5,000,000 TPM
ssid_chart
dipende dalla dimensione dell'input
help
Conta il numero di token nella richiesta di input.POST
API del classificatorehttps://api.jina.ai/v1/trainAddestrare un classificatore utilizzando esempi etichettatiblock20 RPM & 200,000 TPM60 RPM & 1,000,000 TPM
ssid_chart
dipende dalla dimensione dell'input
I token vengono conteggiati come: input_tokens × num_itersPOST
API del classificatore (Colpo zero)https://api.jina.ai/v1/classifyClassificare gli input utilizzando la classificazione zero-shotblock200 RPM & 500,000 TPM1,000 RPM & 3,000,000 TPM
ssid_chart
dipende dalla dimensione dell'input
I token vengono conteggiati come: input_tokens + label_tokensPOST
API del classificatore (Pochi colpi)https://api.jina.ai/v1/classifyClassificare gli input utilizzando un classificatore addestrato a pochi scattiblock20 RPM & 200,000 TPM60 RPM & 1,000,000 TPM
ssid_chart
dipende dalla dimensione dell'input
I token sono conteggiati come: input_tokensPOST
API del segmentatorehttps://api.jina.ai/v1/segmentTokenizzare e segmentare il testo lungo20 RPM200 RPM1,000 RPM0.3sIl token non viene conteggiato come utilizzo.GET/POST
radio_button_unchecked
encrypted
Con una licenza commerciale per l'uso in sede
Acquista una licenza commerciale per utilizzare i nostri modelli in sede.

Come posso ottenere la mia chiave API?

video_not_supported

Qual è il limite di tariffa?

Limite di velocità
I limiti di velocità vengono monitorati in tre modi: RPM (richieste al minuto) e TPM (token al minuto). I limiti vengono applicati per IP/chiave API e vengono attivati al raggiungimento della soglia RPM o TPM. Quando si fornisce una chiave API nell'intestazione della richiesta, i limiti di velocità vengono monitorati per chiave anziché per indirizzo IP.
ProdottoPunto finale APIDescrizionearrow_upwardsenza chiave APIkey_offcon chiave APIkeycon chiave API PremiumkeyLatenza mediaConteggio dell'utilizzo del tokenRichiesta consentita
API del lettorehttps://r.jina.aiConvertire l'URL in testo compatibile con LLM20 RPM500 RPMtrending_up5000 RPM7.9sContare il numero di token nella risposta di output.GET/POST
API del lettorehttps://s.jina.aiCerca sul web e converti i risultati in testo compatibile con LLMblock100 RPMtrending_up1000 RPM2.5sOgni richiesta costa un numero fisso di token, a partire da 10000 tokenGET/POST
Ricerca profondahttps://deepsearch.jina.ai/v1/chat/completionsRagiona, cerca e ripeti per trovare la risposta miglioreblock50 RPM500 RPM56.7sContare il numero totale di token nell'intero processo.POST
API di riclassificazionehttps://api.jina.ai/v1/rerankClassifica i documenti per queryblock500 RPM & 1,000,000 TPMtrending_up2,000 RPM & 5,000,000 TPM
ssid_chart
dipende dalla dimensione dell'input
help
Conta il numero di token nella richiesta di input.POST
Incorporamento dell'APIhttps://api.jina.ai/v1/embeddingsConvertire testo/immagini in vettori di lunghezza fissablock500 RPM & 1,000,000 TPMtrending_up2,000 RPM & 5,000,000 TPM
ssid_chart
dipende dalla dimensione dell'input
help
Conta il numero di token nella richiesta di input.POST
API del classificatorehttps://api.jina.ai/v1/trainAddestrare un classificatore utilizzando esempi etichettatiblock20 RPM & 200,000 TPM60 RPM & 1,000,000 TPM
ssid_chart
dipende dalla dimensione dell'input
I token vengono conteggiati come: input_tokens × num_itersPOST
API del classificatore (Colpo zero)https://api.jina.ai/v1/classifyClassificare gli input utilizzando la classificazione zero-shotblock200 RPM & 500,000 TPM1,000 RPM & 3,000,000 TPM
ssid_chart
dipende dalla dimensione dell'input
I token vengono conteggiati come: input_tokens + label_tokensPOST
API del classificatore (Pochi colpi)https://api.jina.ai/v1/classifyClassificare gli input utilizzando un classificatore addestrato a pochi scattiblock20 RPM & 200,000 TPM60 RPM & 1,000,000 TPM
ssid_chart
dipende dalla dimensione dell'input
I token sono conteggiati come: input_tokensPOST
API del segmentatorehttps://api.jina.ai/v1/segmentTokenizzare e segmentare il testo lungo20 RPM200 RPM1,000 RPM0.3sIl token non viene conteggiato come utilizzo.GET/POST

Ho bisogno di una licenza commerciale?

Autoverifica della licenza CC BY-NC

play_arrow
Stai utilizzando la nostra API ufficiale o le immagini ufficiali su Azure o AWS?
play_arrow
done
SÌ
play_arrow
Stai utilizzando una chiave API a pagamento o una chiave di prova gratuita?
play_arrow
done
Chiave API a pagamento
Nessuna restrizione. Utilizza secondo il tuo attuale accordo.
play_arrow
info
Chiave API gratuita
La chiave di prova gratuita può essere utilizzata solo per scopi non commerciali. Acquista un pacchetto a pagamento per uso commerciale.
play_arrow
Stai utilizzando le nostre immagini modello ufficiali su AWS e Azure?
Nessuna restrizione. Utilizza secondo il tuo attuale accordo.
play_arrow
close
NO
play_arrow
Stai utilizzando questi modelli?
jina-embeddings-v4
jina-reranker-m0
jina-clip-v2
jina-embeddings-v3
jina-reranker-v2-base-multilingual
jina-colbert-v2
reader-lm-1.5b
reader-lm-0.5b
ReaderLM-v2
play_arrow
close
NO
Non si applicano restrizioni.
play_arrow
done
SÌ
play_arrow
Il tuo utilizzo è commerciale?
play_arrow
question_mark
Non è sicuro
play_arrow
Sei:
play_arrow
Lo usi per progetti personali o hobbistici?
Questo non è commerciale. Puoi usare i modelli liberamente.
play_arrow
Un'azienda a scopo di lucro che lo utilizza internamente?
Questo è commerciale. Contatta il nostro team di vendita.
Contatta le vendite
play_arrow
Un istituto scolastico che lo utilizza per l'insegnamento?
Questo è tipicamente non commerciale. Puoi usare i modelli liberamente.
play_arrow
Un'organizzazione non-profit o una ONG che lo utilizza per la propria missione?
In genere non si tratta di un'attività commerciale, ma in caso di dubbi contattateci.
Contatta le vendite
play_arrow
Lo stai utilizzando in un prodotto o servizio che vendi?
Questo è commerciale. Contatta il nostro team di vendita.
Contatta le vendite
play_arrow
Un ente governativo che lo utilizza per servizi pubblici?
Potrebbe essere commerciale. Vi preghiamo di contattarci per chiarimenti.
Contatta le vendite
play_arrow
close
NO
Puoi utilizzare i modelli liberamente.
play_arrow
done
SÌ
Contatta il nostro team commerciale per le licenze.
Contatta le vendite

Altre domande

Domande frequenti relative a DeepSearch
Che cos'è DeepSearch?
keyboard_arrow_down
DeepSearch è un'API LLM che esegue ricerche iterative, letture e ragionamenti finché non trova una risposta precisa a una query o raggiunge il limite del budget token.
In che modo DeepSearch si differenzia dalle capacità di ricerca approfondita di OpenAI e Gemini?
keyboard_arrow_down
A differenza di OpenAI e Gemini, DeepSearch si concentra specificamente sulla fornitura di risposte accurate tramite iterazione piuttosto che sulla generazione di articoli lunghi. È ottimizzato per risposte rapide e precise dalla ricerca nel deep web piuttosto che per la creazione di report completi.
Quale chiave API mi serve per utilizzare DeepSearch?
keyboard_arrow_down
Hai bisogno di una chiave API Jina. Offriamo 10 milioni di token gratuiti per le nuove chiavi API.
Cosa succede quando DeepSearch raggiunge il suo budget token? Restituisce una risposta incompleta?
keyboard_arrow_down
Genera una risposta finale basata su tutte le conoscenze accumulate, anziché rinunciare o restituire una risposta incompleta.
DeepSearch garantisce risposte accurate?
keyboard_arrow_down
No. Sebbene utilizzi un processo di ricerca iterativo per migliorare l'accuratezza, la valutazione mostra che raggiunge un tasso di successo del 75% nelle domande del test, significativamente migliore rispetto al valore di base dello 0% (gemini-2.0-flash), ma non perfetto.
Quanto tempo impiega in genere una query DeepSearch?
keyboard_arrow_down
Varia in modo significativo: le query possono richiedere da 1 a 42 passaggi, con una media di 4 passaggi in base ai dati di valutazione. Sono 20 secondi. Le query semplici potrebbero essere risolte rapidamente, mentre le domande di ricerca complesse possono comportare molte iterazioni e fino a 120 secondi.
DeepSearch può funzionare con qualsiasi client compatibile con OpenAI come Chatwise, CherryStudio o ChatBox?
keyboard_arrow_down
Sì, l'API DeepSearch ufficiale su deepsearch.jina.ai/v1/chat/completions è completamente compatibile con lo schema API OpenAI, utilizzando 'jina-deepsearch-v1' come nome modello. Pertanto è semplicissimo passare da OpenAI a DeepSearch e utilizzarlo con client locali o qualsiasi client compatibile con OpenAI. Consigliamo vivamente Chatwise per un'esperienza fluida.
Quali sono i limiti di velocità per l'API?
keyboard_arrow_down
I limiti di velocità variano in base al livello della chiave API, da 10 RPM a 30 RPM. È importante tenerne conto per le applicazioni con volumi di query elevati.
Qual è il contenuto all'interno del tag <think>?
keyboard_arrow_down
DeepSearch racchiude i passaggi di pensiero nei tag XML ... e fornisce in seguito la risposta finale, seguendo il formato di streaming OpenAI ma con questi marcatori speciali per la catena di pensieri.
DeepSearch utilizza Jina Reader per la ricerca e la lettura sul web?
keyboard_arrow_down
Sì. Jina Reader viene utilizzato per la ricerca e la lettura sul Web, consentendo al sistema di accedere ed elaborare in modo efficiente i contenuti Web.
Perché DeepSearch utilizza così tanti token per le mie query?
keyboard_arrow_down
Sì, l'utilizzo di token di DeepSearch su query complesse è presumibilmente elevato, con una media di 70.000 token rispetto ai 500 per le risposte LLM di base. Ciò dimostra la profondità della ricerca, ma ha anche implicazioni sui costi.
Esiste un modo per controllare o limitare il numero di passaggi?
keyboard_arrow_down
Il sistema è controllato principalmente dal budget token piuttosto che dal conteggio dei passi. Una volta superato il budget token, entra in Beast Mode per la generazione della risposta finale. Controlla reasoning_effort per maggiori dettagli.
Quanto sono affidabili i riferimenti nelle risposte?
keyboard_arrow_down
I riferimenti sono considerati così importanti che se una risposta è ritenuta definitiva ma priva di riferimenti, il sistema continua la ricerca anziché accettare la risposta.
DeepSearch può gestire domande su eventi futuri?
keyboard_arrow_down
Sì, ma con estesi passaggi di ricerca. L'esempio di "chi sarà presidente nel 2028" dimostra che può gestire domande speculative attraverso più iterazioni di ricerca, sebbene l'accuratezza non sia garantita per tali previsioni.
Domande comuni relative ai lettori
Quali sono i costi associati all'utilizzo dell'API Reader?
keyboard_arrow_down
L'API Reader è gratuita e non richiede una chiave API. Basta anteporre "https://r.jina.ai/" al tuo URL.
Come funziona l'API Reader?
keyboard_arrow_down
L'API Reader utilizza un proxy per recuperare qualsiasi URL, visualizzandone il contenuto in un browser per estrarre contenuti principali di alta qualità.
L'API Reader è open source?
keyboard_arrow_down
Sì, l'API Reader è open source e disponibile nel repository Jina AI GitHub.
Qual è la latenza tipica per l'API Reader?
keyboard_arrow_down
L'API Reader generalmente elabora gli URL e restituisce il contenuto entro 2 secondi, sebbene le pagine complesse o dinamiche potrebbero richiedere più tempo.
Perché dovrei utilizzare l'API Reader invece di raschiare la pagina da solo?
keyboard_arrow_down
Lo scraping può essere complicato e inaffidabile, in particolare con pagine complesse o dinamiche. L'API Reader fornisce un output ottimizzato e affidabile di testo pulito e pronto per LLM.
L'API Reader supporta più lingue?
keyboard_arrow_down
L'API Reader restituisce il contenuto nella lingua originale dell'URL. Non fornisce servizi di traduzione.
Cosa devo fare se un sito web blocca l'API Reader?
keyboard_arrow_down
Se riscontri problemi di blocco, contatta il nostro team di supporto per assistenza e risoluzione.
L'API Reader può estrarre il contenuto dai file PDF?
keyboard_arrow_down
Sebbene progettata principalmente per le pagine Web, l'API Reader può estrarre contenuto dai PDF visualizzati in formato HTML su siti Web come arXiv, ma non è ottimizzata per l'estrazione PDF generale.
L'API Reader può elaborare i contenuti multimediali dalle pagine Web?
keyboard_arrow_down
Attualmente, l'API Reader non elabora i contenuti multimediali, ma i miglioramenti futuri includeranno i sottotitoli delle immagini e il riepilogo dei video.
È possibile utilizzare l'API Reader su file HTML locali?
keyboard_arrow_down
No, l'API Reader può elaborare solo contenuti provenienti da URL accessibili pubblicamente.
L'API Reader memorizza nella cache il contenuto?
keyboard_arrow_down
Se richiedi lo stesso URL entro 5 minuti, l'API Reader restituirà il contenuto memorizzato nella cache.
Posso utilizzare l'API Reader per accedere ai contenuti dietro un login?
keyboard_arrow_down
Sfortunatamente no.
Posso utilizzare l'API Reader per accedere ai PDF su arXiv?
keyboard_arrow_down
Sì, puoi utilizzare il supporto PDF nativo dal Reader (https://r.jina.ai/https://arxiv.org/pdf/2310.19923v4) o utilizzare la versione HTML da arXiv (https:// r.jina.ai/https://arxiv.org/html/2310.19923v4)
Come funziona la didascalia delle immagini in Reader?
keyboard_arrow_down
Reader sottotitola tutte le immagini all'URL specificato e aggiunge "Immagine [idx]: [didascalia]" come tag alt (se inizialmente ne manca uno). Ciò consente ai LLM a valle di interagire con le immagini nel ragionamento, nel riepilogo, ecc.
Qual è la scalabilità del Reader? Posso usarlo in produzione?
keyboard_arrow_down
L'API Reader è progettata per essere altamente scalabile. Viene ridimensionato automaticamente in base al traffico in tempo reale e il numero massimo di richieste simultanee è ora di circa 4000. Lo manteniamo attivamente come uno dei prodotti principali di Jina AI. Quindi sentitevi liberi di usarlo in produzione.
Qual è il limite di velocità dell'API Reader?
keyboard_arrow_down
Puoi trovare le informazioni più recenti sui limiti di tariffa nella tabella seguente. Tieni presente che stiamo lavorando attivamente per migliorare il limite di velocità e le prestazioni dell'API Reader, la tabella verrà aggiornata di conseguenza.
speedLimite di tariffa
Che cos'è Reader-LM? Come posso utilizzarlo?
keyboard_arrow_down
Reader-LM è un nuovo modello di linguaggio di piccole dimensioni (SLM) progettato per l'estrazione e la pulizia dei dati dal web aperto. Converte HTML grezzo e rumoroso in markdown pulito, traendo ispirazione da Jina Reader. Con un focus sull'efficienza dei costi e sulle dimensioni ridotte del modello, Reader-LM è pratico e potente. È attualmente disponibile sui marketplace AWS, Azure e GCP. Se hai esigenze specifiche, contattaci a sales AT jina.ai.
launchAWS SageMakerlaunchGoogle CloudlaunchMicrosoft Azure
Domande comuni relative al riclassificazione
Quanto costa l'API Reranker?
keyboard_arrow_down
Il prezzo dell'API Reranker è allineato alla nostra struttura tariffaria per l'API Embedding. Inizia con 10 milioni di token gratuiti per ogni nuova chiave API. Oltre ai token gratuiti, sono disponibili diversi pacchetti a pagamento. Per maggiori dettagli, visita la nostra sezione prezzi.
Qual è la differenza tra i due reranker?
keyboard_arrow_down
jina-reranker-v2-base-multilingual eccelle nel supporto multilingue, superando le prestazioni di bge-reranker-v2-m3 e offrendo una produttività 15 volte più veloce di jina-reranker-v1-base-en. Supporta anche attività agentiche e recupero del codice. jina-colbert-v2 migliora ColBERTv2, offrendo prestazioni di recupero migliori del 6,5% e aggiungendo supporto multilingue per 89 lingue. Presenta dimensioni di incorporamento controllate dall'utente per efficienza e precisione ottimali.
I Jina Rerankers sono open source?
keyboard_arrow_down
Sì, sia jina-reranker-v2-base-multilingual che jina-colbert-v2 sono open source e disponibili con licenza CC-BY-NC 4.0. Puoi utilizzare, condividere e adattare liberamente i modelli per scopi non commerciali.
I riclassificatori supportano più lingue?
keyboard_arrow_down
Sì, sia jina-reranker-v2-base-multilingual che jina-colbert-v2 supportano oltre 100 lingue, tra cui inglese, cinese e altre importanti lingue globali. Sono ottimizzati per attività multilingue e superano i modelli precedenti.
Qual è la lunghezza massima per query e documenti?
keyboard_arrow_down
La lunghezza massima del token di query è 512. Non esiste alcun limite di token per i documenti.
Qual è il numero massimo di documenti che posso riclassificare per query?
keyboard_arrow_down
Puoi riclassificare fino a 2048 documenti per query.
Qual è la dimensione del batch e quante tuple di documenti di query posso inviare in una richiesta?
keyboard_arrow_down
Non esiste il concetto di dimensione batch a differenza della nostra API di incorporamento. È possibile inviare solo una tupla di documento di query per richiesta, ma la tupla può includere fino a 2048 documenti candidati.
Quale latenza posso aspettarmi quando riclassifico 100 documenti?
keyboard_arrow_down
La latenza varia da 100 millisecondi a 7 secondi, a seconda in gran parte della lunghezza dei documenti e della query. Ad esempio, la riclassificazione di 100 documenti di 256 token ciascuno con una query da 64 token richiede circa 150 millisecondi. Aumentando la lunghezza del documento a 4096 token, il tempo aumenta a 3,5 secondi. Se la lunghezza della query viene aumentata a 512 token, il tempo aumenta ulteriormente a 7 secondi.
Di seguito è riportato il tempo impiegato per riclassificare una query e 100 documenti in millisecondi:
Numero di token in ciascun documento
Numero di token nella query256512102420484096
64156323136621073571
128194369137721233598
256273475139721554299
5124681385211435367068
Gli endpoint possono essere ospitati privatamente su AWS, Azure o GCP?
keyboard_arrow_down
Sì, i nostri servizi sono disponibili sui marketplace AWS, Azure e GCP. Se hai esigenze specifiche, contattaci a sales AT jina.ai.
launchAWS SageMakerlaunchGoogle CloudlaunchMicrosoft Azure
Offrite un reranking ottimizzato sui dati specifici del dominio?
keyboard_arrow_down
Se sei interessato a un reranking ottimizzato su misura per dati di dominio specifici, contatta il nostro team di vendita. Il nostro team risponderà tempestivamente alla tua richiesta.
Contatto
Qual è la dimensione minima delle immagini per i documenti?
keyboard_arrow_down
La dimensione minima accettabile dell'immagine per il modello jina-reranker-m0 è 28x28 pixel.
Domande comuni relative agli incorporamenti
Come sono stati addestrati i modelli jina-embeddings-v3?
keyboard_arrow_down
Per informazioni dettagliate sui nostri processi di formazione, fonti di dati e valutazioni, fare riferimento al nostro rapporto tecnico disponibile su arXiv.
launcharXiv
Cosa sono i modelli jina-clip e posso utilizzarli per la ricerca di testo e immagini?
keyboard_arrow_down
Jina CLIP jina-clip-v2 è un modello di incorporamento multimodale avanzato che supporta attività di recupero testo-testo, testo-immagine, immagine-immagine e immagine-testo. A differenza dell'originale OpenAI CLIP, che ha difficoltà con la ricerca testo-testo, Jina CLIP eccelle come recuperatore di testo. jina-clip-v2 offre un miglioramento delle prestazioni del 3% rispetto a jina-clip-v1 sia nelle attività di recupero testo-immagine che testo-testo, supporta 89 lingue per il recupero di immagini multilingue, elabora immagini a risoluzione più elevata (512x512) e riduce i requisiti di archiviazione con rappresentazioni Matryoshka. Puoi leggere di più a riguardo nel nostro report tecnico.
launcharXiv
Quali lingue supportano i vostri modelli?
keyboard_arrow_down
A partire dalla sua uscita il 18 settembre 2024, jina-embeddings-v3 è il miglior modello multilingue e si classifica al 2° posto nella classifica inglese MTEB per i modelli con meno di 1 miliardo di parametri. v3 supporta un totale di 89 lingue, tra cui le prime 30 con le migliori prestazioni: arabo, bengalese, cinese, danese, olandese, inglese, finlandese, francese, georgiano, tedesco, greco, hindi, indonesiano, italiano, giapponese, coreano, lettone, norvegese, polacco, portoghese, rumeno, russo, slovacco, spagnolo, svedese, tailandese, turco, ucraino, urdu e vietnamita. Per maggiori dettagli, fare riferimento al report tecnico jina-embeddings-v3.
launcharXiv
Qual è la lunghezza massima per una singola frase inserita?
keyboard_arrow_down
I nostri modelli consentono una lunghezza di input fino a 8192 token, che è significativamente più alta rispetto alla maggior parte degli altri modelli. Un token può variare da un singolo carattere, come "a", a un'intera parola, come "apple". Il numero totale di caratteri che possono essere inseriti dipende dalla lunghezza e dalla complessità delle parole utilizzate. Questa capacità di input estesa consente ai nostri modelli jina-embeddings-v3 e jina-clip di eseguire un'analisi del testo più completa e di ottenere una maggiore accuratezza nella comprensione del contesto, in particolare per dati testuali estesi.
Qual è il numero massimo di frasi che posso includere in una singola richiesta?
keyboard_arrow_down
Una singola chiamata API può elaborare fino a 2048 frasi o testi, facilitando un'analisi approfondita del testo in un'unica richiesta.
Come posso inviare immagini ai modelli di jina-clip?
keyboard_arrow_down
Puoi utilizzare url o bytes nel campo input della richiesta API. Per url, fornisci l'URL dell'immagine che desideri elaborare. Per bytes, codifica l'immagine in formato base64 e includila nella richiesta. Il modello restituirà gli incorporamenti dell'immagine nella risposta.
Come si confrontano i modelli Jina Embeddings con gli ultimi embedding di OpenAI e Cohere?
keyboard_arrow_down
Nelle valutazioni sui benchmark MTEB English, Multilingual e LongEmbed, jina-embeddings-v3 supera gli ultimi embedding proprietari di OpenAI e Cohere nelle attività in inglese e sorpassa multilingual-e5-large-instruct in tutte le attività multilingue. Con una dimensione di output predefinita di 1024, gli utenti possono troncare le dimensioni di embedding fino a 32 senza sacrificare le prestazioni, grazie all'integrazione di Matryoshka Representation Learning (MRL).
Quanto è semplice il passaggio dal text-embedding-3-large di OpenAI alla vostra soluzione?
keyboard_arrow_down
La transizione è semplificata, poiché il nostro endpoint API, corrisponde agli schemi JSON di input e output del modello text-embedding-3-large di OpenAI. Questa compatibilità garantisce che gli utenti possano facilmente sostituire il modello OpenAI con il nostro quando utilizzano l'endpoint di OpenAI.
Come vengono calcolati i token quando si utilizzano i modelli jina-clip?
keyboard_arrow_down
I token vengono calcolati in base alla lunghezza del testo e alle dimensioni dell'immagine. Per il testo nella richiesta, i token vengono conteggiati secondo il metodo standard. Per le immagini, vengono eseguiti i seguenti passaggi: 1. Dimensione del tile: Ogni immagine è divisa in tile. Per jina-embeddings-v4, i tile sono di 28x28 pixel, per jina-clip-v2, i tile sono di 512x512 pixel, mentre per jina-clip-v1, i tile sono di 224x224 pixel. 2. Copertura: Viene calcolato il numero di tile necessarie per coprire l'immagine in input. Anche se le dimensioni dell'immagine non sono perfettamente divisibili per la dimensione del tile, i tile parziali vengono conteggiati come tile completi. 3. Tile totali: Il numero totale di tile che coprono l'immagine determina il costo. Ad esempio, un'immagine di 600x600 pixel sarebbe suddivisa in tile 22x22 (484 tile) in jina-embeddings-v4, in tile 2x2 (4 tile) in jina-clip-v2 e in tile 3x3 (9 tile) in jina-clip-v1. 4. Calcolo dei costi: per jina-embeddings-v4, ogni tile costa 10 token, per jina-clip-v2, ogni tile costa 4000 token, mentre per jina-clip-v1, ogni tile costa 1000 token. Esempio: Per un'immagine di 600x600 pixel: • Con jina-embeddings-v4 • L'immagine è suddivisa in tile di 28x28 pixel. • Il numero totale di tile necessarie è 22 (orizzontali) x 22 (verticali) = 484 tile. • Il costo per jina-embeddings-v4 sarà 484*10 = 4840 token. • Con jina-clip-v2 • L'immagine è divisa in tile da 512x512 pixel. • Il numero totale di tile necessarie è 2 (orizzontali) x 2 (verticali) = 4 tile. • Il costo per jina-clip-v2 sarà 4*4000 = 16000 token. • Con jina-clip-v1 • L'immagine è divisa in tile da 224x224 pixel. • Il numero totale di tile necessarie è 3 (orizzontali) x 3 (verticali) = 9 tile. • Il costo per jina-clip-v1 sarà 9*1000 = 9000 token.
Fornite modelli per incorporare immagini o audio?
keyboard_arrow_down
Sì, jina-clip-v2 e jina-clip-v1 possono incorporare sia immagini che testi. L'incorporamento di modelli su più modalità sarà annunciato a breve!
I modelli Jina Embedding possono essere ottimizzati con dati privati ​​o aziendali?
keyboard_arrow_down
Per domande sulla messa a punto dei nostri modelli con dati specifici, contattaci per discutere le tue esigenze. Siamo aperti a esplorare come i nostri modelli possono essere adattati per soddisfare le vostre esigenze.
Contatto
I tuoi endpoint possono essere ospitati privatamente su AWS, Azure o GCP?
keyboard_arrow_down
Sì, i nostri servizi sono disponibili sui marketplace AWS, Azure e GCP. Se hai esigenze specifiche, contattaci a sales AT jina.ai.
launchAWS SageMakerlaunchGoogle CloudlaunchMicrosoft Azure
Domande frequenti relative al classificatore
Qual è la differenza tra le etichette zero-shot e few-shot?
keyboard_arrow_down
Zero-shot richiede etichette semantiche durante la classificazione e nessuna durante l'addestramento, mentre few-shot richiede etichette durante l'addestramento ma non la classificazione. Ciò significa che zero-shot è migliore per esigenze di classificazione flessibili e immediate, mentre few-shot è migliore per categorie fisse e specifiche del dominio che possono evolversi nel tempo.
A cosa serve num_iters e come dovrei utilizzarlo?
keyboard_arrow_down
num_iters controlla l'intensità dell'allenamento: valori più alti rafforzano esempi importanti mentre valori più bassi riducono al minimo l'impatto di dati meno affidabili. Può essere utilizzato per implementare l'apprendimento basato sul tempo assegnando agli esempi recenti conteggi di iterazioni più elevati, rendendolo prezioso per l'evoluzione dei modelli di dati.
Come funziona la condivisione del classificatore pubblico?
keyboard_arrow_down
I classificatori pubblici possono essere utilizzati da chiunque abbia classifier_id, consumando la propria quota di token. Gli utenti non possono accedere ai dati di training o alla configurazione e non possono vedere le richieste di classificazione degli altri, consentendo una condivisione sicura dei classificatori.
Di quanti dati ho bisogno affinché few-shot funzioni bene?
keyboard_arrow_down
Few-shot richiede 200-400 esempi di training per superare la classificazione zero-shot. Sebbene alla fine raggiunga una maggiore accuratezza, ha bisogno di questo periodo di riscaldamento per diventare efficace. Zero-shot fornisce prestazioni costanti immediatamente senza dati di training.
Può gestire più lingue e sia testo che immagini?
keyboard_arrow_down
Sì, l'API supporta query multilingue utilizzando jina-embeddings-v3 e classificazione multimodale (testo/immagine) utilizzando jina-clip-v1, con supporto per URL o immagini codificate in base64 nella stessa richiesta.
Quali sono i limiti rigorosi che dovrei conoscere?
keyboard_arrow_down
Zero-shot supporta 256 classi senza limiti di classificatori, mentre few-shot è limitato a 16 classi e 16 classificatori. Entrambi supportano 1.024 input per richiesta e 8.192 token per input.
Come posso gestire le modifiche dei dati nel tempo?
keyboard_arrow_down
La modalità Few-shot consente l'aggiornamento continuo tramite l'endpoint /train per adattarsi ai modelli di dati in evoluzione. È possibile aggiungere gradualmente nuovi esempi o classi quando cambia la distribuzione dei dati, senza ricostruire l'intero classificatore.
Cosa succede ai miei dati di allenamento dopo averli inviati?
keyboard_arrow_down
L'API utilizza l'apprendimento online one-pass: gli esempi di training aggiornano i pesi del classificatore ma non vengono archiviati in seguito. Ciò significa che non è possibile recuperare i dati di training storici, ma garantisce privacy ed efficienza delle risorse.
Zero-shot vs few-shot: quando usare quale?
keyboard_arrow_down
Inizia con zero-shot per risultati immediati e quando hai bisogno di una classificazione flessibile con etichette semantiche. Passa a few-shot quando hai 200-400 esempi, hai bisogno di una maggiore accuratezza o devi gestire dati specifici del dominio/sensibili al tempo.
Posso usare modelli diversi per lingue/attività diverse?
keyboard_arrow_down
Sì, puoi scegliere tra jina-embeddings-v3 per la classificazione del testo (particolarmente adatta per il multilingua) e jina-clip-v1 per la classificazione multimodale. Nuovi modelli come jina-clip-v2 saranno automaticamente disponibili tramite l'API quando saranno rilasciati.
Domande frequenti relative al segmentatore
Quanto costa l'API Segmenter?
keyboard_arrow_down
L'API Segmenter è gratuita. Fornendo la tua chiave API, puoi accedere a un limite di tariffa più elevato e la tua chiave non verrà addebitata.
Se non fornisco una chiave API, qual è il limite di velocità?
keyboard_arrow_down
Senza una chiave API, è possibile accedere all'API Segmenter a una velocità massima di 20 RPM.
Se fornisco una chiave API, qual è il limite di velocità?
keyboard_arrow_down
Con una chiave API, puoi accedere alla Segmenter API a un limite di velocità di 200 RPM. Per gli utenti premium a pagamento, il limite di velocità è di 1000 RPM.
Addebiterete i token dalla mia chiave API?
keyboard_arrow_down
No, la tua chiave API viene utilizzata solo per accedere a un limite di velocità più elevato.
L'API Segmenter supporta più lingue?
keyboard_arrow_down
Sì, l'API Segmenter è multilingue e supporta oltre 100 lingue.
Qual è la differenza tra le richieste GET e POST?
keyboard_arrow_down
Le richieste GET sono utilizzate esclusivamente per contare il numero di token in un testo, consentendoti di integrarlo facilmente come contatore nella tua applicazione. Le richieste POST supportano più parametri e funzionalità, come la restituzione dei primi/ultimi N token.
Qual è la lunghezza massima che posso tokenizzare per richiesta?
keyboard_arrow_down
È possibile inviare fino a 64.000 caratteri per richiesta.
Come funziona la funzione di chunking? È un chunking semantico?
keyboard_arrow_down
La funzione di chunking segmenta i documenti lunghi in blocchi più piccoli in base a comuni indizi strutturali, assicurando una segmentazione accurata del testo in blocchi significativi. In sostanza, si tratta di un (grande!) modello regex che segmenta il testo in base a determinate caratteristiche sintattiche che spesso si allineano con i confini semantici, come terminazioni di frase, interruzioni di paragrafo, punteggiatura e determinate congiunzioni. Non è un chunking semantico. Questa (grande) regex è potente quanto può esserlo entro i limiti delle espressioni regolari. Bilancia complessità e prestazioni. Mentre una vera comprensione semantica non è possibile con regex, approssima bene il contesto tramite comuni indizi strutturali.
Come si gestiscono i token speciali come 'endoftext' nella Segmenter API?
keyboard_arrow_down
Se l'input contiene token speciali, la nostra API Segmenter li inserirà nel campo 'special_tokens'. Ciò ti consente di identificarli facilmente e gestirli di conseguenza per le tue attività downstream, ad esempio rimuovendoli prima di immettere il testo in un LLM per prevenire attacchi di iniezione.
La suddivisione in blocchi supporta anche altre lingue oltre all'inglese?
keyboard_arrow_down
Oltre alle lingue occidentali, la suddivisione in blocchi funziona bene anche con il cinese, il giapponese e il coreano.
Domande comuni relative alla regolazione fine automatica
Quanto costa l'API di fine-tuning?
keyboard_arrow_down
La funzionalità è attualmente in versione beta e costa 1 milione di token per modello ottimizzato. Puoi utilizzare la tua chiave API esistente dall'API Embedding/Reranker se ha token sufficienti, oppure puoi creare una nuova chiave API, che include 10 milioni di token gratuiti.
Cosa devo inserire? Devo fornire i dati di allenamento?
keyboard_arrow_down
Non è necessario fornire alcun dato di addestramento. Descrivi semplicemente il tuo dominio di destinazione (il dominio per il quale desideri ottimizzare gli incorporamenti) in linguaggio naturale o utilizza un URL come riferimento e il nostro sistema genererà dati sintetici per addestrare il modello.
Quanto tempo ci vuole per mettere a punto un modello?
keyboard_arrow_down
Circa 30 minuti.
Dove vengono archiviati i modelli ottimizzati?
keyboard_arrow_down
I modelli ottimizzati e i dati sintetici vengono archiviati pubblicamente nell'hub del modello Hugging Face.
Se fornisco un URL di riferimento, come lo utilizza il sistema?
keyboard_arrow_down
Il sistema utilizza l'API Reader per recuperare il contenuto dall'URL. Quindi analizza il contenuto per riassumere il tono e il dominio, che utilizza come linee guida per la generazione di dati sintetici. Pertanto, l'URL dovrebbe essere accessibile al pubblico e rappresentativo del dominio di destinazione.
Posso mettere a punto un modello per una lingua specifica?
keyboard_arrow_down
Sì, puoi mettere a punto un modello per una lingua diversa dall'inglese. Il sistema rileva automaticamente la lingua delle istruzioni del tuo dominio e genera di conseguenza dati sintetici. Raccomandiamo inoltre di scegliere il modello base appropriato per la lingua di destinazione. Ad esempio, se scegli come target un dominio tedesco, dovresti selezionare "jina-embeddings-v2-base-de" come modello base.
Posso ottimizzare gli incorporamenti non Jina, ad esempio bge-M3?
keyboard_arrow_down
No, la nostra API di ottimizzazione supporta solo i modelli Jina v2.
Come garantite la qualità dei modelli perfezionati?
keyboard_arrow_down
Al termine del processo di messa a punto, il sistema valuta il modello utilizzando un set di test e segnala le metriche delle prestazioni. Riceverai un'e-mail con i dettagli delle prestazioni prima/dopo su questo set di test. Ti invitiamo inoltre a valutare il modello sul tuo set di test per garantirne la qualità.
Come si generano dati sintetici?
keyboard_arrow_down
Il sistema genera dati sintetici integrando le istruzioni del dominio di destinazione fornite con il ragionamento degli agenti LLM. Produce triplette negative rigide, essenziali per l'addestramento di modelli di incorporamento di alta qualità. Per maggiori dettagli, fare riferimento al nostro prossimo documento di ricerca su Arxiv.
Posso mantenere privati ​​i miei modelli ottimizzati e i dati sintetici?
keyboard_arrow_down
Attualmente no. Tieni presente che questa funzionalità è ancora in versione beta. L'archiviazione pubblica dei modelli ottimizzati e dei dati sintetici nell'hub del modello Hugging Face aiuta noi e la comunità a valutare la qualità della formazione. In futuro, prevediamo di offrire un'opzione di archiviazione privata.
Come posso utilizzare il modello ottimizzato?
keyboard_arrow_down
Poiché tutti i modelli ottimizzati vengono caricati su Hugging Face, puoi accedervi tramite SentenceTransformers semplicemente specificando il nome del modello.
Non ho mai ricevuto l'e-mail con i risultati della valutazione. Cosa dovrei fare?
keyboard_arrow_down
Per favore controlla la tua cartella spam. Se ancora non riesci a trovarlo, contatta il nostro team di supporto utilizzando l'indirizzo email che hai fornito.
Contatto
Domande comuni relative all'API
code
Posso usare la stessa chiave API per le API di lettura, incorporamento, riclassificazione, classificazione e messa a punto?
keyboard_arrow_down
Sì, la stessa chiave API è valida per tutti i prodotti di base di ricerca di Jina AI. Ciò include le API di lettura, incorporamento, riclassificazione, classificazione e messa a punto, con token condivisi tra tutti i servizi.
code
Posso monitorare l'utilizzo del token della mia chiave API?
keyboard_arrow_down
Sì, l'utilizzo del token può essere monitorato nella scheda "API Key & Billing" inserendo la tua chiave API, consentendoti di visualizzare la cronologia di utilizzo recente e i token rimanenti. Se hai effettuato l'accesso alla dashboard API, questi dettagli possono essere visualizzati anche nella scheda "Manage API Key".
code
Cosa devo fare se dimentico la mia chiave API?
keyboard_arrow_down
Se hai smarrito una chiave ricaricata e desideri recuperarla, contatta il supporto AT jina.ai con la tua email registrata per ricevere assistenza. Si consiglia di effettuare l'accesso per conservare la tua chiave API in modo sicuro e facilmente accessibile.
Contatto
code
Le chiavi API scadono?
keyboard_arrow_down
No, le nostre chiavi API non hanno una data di scadenza. Tuttavia, se sospetti che la tua chiave sia stata compromessa e desideri ritirarla, contatta il nostro team di supporto per ricevere assistenza. Puoi anche revocare la tua chiave nella dashboard API Key Management.
Contatto
code
Posso trasferire token tra chiavi API?
keyboard_arrow_down
Sì, puoi trasferire token da una chiave premium a un'altra. Dopo aver effettuato l'accesso al tuo account sulla dashboard API Key Management, usa le impostazioni della chiave che vuoi trasferire per spostare tutti i token a pagamento rimanenti.
code
Posso revocare la mia chiave API?
keyboard_arrow_down
Sì, puoi revocare la tua chiave API se ritieni che sia stata compromessa. La revoca di una chiave la disabiliterà immediatamente per tutti gli utenti che l'hanno archiviata e tutto il saldo rimanente e le proprietà associate saranno permanentemente inutilizzabili. Se la chiave è una chiave premium, hai la possibilità di trasferire il saldo pagato rimanente a un'altra chiave prima della revoca. Nota che questa azione non può essere annullata. Per revocare una chiave, vai alle impostazioni della chiave nella dashboard Gestione chiavi API.
code
Perché la prima richiesta per alcuni modelli è lenta?
keyboard_arrow_down
Questo perché la nostra architettura serverless scarica determinati modelli durante i periodi di basso utilizzo. La richiesta iniziale attiva o "riscalda" il modello, il che potrebbe richiedere alcuni secondi. Dopo questa attivazione iniziale, le richieste successive vengono elaborate molto più rapidamente.
code
I dati di input dell'utente vengono utilizzati per addestrare i tuoi modelli?
keyboard_arrow_down
Aderiamo a una rigorosa politica sulla privacy e non utilizziamo dati di input degli utenti per addestrare i nostri modelli. Siamo inoltre conformi a SOC 2 Tipo I e Tipo II, garantendo elevati standard di sicurezza e privacy.
Domande comuni relative alla fatturazione
attach_money
La fatturazione è basata sul numero di frasi o richieste?
keyboard_arrow_down
Il nostro modello di prezzo si basa sul numero totale di token elaborati, consentendo agli utenti la flessibilità di allocare questi token su qualsiasi numero di frasi, offrendo una soluzione economicamente vantaggiosa per diversi requisiti di analisi del testo.
attach_money
È disponibile una prova gratuita per i nuovi utenti?
keyboard_arrow_down
Offriamo ai nuovi utenti una prova gratuita di benvenuto, che include dieci milioni di token da utilizzare con qualsiasi nostro modello, grazie a una chiave API generata automaticamente. Una volta raggiunto il limite di token gratuiti, gli utenti possono facilmente acquistare token aggiuntivi per le proprie chiavi API tramite la scheda "Acquista token".
attach_money
Vengono addebitati i token per le richieste non riuscite?
keyboard_arrow_down
No, i token non vengono detratti per le richieste non riuscite.
attach_money
Quali metodi di pagamento sono accettati?
keyboard_arrow_down
I pagamenti vengono elaborati tramite Stripe, che supporta una varietà di metodi di pagamento tra cui carte di credito, Google Pay e PayPal per la tua comodità.
attach_money
È disponibile la fatturazione per gli acquisti di token?
keyboard_arrow_down
Sì, al momento dell'acquisto dei token verrà emessa una fattura all'indirizzo e-mail associato al tuo account Stripe.
Uffici
location_on
Sunnyvale, California
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, Stati Uniti
location_on
Berlino, Germania (sede centrale)
Prinzessinnenstraße 19-20, 10969 Berlino, Germania
location_on
Pechino, Cina
Livello 5, Edificio 6, No.48 Haidian West St. Pechino, Cina
location_on
Shenzen, Cina
402 Piano 4, Fu'an Technology Building, Shenzhen, Cina
Fondazione di ricerca
Lettore
Incorporamenti
Riclassificazione
Ricerca profonda
Classificatore
Segmentatore
Documentazione API
Ottieni la chiave API Jina
Limite di velocità
Stato dell'API
Azienda
Chi siamo
Contatta le vendite
Sala stampa
Programma di stagista
Unisciti a noi
open_in_new
Scarica il logo
open_in_new
Termini
Sicurezza
Termini & Condizioni
Privacy
Gestisci i cookie
email
Jina AI © 2020-2025.