Leser
Konvertieren Sie eine URL in eine LLM-freundliche Eingabe, indem Sie einfach
r.jina.ai
davor hinzufügen.Leser-API
Konvertieren Sie eine URL in eine LLM-freundliche Eingabe, indem Sie einfach
r.jina.ai
davor hinzufügen. chevron_leftchevron_right
globe_book
Verwenden Sie
r.jina.ai
, um eine URL zu lesen und ihren Inhalt abzurufentravel_explore
Verwenden Sie
s.jina.ai
, um im Web zu suchen und SERP zu erhaltenInhaltsformat
Sie können den Detaillierungsgrad der Antwort steuern, um eine Überfilterung zu verhindern. Die Standardpipeline ist für die meisten Websites und LLM-Eingaben optimiert.
Standard
arrow_drop_down
JSON-Antwort
Die Antwort erfolgt im JSON-Format und enthält URL, Titel, Inhalt und Zeitstempel (sofern verfügbar). Im Suchmodus wird eine Liste mit fünf Einträgen zurückgegeben, die jeweils der beschriebenen JSON-Struktur folgen.
Time-out
Maximale Wartezeit beim Laden der Seite (nicht die gesamte Anforderungsverarbeitungszeit).
Token-Budget
Begrenzt die maximale Anzahl von Token, die für diese Anfrage verwendet werden. Bei Überschreitung dieses Grenzwertes schlägt die Anfrage fehl.
Verwenden Sie ReaderLM-v2
Experimental
Verwendet ReaderLM-v2 für die Konvertierung von HTML in Markdown, um qualitativ hochwertige Ergebnisse für Websites mit komplexen Strukturen und Inhalten zu liefern. Kostet 3x Token!
CSS-Selektor: Nur
Liste von CSS-Selektoren zum Ansprechen bestimmter Seitenelemente.
CSS-Selektor: Wait-For
CSS-Selektoren, auf die gewartet werden soll, bevor Ergebnisse zurückgegeben werden.
CSS-Selektor: Ausschließen
CSS-Selektoren für zu entfernende Elemente (Kopfzeilen, Fußzeilen usw.).
Alle Bilder entfernen
Entfernen Sie alle Bilder aus der Antwort.
Sammeln Sie alle Links am Ende
Am Ende wird ein Abschnitt „Buttons & Links“ erstellt. Dies erleichtert den nachgelagerten LLMs oder Webagenten die Navigation auf der Seite oder das Ausführen weiterer Aktionen.
Keiner
arrow_drop_down
Sammeln Sie am Ende alle Bilder
Am Ende wird ein Abschnitt „Bilder“ erstellt. Dies gibt den nachgelagerten LLMs einen Überblick über alle visuellen Elemente auf der Seite, was das Denken erleichtern kann.
Keiner
arrow_drop_down
Ansichtsfenster-Konfiguration
POST
Legt die Abmessungen des Browser-Ansichtsfensters für responsives Rendering fest.
Weiterleiten Cookie
Unser API-Server kann Ihre benutzerdefinierten Cookie-Einstellungen beim Zugriff auf die URL weiterleiten, was für Seiten nützlich ist, die eine zusätzliche Authentifizierung erfordern. Beachten Sie, dass Anfragen mit Cookies nicht zwischengespeichert werden.
Bildbeschreibung
Beschriftet alle Bilder unter der angegebenen URL und fügt für Bilder ohne einen Alt-Tag „Bild [idx]: [Beschriftung]“ hinzu. Dies ermöglicht nachgelagerten LLMs die Interaktion mit den Bildern bei Aktivitäten wie Argumentation und Zusammenfassung.
Verwenden Sie einen Proxyserver
Unser API-Server kann Ihren Proxy nutzen, um auf URLs zuzugreifen, was für Seiten hilfreich ist, auf die nur über bestimmte Proxys zugegriffen werden kann.
Verwenden Sie einen länderspezifischen Proxyserver
Legen Sie den Ländercode für den standortbasierten Proxyserver fest. Verwenden Sie „auto“ für eine optimale Auswahl oder „none“, um die Auswahl zu deaktivieren.
Cache umgehen
Unser API-Server speichert sowohl Inhalte im Lese- als auch im Suchmodus für eine bestimmte Zeit im Cache. Um diesen Cache zu umgehen, setzen Sie diesen Header auf „true“.
Nicht zwischenspeichern/verfolgen!
Wenn aktiviert, werden Anforderungsergebnisse nicht auf unseren Servern zwischengespeichert.
Markdown mit Github-Flavour
Opt-in/Out-Funktionen von GFM (Github Flavored Markdown).
Ermöglicht
arrow_drop_down
Stream-Modus
Der Stream-Modus ist für große Zielseiten von Vorteil, da er mehr Zeit für die vollständige Darstellung der Seite bietet. Wenn der Standardmodus unvollständige Inhalte ergibt, sollten Sie den Stream-Modus verwenden.
Browser-Gebietsschema anpassen
Kontrollieren Sie die Browser-Gebietsschemata, um die Seite darzustellen. Viele Websites bieten je nach Gebietsschema unterschiedliche Inhalte an.
Halten Sie sich strikt an die Roboterrichtlinie
Definieren Sie den Bot-User-Agent, um vor dem Abrufen von Inhalten eine Prüfung mit robots.txt durchzuführen.
iframe-Extraktion
Verarbeitet Inhalte aus allen eingebetteten Iframes im DOM-Baum.
Shadow-DOM-Extraktion
Extrahiert Inhalte aus allen Shadow-DOM-Stämmen im Dokument.
Weiterleitungsseite folgen
Wählen Sie aus, ob nach dem Befolgen aller Weiterleitungen zur endgültigen Ziel-URL aufgelöst werden soll. Aktivieren Sie diese Option, um der vollständigen Weiterleitungskette zu folgen.
Lokale PDF/HTML-Datei
POST
Verwenden Sie Reader für Ihre lokalen PDF- und HTML-Dateien, indem Sie sie hochladen. Es werden nur PDF- und HTML-Dateien unterstützt.
upload
Vorab-Ausführen von JavaScript
POST
Führt die Vorverarbeitung von JS-Code aus (Inline-String oder Remote-URL).
Überschriftenstil
Legt das Markdown-Überschriftenformat fest (an Turndown übergeben).
Alternative Überschriftensyntax
arrow_drop_down
Horizontaler Regelstil
Definiert das horizontale Markdown-Regelformat (an Turndown übergeben).
Aufzählungszeichenstil
Legt das Markierungszeichen für die Aufzählungsliste fest (wird an Turndown weitergegeben).
*
arrow_drop_down
Hervorhebungsstil
Definiert das Markdown-Hervorhebungstrennzeichen (an Turndown übergeben).
_
arrow_drop_down
Stil mit starker Betonung
Legt ein starkes Hervorhebungstrennzeichen für Markdown fest (wird an Turndown weitergegeben).
**
arrow_drop_down
Link-Stil
Bestimmt das Markdown-Linkformat (an Turndown übergeben).
Im Einklang
arrow_drop_down
EU-Konformität
Experimental
Die gesamte Infrastruktur und die Datenverarbeitung erfolgen vollständig innerhalb der EU-Rechtsprechung.
upload
Anfrage
GET
Bash
Sprache
arrow_drop_down
curl "https://r.jina.ai/https://example.com"
key
API-Schlüssel
visibility_off
Verfügbare Token
0
ReaderLM v2: Kleines Sprachmodell für HTML zu Markdown und JSON
ReaderLM-v2 ist ein 1,5-B-Parameter-Sprachmodell, das auf die Konvertierung von HTML in Markdown und die Extraktion von HTML in JSON spezialisiert ist. Es unterstützt Dokumente mit bis zu 512.000 Token in 29 Sprachen und bietet im Vergleich zu seinem Vorgänger eine um 20 % höhere Genauigkeit.
Das Einspeisen von Webinformationen in LLMs ist ein wichtiger Schritt zur Einarbeitung, kann aber auch eine Herausforderung sein. Die einfachste Methode besteht darin, die Webseite zu scrapen und das Roh-HTML einzuspeisen. Das Scraping kann jedoch komplex und oft blockiert sein, und Roh-HTML ist mit irrelevanten Elementen wie Markups und Skripten überladen. Die Reader-API behebt diese Probleme, indem sie den Kerninhalt aus einer URL extrahiert und in sauberen, LLM-freundlichen Text umwandelt, wodurch eine qualitativ hochwertige Eingabe für Ihre Agent- und RAG-Systeme sichergestellt wird.
Geben Sie Ihre URL ein
Leser-URL
Rohes HTML
Reader-Ausgabe
Stellen Sie eine Frage
Reader kann als SERP-API verwendet werden. Damit können Sie Ihr LLM mit dem Inhalt hinter der Seite der Suchmaschine füttern. Stellen Sie Ihrer Abfrage einfach
https://s.jina.ai/?q=
voran, und Reader durchsucht das Web und gibt die fünf besten Ergebnisse mit ihren URLs und Inhalten zurück, jeweils in sauberem, LLM-freundlichem Text. Auf diese Weise können Sie Ihr LLM immer auf dem neuesten Stand halten, seine Sachlichkeit verbessern und Halluzinationen reduzieren.Geben Sie Ihre Suchanfrage ein
Leser-URL
info Bitte beachten Sie, dass Sie im Gegensatz zur oben gezeigten Demo in der Praxis nicht die ursprüngliche Frage im Internet nach einer Grundlage durchsuchen. Häufig wird die ursprüngliche Frage umgeschrieben oder es werden Multi-Hop-Fragen verwendet. Die abgerufenen Ergebnisse werden gelesen und anschließend werden zusätzliche Abfragen erstellt, um bei Bedarf weitere Informationen zu sammeln, bevor eine endgültige Antwort gefunden wird.
Bilder auf der Webseite werden mithilfe eines Vision Language Model im Reader automatisch mit Bildunterschriften versehen und in der Ausgabe als Bild-Alt-Tags formatiert. Dadurch erhält Ihr nachgelagertes LLM gerade genug Hinweise, um diese Bilder in seine Denk- und Zusammenfassungsprozesse einzubeziehen. Das bedeutet, dass Sie Fragen zu den Bildern stellen, bestimmte Bilder auswählen oder sogar ihre URLs zur tieferen Analyse an ein leistungsfähigeres VLM weiterleiten können!
Ja, Reader unterstützt das Lesen von PDFs nativ. Es ist mit den meisten PDFs kompatibel, auch mit denen mit vielen Bildern, und es ist blitzschnell! In Kombination mit einem LLM können Sie im Handumdrehen ganz einfach eine ChatPDF- oder Dokumentenanalyse-KI erstellen.
Und das Beste daran? Es ist kostenlos!
Die Reader API ist kostenlos erhältlich und bietet flexible Ratenbegrenzungen und Preise. Sie basiert auf einer skalierbaren Infrastruktur und bietet hohe Zugänglichkeit, Parallelität und Zuverlässigkeit. Wir möchten Ihre bevorzugte Grundlösung für Ihre LLMs sein.
Ratenbegrenzung
Ratenbegrenzungen werden auf drei Arten verfolgt: RPM (Anfragen pro Minute) und TPM (Token pro Minute). Die Begrenzungen werden pro IP/API-Schlüssel erzwungen und ausgelöst, wenn zuerst der RPM- oder TPM-Schwellenwert erreicht wird. Wenn Sie im Anforderungsheader einen API-Schlüssel angeben, verfolgen wir die Ratenbegrenzungen nach Schlüssel und nicht nach IP-Adresse.
Spalten
arrow_drop_down
Produkt | API-Endpunkt | Beschreibungarrow_upward | ohne API-Schlüsselkey_off | mit API-Schlüsselkey | mit Premium-API-Schlüsselkey | Durchschnittliche Latenz | Zählung der Token-Nutzung | Zulässige Anfrage | |
---|---|---|---|---|---|---|---|---|---|
Leser-API | https://r.jina.ai | URL in LLM-freundlichen Text konvertieren | 20 RPM | 500 RPM | trending_up5000 RPM | 7.9s | Zählen Sie die Anzahl der Token in der Ausgabeantwort. | GET/POST | |
Leser-API | https://s.jina.ai | Durchsuchen Sie das Web und konvertieren Sie die Ergebnisse in LLM-freundlichen Text | block | 100 RPM | trending_up1000 RPM | 2.5s | Jede Anfrage kostet eine feste Anzahl an Token, beginnend bei 10000 Token | GET/POST | |
DeepSearch | https://deepsearch.jina.ai/v1/chat/completions | Überlegen, suchen und iterieren, um die beste Antwort zu finden | block | 50 RPM | 500 RPM | 56.7s | Zählen Sie die Gesamtzahl der Token im gesamten Vorgang. | POST | |
Einbettungs-API | https://api.jina.ai/v1/embeddings | Konvertieren Sie Text/Bilder in Vektoren mit fester Länge | block | 500 RPM & 1,000,000 TPM | trending_up2,000 RPM & 5,000,000 TPM | ssid_chart hängt von der Eingangsgröße ab help | Zählen Sie die Anzahl der Token in der Eingabeanforderung. | POST | |
Reranker-API | https://api.jina.ai/v1/rerank | Ordnen Sie Dokumente nach Abfrage | block | 500 RPM & 1,000,000 TPM | trending_up2,000 RPM & 5,000,000 TPM | ssid_chart hängt von der Eingangsgröße ab help | Zählen Sie die Anzahl der Token in der Eingabeanforderung. | POST | |
Klassifizierer-API | https://api.jina.ai/v1/train | Trainieren eines Klassifikators anhand gekennzeichneter Beispiele | block | 20 RPM & 200,000 TPM | 60 RPM & 1,000,000 TPM | ssid_chart hängt von der Eingangsgröße ab | Token werden wie folgt gezählt: input_tokens × num_iters | POST | |
Klassifizierer-API (Nullschuss) | https://api.jina.ai/v1/classify | Klassifizieren Sie Eingaben mithilfe der Zero-Shot-Klassifizierung | block | 200 RPM & 500,000 TPM | 1,000 RPM & 3,000,000 TPM | ssid_chart hängt von der Eingangsgröße ab | Token werden wie folgt gezählt: input_tokens + label_tokens | POST | |
Klassifizierer-API (Wenige Schüsse) | https://api.jina.ai/v1/classify | Klassifizieren Sie Eingaben mit einem trainierten Few-Shot-Klassifikator | block | 20 RPM & 200,000 TPM | 60 RPM & 1,000,000 TPM | ssid_chart hängt von der Eingangsgröße ab | Token werden wie folgt gezählt: input_tokens | POST | |
Segmenter-API | https://api.jina.ai/v1/segment | Tokenisieren und Segmentieren von Langtext | 20 RPM | 200 RPM | 1,000 RPM | 0.3s | Token werden nicht als Nutzung gezählt. | GET/POST |
Keine Panik! Jeder neue API-Schlüssel enthält zehn Millionen kostenlose Token!
API-Preise
Die API-Preise basieren auf der Token-Nutzung. Ein API-Schlüssel gibt Ihnen Zugriff auf alle Produkte der Suchgrundlage.
Welche Kosten sind mit der Nutzung der Reader-API verbunden?
keyboard_arrow_down
Wie funktioniert die Reader-API?
keyboard_arrow_down
Ist die Reader-API Open Source?
keyboard_arrow_down
Wie hoch ist die typische Latenz für die Reader-API?
keyboard_arrow_down
Warum sollte ich die Reader-API verwenden, anstatt die Seite selbst zu scrapen?
keyboard_arrow_down
Unterstützt die Reader-API mehrere Sprachen?
keyboard_arrow_down
Was soll ich tun, wenn eine Website die Reader-API blockiert?
keyboard_arrow_down
Kann die Reader-API Inhalte aus PDF-Dateien extrahieren?
keyboard_arrow_down
Kann die Reader-API Medieninhalte von Webseiten verarbeiten?
keyboard_arrow_down
Ist es möglich, die Reader-API auf lokale HTML-Dateien anzuwenden?
keyboard_arrow_down
Speichert die Reader-API den Inhalt im Cache?
keyboard_arrow_down
Kann ich die Reader-API verwenden, um auf Inhalte hinter einer Anmeldung zuzugreifen?
keyboard_arrow_down
Kann ich die Reader-API verwenden, um auf arXiv auf PDF zuzugreifen?
keyboard_arrow_down
Wie funktionieren Bildunterschriften im Reader?
keyboard_arrow_down
Wie skalierbar ist der Reader? Kann ich ihn in der Produktion einsetzen?
keyboard_arrow_down
Wie hoch ist die Ratenbegrenzung der Reader-API?
keyboard_arrow_down
Was ist Reader-LM? Wie kann ich es verwenden?
keyboard_arrow_down
Ratenbegrenzung
Ratenbegrenzungen werden auf drei Arten verfolgt: RPM (Anfragen pro Minute) und TPM (Token pro Minute). Die Begrenzungen werden pro IP/API-Schlüssel erzwungen und ausgelöst, wenn zuerst der RPM- oder TPM-Schwellenwert erreicht wird. Wenn Sie im Anforderungsheader einen API-Schlüssel angeben, verfolgen wir die Ratenbegrenzungen nach Schlüssel und nicht nach IP-Adresse.
Spalten
arrow_drop_down
Produkt | API-Endpunkt | Beschreibungarrow_upward | ohne API-Schlüsselkey_off | mit API-Schlüsselkey | mit Premium-API-Schlüsselkey | Durchschnittliche Latenz | Zählung der Token-Nutzung | Zulässige Anfrage | |
---|---|---|---|---|---|---|---|---|---|
Leser-API | https://r.jina.ai | URL in LLM-freundlichen Text konvertieren | 20 RPM | 500 RPM | trending_up5000 RPM | 7.9s | Zählen Sie die Anzahl der Token in der Ausgabeantwort. | GET/POST | |
Leser-API | https://s.jina.ai | Durchsuchen Sie das Web und konvertieren Sie die Ergebnisse in LLM-freundlichen Text | block | 100 RPM | trending_up1000 RPM | 2.5s | Jede Anfrage kostet eine feste Anzahl an Token, beginnend bei 10000 Token | GET/POST | |
DeepSearch | https://deepsearch.jina.ai/v1/chat/completions | Überlegen, suchen und iterieren, um die beste Antwort zu finden | block | 50 RPM | 500 RPM | 56.7s | Zählen Sie die Gesamtzahl der Token im gesamten Vorgang. | POST | |
Einbettungs-API | https://api.jina.ai/v1/embeddings | Konvertieren Sie Text/Bilder in Vektoren mit fester Länge | block | 500 RPM & 1,000,000 TPM | trending_up2,000 RPM & 5,000,000 TPM | ssid_chart hängt von der Eingangsgröße ab help | Zählen Sie die Anzahl der Token in der Eingabeanforderung. | POST | |
Reranker-API | https://api.jina.ai/v1/rerank | Ordnen Sie Dokumente nach Abfrage | block | 500 RPM & 1,000,000 TPM | trending_up2,000 RPM & 5,000,000 TPM | ssid_chart hängt von der Eingangsgröße ab help | Zählen Sie die Anzahl der Token in der Eingabeanforderung. | POST | |
Klassifizierer-API | https://api.jina.ai/v1/train | Trainieren eines Klassifikators anhand gekennzeichneter Beispiele | block | 20 RPM & 200,000 TPM | 60 RPM & 1,000,000 TPM | ssid_chart hängt von der Eingangsgröße ab | Token werden wie folgt gezählt: input_tokens × num_iters | POST | |
Klassifizierer-API (Nullschuss) | https://api.jina.ai/v1/classify | Klassifizieren Sie Eingaben mithilfe der Zero-Shot-Klassifizierung | block | 200 RPM & 500,000 TPM | 1,000 RPM & 3,000,000 TPM | ssid_chart hängt von der Eingangsgröße ab | Token werden wie folgt gezählt: input_tokens + label_tokens | POST | |
Klassifizierer-API (Wenige Schüsse) | https://api.jina.ai/v1/classify | Klassifizieren Sie Eingaben mit einem trainierten Few-Shot-Klassifikator | block | 20 RPM & 200,000 TPM | 60 RPM & 1,000,000 TPM | ssid_chart hängt von der Eingangsgröße ab | Token werden wie folgt gezählt: input_tokens | POST | |
Segmenter-API | https://api.jina.ai/v1/segment | Tokenisieren und Segmentieren von Langtext | 20 RPM | 200 RPM | 1,000 RPM | 0.3s | Token werden nicht als Nutzung gezählt. | GET/POST |
Häufige Fragen zu APIs
code
Kann ich denselben API-Schlüssel für Reader-, Einbettungs-, Neurang-, Klassifizierungs- und Feinabstimmungs-APIs verwenden?
keyboard_arrow_down
code
Kann ich die Token-Nutzung meines API-Schlüssels überwachen?
keyboard_arrow_down
code
Was soll ich tun, wenn ich meinen API-Schlüssel vergesse?
keyboard_arrow_down
code
Laufen API-Schlüssel ab?
keyboard_arrow_down
code
Kann ich Token zwischen API-Schlüsseln übertragen?
keyboard_arrow_down
code
Kann ich meinen API-Schlüssel widerrufen?
keyboard_arrow_down
code
Warum ist die erste Anfrage für einige Modelle langsam?
keyboard_arrow_down
code
Werden Benutzereingabedaten zum Training Ihrer Modelle verwendet?
keyboard_arrow_down
Häufige Fragen zur Abrechnung
attach_money
Erfolgt die Abrechnung nach der Anzahl der Sätze bzw. Anfragen?
keyboard_arrow_down
attach_money
Gibt es eine kostenlose Testversion für neue Benutzer?
keyboard_arrow_down
attach_money
Werden für fehlgeschlagene Anfragen Token berechnet?
keyboard_arrow_down
attach_money
Welche Zahlungsmethoden werden akzeptiert?
keyboard_arrow_down
attach_money
Ist eine Rechnungsstellung für Token-Käufe verfügbar?
keyboard_arrow_down