以下の方法で入手できます
比較するモデルを選択してください
概要
Reader LM 1.5B は、効率的なドキュメント処理における画期的な進歩をもたらし、複雑な Web コンテンツをクリーンで構造化された形式に変換するという重要な課題を解決します。この特殊な言語モデルは、最新の AI パイプラインにおける根本的な問題、つまり、脆弱なルールベースのシステムやリソースを大量に消費する大規模な言語モデルに依存せずに、下流タスク用の HTML コンテンツを効率的に処理してクリーンアップする必要性を解決します。このモデルの本当に注目すべき点は、1.54B という驚くほどコンパクトなパラメータ フットプリントを維持しながら、そのサイズの 50 倍のモデルを上回るパフォーマンスを発揮できることです。大規模な Web コンテンツ処理、ドキュメントの自動化、またはコンテンツ管理システムを扱う組織にとって、このモデルは、非常に長いドキュメントを処理しながら、HTML からマークダウンへの変換において優れた精度を提供できるため、特に価値があると考えられます。
方法
このモデルは、言語モデル設計における従来のスケーリング手法に挑戦する、革新的な「シャロー&ワイド」アーキテクチャを採用しています。その中心となるのは、12 個のクエリ ヘッダーと 2 個のキー/値ヘッダーで構成された 28 個の Transformer レイヤーであり、深いセマンティック理解を維持しながら選択的コピー操作を最適化する独自のバランスを作り出しています。このアーキテクチャの隠しサイズは 1536、中間サイズは 8960 で、最大 256K のトークンのシーケンスを処理できるように細かく調整されています。トレーニング プロセスには 2 つの異なる段階が含まれます。最初は 32K トークン シーケンスを持つ短くて単純な HTML に焦点を当て、次に 128K トークンを持つ長くて難しい HTML に進み、効率的な処理のためにギザギザ リング アテンションを実装します。このアプローチを対照的な検索と特殊な重複検出メカニズムと組み合わせることで、複雑なドキュメント処理タスクを扱う小規模な言語モデルによく存在する劣化や無限ループなどの一般的な問題をモデルで回避できます。
パフォーマンス
包括的なベンチマーク評価において、Reader LM 1.5B は業界標準に挑戦する能力を実証しました。このモデルの ROUGE-L スコアは 0.72、トークン エラー率は 0.19 で、GPT-4 (0.43 ROUGE-L、0.50 TER) や Gemini-1.5-Pro (0.42 ROUGE-L、0.50 TER) よりも大幅に優れています。 TER) HTML から Markdown への変換タスクでは 0.48 TER) およびその他の大規模なモデル。そのパフォーマンスは、タイトル抽出、メインコンテンツ抽出、豊富な構造の保存、マークダウン構文の使用という 4 つの主要な側面の定性的評価において際立っています。このモデルは、ニュース記事やブログ投稿からランディング ページやフォーラム投稿に至るまで、さまざまな種類のドキュメントにわたって一貫して高い精度を維持し、英語、ドイツ語、日本語、中国語などの複数の言語をサポートしています。このパフォーマンスは、長さが 256K までのトークンを含むドキュメントを処理する場合に、大規模なモデルで通常必要とされる高価なチャンク操作を行わずに達成されます。
ガイド
Reader LM 1.5B を効果的に展開するには、組織は、正確さと効率性が重要となる、複雑な HTML ドキュメント処理を伴うシナリオに焦点を当てる必要があります。このモデルには、最適なパフォーマンスを得るために CUDA 対応の GPU インフラストラクチャが必要ですが、その効率的なアーキテクチャにより、大規模な代替ハードウェアよりも小規模なハードウェアでも効果的に実行できます。実稼働環境の場合、このモデルは AWS SageMaker および Azure Marketplace を通じて利用でき、柔軟な統合オプションが提供されます。このモデルは HTML からマークダウンへの変換では良好に機能しますが、このタスク専用に最適化されており、一般的なテキスト生成やその他の NLP タスクには適していない可能性があることに注意することが重要です。ユーザーは、非常に長いドキュメント (約 512K トークン) を処理すると、モデルのトレーニング パラメーターを超えるため、パフォーマンスが低下する可能性があることに注意する必要があります。最良の結果を得るには、提供されている重複検出メカニズムを実装し、出力品質を維持するために推論中に対照検索を使用することを検討してください。
このモデルについて言及しているブログ