Noticias
Modelos
Productos
keyboard_arrow_down
Lector
Lea las URL y busque en la web para obtener una base más sólida para su LLM.
Incrustaciones
Integraciones multilingües y multimodales de clase mundial.
reclasificador
Recuperador neuronal de clase mundial para maximizar la relevancia de la búsqueda.
Búsqueda profunda
Busca, lee y razona hasta encontrar la mejor respuesta.
Más
keyboard_arrow_down
Clasificador
Clasificación de cero disparos y pocos disparos para imágenes y texto.
Segmentador
Corta el texto largo en fragmentos y haz tokenización.

Documentación de la API
Generación automática de código para su IDE o LLM de Copilot
open_in_new


Compañía
keyboard_arrow_down
Sobre nosotros
Contactar con ventas
Programa de prácticas
Únete a nosotros
open_in_new
Descargar logotipo
open_in_new
Términos y condiciones


Acceso
login
Dos problemas de RAG
Solo alimentación hacia adelante
La fundamentación en estado salvaje es difícil
Mi Opinión
Opinión
mayo 24, 2024

¿RAG está muerto, otra vez?

RAG es solo un patrón algorítmico que puedes usar. Pero si lo conviertes en *el* algoritmo y lo idolatras, entonces estás viviendo en una burbuja que tú mismo creaste, y esa burbuja estallará.
Cartoon of four characters in a cemetery with graves marked "RAG," mixing somber themes with humorous actions.
Han Xiao
Han Xiao • 4 minutos de lectura

Es difícil saber si la gente odia amar RAG o ama odiar RAG.

Según discusiones recientes en X y HN, RAG debería estar muerto, otra vez. Esta vez, las críticas se centran en la sobre-ingeniería de la mayoría de los frameworks RAG, que, como demostraron @jeremyphoward @HamelHusain @Yampeleg, podría lograrse con 20 líneas de código Python.

La última vez que tuvimos esta vibra fue poco después del lanzamiento de Claude/Gemini con una ventana de contexto súper larga. Lo que hace que esta vez sea peor es que incluso el RAG de Google genera resultados graciosos como mostraron @icreatelife @mark_riedl, lo cual es irónico porque en abril, en Google Next en Las Vegas, Google presentó RAG como la solución de fundamentación.

tagDos problemas de RAG

Veo dos problemas con los frameworks y soluciones RAG que tenemos hoy.

tagSolo alimentación hacia adelante

Primero, casi todos los frameworks RAG implementan solo una ruta de "alimentación hacia adelante" y carecen de una ruta de "retropropagación". Es un sistema incompleto. Recuerdo a @swyx, en uno de los episodios de @latentspacepod, argumentando que RAG no será eliminado por la ventana de contexto largo de los LLMs ya que:

  1. el contexto largo es costoso para los desarrolladores y
  2. el contexto largo es difícil de depurar y carece de descomponibilidad.

Pero si todos los frameworks RAG se centran solo en la ruta de avance, ¿cómo es más fácil de depurar que un LLM? También es interesante ver cuántas personas se emocionan demasiado con los resultados automágicos de RAG de algunas pruebas de concepto aleatorias y olvidan completamente que agregar más capas de avance sin ajuste hacia atrás es una idea terrible. Todos sabemos que agregar una capa más a tus redes neuronales expande su espacio paramétrico y, por lo tanto, la capacidad de representación, permitiéndole hacer más cosas potenciales, pero sin entrenamiento, esto no es nada. Hay algunas startups en el Área de la Bahía trabajando en evaluación—esencialmente tratando de evaluar la pérdida de un sistema de alimentación hacia adelante. ¿Es útil? Sí. Pero ¿ayuda a cerrar el ciclo de RAG? No.

Entonces, ¿quién está trabajando en la retropropagación de RAG? Hasta donde sé, no muchos. Estoy más familiarizado con DSPy, una biblioteca de @stanfordnlp @lateinteraction que establece su misión en eso.

GitHub - stanfordnlp/dspy: DSPy: The framework for programming—not prompting—foundation models
DSPy: The framework for programming—not prompting—foundation models - stanfordnlp/dspy
GitHubstanfordnlp

Pero incluso para DSPy, el enfoque principal está en optimizar demostraciones de pocos ejemplos, no el sistema completo (o al menos desde el uso comunitario). Pero ¿por qué es difícil este problema? Porque la señal es muy escasa, y optimizar un sistema de pipeline no diferenciable es esencialmente un problema combinatorio—en otras palabras, extremadamente difícil. Aprendí algo de optimización submodular durante mi doctorado, y tengo la sensación de que esta técnica será bien utilizada en la optimización de RAG.

tagLa fundamentación en estado salvaje es difícil

Estoy de acuerdo en que RAG es para fundamentación, a pesar de los divertidos resultados de búsqueda de Google. Hay dos tipos de fundamentación: fundamentación de búsqueda, que utiliza motores de búsqueda para extender el conocimiento mundial de los LLMs, y fundamentación de verificación, que utiliza conocimiento privado (por ejemplo, datos propietarios) para hacer verificación de hechos.

En ambos casos, cita conocimiento externo para mejorar la factualidad del resultado, siempre que estos recursos externos sean confiables. En el divertido resultado de búsqueda de Google, uno puede ver fácilmente que no todo en la web es confiable (¡sí, gran sorpresa, ¿quién lo hubiera pensado!), lo que hace que la fundamentación de búsqueda se vea mal. Pero creo que solo puedes reírte de esto por ahora. Hay algunos mecanismos de retroalimentación implícitos detrás de la interfaz de usuario de Google Search que recopilan las reacciones de los usuarios a esos resultados y ponderan la credibilidad del sitio web para una mejor fundamentación. En general, debería ser bastante temporal, ya que este RAG solo necesita superar el arranque en frío, y los resultados mejorarán con el tiempo.

Diagram of Jina AI's search process with "Search Grounding," "Private Knowledge," and "Check Grounding" blocks, and related U
Dos tipos de fundamentación que inspiran Jina Reader

RAG fue presentado como una solución de grounding en la conferencia Google Next.

tagMi Opinión

RAG no está ni muerto ni vivo; así que dejen de discutir sobre ello. RAG es solo un patrón algorítmico que puedes usar. Pero si lo conviertes en el algoritmo y lo idolatras, entonces estás viviendo en una burbuja que tú mismo creaste, y esa burbuja explotará.

Categorías:
Opinión
rss_feed
Oficinas
location_on
Sunnyvale, California
710 Lakeway Dr, Ste 200, Sunnyvale, CA 94085, EE. UU.
location_on
Berlín, Alemania (sede central)
Prinzessinnenstraße 19-20, 10969 Berlín, Alemania
location_on
Beijing, China
Piso 5, Edificio 6, No.48 Haidian West St. Pekín, China
location_on
Shenzhen, China
Piso 402, Edificio de Tecnología Fu'an, Shenzhen, China
Fundación de búsqueda
Lector
Incrustaciones
reclasificador
Búsqueda profunda
Clasificador
Segmentador
Documentación API
Obtener la clave API de Jina
Límite de velocidad
Estado de la API
Compañía
Sobre nosotros
Contactar con ventas
Sala de prensa
Programa de prácticas
Únete a nosotros
open_in_new
Descargar logotipo
open_in_new
Términos
Seguridad
Términos y condiciones
Privacidad
Administrar cookies
email
Jina AI © 2020-2025.