a16z: La 'amnesia' de la IA, ¿puede curarla el aprendizaje continuo?
En el artículo de a16z, se explora la "amnesia" de la IA, comparándola con el personaje de "Memento" que no puede formar nuevos recuerdos. Los modelos de lenguaje actuales, tras su entrenamiento, congelan el conocimiento en sus parámetros, sin poder actualizarse con nueva información. Para compensar, se usan contextos externos como historiales de chat o sistemas de recuperación, pero estos no internalizan realmente el conocimiento.
El aprendizaje contextual (ICL) es útil, pero tiene limitaciones: no maneja bien problemas que requieren descubrimiento genuino, adaptación adversarial o conocimiento implícito. La solución propuesta es el "aprendizaje continuo", donde los modelos actualizan sus parámetros después del despliegue, comprimiendo nueva información en lugar de solo recuperarla.
Se discuten tres enfoques:
1. **Contexto**: Mejora de ventanas de contexto y sistemas de recuperación.
2. **Módulos**: Uso de adaptadores o memorias externas para especializar modelos.
3. **Pesos**: Actualización directa de parámetros mediante técnicas como metaaprendizaje o auto-mejora.
Aunque el aprendizaje contextual es efectivo y escalable, el artículo argumenta que la compresión en los parámetros es crucial para problemas complejos. Sin embargo, actualizar pesos conlleva riesgos como olvido catastrófico o problemas de seguridad. El futuro probablemente combine contextos, módulos y actualizaciones de pesos para lograr IA que aprenda de verdad, no solo recuerde.
marsbitHace 40 min(s)