IA y telegrama

Análisis telegráfico de los LLMs

Mi análisis telegráfico de la situación actual y futura sobre los Grandes Modelos de Lenguaje (LLMs).

Premisa

  • La IA generativa falla.
  • No puede dejar de fallar. No es ni será de fiar.

Por tanto:

  • No trabajará sola, ni hará grandes trozos de trabajo sin asistencia.

Solo funcionará donde:

  • El proceso sea tolerante a fallos y los errores no sean catastróficos.
    • Por ejemplo: análisis de sentimientos, búsqueda semántica, RAG, traducción, corrección ortográfica y estilística, etc.
  • La interacción con ella sea constante y breve.
    • Por ejemplo: programación (retroalimentación y validación constante del desarrollador en ciclos rápidos y cortos), etc.

Otros usos interesantes:

  • Creatividad computacional aplicada
    • Entendida como la capacidad de generar nuevas combinaciones de datos, conceptos y procedimientos útiles de forma automatizada en diversas disciplinas.

Dónde NO funcionará:

  • Agentes autónomos.
    • ¿Por qué? Porque no es de fiar y resulta más costoso validar su trabajo que hacerlo sin ella.

Cosas que pesan más sobre su uso generalizado:

  • Costo
    • Los sistemas actuales están muy subsidiados y es un modelo insostenible.

Posible futuro:

  • Uso generalizado de modelos locales y «pequeños».
    • Muchas tareas donde son útiles se benefician poco de los márgenes de mejora entre modelos grandes y pequeños. Estos últimos serán suficientes para tareas comunes. Se democratizará el hardware local que lo haga posible.

Peligros:

  • Impacto educativo
  • Dependencia emocional
  • Psicosis
  • Facilitador para la desinformación
  • Presión empresarial para la desaparición de hardware local potente.

Peligro a destacar:

  • Degeneración de su fiabilidad como fuente de información. ¿Por qué? Por la dificultad en eliminar la creciente información falsa de su set de entrenamiento.

Posible solución:

  • Emplear los LLM como «motores linguísticos» o «de razonamiento» que no descansan en la información contenida en ellos, sino en fuentes externas (siempre habrá una fuente autoritativa conectada a ellas en la práctica). Su información de entrenamiento solo hará las veces de «cultura general», a fin de hacerla competente para entender contextos e instrucciones.
Javier
Javier

Maestro en Ciencias de la Computación (UNAM). Durante mucho tiempo interesado en la difusión del pensamiento crítico, la ciencia y el escepticismo. Estudioso de la inteligencia artificial, ciencias cognitivas y temas afines.

Artículos: 66

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *