Red neuronal

¿Los modelos de lenguaje son inteligentes?

Me parece interesante el debate que ha surgido sobre si algo como GPT4 es realmente «inteligente» (lo que sea que eso signifique).

Muchos dicen que no lo es porque es sólo «estadística aplicada a gran cantidad de datos», o que no tiene «representaciones internas».

Mi particular postura es que argumentos de ese tipo están equivocados. Empecemos con las representaciones internas:

¿Cómo se ve una «representación interna» desde afuera? No sabemos. Las conocemos «desde adentro» cuando pensamos en un concepto, pero si nos asomamos a un cerebro, seríamos incapaces de distinguir disparos aleatorios en un conjunto de neuronas, de otros que conformen una «representación interna».

Si no puedes distinguirlas, ¿cómo sabes que no está ahí?

La postura es que un sistema de la magnitud de GPT4, por tamaño y características, tendrá como propiedad emergente la creación de «representaciones internas». No podemos ver las representaciones internas, pero se podría delatar indirectamente su presencia gracias a las capacidades de razonamiento, de deducción y de abstracción del propio sistema.

Muchos pensamos que algo como GPT4 tiene esas capacidades.

El otro tipo de argumentos, del tipo: «solo es estadística aplicada a un montón de datos», y en general, cualquiera que describa el funcionamiento de un componente del sistema, fallan porque no hay una conexión lógica entre ese funcionamiento y las capacidades del sistema.

Por ejemplo: una neurona no es más que una unidad que «dispara» cuando es estimulada por encima de cierto umbral. Los que argumentan de esa forma dirían algo del tipo: «¿Cómo podría un conjunto de unidades que disparan al ser estimuladas, tener una representación interna?». La verdad es que no sabemos cómo, pero la tienen, porque de eso está hecho el cerebro, y el cerebro tiene representaciones internas.

La mera descripción de la mecánica que gobierna un sistema no es suficiente para decir a primera vista de lo que es o no es capaz dicho sistema. Y añadiría que si el sistema está armado de forma que pueda hacer computación universal, entonces lo puede todo.

De esto no se debe deducir que exista conciencia, emociones, sentimientos, motivaciones, propósitos, ni nada parecido en sistemas como estos. Simplemente que, dada su complejidad y tamaño, realmente no sabemos que propiedades emergen de ellos, ni su verdadero alcance.

Javier
Javier

Maestro en Ciencias de la Computación (UNAM). Durante mucho tiempo interesado en la difusión del pensamiento crítico, la ciencia y el escepticismo. Estudioso de la inteligencia artificial, ciencias cognitivas y temas afines.

Artículos: 54

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *