El test de Eliza

El test de Eliza

Con el fin de reactivar el foro tras un tiempo en que estuvo roto, comparto una idea que surgió hace poco en una conversación.

Hay un ejercicio tan interesante como el test de Turing para tratar con los sistemas de IA. Yo creo que probablemente su resultado tenga incluso más impacto que el del test de Turing. Lo vengo llamando “Test de Eliza” (aunque quizás ya exista con otro nombre).

El test de Turing

El mal llamado test de Turing consiste en considerar que una máquina piensa, tiene consciencia o es inteligente si puede hacerse pasar por un ser humano frente a un examinador. Digo “mal llamado” porque en el texto original, Turing nunca lo presentó como un test para saber si las máquinas piensan. De hecho, dijo que preguntarse si las máquinas piensan no tiene sentido científico, y propuso cambiar la pregunta por otra distinta, y ahí fue que propuso el juego de la imitación.

Fue como decir "no nos preguntemos si las máquinas piensan, porque nunca vamos a poder responderlo empíricamente. Preguntémonos, en cambio, si las máquinas podrían eventualmente ganar este juego: una persona tiene que saber si lo que está chateando con él es una IA o un ser humano, y tiene que hacer preguntas para distinguirlos. ¿Puede la máquina hacerse pasar por humano sin que el examinador logre darse cuenta?

El test de Eliza

Tratar a alguien o algo como un ser consciente no es algo que decidamos racionalmente. En general es intuitivo. Además, tendemos a antropomorfizar a las cosas que tienen algún rasgo parecido a nosotros, así que cuando no estamos prestando atención, estos sistemas tienen ventaja.

Por otra parte, casi nunca estamos tomando examen a ver si las otras personas son conscientes o pensantes. Simplemente las tratamos como si lo fueran. Lo que hacemos las personas cotidianamente para que otros crean que somos seres conscientes es mucho menos que superar exámenes rigurosos.

Es muy distinto sobrevivir a las preguntas de un examinador (que está buscando atentamente puntos de falla y haciendo preguntas difíciles) que simplemente no meter la pata en un momento cotidiano. Es como la diferencia entre superar una entrevista laboral difícil y después tener que hacer un trabajo “pasable”, que muchas veces requiere una mínima porción de los conocimientos. Del mismo modo, puede pasar mucho tiempo hasta que conozcas caras de una persona que simplemente no viste porque no pensaste en buscarlas ni hubo situaciones que la pusieran a prueba.

En los años 60, apareció un modelo de IA llamado “Eliza”. Era muy sencillo, simplemente implementaba técnicas de escucha activa. Por ejemplo, repetía las dos o tres últimas palabras de lo que dijo el interlocutor (si nunca lo probaste, te vas a sorprender con lo efectivo que es simplemente repetir las últimas palabras que te dijeron para mantener una conversación). De vez en cuando decía otras cosas, como “contame más”.

Resulta que la mayoría de las personas le hablaban como si se tratara de una persona real. Y la burbuja tardaba en explotar. Algunas personas mantenían conversaciones larguísimas con Eliza creyendo que era un ser humano.

No hay manera de que Eliza hubiera pasado el test de Turing, pero a varias personas que hablaban con ella no se les ocurrió hacerle ese test (del mismo modo que no le hacés el test de Turing a la gente que te cruzás en la calle). En todo caso, sólo ponían a prueba a la máquina después de que esta metiera la pata, respondiera de formas extrañas, y pusiera fin a la inclinación natural de creer que hay una persona del otro lado.

Entonces surge la idea del test de Eliza: ¿cuánto tiempo tarda una persona que interactúa normalmente con el sistema en notar que hay algo raro, si empieza creyendo que está hablando con una persona? ¿cuánto tarda en romperse la burbuja si no estamos activamente buscandole el punto de falla, sino simplemente conversando?

Los modelos actuales

Es difícil que los modelos de lenguaje actuales superen el test de Turing. Pero creo que superan fácilmente el test de Eliza.

Seguro en internet te cruzás con miles de textos escritos por IAs y los leés como si fueran seres humanos. Y te va a pasar cada vez más.

El test de Turing no responde si las máquinas piensan porque, hasta donde sabemos, no hay manera empírica de determinar si otro ser tiene experiencia subjetiva. De hecho, lo que determina si tratamos a otro ser como consciente es intuitivo, no racional, así que imaginar un test racional para responder esa pregunta es por lo menos arriesgado.

El resultado del test de Eliza es más impactante que el test de Turing porque es suficiente para determinar, en la práctica, si las personas pueden volverse amigos, enemigos, o hasta enamorarse de los robots. Eso es, en definitiva, lo que determina nuestra inclinación emocional a decir si las máquinas piensan. Lo demás son racionalizaciones.

2 Me gusta