El Test de Turing revisitado

Qué es una máquina pensante

Probablemente los dos artículos más famosos e influyentes de Alan Turing son el de 1936 (On computable numbers…) [1], donde define la Máquina Universal y demuestra el Teorema de la Parada; y el de 1950 (Computing machinery and intelligence) [2] en el que propone su famosa prueba (el Test de Turing) para determinar si una máquina puede o no puede pensar. Este segundo artículo comienza con estas palabras, que plantean la dificultad de definir qué sea una “máquina pensante”:

Propongo que consideremos la siguiente cuestión: “¿Pueden pensar las máquinas?” Deberíamos comenzar con las definiciones del significado de los términos “máquina” y “pensar”.

Turing concibe su test como un procedimiento metódico, un “experimento”, para determinar de manera verificable si una máquina puede o no pensar. El experimento, como es bien sabido, consiste en que el Examinador hace una serie de preguntas, y debe comparar las respuestas de la máquina con las de una persona de verdad (claro, lo que comúnmente consideramos una “persona de verdad”), y así tratar de distinguir cuál es cuál. Si no es posible distinguirlas, si desde el punto de vista del Examinador la máquina responde igual que la persona, entonces es que la máquina “piensa”. Es decir, tiene las características que atribuimos a una persona racional: autoconciencia, inteligencia, voluntad libre. Esto es lo que se supone que ha logrado, al menos en cierta medida, Eugene Goostman.

El papel del examinador en el test puede ser realizado por un humano, un grupo de humanos o incluso una máquina. De hecho, el típico test para reconocer cifras, figuras, o lo que sea, que encontramos al final de un formulario en internet (un CAPTCHA, acrónimo de “Completely Automated Public Turing test to tell Computers and Humans Apart”) es un test de Turing realizado por una máquina: un test que trata de averiguar si quien rellena el formulario es un humano o un robot. La esencia del test es que se trata de un procedimiento metódico y repetible, independientemente de quién lo lleve a cabo. Sus resultados deben ser verificables por otros examinadores. En este sentido, el test es automático, algorítmico.

Quiero centrarme ahora específicamente en uno de aspectos de las personas racionales, la libertad. ¿Es el comportamiento libre una característica verificable científicamente, mediante experimentos? ¿Hay algún experimento que sirva para discriminar si un ser es o no es verdaderamente libre? Asumo aquí que “verdaderamente libre” significa autodeterminado en sus fines, como expliqué en un artículo anterior. Y asumo también que los seres humanos son libres, aunque esto no es esencial para el argumento: si no crees que los humanos sean libres, pon en su lugar un ser cualquiera que sí lo sea. Y si no crees que la libertad sea posible en ningún ser, entonces este experimento no te interesa.

Supongamos que un ser humano (libre…) es sometido al Test de Turing. ¿Qué pasará si ese ser humano se propone imitar a una máquina y engañar al Examinador? ¿Cómo puede el Examinador (humano o mecánico, pero en cualquier caso metódico) defenderse del engaño? No podemos saber a priori qué hará un ser radicalmente libre sometido al Test. Como este ser libre no tiene un objetivo predefinido, puede decidir “fallar” en su evaluación. Y, en cambio, si decide seguir estrictamente las instrucciones recibidas del Examinador, entonces desde ese momento deja de ser un verdadero representante de la humanidad, porque ha renunciado a su libertad (al menos parcialmente) para seguir obedientemente un procedimiento. Incluso si no tiene una clara voluntad de desobedecer y engañar, el sujeto que recibe instrucciones para “comportarse como un humano”, podrá preguntarse con perplejidad: ¿qué significa comportarse como un humano?

¿Qué significa comportarse como un humano?

Por otro lado, una máquina que ha sido construida para superar el Test, es decir, que supuestamente imita a la perfección el comportamiento humano libre (The Imitation Game), tiene el objetivo de imitar a un ser… ¡que no tiene un objetivo prefijado! ¿Cómo se come esto? ¿Cómo podemos especificar las instrucciones para realizar una tarea que en sí misma no está especificada? Por supuesto, podemos construir una máquina que imite el comportamiento humano típico: en parte errático e irracional, en parte intencionado y con un objetivo claro, en parte condicionado por factores externos, etc. Esto ya se ha logrado hasta cierto punto con la tecnología actual, y ha sido posible porque el “comportamiento típico” sí es una especificación suficientemente concreta (conocida por medios estadísticos) como para ser programada en una máquina.

Turing refutado por Turing

Además de esta dificultad para programar una máquina imitadora que sea verdaderamente libre, encontramos también un serio obstáculo para programar una máquina examinadora, ya que no podemos distinguir metódicamente (algorítmicamente) entre el comportamiento intencionado y el no intencionado. Ya expliqué con un experimento mental en un artículo anterior que la ingeniería inversa (es decir, averiguar el propósito o intención de un artefacto) está más allá de las posibilidades del método científico experimental. Es más, esto mismo se puede demostrar formalmente (con las ventajas e inconvenientes de las demostraciones formales).

El matemático estadounidense-argentino Gregory Chaitin demostró [3], como una derivación del Problema de Parada de Turing, que no existe un algoritmo general que pueda decir inequívocamente si una secuencia determinada de números es determinista o aleatoria (es decir, con o sin un propósito). En otras palabras, no podemos distinguir algorítmicamente si una secuencia de eventos (es decir, el comportamiento del sujeto bajo examen) tiene o no un propósito. Menos aún podemos distinguir algorítmicamente entre seres que se comportan de acuerdo con instrucciones dadas y seres que se comportan de acuerdo con las instrucciones que ellos mismos eligen (es decir, con sus propios fines). Mira por dónde, el primer artículo citado de Turing es la base para demostrar que lo que propone en el segundo es imposible…

El comportamiento humano típico (es decir, el comportamiento promedio) no es necesariamente el comportamiento de un individuo; un individuo libre puede elegir seguir un comportamiento típico o uno extraño, y una máquina puede ser programada para imitar tanto uno como otro. El comportamiento libre (autodeterminado) no es computable, en un doble sentido: no es posible producir algorítmicamente un comportamiento libre; y no es posible determinar algorítmicamente, a partir de fenómenos observables, si un comportamiento es libre o no.

Ciertamente, podemos construir una máquina (el Imitador) que se comporte como un ser humano típico; y podemos construir una máquina (el Interrogador o Examinador) que distinga entre comportamientos humanos típicos y extraños. Pero esto deja fuera la cuestión esencial de si ese ser sometido a examen es o no verdaderamente libre, en el sentido de que él mismo se propone sus propios objetivos. Esta es una pregunta que no puede responder una máquina (ni tampoco un test metódico ejecutado por un humano): la respuesta no es computable.

La creatividad, es decir, la capacidad de crear nuevos proyectos e ir más allá de los objetivos predeterminados, no es una propiedad verificable. Si los seres humanos fueran, como David Hume quería, “esclavos de las pasiones” ―sin genuina libertad ni creatividad―, entonces no habría ninguna dificultad en principio para construir una máquina imitadora, porque en último término los humanos no serían más que sistemas mecánicos. Y, una vez que se conocieran esas pasiones u objetivos prefijados, tampoco habría dificultad para construir una máquina examinadora. La especificación de la prueba sería así: ‘humano’ es aquel ser que persigue esas pasiones que ya conocemos y hemos definido de tal y tal manera…

Es muy probable que el mismo Turing, educado en la tradición empirista anglosajona heredera de Hume, pensara de esta manera. Ahora bien, si la autodeterminación es una propiedad genuina de los humanos, entonces el camino hacia la humanidad está cerrado para las máquinas computacionales. En este sentido, lo que he presentado es una doble objeción al Test de Turing (desde el punto de vista del Imitador y del Examinador) como modelo para comprender la inteligencia humana, porque deja de lado los aspectos no computacionales de la libertad y la elección racional. Sobre si es posible ser inteligente sin ser libre… eso lo dejo para otro artículo.

 

Este artículo nos lo envía Gonzalo Génova, profesor de la Universidad Carlos III de Madrid. Aparte de mis clases de informática, también imparto cursos de humanidades en los que trato temas de filosofía de la tecnología y pensamiento crítico. Además de usar las redes sociales de Naukas, si quieres comentar y debatir más a fondo puedes visitar mi blog De máquinas e intenciones (reflexiones sobre la tecnología, la ciencia y la sociedad), donde esta entrada estará disponible en un par de días. Para un desarrollo más técnico de las ideas expuestas aquí, ver la referencia [4].

NOTAS

[1] Alan Turing, On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society 2(42): 230–265, 1936.

[2] Alan Turing, Computing machinery and intelligence. Mind 59: 433-460, 1950.

[3] Gregory Chaitin, Meta Math! The Quest for Omega. New York: Vintage Books, 2005.

[4] Gonzalo Génova, Ignacio Quintanilla Navarro. Are Human Beings Humean Robots? Journal of Experimental & Theoretical Artificial Intelligence 30(1):177–186, January 2018.

 



Por Colaborador Invitado
Publicado el ⌚ 25 septiembre, 2018
Categoría(s): ✓ Divulgación • Tecnología