Una prueba de Turing para el futuro

17 Turing futurista 1Para Jorge Cantú

La vida y la muerte no son tan importantes como crees. La conciencia es realmente el acertijo.

John Varley, Demon (1984)

Javier Peláez, nuestro jefazo aquí en Naukas, se preguntaba hace un par de meses cuándo llegará el fatídico día que llegará y no será pronto ni tarde, en que seamos reemplazados por robots en nuestros trabajos. Porque ya sabemos que de ahí a que las máquinas se rebelen y nos esclavicen hay sólo un paso más.

Por supuesto, Javier matiza: los estudios indican que ese día no es un día, sino un periodo largo de tiempo (unos 50 años) en el que los robots irán tomando cada vez más trabajos, avanzando por temas y por regiones geográficas. Hay quienes estiman que con la tecnología actual, alrededor del 50% de todos los trabajos de manufactura y logística ya podrían de hecho ser tomados por las máquinas. En este tema, desde el año pasado se ha hecho viral una discusión —con empresarios importantes como Elon Musk y Marc Cuban a favor y en contra— acerca de la necesidad futura de un Salario Básico Universal para afrontar ese futuro automatizado. Este tipo de discusión (¡salario para robots!) realmente ya nos hace sentir “en el futuro”, pero nuestros visionarios de mediados del s. XX ya se preocupaban por estos temas: Asimov en los 40s planteaba escenarios parecidos, y en los 60s el filósofo Alan Watts vaticinaba específicamente la necesidad del Salario Básico Universal.

Hasta aquí, hablamos de actividades físicas tradicionales; pero en realidad los estudios dicen que en unas décadas, también un montón de trabajos más “humanos” —que implican toma de decisiones— serán asignados a inteligencias artificiales (IA). Aquí es en donde empieza a ponerse interesante el asunto. Javier está en buena compañía, pues gente como Bill Gates y Stephen Hawking también están preocupados por el ascenso de la IA; aunque en ellos las preocupaciones van en buena medida por el lado de la extensión de sus aplicaciones en lo militar.

En este punto, vamos a tomar una pausa para esquematizar, porque hay un montón de preocupaciones diferentes. Existe la preocupación:

  1. De ser sustituidos por máquinas físicamente más capaces. Esto ya sucede.
  2. De ser sustituidos por máquinas “intelectualmente” más capaces. Esto ya pasa en muchos casos y va a seguir avanzando.
  3. De que las máquinas se vuelvan realmente inteligentes. Y más que eso, conscientes.

Hay poco que se pueda hacer acerca de las primeras dos, pero las preocupaciones son en ambos casos en términos socio-económicos. En lo que nos vamos a enfocar es en la tercera, que es bastante más lejana, pero cuya existencia implica una preocupación mucho más fundamental: esto es, de la naturaleza misma de la conciencia y por extensión, de la del ser humano.

Nota: vamos a dejar de lado por completo dos temas: primero, el de la apariencia humanoide de una máquina inteligente; y segundo, el de la posibilidad de trasladar una conciencia humana completa a un medio digital. Los problemas no son del todo ajenos, pero los veremos con detalle en otra ocasión.

Historia mínima de la IA

Hablar de IA es como hablar de mecánica cuántica: es un tema que nos suena muy reciente pero que tiene mucho más tiempo del que pensamos. La primera calculadora de bolsillo comercial apareció en los 60s, pero los fundamentos de la teoría de IA data de ¡1943! Es de agradecer que películas recientes como “El Juego de la Imitación” (2014) traigan al público a pioneros de esta ciencia, como su fundador Alan Turing.

...y que muestren a los científicos tan sexys.
…y que muestren a los científicos tan sexys.

Turing y Alonzo Church propusieron que una máquina que pudiese manipular símbolos sencillos como 1 y 0, podría simular cualquier acto de razonamiento formal. Ahora bien, estamos hablando de razonamientos basados exclusivamente en la lógica matemática, un lenguaje no natural y altamente especializado.

Por el mismo tiempo, el neurofisiólogo y promotor del concepto de “cibernética” Warren McCulloch, publicó junto con el matemático Walter Pitts un artículo en el que presentaban el diseño formal de “redes neurales”. Este es uno de los conceptos más poderosos en la historia de la IA, pues basa su modelo en ejemplos de la biología y cómo estas redes pueden ser creadas en ambientes matemáticos para simular el proceso de aprendizaje.

Desde los modelos matemáticos propuestos en ese entonces, los avances han sido espectaculares en la tecnología que se ha desarrollado para implementarlos. Por el lado teórico, también se han creado una gran cantidad de conceptos y algoritmos nuevos, como el aprendizaje automático (Machine learning), la Inteligencia de Enjambres (Swarm Intelligence) ó el Aprendizaje Q (Q-learning), que nos están haciendo perder cada vez más batallas de inteligencia ante nuestros pares de metal y plástico.

"...y las que vienen."
“…y las que vienen.”

Batallas recientes (perdidas)

Desde un principio fue claro que una computadora es más rápida que cualquier ser humano para calcular, lo que se vio sin ninguna duda cuando la máquina de Turing descifró el código Enigma durante la Segunda Guerra Mundial; esa batalla fue perdida desde hace mucho. Sin embargo, nuestro orgullo tenía algunas cosas de respaldo: el ajedrez por ejemplo, que se consideraba una muestra de “inteligencia”. Pero en 1996 esto se acabó: la máquina Deep Blue de IBM derrotó al campeón mundial Garry Kasparov y hoy en día cualquier aplicación de móvil puede ganarle a cualquier maestro. El ajedrez en un juego con (relativamente) pocas reglas y poco campo de acción para una máquina, así que con mera “fuerza bruta” puede hacer pedazos a cualquier ajedrecista. Esto porque no sólo puede calcular muchas más posibilidades en el futuro que un cerebro humano, sino que puede almacenar en su memoria millones de situaciones parecidas, ya jugadas.

El pobre Kasparov no puede ni con Junior.
El pobre Kasparov no puede ni con Junior.

Eso nos dejó solamente el juego chino del Weiqi (más conocido por la palabra japonesa Go): un juego con menos reglas que el ajedrez pero con un campo de acción mucho más grande y que usa estrategias “zonales” en su tablero. La profundidad de cálculo para ganar por mera fuerza bruta está fuera del alcance de una computadora actual, pero 20 años después del ajedrez, también fue conquistado por medio del desarrollo de nuevos algoritmos más flexibles y con aprendizaje en “niveles”. Un software de ajedrez no necesita aprender, pero uno de Go sí.

La prueba de fuego que ya no lo es

Claro que ganar en juegos, complicados o no, no es ni de lejos prueba de inteligencia, sino de nuestra habilidad para crear programaciones flexibles y eficientes, que simulan una actividad que nuestro cerebro puede realizar. Lo que por muchos años se consideró una prueba más fehaciente de la inteligencia de una máquina fue el famoso Test de Turing.

La formulación clásica, en pocas palabras es ésta: tienes frente a ti dos ventanillas, a través de las cuales haces pasar todo tipo de preguntas escritas y recibes respuestas también escritas. Sabes que detrás de una ventanilla hay un humano y detrás de la otra, una máquina. Si después de un tiempo, no sabes cuál es cuál, entonces el Test de Turing se habrá superado, y por lo tanto la máquina que estuvo contestando es “inteligente”. Pero esta prueba también ha sido salvada: un programa pasó el Test de Turing en 2014, haciéndose pasar por Eugene Goostman, un niño ucraniano de 13 años.

Conozca a Eugene, o como le gusta que le digan, Skynet.
Conozca a Eugene, o como le gusta que le digan, Skynet.

Así que… ¿tenemos inteligencia artificial? ¿Estamos perdidos como civilización? ¿HAL nos enviará a congelarnos en el espacio?

La respuesta es, claro que no. Lo que tenemos es una prueba obsoleta, superada por una máquina con un repertorio de frases muy extenso y una gran cantidad de algoritmos que simulan inteligencia, pero que sigue atrapada en la Habitación China. Este concepto sigue sin ser superado y lo será por mucho tiempo. Va así: imagina que estás en una habitación con una ventanilla, y tú tienes un manual y un montón de tarjetas escritas en chino. De vez en cuando, entra un papel por la ventanilla, con una pregunta escrita en chino, por ejemplo “你叫什么名字”. Tú la ves, buscas esa serie de caracteres en el manual y ahí te dice que cuando encuentres esos signos, tú debes tomar la tarjeta marcada con “我叫王” y darla como respuesta. El manual tiene instrucciones para cualquier cosa que entre por la ventanilla y tu catálogo de tarjetas es inacabable. Quien está fuera está convencido de que eres Confucio, pero tú sigues sin remotamente saber una palabra de chino.

El punto en el que se encuentra la IA es que tenemos manuales extraordinariamente avanzados y de hecho, estamos creando estrategias complementarias para que el manual te indique cómo, con el tiempo, te vuelvas mucho más eficiente al entregar las tarjetas, sin tener que hacer la búsqueda completa cada vez. Por ejemplo, hay máquinas que han pasado pruebas de reconocimiento visual de formas; hay casos en los que han pasado “pruebas de conciencia”, que son acertijos que requieren cierto grado de comprensión de una situación; y la computadora Deep Mind de Google puede ¡soñar!. Pero no, no sueña con ovejas eléctricas: lo que hace es que al encontrar un problema muy complejo, lo divide en partes y crea sub-rutinas para repetir las secciones más complicadas de manera independiente. Este pequeño “sueño” le va confiriendo la habilidad de resolver esas partes e integrarlas luego al problema total.

El futuro: ¿tendremos conciencia no humana?

La respuesta corta es, sí. En otro artículo, mencioné la “verdadera IA” junto con otras tecnologías de la ciencia ficción que aún se antojan muy lejanas en el futuro, si no es que imposibles (v.g. tele-transportación, miniaturización). Pero de todas las mencionadas, la IA es la más asequible, como estuvieron de acuerdo todos los lectores que respondieron al texto. (Si no lo vio, ¡participe! porque hay un buen debate en cuanto a las otras tecnologías).

Volvamos a la cuestión. ¿Recuerda esa cosa de 1943, las redes neurales? Pues ahí está casi seguramente la clave hacia la conciencia artificial. Hasta ahora teníamos sólo una manera de simular IA: programar instrucciones cada vez mejores y darle a la computadora cada vez más datos para que tenga en su memoria. Pero no importa qué tanto conocimiento almacene ni qué tan magistralmente la use ni qué tan indistinguible sea su comportamiento del de un humano. Al final estará siguiendo un programa, atrapada en la Habitación China, sin conciencia de lo que hace.

Hay una alternativa: un aparato, ó entidad, que aprende por sí mismo, de la misma forma que aprende un humano. En su forma más simple, está compuesto de una red neural sintética (un “cerebro”), un sensor que lo hace percibir el mundo que le rodea (“ojos”), y un cuerpo que le permite interactuar con el mundo, en respuesta a lo que experimenta. El elemento de interacción puede ser sonoro (“voz”), cinético (“manos”) o de otras formas. Pero he aquí lo importante: la red tiene elementos conectados entre sí al igual que neuronas, pero no tiene instrucciones. ¿Suena estrambótico? Porque no lo es: en 1999 David Fogel y su equipo crearon Blondie24, una red neural que aprendió a jugar damas. Su red tenía un solo algoritmo: una regla de decisión que decide algo en base a minimizar su daño. El aprendizaje se dio por medio de “neuroevolución”: haciendo que muchas copias de Blondie24 jugaran unas contra otras hasta que la más evolucionada derrotara en conocimiento a todas las demás.

Tómese un momento para pensar en las posibilidades.

Supongamos que en el futuro no hay ninguna catástrofe que elimine a la humanidad y que nuestra tecnología sigue progresando. Así, con tiempo suficiente vamos a llegar a un punto en el que el “sensor” y el “cuerpo” de nuestra entidad puedan ser excepcionalmente sofisticados y ello va a permitir que puedan sustituir por completo al algoritmo usado en Blondie24. Las entradas y salidas serían equivalentes a nuestro “dolor” y “placer” (pérdida-ganancia); y una red neural sintética muy avanzada, ayudada por procesos mejorados de neuroevolución, puede perfectamente aprender todas las reglas de interacción con el mundo: lenguaje y acciones. Esta entidad sería en efecto indistinguible de un ser humano y la conciencia que desplegaría no sería una simulación, sino el resultado orgánico de su evolución.

La prueba de Turing de ese futuro probable sería como sigue:

Tenemos ante nosotros a dos androides, cuya apariencia física y su comportamiento son totalmente indistinguibles. Hacemos la pregunta: ¿qué tiene en la cabeza el androide 1? La respuesta es: el programa más moderno de simulación humana. Hacemos la misma pregunta para el androide 2 y la respuesta es: tiene una red neural que pasó por el proceso de evolución acelerada.

El androide 1 no tiene conciencia, el androide 2 sí.

Esta propuesta es tan sorprendente que las nuestros actuales conceptos de ética, de conciencia y de “humanidad” no alcanzan a funcionar en tal escenario, que sin embargo no es fantasioso. El robot, ese gólem moderno que durante un siglo nos ha servido como espejo y moraleja, viene por nosotros a re-plantearnos toda nuestra visión del mundo.

17 Turing futurista 7

Texto en chino:

– ¿Cómo te llamas?

– Me llamo Wang.

Referencias:

Peláez, Javier. ¿Cuándo serás reemplazado por un robot en tu trabajo? Yahoo Noticias, 12 de junio de 2017.

Weller, Chris. Giving people free money could be the only solution when robots finally take our jobs. Business Insider. Abril 8, 2016.

Kharpal, Arjun. Mark Cuban: Basic income ‘the worst possible response’ to job losses from robots. CNBC, fabrero 22, 2017.

Hear Alan Watts’s 1960s Prediction That Automation Will Necessitate a Universal Basic Income, en Open Culture. Enero 6, 2017.

Sainato, Michael. Stephen Hawking, Elon Musk, and Bill Gates Warn About Artificial Intelligence. Observer, agosto 19, 2015.

Artificial intelligence. Wikipedia.

Artificial neural network. Wikipedia.

Swarm intelligence. Wikipedia.

Q-learning. Wikipedia.

Kosh, Christof. How the Computer Beat the Go Master. Scientific American. Marzo 19, 2016.

Test de Turing, en Matemática Aplicada y Estadística.

Franco, Dante. El bot que logró superar la prueba de Turing. FayerWayer. Junio 9, 2014.

The Chinese Room, en 60-Second Adventures in Thought. Oct. 3, 2011.

Larry Hardesty. Computer system passes “visual Turing test”. MIT News. Dic. 10, 2015.

Christopher Hooton. A robot has passed a self-awareness test. The Independent. Julio 17, 2015.

McCarthy, John. Three wise men puzzle. Formal Reasoning Group, University of Stanford. Nov. 19, 2007.

Krumins, Aaron. Google’s Deep Mind AI gives robots the ability to dream. ExtremeTech. Nov. 28, 2016.

Fogel , David B. Blondie 24: Playing at the Edge of AI. San Francisco: Morgan Kaufmann Publishers, 2001.

Araujo, Alfonso. Yo, (Tú, Él) Robot – II, en L Mnd s Xtrñ; mayo 15, 2013.


12 Comentarios

Participa Suscríbete

pvlpvl

Muy interesante y muy bien explicado: sencillamente fascinante el futuro próximo.
Una duda: una de las constantes presentes en todos los nichos biológicos y motor de su evolución es la competencia: específicamente competencia por recursos y, competencia por reproducirse.
De hecho esa competencia en el ámbito biológico, los humanos la hemos exportado a nuestro ámbito tecnológico: vemos competencia entre diferentes tecnologías (como un remedo de la competencia interespecies) y competencia incluso dentro de la misma tecnología (como un remedo de la competencia entre individuos).
Casi con toda seguridad, también existirá esa competencia entre este tipo de IAs.
Pero ¿estamos abocados a que exista también competencia entre las IAs y sus creadores?

pepepepe

Muy interesante, el futuro va por ahi. La pregunta es con estos hechos ¿Donde quedan las filosofias sobre el alma?

walkurtwalkurt

Pepe, quedan en eso, en la filosofia.
Para alguien no creyente, es muy sencillo, una maquina que pudiera superar el ultimo ejemplo que da el articulo, ya tendria su propia “alma”.

TheTouristTheTourist

Bueno, va a ser tan interesante a nivel socio-cultural, como el conocimiento de que la tierra no es el centro del universo, que el universo comenzó hace millonadas de años, o que descendemos de un proceso evolutivo y todos los seres vivos de este planeta son nuestro parientes.

Casi tan impactante como tener contacto con seres extraterrestres o tan solo encontrar vida en otro planeta.

Una bofetada en la cara de nuestro ego.

SargentopezSargentopez

Mal vamos…
Una máquina consciente va a tener, probablemente, los mismos objetivos que nosotros: acceso a energía y a recursos naturales para restaurarse y mejorarse.
¿De verdad queremos crear seres más inteligentes que nosotros con nuestras mismas necesidades?

TheTouristTheTourist

Bueno, nadie se imagina que el ser humano exista para siempre, casi todas las religiones que hemos inventado hablan de nuestro fin. Seria interesante y mejor ser reemplazados por algo que creemos nosotros mismos, a volarnos nosotros mismos en pedazos.

JRamonJRamon

“Terminator” cruzado con “Hijos de los hombres”: Skynet encuentra la manera de provocar una infertilidad masiva sin que nadie sospeche. Fin.

AdolfoAdolfo

Pienso que la IA debe, en razón de ser una creación del género humano, estar a disposición de éste; asistiéndolo en la toma de decisiones, aportando nuevas e innovadoras soluciones, nunca constituyendo un factor que amenace su continuidad y derecho a existir.

En definitiva, debe constituir una herramienta; es decir un medio, nunca un fin.

ÁngelÁngel
Alfonso Araujo

Muchas gracias, Ángel y también muy interesante el comentario y el link.

En cuanto a la inteligencia y la conciencia, es un debate que está lejos de resolverse aún, porque el comportamiento parcialmente inteligente ya es una realidad; el asunto aquí es más bien de comportamiento indistinguible de un humano que

A) sea resultado de un programa excelente, lo cual la invalida como conciencia, ó
B) sea resultado de un proceso evolutivo pero artificial, que nos llevaría a los dilemas que hemos visto ya en la ciencia ficción.

Deja un comentario

Tu email nunca será mostrado o compartido. No olvides rellenar los campos obligatorios.

Obligatorio
Obligatorio
Obligatorio

Puedes usar las siguientes etiquetas y atributos HTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>