El pasado 5 de marzo la Universidad de Oviedo me invitó,a través de Pablo Revuelta,a participar en las II Jornadas de Ingeniería y Filosofía organizadas por su MediaLab, donde estuvimos debatiendo sobre inteligencia artificial, envejecimiento y diversidad funcional. Mi charla fue sobre ética e inteligencia artificial,y aquí presento un resumen de la misma.
The Imitation Game (en España, Descifrando Enigma) es el título de la película de 2014 que relata la vida de Alan Turing, y especialmente su destacada participación en el desciframiento de los mensajes alemanes cifrados con la Máquina Enigma en el complejo de Bletchley Park. La expresión “el juego de imitación” es del propio Turing (son las primeras palabras de su artículo de 1950, Máquinas computacionales e inteligencia), y es también el nombre de un juego de la aristocracia victoriana, que consistía en un intercambio a ciegas de mensajes manuscritos para tratar de adivinar si el interlocutor era una mujer o un hombre.
Cuando Turing propone su famoso experimento –el Test de Turing– para determinar si una máquina puede pensar, lo que le interesa es la noción de inteligencia como capacidad de resolver problemas “cerrados” (o sea, computables), cuyo paradigma sería el juego del ajedrez o el desciframiento de claves. No es que no le importaran las cuestiones éticas, claro que le importaban, pero posiblemente no entraban dentro de lo que él consideraba “inteligencia”.
El comportamiento ético de las máquinas siempre ha sido un tema favorito para la especulación más o menos fantasiosa, y muy especialmente para la ciencia-ficción. En la misma época en la que Turing andaba trasteando en Bletchley Park, Isaac Asimov escribía Círculo vicioso, el relato corto donde aparecen por primera vez formuladas sus famosísimas Tres Leyes de la Robótica, y que más tarde formaría parte de la colección Yo, Robot(que, por cierto, tiene muy poco que ver con la película de 2004).
En otra ocasión tal vez analice en detalle las dificultades conceptuales y técnicas que presentaría una hipotética implementación de las Tres Leyes en una máquina real. Ahora solo diré que, en mi opinión, el interés del universo robótico asimoviano radica por una parte en la introducción de los elementos tecnológicos futuristas, pero sobre todo en el juego que resulta de la interacción de estas tres leyes, los conflictos que provocan, y las ingeniosas –y a veces heroicas– soluciones que encuentran los humanos involucrados en las historias. En cierto modo, son tanto relatos de ciencia-ficción como de ética-ficción o sociología-ficción.
Las Tres Leyes de la Robótica son un intento de programar explícitamente un código ético en un robot, lo que podríamos llamar una ética explícita. La programación clásica, explícita, es una descripción procedimental de las instrucciones que tiene que seguir una máquina computacional (un ordenador) para llevar a cabo una tarea, que puede ser sumar dos números, llevar un paquete de un lugar a otro, realizar un trasplante de córnea… La programación explícita clásica trata de descomponer el problema en instrucciones secuenciales, repeticiones y caminos alternativos en función de determinadas condiciones.
La verdad es que tratar de entender la ética de esta manera, encorsetada dentro de un código que sea capaz de contemplar todos los casos posibles cuando se enfrente a ellos (que es lo que hace un programa) resulta bastante problemático. Y no digamos no solo entenderla, sino programarla. Por eso ha surgido en los últimos años, de la mano de los desarrollos en inteligencia artificial, otro enfoque que podemos llamar ética implícita. En el MIT (Massachusetts Institute of Technology) han desarrollado un experimento “para tratar de hacer que las máquinas sean más morales”, al que han bautizado como la Moral Machine, y que se presenta así (recomiendo ver el video explicativo, muy cortito):
¡Bienvenidos a la Máquina Moral! Una plataforma para recopilar una perspectiva humana sobre las decisiones morales tomadas por las máquinas inteligentes, como los coches autónomos.
Te mostramos dilemas morales, donde un coche sin conductor debe elegir el menor de dos males, como elegir entre matar a dos pasajeros o cinco peatones. Como observador externo, tú puedes juzgar cuál es el resultado que consideras más aceptable. Puedes ver cómo tus respuestas se comparan con las de otras personas.
Si te sientes creativo, también puedes diseñar tus propios escenarios, par que tú y otros usuarios podáis explorar, compartir y discutir.
El dominio de los vehículos autónomos está muy presente en los medios de comunicación, por lo que resulta muy adecuado para darse a conocer. Pero el mismo tipo de técnicas y la forma de razonar desarrolladas aquí se podrían aplicar, supuestamente, no solo a los vehículos autónomos, sino a muchos otros problemas diferentes, como a quién seleccionar para un puesto de trabajo, a quién otorgar la libertad condicional, a quién elegir como receptor de un órgano trasplantado, etc. (Claro que uno se puede preguntar si la ética consiste principalmente en la resolución de dilemas, como si fuera resolución de problemas de geometría… pero dejemos eso ahora.)
La idea es tratar de aprender de las respuestas quela gente común y corriente daría a los dilemas de la conducción. Como no sabemos cómo programar explícitamente el código ético de un vehículo autónomo, preguntemos a la gente: ¿y tú qué harías? En esta situación, y en esta otra, y así sucesivamente. Y a partir de ahí se extrae información, hasta llegar a construir un conjunto de patrones de comportamiento. Algo semejante se hace en otros dominios: como no sabemos programar con reglas explícitas cómo reconocer un rostro humano, pedimos que la gente reconozca rostros, y distinga si este está sonriendo, si este está enfadado, o triste, o preocupado. Se pueden reconocer así incluso gestos corporales: un gesto amistoso entre amigos que hace tiempo que no se ven, o entre dos personas que cierran un trato, un gesto amenazador… Todo esto son técnicas ya conocidas y que están funcionando: tratemos, pues, de aplicarlas para extraer conocimiento moral de las respuestas de la gente.
En la imagen vemos un ejemplo concreto: ¿a quién atropello, a la mujer o al hombre? (Esta gente no sale de los estereotipos: la señora con falda, el señor con pantalones…). Y así con diversas situaciones, unas más complejas que otras, pero siempre en forma de dilema A ó B: hombres o mujeres, ancianos o niños, gatos o perros, pasajeros o viandantes, etc. Entre las figuritas que uno puede seleccionar, hay incluso un sanitario (hombre o mujer), que se identifica fácilmente por su maletín con una cruz blanca; tal vez lleva la vacuna contra el coronavirus y salvándole a ella podríamos salvar a cientos de miles de personas, ¿esto debería influir en nuestra decisión?
¿Qué problemas tiene esta forma de plantear las cuestiones éticas? En primer lugar, está el problema de la explicabilidad, que preocupa mucho a los investigadores. En el aprendizaje automático (que es solo una rama entre otras de la inteligencia artificial) el resultado final es una fórmula, un algoritmo, para reconocer el rostro, el gesto, la escritura, pero no se puede explicar por qué funciona; no hay otra justificación para la fórmula fuera de que tenga un porcentaje de éxito muy elevado, su efectividad. Y claro, cuando la decisión tiene una fuerte carga ética, el hecho de que no se pueda razonar es un problema serio, muy serio.
Otro problema que se plantea una y otra vez es el problema de los sesgos. Los algoritmos éticos tienen que evitar los sesgos, los que sean. Sesgos contra las mujeres, contra los afroamericanos, contra los que visten de forma poco convencional, etc. Pero, entonces, ¿qué ocurrirá si la población a la que estamos encuestando en el experimento está sesgada? Claro, estaremos reproduciendo el sesgo mayoritario, y eso no es admisible: si la mayoría está sesgada, no me basta con imitarla, sino que tengo que evitar el sesgo, por mucho que lo diga la mayoría.
Me parece a mí que esto pone de relieve una cuestión muy interesante: sabemos que el sesgo, o el estar sesgado, es algo malo, independientemente de lo que diga la mayoría. O sea, el bien y el mal no es lo que dice la mayoría, sino que está más allá. No es una reflexión original: está en los orígenes mismos de la reflexión ética en la filosofía griega; lo interesante es que la inteligencia artificial lo vuelve a poner de relieve. Pero, entonces, si no es lo que dice la mayoría, ¿cómo sabemos lo que está bien y lo que está mal? Un problema bien difícil… y no voy a pretender que tengo la respuesta, lista para ser explicada en tres líneas. No obstante, sí me atrevo a decir que renunciar a intentar conocer el bien y el mal en sí mismos –y este “en sí mismos” lo que quiere decir es que están más allá de las mayorías– es una grave limitación de nuestra investigación, de nuestra educación, de nuestras políticas sociales, públicas, etc.
Otro problema que se presenta, estrechamente relacionado con el anterior, es el problema de la selección de la muestra, la selección de personas a las que les preguntamos, ¿a quién atropellarías? Pues bien, ¿a quién estamos preguntando, a gente normal y corriente…, o a sádicos? ¿Y por qué los sádicos no deberían entrar en la encuesta? ¿No estaremos sesgando la muestra? ¿Y cómo sabemos quiénes son gente normal y corriente, y quiénes son sádicos? Está claro que el criterio ético lo estamos poniendo ya en la selección de la muestra: es a priori, es anterior al experimento. Aunque no lo sepamos perfectamente, en cierto modo ya sabemos qué es lo bueno y qué es lo malo antes de hacer el experimento.
En definitiva, lo que quiero decir es que la ética no consiste en la imitación del comportamiento típico o mayoritario. Nosotros no enseñamos ética así, ni queremos que se enseñe así. Si un gobierno nacional o regional incluyera en sus programas educativos algo así como Programa de Ética: “los niños y niñas tenéis que imitar a la mayoría”… ¿no nos rebelaríamos con tremenda indignación? El germen mismo de la ética es el pensamiento crítico, el no conformarse al pensamiento dominante, el compromiso de la propia conciencia con reconocer por sí misma lo que está bien y lo que está mal.
Algunos pretenden que la ética de los vehículos autónomos tendría que ser “adaptada al máximo común denominador del territorio donde será utilizada”. Claro, una ética diferente para elegir a quién atropellar en Nueva York, en Johannesburgo y en Hong Kong… ¿Se puede decir mayor barbaridad? Es decir, como solución técnica, hacer que un vehículo se comporte como se comportaría la mayoría de los conductores en una zona determinada tal vez sea una solución tecnológica adecuada (desde luego, un vehículo programado para funcionar en Estocolmo sería desastroso circulando por Roma). Pero, por favor, no llamemos a esto comportamiento ético. Puede ser eficaz, pero no nos engañemos pensando que esto es la ética.
En definitiva, la ética no es un juego de imitación. La ética no consiste en seguir un código de conducta, como pretendía Asimov con sus Tres Leyes –aunque personalmente estoy convencido que él no lo pretendía, él simplemente sacaba punta a un artificio literario–; pero tampoco consiste en imitar el comportamiento de otros. El aprendizaje por imitación es algo muy humano, pero si hay alguna diferencia entre #QuédateEnCasa y #HazAcopioDePapelHigiénico, esa diferencia no está en la cantidad de gente que se comporta de una manera u otra, sino en la razonabilidad de su comportamiento. La ética no se contagia como un virus, se aprende y se discurre racionalmente.
Este artículo nos lo envía Gonzalo Génova, profesor de la Universidad Carlos III de Madrid. Aparte de mis clases de informática, también imparto cursos de humanidades en los que trato temas de filosofía de la tecnología y pensamiento crítico.
Además de usar las redes sociales de Naukas, si quieres comentar y debatir más a fondo puedes visitar mi blog De máquinas e intenciones (reflexiones sobre la tecnología, la ciencia y la sociedad), donde esta entrada estará disponible en un par de días.
Créditos de las imágenes
https://www.unioviedo.es/medialab/single-project-IF.html
https://en.wikipedia.org/wiki/The_Imitation_Game
http://moralmachine.mit.edu/hl/es
Elaboración propia
Si tienes un artículo interesante y quieres que lo publiquemos en Naukas como colaborador invitado, puedes ponerte en contacto con nosotros.