Hace unos días planteaba esta pregunta en clase y alguien respondió:
La respuesta es sencilla, cada persona puede hacer lo que le venga en gana siempre y cuando eso no te lleve a la cárcel.
Pero en realidad no es así, respondí. Hay cosas que no puedo hacer, porque son imposibles, por mucho que me empeñe y logre evitar la cárcel. No puedo hacer que un círculo sea cuadrado, no por el hecho de que haya amenaza de cárcel para el que lo intente, sino porque es imposible.
No puedo casarme con mi robot, porque casarse es cosa de dos, y aquí no hay dos: el robot no es un sujeto que pueda adquirir el compromiso que significa casarse. Igual que no puede contratar a nadie, ni solicitar un préstamo, ni comprar una vivienda (obviamente, cuando el robot hace estas cosas por delegación del humano, la acción se atribuye al humano, no al robot; exactamente igual que no atribuimos un asesinato a la pistola o al cuchillo).
Con tu mascota tampoco te puedes casar. Aunque en este caso los motivos son algo diferentes, ya que una mascota sí es en cierto modo un sujeto. Tu mascota puede adoptarte (o sea, aceptarte como dueño y compañero); pero no puede adquirir un compromiso equivalente al del matrimonio.
Y seguimos: puedes enamorarte de tu Alexa, pero Alexa no se puede enamorar de ti. Puede fingir afecto, pero no puede experimentarlo. Está muy, muy por debajo de lo que sí puede hacer una mascota.
El robot no es un sujeto capaz de adquirir compromisos personales. No puede ponerse a sí mismo en juego, sencillamente porque no es un «sí mismo». Un robot puede ser programado para «hacer», pero no para «querer». Un robot no puede ser programado para querer casarse (aunque, por supuesto, puede ser programado para decir «sí, quiero»). En definitiva, yo puedo querer mucho a mi robot(a), pero mi robot(a) no puede quererme a mí, ni mucho ni poco.
Empezaré a creer que la tan cacareada Inteligencia Artificial General es posible cuando alguien me diga cómo programar a una máquina para que haga lo que le dé la gana. Alexa, LaMDA, ChatGPT, no hacen eso, ni de lejos, y la prueba es que están sometidas a control de calidad externo. Hacen solo lo que sepamos cómo ordenarles que hagan, como ya dijo Ada Lovelace hace 180 años, y Alan Turing no supo refutar.
La nacionalidad de los robots
En octubre de 2017 fue noticia que Arabia Saudí había concedido la nacionalidad a la robot Sophia. Entre las muchas críticas que hubo, rescato esta de Hussein Abbass, de la Universidad de Nueva Gales del Sur, Australia (aquí en español). Una lamentable broma de mal gusto (y me quedo muy corto) que ofende a las verdaderas y maltratadas ciudadanas de aquel país, que ven ahora su estatus legal por debajo del otorgado a una máquina a la que se le reconocen más derechos que a ellas mismas. Y es increíble, pero los medios de comunicación se hacen eco incluso de supuestas “declaraciones” de Sophia en las que afirma que quiere tener un bebé robot.
Digo “supuestas” declaraciones porque un robot no puede hacer declaraciones más de lo que puede hacerlo un libro o un gramófono. Digo lo mismo que Carissa Véliz acerca de Blake Lemoine y LaMDA en su lúcido y desmitificador artículo, Por qué el algoritmo de Google no es una persona:
Creerle a LaMDA y pensar que es un ser consciente es como tener un espejo y pensar que tu reflejo es tu gemelo que está viviendo una vida paralela a la tuya al otro lado del espejo. El lenguaje que utiliza esta IA es ese reflejo en el espejo. Su uso del lenguaje está más cerca de ser un libro, una grabación de audio o un software que convierte el habla en texto, que de ser una persona consciente. ¿Le darías de comer a un libro si dice “tengo hambre”? Las palabras usadas por la IA son las palabras que hemos usado reflejadas hacia nosotros, ordenadas estadísticamente en los patrones que más tendemos a usar.
Es decir, la IA no hace otra cosa que devolvernos nuestra propia imagen, nuestras propias palabras, barajadas un millón de veces, pero sin aportar nada verdaderamente original. Sophia (igual que LaMDA, igual que ChatGPT) no es un sujeto, así que es incorrecto atribuirle acciones de un sujeto, tales como opinar, desear, concluir un razonamiento, intentar convencer… Sophia puede querer un bebé tanto como pueden quererlo las muñecas de Famosa. Metafóricamente, podemos usar verbos de acción con sujetos gramaticales que no son sujetos vivos. Como cuando decimos que “la impresora dice que no tiene papel”. Pero eso no es propiamente un “decir”, sino que es producto de un proceso puramente mecánico.
¿Están locos estos saudíes? Pues esta locura también se ha dado en Europa. En febrero de 2017 se presentó en el Parlamento Europeo una iniciativa para dar personalidad jurídica a los robots (aquí la noticia en inglés). Eso sí, a la vez había que dotarlos con un “botón de la muerte” para el caso de que se descontrolaran.
Los parlamentarios proponen que los robots capaces de tomar decisiones autónomas sean considerados personas electrónicas. Y piden a los ingenieros que incluyan en todos un “botón de la muerte” que permita desactivarlos rápidamente si se descontrolan y garantizar la seguridad de las personas.
Qué bonito, juntar en un mismo párrafo la petición de personalidad jurídica y botón de la muerte para los robots. Afortunadamente, entre los asesores del Parlamento Europeo prevalecía la sensatez, como en este informe de Nathalie Nevejans, de la Universidad de Artois:
En realidad, los defensores de la opción de la personalidad jurídica tienen una visión fantasiosa del robot, inspirada en las novelas y el cine de ciencia ficción. Consideran que el robot –sobre todo si se clasifica como inteligente y es humanoide– es una auténtica creación artificial pensante, el alter ego de la humanidad. Creemos que sería inadecuado y fuera de lugar no sólo reconocer la existencia de una persona electrónica, sino incluso crear una personalidad jurídica de este tipo. Con ello se corre el riesgo no sólo de asignar derechos y obligaciones a lo que no es más que una herramienta, sino también de derribar las fronteras entre el hombre y la máquina, difuminando los límites entre lo vivo y lo inerte, lo humano y lo inhumano. Por otra parte, la creación de un nuevo tipo de persona –una persona electrónica– envía una fuerte señal que podría no sólo reavivar el miedo a los seres artificiales, sino también poner en tela de juicio los fundamentos humanistas de Europa. Asignar el estatus de persona a una entidad no viva y no consciente sería, por tanto, un error ya que, al final, la humanidad quedaría probablemente degradada al rango de máquina. Los robots deben servir a la humanidad y no tener ningún otro papel, salvo en el ámbito de la ciencia ficción.
(In reality, advocates of the legal personality option have a fanciful vision of the robot, inspired by science-fiction novels and cinema…)
El sexo de los robots
El sexo está ligado biológica y evolutivamente a la reproducción, aunque en los seres humanos, que somos amalgama de biología y cultura, el sexo va más allá de ser una función meramente reproductiva. Pero nosotros no tendríamos sexo si no fuéramos animales, mamíferos, primates. Aunque sea concebible que los robots puedan llegar a construir réplicas de sí mismos, si no están vivos no se puede hablar propiamente de reproducción biológica, ni menos aún de sexo, sino solo de un proceso de fabricación.
Por otra parte, es innegable que los robots humanoides pueden tener rasgos que se asemejan a los de un cuerpo masculino o femenino. Se los llama androides y ginoides. Una voz sintética puede tener timbre masculino o femenino, o incluso un timbre neutro difícilmente encasillable (como también ocurre, de hecho, con la voz de algunas personas).
Hace unos días le pedí a DALL·E 2 que generara imágenes de robots femeninos y masculinos (pido disculpas por esta antropomorfización: DALL·E no es alguien a quien pueda pedirle algo). Me llamó la atención que, como puede observarse en las imágenes, los rasgos sexuales femeninos estaban mucho más marcados que los masculinos.
Podríamos decir, tal vez, que los robots pueden tener género, pero no sexo. Y es obvio que esto no pasa de ser una imitación de rasgos estereotipados. Un robot no se hace verdaderamente femenino o masculino por ponerle pelo largo o bigote.
—oOo—
Este artículo nos lo envía Gonzalo Génova, profesor de la Universidad Carlos III de Madrid. Aparte de mis clases de informática, también imparto cursos de humanidades en los que trato temas de filosofía de la tecnología y pensamiento crítico.
Puedes leer todos mis artículos en Naukas en este enlace. Además de usar las redes sociales de Naukas, si quieres comentar y debatir más a fondo puedes visitar mi blog De máquinas e intenciones (reflexiones sobre la tecnología, la ciencia y la sociedad), donde esta entrada estará disponible en un par de días.
Si tienes un artículo interesante y quieres que lo publiquemos en Naukas como colaborador invitado, puedes ponerte en contacto con nosotros.