Entrevista con Mark Coeckelbergh: Ética de la inteligencia artificial

Por Colaborador Invitado, el 23 marzo, 2021. Categoría(s): Personajes • Tecnología
Profesor Mark Coeckelbergh | imagen Martin Jordan

Los desafíos de la inteligencia artificial exigen reflexiones morales y difícilmente se podrá articular una ética de las inteligencias artificiales sin libros y autores que la discutan críticamente. El filósofo belga Mark Coeckelberg acaba de publicar Ética de la inteligencia artificial (Cátedra, 2021), un libro claro y conciso sobre las posibilidades y los riesgos de nuestro futuro tecnológico.

 

ANDRÉS LOMEÑA: ¿Cree usted en una singularidad tecnológica por medio de una explosión de la inteligencia computacional? John Gray ha sido muy crítico con el transhumanismo.

MARK COECKELBERG: No creo en la singularidad ni en la explosión de inteligencia. Nuestras tecnologías, incluida la inteligencia artificial, seguirán mejorando, pero los transhumanistas tienden a hablar de posibilidades que hoy por hoy son ciencia-ficción y que muy probablemente seguirán siendo ciencia-ficción. Por tanto, estoy de acuerdo con Gray: esas ideas son quimeras.

Sin embargo, he estudiado los textos de los transhumanistas porque nos recuerdan temas muy importantes para la humanidad: cómo afrontamos la condición humana, la vulnerabilidad y sobre todo nuestros límites, nuestro deseo de perfección e inmortalidad o lo que eso significa para la tecnología. Como humanos nos contamos historias y estas deberían analizarse críticamente.

 

A.L.: Según Pedro Domingos, hay cinco paradigmas del aprendizaje automático: los simbolistas, los conexionistas, los evolucionistas, los bayesianos y los analogistas. ¿Deberíamos pensar en un esquema ético para cada uno de esos paradigmas o buscar una ética universal?

M.C.: Es importante saber que no hay un único tipo de inteligencia artificial ni de aprendizaje automático. Cada uno plantea problemas concretos. En ética, hay que observar el impacto de las tecnologías y muchas cuestiones morales son bastante similares, así que me decanto por un enfoque ético universalista, que luego habría que revisar y aplicar a contextos específicos con determinadas tecnologías. Al margen de las cuestiones técnicas de cada tecnología, todas ellas tendrán cierto impacto y a mi juicio, las consideraciones éticas deberían tenerse en cuenta en todo momento.

 

A.L.: Con el dilema del tranvía, toda consideración moral parece reducirse a decidir entre una ética kantiana o una ética utilitarista, decidir si la vida tiene un valor intrínseco o si se deben maximizar los beneficios y minimizar los daños. ¿No es esta una visión muy limitada?

M.C.: La ética no debería tratar solamente sobre qué teoría ética tenemos que usar. A mí me influyó el pragmatismo, lo que implica que deberíamos reconocer la relevancia de algunas teorías y usar muchas de sus herramientas conceptuales para resolver nuestros problemas.

La teoría no siempre es un buen punto de partida: deberíamos mirar también los dilemas morales, las experiencias morales y la imaginación moral que se ha creado con el uso de la inteligencia artificial y otras tecnologías relacionadas. Si la ética fuera simplemente un asunto de aplicar la teoría ética y el razonamiento, podríamos delegar esta tarea en una máquina. Afortunadamente, la ética y el ser humano son bastante más complejos. La filosofía y las humanidades, junto a la literatura y otras artes, deberían recordárnoslo.

 

A.L.: ¿Le parece un hito el aprendizaje profundo de GPT-3?

M.C.: GPT-3 es impresionante, y con el procesamiento de lenguajes naturales se esperan más progresos. Antes tuvimos AlphaGo. Sin embargo, no me interesa tanto la inteligencia técnica en sí misma como su desarrollo y saber qué podemos hacer con estas tecnologías para mejorar la sociedad. Las aplicaciones médicas parecen muy prometedoras. GPT-3 y tecnologías similares también podrían ayudar a investigar en el ámbito de las humanidades. Hay muchas oportunidades.

 

A.L.: ¿El test de Turing sigue siendo útil o ya es agua pasada?

M.C.: Nos gusta el test de Turing porque en Occidente estamos obsesionados con establecer una diferencia entre humanos y otros seres no humanos. Siempre habrá diferencias y además tendremos aplicaciones prácticas del test de Turing. Cada vez es más difícil en Internet distinguir entre las acciones humanas y las que emprenden las máquinas (textos, vídeos y todo tipo de posts en redes sociales). Necesitaremos formas prácticas de distinguir entre humanos y bots y no solo porque haya que evitar el trabajo fraudulento; también es un desafío mantenernos creativos y ofrecer un periodismo de calidad y buena literatura.

 

A.L.: El escritor Kazuo Ishiguro acaba de publicar Klara y el Sol, una novela de ciencia-ficción sobre una amiga artificial. ¿Qué novela nos recomendaría sobre inteligencia artificial?

M.C.: Me gusta la obra de Ishiguro, tanto Klara y el Sol como Nunca me abandones. Me gusta la ciencia-ficción que nos hace pensar en la condición humana. Aunque nunca tengamos un robot o una inteligencia artificial, ayuda a comprender algunas preguntas sobre la humanidad: la vulnerabilidad y la mortalidad o nuestra necesidad de amor.

Otro autor que me gusta y que recomendaría es Michel Houellebecq. También me interesan los conflictos políticos que suscita la inteligencia artificial. Un mensaje importante que se desprende de la ética y de la literatura es que, sea cual sea la tecnología que tengamos en el futuro, debemos tener cuidado de no convertirnos en simples robots.

 

Esta entrevista nos la envía Andrés Lomeña Cantos (@andresitores). Estudió periodismo y se especializó en teoría de la literatura y literatura comparada. Trabaja como profesor de filosofía en un instituto de educación secundaria e investiga sobre los mundos imaginarios de las novelas.

En este enlace puedes encontrar más entrevistas de Andrés Lomeña publicadas en Naukas.



Por Colaborador Invitado, publicado el 23 marzo, 2021
Categoría(s): Personajes • Tecnología