Por difícil que parezca, es extremadamente difícil argumentar la correcta toma de decisiones de cara a futuro. Tomo hoy una decisión, ya que en caso de no hacerla, preveo que tendré un problema en el futuro.
En efecto, en el mejor de los casos, esa dificultad no acontecerá gracias a nuestra previsión. Por esa misma razón, será más costoso convencer a cualquier observador que la ausencia de problemas es gracias a nuestro buen hacer. Una suerte de efecto Edipo, tal y como lo definió Karl Popper en su obra La miseria del historicismo, por el que el Oráculo jugaba un papel determinante en la secuencia de eventos que llevaban a la realización de la profecía.
En esas estamos, cuando desde el instituto Future of Life se publicó hace unos días una carta abierta, pidiendo que se paralizasen los grandes experimentos de inteligencia artificial con grandes modelos de lenguaje (LLM, Large Language Models) durante al menos 6 meses, e impedir que se creen soluciones más poderosas que GPT-4. En los instantes en los que estoy escribiendo estas líneas, el total de firmantes de este documento es de 18.980 personas. Elon Musk, un habitual en estos debates tecnológicos, también apoyó tal iniciativa.
No es objeto de este artículo orientar al lector a un lado u otro. Varias personalidades y expertos en la materia ya se han posicionado, y siendo sinceros, no creo que esta iniciativa cambie nada, al igual que ha ocurrido con tantas otras cosas en inteligencia artificial. Es un ejemplo perfecto del dilema del prisionero, en el que el único resultado positivo para ambos presos es que colaboren (sin conocer lo que está haciendo su compañero de fechorías) y se nieguen a declarar.
¿Cómo se puede asegurar que Elon Musk no aprovecharía una tregua tecnológica temporal para acelerar él sus propios desarrollos y poner su propio sistema de LLM al día? Parece que las empresas más poderosas de internet, en su legítima búsqueda de maximizar beneficios, se han volcado en una carrera alocada sobre lanzar cada vez productos más novedosos, sin pararse a pensar en las consecuencias que esto podría desencadenar, o tener una correcta regulación.
Muchos científicos argumentan que el ritmo de aparición de estas herramientas no permite a la sociedad que se adapte lo suficientemente rápido para que no sufra, como podría ser en el tejido laboral sujeto a ser sustituido por esta tecnología. John Rawls decía que la desigualdad puede justificarse si todos en la sociedad se benefician de ella. ¿Quién pondrá el cascabel al gato y dirá a miles de personas que da igual lo que se reciclen profesionalmente, que siempre irán un paso por detrás de una máquina? Tengo claro que la robotización es imparable, y que sustituirá ciertos puestos de trabajo. Pero quizás, la peor decisión para nuestro futuro sea no robotizar.
Hagamos un ejercicio de lógica, y sustituyamos por un momento el objeto «detener los experimentos de inteligencia artificial» por «detener los experimentos de terapia genética», o «detener los experimentos de nuevas fuentes de energía». ¿Qué diríamos?
Un polémico artículo científico de 2019 concluyó que el gobierno japonés provocó muchas más muertes entre su población al abandonar la central de Fukushima, debido al aumento de costes de energía que ocurrieron posteriormente y las temperaturas más frías. Un exceso del principio de precaución.
En 2017, el think tank Mercatus Center publicó otro estudio titulado Death by Regulation: How Regulations Can Increase Mortality Risk, según el cual la sobrerregulación puede aumentar la tasa de fallecidos en cualquier tipo de actividad o patología, en lugar de reducirla.
Tal y como intento demostrar, la aparición de nuevas tecnologías y la actitud de la sociedad ante los cambios que provoca no es un tema menor. Es llamativo que en inglés exista una diferencia de significado entre safety y security. La historia recoge que el ser humano se alarmó con el auge del coche, del telégrafo, de la locomotora de vapor, de los aviones, e incluso del telégrafo.
Y en el caso de la nueva tecnología de LLMs, puede que nos encontremos ante la misma situación. O quizás ésta sea una nueva disyuntiva. Quizás la humanidad necesite acelerar su adaptación a estas tecnologías o se deba tomar una decisión colectiva para frenar el desarrollo de estas tecnologías. E incluso haciendo ambas cosas, quizás no sea suficiente.
En todo caso, acertar respecto a las decisiones a tomar de cara al futuro, y poder defenderlo, no será fácil.
Dr. en Ingeniería Informática y profesor en la UPV-EHU. Actualmente, investiga sobre robótica, UAVs e inteligencia artificial.