La Inteligencia Artificial del presente (Menos inteligente y autónoma de lo que pensamos)

Por Colaborador Invitado, el 13 mayo, 2020. Categoría(s): Divulgación • Gadgets • Tecnología

A pesar de que algunos expertos vaticinan que la IA superará a los humanos en 50 años, las cosas van más despacio de lo que creemos. Recordando la visión futurista de la ciudad de Los Ángeles en 2019 que se daba en la película Blade Runner (1982), y en otras películas de ciencia ficción de la época, parece que todavía nuestra Inteligencia Artificial (IA) no ha alcanzado la inteligencia y autonomía deseadas. Junto con la robótica, ambas están en su más tierna infancia, y tienen aún un largo recorrido por delante hasta alcanzar nuestras capacidades, y ni qué decir superarlas. Un apasionante camino, por cierto.

La Inteligencia Artificial hasta ahora

La IA ha dejado de ser patrimonio exclusivo de las películas de ciencia ficción. La tenemos entre nosotros desde hace tiempo, lo está cambiando todo, y más que lo hará. Pero a menor velocidad de lo que vaticinan algunos y de lo que nos gustaría. En algunos medios ya la definen como la siguiente revolución industrial [1], mientras que otros aseguran que los datos son la nueva electricidad [2]. Lo cierto es que el impacto de la IA se está notando en todos los sectores y ámbitos de nuestras vidas, y está llamada a cambiar el mundo que conocemos. A pesar de que hace años la ciencia ficción ponía el énfasis en la robótica (la cual sigue atrayendo recursos e investigación) y en la reproducción del ser humano en forma de androides, la IA se ha ido consolidando en el software, presente en todo tipo de dispositivos y aplicaciones.

Quizás el término que ha llegado hasta nosotros, Inteligencia Artificial, no sea precisamente el que debería haberse popularizado. Ni siquiera hoy en día tenemos claro qué es ser inteligente, y cada día surgen nuevas maneras de medirla o de categorizarla. Por otra parte, damos por hecho que la IA de nuestros días posee un nivel de autonomía que en verdad está lejos de la realidad. Este artículo pretende ofrecer una versión realista de un campo que ni ha alcanzado la inteligencia esperada ni la autonomía deseada. Aún…

¿Inteligente?

Y es que no es fácil dar una definición exacta de inteligencia, a pesar de que a lo largo de los años los expertos lo han intentado. Inicialmente, John McCarthy, Marvin Minsky y Claude Shannon en la Conferencia de Dartmouth de 1956 acuñaron el término Inteligencia Artificial, definiéndola como:

La ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes

Desde entonces varios han sido los expertos que han tratado de dar un sentido más amplio o completar dicha definición. Por ejemplo, Legg y Hutter trataron de definir en 2007 una medida universal de inteligencia [3]:

La inteligencia mide la habilidad de un agente para alcanzar metas en un rango amplio de entornos.

Andreas Kaplan y Michael Haenlein [4] definieron la IA como:

La capacidad de un sistema para interpretar correctamente datos externos, para aprender de dichos datos y emplear esos conocimientos para lograr tareas y metas concretas a través de la adaptación flexible.

Si atendemos a la Wikipedia:

La IA es la inteligencia llevada a cabo por máquinas. En ciencias de la computación, una máquina «inteligente» ideal es un agente flexible que percibe su entorno y lleva a cabo acciones que maximicen sus posibilidades de éxito en algún objetivo o tarea. ​Coloquialmente, el término se aplica cuando una máquina imita las funciones «cognitivas» que los humanos asocian con otras mentes humanas, como por ejemplo: «percibir», «razonar», «aprender» y «resolver problemas».

Finalmente, otros se limitan a decir que una IA es inteligente si supera el test de Turing [5], aquel que prueba de la capacidad para mostrar un comportamiento inteligente indistinguible del de un ser humano.

Probablemente ninguna de estas definiciones logre captar todos los matices del término ni su esencia por completo. Lo que sí podemos advertir es que la IA que conocemos actualmente está lejos del término «inteligencia» que todos manejamos popularmente. Y esto se debe principalmente a que tenemos que interiorizar y aceptar los límites presentes en la IA actual. Cuando nuestro móvil reconoce un gato en una foto, ¿está viendo realmente un gato o solo interpreta una matriz de números? ¿Es eso “inteligente”?.

La IA es monotarea

A pesar de que la IA ha superado a los humanos en algunas tareas concretas, como algunos juegos tradicionales (ej: ajedrez, Go, Jeopardy!), videojuegos (ej: Quake), el test SquAD de comprensión lectora de Stanford, algunos diagnósticos médicos, predicción de crimen, etc., actualmente no es capaz de hacer varias de esas cosas a la vez. La IA de hoy en día es específica, sólo se puede especializar y ser competente en una única tarea a la vez. Y ésta es precisamente una de sus limitaciones más importantes. Para cada tarea es necesario desarrollar una IA concreta. No existe hoy en día (y no existirá por mucho tiempo) una IA general o multipropósito que todo lo pueda, como bien nos cuenta Pedro Domingos en su famoso libro The Master Algorithm [6].

Se está avanzando en campos como la multitarea o la transferencia de aprendizaje (conocidos en inglés como multitasking y transfer learning respectivamente). En ellos se investiga cómo conseguir que una misma IA pueda ejecutar varias tareas a la vez, o que el entrenamiento para desempeñar una tarea sirva para realizar otra más o menos parecida. El problema está en que hasta el momento siempre son tareas del mismo dominio o de dominios muy relacionados. Aún se está lejos de que una misma IA pueda reconocer imágenes, escuchar audios y hablar a la vez, por ejemplo. El campo llamado inteligencia artificial general (en inglés artificial general intelligence, AGI, o multipurpose intelligence) se ocupa de estos aspectos. Pero aún es un campo incipiente.

La IA es rígida

Las técnicas actuales de aprendizaje automático (en inglés machine learning), las que construyen una IA, «aprenden» de conjuntos de datos limitados. Se basan en datos organizados tradicionalmente en filas (información, valores) y columnas (las características del dominio o problema en cuestión). Y «aprenden» a base de establecer relaciones y patrones entre estas características. Además, necesitan que toda la información esté almacenada a la vez para poder acceder a ella (al margen de los tímidos avances en «aprendizaje» incremental y en tiempo real). Ésta es una forma muy limitada de representar el entorno, y más aún una forma muy rígida de «aprender» de él. El ser humano razona, es flexible en su aprendizaje, capta y procesa información en formas muy variadas; cualidades todas ellas muy lejos de las capacidades actuales de la IA.

Están apareciendo nuevas formas de representación de la realidad, un campo apasionante, que hacen pensar que esto podría cambiar en los próximos años.

La IA devora datos

La IA requiere de ingentes cantidades de información para «aprender». Y en algunos casos de mucho tiempo de «aprendizaje», como ocurre con el aprendizaje profundo de las famosas redes neuronales profundas (en inglés deep learning). El ser humano aprende enseguida, sin necesidad de tanta información de cada tarea, y la procesa e integra en su capacidad de decisión casi de forma instantánea.

Conscientes de la necesidad de estos ingentes volúmenes de información, grandes corporaciones como Google, Facebook o Amazon, han invertido mucho dinero en la captación de datos para poder entrenar sus algoritmos, y aventajar a sus competidores. No nos confundiríamos mucho si afirmásemos que los datos se están convirtiendo en el nuevo petróleo del siglo XXI para estas compañías. Últimamente están poniendo el foco en nuestros datos médicos, algo que de una u otra manera acabarán consiguiendo, probablemente porque se los cederemos nosotros mismos a través de aplicaciones como hemos hecho hasta ahora. Estas y otras muchas compañías recolectan todo tipo de información controlando todo lo que pueden (¿les dejamos?) nuestra actividad en la red. Por sí sola, esta información tal vez no sea demasiado significativa, pero cotejándola con otros tantos millones de datos, las compañías descubren patrones que les ayudan a determinar qué clase de persona eres y qué tipo de cosas podrías necesitar y comprar. Cuanto más tiempo pasemos en el mundo digital mejor, más datos les aportaremos. Y ya están trabajando en la obtención de datos en el mundo real, de ahí su interés en tiendas físicas y en adquirir negocios que en principio nada tienen que ver con sus intereses en la red. Pero esto ya sería tema para otro artículo.

La IA y el hardware

En muchas ocasiones la IA necesita un hardware muy específico, sobre todo cuando se trata de aprendizaje profundo. Sobre él se despliegan los algoritmos de aprendizaje automático. El hardware con alta capacidad de procesamiento y de eficiencia energética es fundamental para expandir el desarrollo de las redes neuronales profundas. Como dijo el vicepresidente de IBM, “los algoritmos de aprendizaje automático más creativos están limitados por sistemas que no logran aprovechar su poder”. Y agregó “si queremos hacer grandes avances en tecnología de IA, nuestro hardware también debe cambiar”.

¿Autónoma? 

Todavía no. La IA de hoy es humano-dependiente, artesanal, la diseñan y desarrollan científicos/investigadores/ingenieros en base a algoritmos y datos. Estos algoritmos se conciben primero (matemática, estadísticamente) y se llevan a la práctica después a través de lenguajes de programación. La IA nos necesita para «aprender»: nosotros le decimos qué datos ve, en qué cantidad, durante cuánto tiempo, y en qué tiene que fijarse; está muy lejos de ser autónoma. Bien es cierto que últimamente se están dedicando muchos esfuerzos a automatizarla, en parte, lo máximo posible (como por ejemplo algunos servicios que ya corren actualmente en la nube). Con esto se busca democratizarla y abstraer a un usuario final no experto para que pueda usarla. Pero en realidad aún estamos lejos de conseguirlo, aunque haya algunos avances y se haya logrado cierta automatización para algunas aplicaciones sencillas y con suficientes datos.

Por otra parte, el sesgo en la información es más habitual de lo que debería, por eso la IA necesita de un humano para establecer un equilibrio (normalmente asignando más peso a determinados datos, o buscando más datos de la parte desequilibrada) para que el proceso de «aprendizaje» sea correcto (justo). El sesgo de la IA no es un asunto trivial. En Julio de 2015 el sistema de IA de Google Photos etiquetó gente de raza negra como gorilas. En Marzo de 2018, los dispositivos inteligentes de Amazon y Google tuvieron ciertos problemas reconociendo los diferentes acentos. En octubre de 2018, Amazon sacó a la luz una herramienta de IA para el reclutamiento laboral que al parecer discriminaba a mujeres. En Mayo de 2019 un reporte de la UNESCO descubrió que los asistentes digitales pueden perpetuar estereotipos de género.

Otra parte no tan autónoma de la IA es la parametrización de sus algoritmos de aprendizaje automático. Éstos necesitan afinar determinados parámetros y asignarles valores adecuados (optimizarlos). Hasta hace muy poco, la IA ha necesitado de los humanos para establecer dichos valores. En este punto se ha avanzado bastante con el llamado autoaprendizaje automático (auto machine learning en inglés), y también en el tuno de parámetros (en inglés hyperparameter tuning). Pero aún está lejos de ser una tarea totalmente automática si se desea un perfecto desempeño del algoritmo en un escenario concreto. Sobre todo en entornos cambiantes en tiempo real donde la optimización de los arámetros puede quedar obsoleta tras un cambio (campo denominado concept drift).

La IA con frecuencia necesita “supervisión”

Ya hemos visto que una IA necesita muchos datos, pero es que además habitualmente éstos tienen que estar etiquetados para poder hacer un «aprendizaje» que se denomina “supervisado”. Es decir, tiene que haber una persona experta detrás que asigne una determinada categoría a cada muestra de información que la IA procese. A pesar de los avances en “aprendizaje no supervisado” (donde la información no es necesario que esté etiquetada), la IA está todavía lejos de poder aportar el componente «inteligente» y «autónomo» que todos esperamos.

Empresas como Facebook y Google dedican muchos esfuerzos y recursos a etiquetar (categorizar) vídeos, fotos, comentarios, opiniones, etc. Tienen departamentos enteros encargados de llevar a cabo esta importante tarea. De lo contrario, no podrían desarrollar sus potentes IAs basadas en “aprendizaje supervisado” y/o “aprendizaje profundo”, y ni qué decir que les va el negocio en ello. Por supuesto, también están dedicando mucho esfuerzo y recursos al desarrollo de nuevas técnicas de etiquetado automático y al “aprendizaje no supervisado”.

La IA no entiende las relaciones causa-efecto

La IA nunca llegará a mostrar una inteligencia “real” hasta que no sea capaz de entender la causalidad y sepa identificar las relaciones causa-efecto que se esconden detrás de los datos. Si la IA fuera capaz de entender que unas cosas conducen a otras, no tendrían la obligación de «aprenderlo» todo desde cero cada vez, y aprovecharía lo «aprendido» en un dominio para aplicarlo a otro.

Las correlaciones muestran que ciertos fenómenos ocurren de forma conjunta. Pero solo los vínculos causales los que nos dicen por qué un sistema es como es o cómo podría evolucionar. La IA lo hace muy bien detectando patrones, pero éstos solo se basan en correlaciones. Esta limitación es fundamental, y de no superarla, puede que el avance de la IA quede estancado durante años.

Y entonces, ¿qué nos queda?

Lo importante es que pongamos los pies en la tierra, y tengamos presente cuáles son las limitaciones y capacidades reales de la IA actual. Muchos de los algoritmos que usamos hoy en día se han diseñado en los años 60 y 70, y sólo ahora les podemos explotar, bien porque hay muchos datos, bien porque les hemos encontrado una aplicación, o porque tenemos la capacidad de computación necesaria para ejecutarlos. Esto nos debería hacer centrarnos en los verdaderos problemas que la IA puede ayudar a resolver para nosotros. Que aunemos esfuerzos investigando en aquello que realmente puede tener un impacto global: cambio climático, desarrollo de medicamentos a medida, reducción de la desigualdad, predicción de la expansión de enfermedades, etc. Deberíamos centrarnos en los campos apropiados (prioritarios), ya que existe una descoordinación a nivel global que hace que todo se ralentice. Cada departamento, cada universidad, cada centro de investigación, y así hasta cada país, centra sus esfuerzos en campos y aplicaciones muy variados. Es como si estuviésemos disparando al aire, y de vez en cuando, por suerte o por buen tino de algún tirador, diésemos en la diana y lográsemos avanzar, pero no por tener una estrategia y un objetivo común como sociedad. La diferencia de intereses y la falta de coordinación hace que todo sea más difícil y vaya más despacio.

Aun así, se están produciendo algunos avances que invitan al optimismo, en campos como la computación cuántica, la IA multipropósito, la IA multitarea, el “aprendizaje por refuerzo” (en inglés reinforcement learning), el “aprendizaje profundo”, las técnicas de “aprendizaje automático no supervisado”, el procesamiento del lenguaje natural (natural language processing en inglés), y el hardware específico para IA. Y sobre todo algunos avances infiriendo causalidad. Todo ello catapultará a la IA al siguiente estadio en las próximas décadas. ¿Hasta dónde llegaremos? Quién sabe, esperemos que lejos y bien …

 

Este artículo nos lo envía Jesús (Txus) López Lobo. Licenciado en Ingeniería Informática por la Universidad de Deusto, Máster en Inteligencia Artificial Avanzada por la UNED, y doctor internacional en Tecnologías de la Información y Comunicaciones en Redes Móviles por la UPV/EHU. Trabaja como Científico de Datos e Investigador en Inteligencia Artificial en TECNALIA. También hace divulgación de sus artículos científicos en su blog de Medium:  https://medium.com/@txuslopezlobo y en su perfil de Linkedin: http://www.linkedin.com/in/txuslopez

Referencias científicas y más información:

[1] Pathak, P., Pal, P. R., Shrivastava, M., & Ora, P. (2019). Fifth Revolution: Applied AI & Human Intelligence with Cyber Physical Systems. International Journal of Engineering and Advanced Technology, 8(3), 23–27.

[2] https://www.gsb.stanford.edu/insights/andrew-ng-why-ai-new-electricity

[3] Legg, S., & Hutter, M. (2007). Universal intelligence: A definition of machine intelligence. Minds and machines, 17(4), 391–444.

[4] Kaplan, A., & Haenlein, M. (2019). Siri, Siri, in my hand: Who’s the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence. Business Horizons, 62(1), 15–25.

[5] TURING, I. B. A. (1950). Computing machinery and intelligence-AM Turing. Mind, 59(236), 433.

[6] Domingos, P. (2015). The master algorithm: How the quest for the ultimate learning machine will remake our world. Basic Books.

 



Por Colaborador Invitado, publicado el 13 mayo, 2020
Categoría(s): Divulgación • Gadgets • Tecnología