La fantástica historia de los experimentos mentales (III)

Por Alfonso Araujo, el 17 agosto, 2017. Categoría(s): Historia • Matemáticas

13 Experimentos mentales 3 Newcomb 1Aquí estamos de nuevo viendo cómo los experimentos mentales a lo largo de la historia han arrojado luz sobre los temas más diversos de la física, la filosofía, la ética y las matemáticas. En las entregas anteriores vimos cómo con sólo pensar un poco, Galileo puso de cabeza a Aristóteles y cómo el uso ingenioso de π negó una propuesta de Nietzsche. En esta ocasión vamos a ver cómo es que algunas cosas, aún  explicadas, nos siguen pareciendo muy poco intuitivas. Y no hablamos de quarks ni de operaciones con el infinito ó cosas así, sino de una  vulgar apuesta.

El Problema de Newcomb

William Newcomb era un físico teórico, pero el problema que ideó no tiene nada que ver con la física, sino con las matemáticas; más específicamente con la Teoría de Juegos. Esta rama de las matemáticas se hizo famosa por la película “Una Mente Brillante”, en donde se muestran las contribuciones del controvertido John Nash.

Nota: no todos los matemáticos son así. Algunos realmente tienen problemas serios.
Nota: no todos los matemáticos se ven así.

Antes de continuar, un pequeño paréntesis: algunas veces tienden a confundirse la Teoría de Juegos y la Teoría de Decisiones. Aunque pueden parecer similares, la Teoría de Decisiones presenta una situación con un actor frente a una circunstancia con una o más variables, en donde debe tomar la mejor decisión para sí mismo. Pero la situación es indiferente a él, no se mueve en su contra. En cambio, en la Teoría de Juegos existen dos o más actores en una situación (el “juego”), en donde cada quien toma decisiones para maximizar su ganancia, y los otros actores pueden cooperar con él o actuar en su contra. En un juego, entonces, lo que rodea al actor no es indiferente a sus acciones. En ambas teorías, se asume que siempre las decisiones son tomadas por actores racionales en busca de maximizar su beneficio.

El problema de Newcomb es un juego que se describe así: imaginemos que el actor tiene frente a sí dos cajas, una de las cuales es transparente y la otra es opaca. El actor puede tomar sólo la opaca, o ambas; no puede tomar únicamente la transparente. La caja transparente tiene mil dólares dentro de ella: están ahí perfectamente a la vista. La caja opaca pudiese contener un millón de dólares, o bien pudiese estar vacía. Lo que hay dentro de la caja opaca depende de una decisión que ya ha sido tomada.

La decisión del oráculo

El Oráculo es quien puso o no el dinero ahí, hace dos días. ¿En qué basó su decisión? Pues claro, en sus poderes de predicción:

– Si el Oráculo predijo que el actor sólo tomaría la caja opaca, puso el millón de dólares.

– Si el Oráculo predijo que el actor tomaría ambas cajas, no puso nada en la caja opaca.

El Oráculo es muy confiable: tiene razón 9 veces de cada diez. Otra cosa es que no hay ninguna penalización por tomar ambas cajas, y no hay ningún truco ni cláusula oculta en el juego. El actor que decide está perfectamente informado de todos estos hechos.

La pregunta, por supuesto, es: ¿debes tomar sólo la caja opaca, o ambas cajas?

Cuando el problema fue planteado en 1969 causó mucho interés en las comunidades matemáticas y filosóficas, debido al sorpresivo resultado de las decisiones, que lo llevaron a ser considerado casi una paradoja. Veamos. Estos son los resultados posibles:

13 Experimentos mentales 3 Newcomb 3Tómese el lector unos minutos para tomar su decisión.

La división de opiniones

El filósofo Robert Nozick (1938–2002) hizo circular el problema de Newcomb y tras analizar las respuestas, dijo que “todo mundo tiene perfectamente claro lo que hay que hacer pero sorprendentemente, la mitad de la gente escoge una solución y la otra mitad la solución contraria, creyendo que la alternativa es boba”.

¿Cómo puede ser esto? Pues:

Quienes escogen Dos Cajas, razonan que si la decisión ya está tomada de antemano, de todas formas vas a tener mil dólares, sin importar si la caja opaca tiene dinero o no. Quienes van por Una Caja dicen que es más alta la probabilidad de ser millonario si sólo escoges la caja opaca: si el Oráculo tiene razón 90% del tiempo, el beneficio esperado de 9/10 × $1,000,000 = $900,000 en comparación con la decisión de las dos cajas, que es (1/10 × $1,000,000) + $1,000 = $101,000. Aunque ambos argumentos parecen persuasivos, la discusión ha durado décadas. ¿Por qué?

Las dos caras de la moneda

La dificultad radica en que el problema es en cierta forma tramposo, que es el mejor tipo de problema porque permite análisis de muchos puntos de vista. La Teoría de Juegos ofrece dos estrategias para evaluar esta situación, llamadas Principio de Dominancia y Principio de Utilidad Esperada. La razón por la que la gente se divide en sus respuestas es porque escoge uno u otro principio para enmarcar el problema de Newcomb, llegando a conclusiones opuestas.

En pocas palabras, la Estrategia Dominante es aquella que es mejor, sin importar el cómo jueguen los demás participantes del juego. Esta estrategia da como respuesta el tomar ambas cajas, porque tienes mil dólares pase lo que pase.

La estrategia de Utilidad Esperada es la que evalúa las sumatorias de todas las posibilidades, cuando el juego tiene resultados inciertos. Esta da como resultado el escoger sólo la caja opaca.

Evaluaciones

La paradoja emerge del hecho de que el problema está de hecho planteando dos juegos distintos y de que las personas evalúan cada juego con una de las dos estrategias. La Estrategia Dominante hace caso omiso del Oráculo y se enfoca en lo que hay, mientras que la de Utilidad Esperada toma en cuenta la probabilidad de la predicción.

En 1978, el filósofo Robert Stalnaker (n. 1940) propuso una forma de reconciliar las dos alternativas del problema de Newcomb “calculando la utilidad esperada usando las probabilidades de los condicionales en vez de probabilidades condicionales”. Si esto suena muy esotérico, es que nos adentramos en terrenos de lógica matemática, que es muy estrafalaria cuando se traduce de ecuaciones a lenguaje natural. El caso es que Stalnaker reconoció que, desde luego, la decisión del agente no causa la predicción del Oráculo en el pasado, como el problema tiende a evaluarse con una tabla de utilidad esperada normal. Con una nueva formulación, logró que ambas estrategias dieran como resultado el escoger la caja opaca. La pregunta clave es: si el actor escoge la caja opaca, ¿cuál es la probabilidad en el presente de que la predicción del Oráculo fuera “caja opaca”? Si quiere consultar la solución completa, puede hacerlo aquí.

Análisis desde entonces

La solución de Stalnaker no puso punto final al problema de Newcomb, ni de lejos. El problema ha abierto interesantes vías de investigación no sólo en Teoría de Juegos, sino en filosofía del libre albedrío y más recientemente, en inteligencia artificial. Junto con otros problemas clásicos de Teoría de Juegos, como el Dilema del Prisionero, el problema de Newcomb se usa en el desarrollo de algoritmos modernos y de aprendizaje automático para avanzar en el desarrollo de razonamiento humano simulado. Por ejemplo, Eliezer Yudkowsky, del Instituto de Investigación de Aprendizaje Automático en Berkeley, argumenta que las personas juzgamos los criterios de decisión propios y de quienes nos rodean usando modelos probabilísticos estilo Newcomb. Por lo tanto, es un modelo valioso para sistemas de simulación de toma de decisiones.

Mucho más que una simple apuesta.

 

Siguiente entrega: visualización contra conceptualización: el sonido de Strawson y la trompeta de Torricelli.

 

Referencias:

DeForest, Sherman E.  Game Theory Vs. Decision Theory, en Locker Gnome. Dic. 19, 2011

Leitgeb, Hannes y Hartmann, Stephan. “Decision: Expected utility” en Introduction to Mathematical Philosophy. Universidad de Ludwig-Maximilians. Munich, 2014. Cap. 6, pp. 5-8.

Weirich, Paul. “Newcomb’s Problem”, en Causal Decision Theory. The Stanford Encyclopedia of Philosophy. (2016).

Dilema del prisionero. Wikipedia.

Aprendizaje automático. Wikipedia.

Soares, Nate. “Provability logic”, en A Guide to MIRI’s Research: Decision Theory. Machine Intelligence Research Institute at Berkeley.

 

 



Por Alfonso Araujo, publicado el 17 agosto, 2017
Categoría(s): Historia • Matemáticas