Libre albedrío y transferencia mental

Por Colaborador Invitado, el 27 septiembre, 2019. Categoría(s): Divulgación • Tecnología

La transferencia digital de la mente a un sistema informático (mind uploading) requiere representar la mente como una secuencia finita de bits (dígitos binarios: unos y ceros). Es decir, en un momento dado se “mide” el estado del cerebro y se transfiere el resultado de esa medición a un soporte digital, ya sea para su mera conservación a modo de backup a partir del cual se pueda “restaurar” el estado del cerebro (en el mismo o en otro cerebro biológico), o ya sea para “ejecutar” (en un dispositivo electrónico) un programa que se supone sería funcionalmente equivalente al cerebro original en el momento de la transferencia. Así, si los seres humanos no fuéramos más que complicados robots biológicos (con sustrato en la química del carbono en lugar de la del silicio), entonces se podría transferir el programa que nos gobierna a un robot electrónico, de manera análoga a como ejecutamos un mismo programa en diferentes ordenadores.

¿Este soy yo?

Transferencia mental: un problema ético y tecnológico

Se puede sin duda cuestionar si es éticamente deseable realizar este proceso de transferencia mental. Por mucho que determinadas concepciones tecno-optimistas sólo quieran ver las eventuales consecuencias positivas (como, por ejemplo, salvar la mente de un enfermo terminal y “resucitarla” en otro cuerpo), no cabe duda de que se plantean otros grandes interrogantes: ¿Puede dejarse vivo al original, o hay que aplicarle la eutanasia para evitar que conviva con el duplicado? Si ambos siguen “viviendo” por un tiempo, ¿cuál de los dos es el depositario de los derechos y responsabilidades adquiridos por el primero? Respecto a las demás personas que tenían relación con el original, ¿pueden legítimamente rechazar a la copia porque no la aceptan como sustituto válido? Y así podríamos seguir con muchas otras cuestiones éticas que podrían plantearse si alguna vez este procedimiento fuera una realidad, pero que hoy día son más propias de la ciencia ficción.

El estado del cerebro: ¿qué medimos y cómo digitalizamos?

No obstante, no es mi propósito aquí analizar en detalle si la transferencia mental es éticamente deseable, sino más bien si es tecnológicamente posible. De modo que el argumento de imposibilidad que desarrollaré aquí debería preocupar de modo especial a los que desean alcanzar en un futuro indeterminado este supuesto logro. Entre las dificultades tecnológicas que se presentan, señalaré las siguientes:

 

  • Todo proceso de medida de un sistema físico supone un determinado grado de abstracción o simplificación de la realidad representada. Es necesario definir las variables relevantes y el grado de precisión con el que serán medidas. ¿Cómo sabemos cuáles son estas variables, y qué precisión es suficiente, para poder realizar una copia “fiel” al original? ¿Sería necesario medir el estado electro-químico individual de cada neurona? ¿Cómo sabemos que la copia contiene toda la información relevante?

 

  • El proceso de digitalización de una información o señal analógica (es decir, continua en el tiempo y en el rango de valores) consta de dos pasos principales: el muestreo consiste en tomar medidas a intervalos fijos de tiempo; la cuantificación transforma el rango continuo de valores en un conjunto finito de niveles predefinidos, eliminando la parte menos significativa de la medida (redondeo o aproximación). El proceso de cuantificación, como es fácilmente comprensible, introduce una cierta distorsión en la información original (ruido de cuantificación), lo que resulta en una irreversible pérdida de información. Por el contrario, el teorema del muestreo, debido a Harry Nyquist [1] y Claude Shannon [2], demuestra que, si la tasa de muestreo es suficientemente elevada (al menos el doble que el ancho de banda de la señal original), entonces la transformación se realiza sin pérdida de información; claro que esto requiere que la información original tenga un ancho de banda finito. En la práctica esto se cumple de modo muy aproximado en multitud de artefactos con los que estamos familiarizados. Por ejemplo, el oído humano no puede percibir vibraciones de frecuencia superior a los 20 kHz; por lo tanto, cualquier información sonora por encima de este valor puede despreciarse a la hora de digitalizar una pieza musical, sin que las personas con el oído más fino puedan notar la diferencia. Así mismo, si la cuantificación se realiza con un número suficientemente elevado de niveles o escalones, los errores de redondeo son también sensorialmente irrelevantes. Lo dicho se aplica de modo análogo a la fotografía digital en relación con la vista, y a otros tipos de información sensorial (temperatura, presión…). Ahora bien, debemos notar que, en el caso de la digitalización de la información cerebral, no se trata solo de información para los sentidos (en sí mismos limitados en su capacidad de percepción), por lo que no podemos dar por sentado, sin demostrarlo, que es aceptable conformarse con un ancho de banda y una precisión limitados.

 

  • Una secuencia de bits puede ser interpretada como información o como programa. Ahora bien, un programa de ordenador, por su propia definición, no puede presentar en sí mismo comportamiento verdaderamente libre, por lo que tampoco podría representar adecuadamente el comportamiento de un ser autodeterminado, como presumiblemente es el caso del humano.
Ya ni nos acordamos de cuando la música no estaba digitalizada…

En el resto de artículo me limitaré a desarrollar la tercera dificultad, explicitando sus condiciones de validez y los supuestos en los que se apoya.

Los cuatro teoremas sobre el libre albedrío

El argumento desarrollado en este artículo es el cuarto de una serie de teoremas (es decir, demostraciones rigurosas, o al menos pretenden serlo). Por conveniencia, enuncio brevemente los cuatro teoremas, para situar mejor el cuarto en su contexto:

  1. Una máquina computacional no puede ser libre (y a la inversa, un ser libre no es una máquina computacional).
  2. La cualidad de ser una entidad libre, autodeterminada, no es una función algorítmicamente computable (es decir, una máquina computacional no puede distinguir propiamente entre seres libres y seres no libres mediante un algoritmo de decisión).
  3. Una entidad no libre (por ejemplo, que esté regida exclusivamente conforme a leyes físico-mecánicas) no puede reconocer la verdad o falsedad de un enunciado.
  4. Una mente libre no puede ser transferida digitalmente.

El Teorema Nº 1 es el fundamento de los otros tres, que se deducen de modo independiente a partir del primero. He presentado y demostrado previamente el Teorema Nº 1, el Teorema Nº 2 y el Teorema Nº 3. Aquí me limitaré a exponer de modo muy resumido el primero de estos tres teoremas, antes de pasar a demostrar el Nº 4, que es objeto principal de este artículo.

Definición: un algoritmo es (a) un procedimiento basado en reglas (b) que obtiene un resultado deseado (c) en un número finito de pasos. Esta definición está sólidamente enraizada en los trabajos pioneros de las ciencias de la computación [3]. De los tres elementos de la definición, el que nos interesa ahora de modo especial es el segundo: todo algoritmo se define por su objetivo, por el resultado que tiene que alcanzar. El algoritmo, por tanto, como cualquier otro artefacto humano, tiene una finalidad extrínseca, que le viene impuesta desde fuera [4]. Una máquina computacional no es otra cosa que una máquina que ejecuta cómputos de modo algorítmico, y por tanto comparte esta característica de tener una finalidad extrínseca.

Definición: un ser libre es aquel que puede auto-proponerse los objetivos de su actividad, es decir, un ser autodeterminado. En este sentido, la auto-determinación se opone tanto a la hetero-determinación como a la in-determinación. El concepto de libertad, a diferencia del anterior, no es puramente formal, por lo que no es sorprendente que resulte más controvertido y con un larguísimo recorrido en la historia del pensamiento. En todo caso, a los efectos de esta demostración trabajamos a partir de la definición dada, cuya razonabilidad se examina con más detalle en [5].

A partir de estas dos definiciones la conclusión del Teorema Nº 1 se deriva de modo casi inmediato. Una máquina computacional (que ejecuta algoritmos) es hetero-determinada; por lo tanto, no es libre (no es auto-determinada). Un ser libre es capaz de proponerse sus propios objetivos; por lo tanto, no puede ser equivalente a una máquina computacional hetero-determinada.

Esto no quiere decir que sea del todo punto imposible “producir”, de una manera u otra, seres libres, sino solo que no se podrían diseñar y construir de modo algorítmico, computacional; si fueran libres, no serían propiamente máquinas. Por otra parte, en toda esta argumentación no se asume que los seres humanos somos libres en el sentido de autodeterminados; quizás no seamos libres, sino solo demasiado complejos para entendernos. Y, en todo caso, aun si somos libres, parece bastante claro que la nuestra no es una libertad absoluta, sino una libertad muy limitada por el entorno, y por nuestra condición humana histórica y corpórea.

Entonces, lo más que podemos concluir es que, si somos libres, entonces no somos máquinas computacionales. Considero que la libertad humana es una posibilidad razonable, pero no necesito apoyarme en ella para continuar con la demostración, que está circunscrita de modo explícito a las mentes libres, sean humanas o no.

Equivalencia entre programa y datos

En las máquinas programables más arcaicas, desde el Telar de Jacquard a principios del siglo XIX, hasta las máquinas descifradoras de los códigos secretos alemanes a mediados del siglo XX, la separación entre programa y datos era estricta. No obstante, apenas terminada la II Guerra Mundial ya se impuso con éxito el paradigma de programa almacenado (cuya autoría se atribuye comúnmente a John von Neumann, aunque recientemente se ha convertido en una cuestión disputada [6]).

De acuerdo con esta concepción, el propio programa que describe un algoritmo es tratado como una entrada de datos para la máquina computacional que lo procesa (y, así, los programas son escritos, almacenados, transformados, descargados, etc., como cualquier otra pieza de información). Es decir, la diferencia entre programa y datos queda completamente desdibujada, y de hecho se alcanza la equivalencia formal, de modo que cualquier programa se representa como una secuencia de bits, y cualquier secuencia de bits puede ser interpretada como un programa, que será ejecutado de modo algorítmico en el dispositivo receptor. Para explicarlo con una analogía, la partitura de un músico contiene información descriptiva de la obra, y a la vez es el programa que el músico “ejecuta” cuando la interpreta. O bien, una fotografía digitalizada es información gráfica de una imagen, y a la vez es un conjunto de instrucciones para la “máquina” que la reproduce en la pantalla del ordenador.

Partitura: información descriptiva de la obra y, a la vez, programa que el músico “ejecuta”

Esto quiere decir que una supuesta secuencia de bits que representase el estado de la mente de un sujeto sería formalmente equivalente a un programa o algoritmo, que a su vez podría ser ejecutado en un ordenador. Ahora bien, si ningún programa ejecutable en una máquina computacional puede ser verdaderamente libre, entonces ninguna secuencia finita de bits puede representar completamente el estado de un ser libre, porque esa secuencia, como ya hemos dicho, es formalmente equivalente a un programa. En otras palabras: una mente libre no puede ser transferida digitalmente, q.e.d. (“quod erat demonstrandum”, como queríamos demostrar).

El estado de la mente: secuencia de bits y programa de ordenador

Condiciones y supuestos de la demostración

El argumento de imposibilidad para la transferencia digital de la mente libre se basa en tres pilares principales: (1) la definición de algoritmo, (2) la definición de ser libre, y (3) la equivalencia entre datos y programa. Es importante recalcar que el argumento no afecta a otras formas concebibles de transferencia mental. En particular, no he demostrado que sea imposible:

  • transferir digitalmente una mente no libre (hetero-determinada);
  • transferir de forma no digital (analógicamente) una mente libre a un soporte no computacional; dicho de otra manera, queda abierta la posibilidad de una transferencia entre cerebros biológicos libres en forma no digital, sino analógica.

En cambio, el argumento sí es aplicable a una hipotética transferencia digital hacia un receptor no computacional; es decir, la transferencia digital desde un cerebro biológico libre a otro cerebro biológico libre es igualmente imposible.

Por otra parte, también vale la pena señalar que, en cierto modo, una mente libre sí podría “recibir” una transferencia digital, e interpretar su contenido como un programa (un conjunto de instrucciones), que esta mente libre ejecutaría a su manera. En otras palabras, un robot no puede imitar perfectamente el comportamiento de un ser libre, pero un ser libre sí puede comportarse como un robot.

Supuestos implícitos en la viabilidad de la transferencia mental

Finalmente, quiero señalar también algunos supuestos implícitos que subyacen en la idea de que, contra lo que he demostrado, la transferencia mental es técnicamente viable: (i) el cerebro, en el fondo, no es más que una complicada máquina biológica, y la libertad no es más que una ilusión; (ii) puede existir una máquina universal que ejecute el código de cualquier cerebro; (iii) la mente (el estado mental) es estrictamente separable del cerebro corpóreo (dualismo cartesiano); y (iv) la racionalidad es algo esencialmente incorpóreo; no es la racionalidad de un cuerpo vivo, que es concebido, crece, y muere; es una racionalidad esencialmente estática, atemporal.

De acuerdo con esta visión, el cerebro es esencialmente una computadora (biológica), una compleja unidad de procesamiento de información. En consecuencia, el mejor modo de entender el cerebro (y, a la vez, el conocimiento y el comportamiento humanos) es estudiarlo bajo el paradigma de relaciones causales. Esta concepción computacional del cerebro está muy extendida (véase, por ejemplo, Patricia Churchland [7]), pero no es compartida por todos los científicos reputados. Entre los oponentes a esta concepción, citemos tan solo a David Gelernter [8]: “Una persona es una computadora solo si ignoras todo lo que la distingue de una computadora”. Una de las distinciones más radicales es sin duda el libre albedrío. Son precisamente los que no se atreven a afirmar radicalmente la libertad los que más fácilmente caerán en la tentación de considerar que los humanos no son en último término otra cosa que complicados robots biológicos.

El tecno-optimismo de la transferencia mental considera, como dice José Ignacio Latorre,  que vale la pena transferir la mente a una máquina, porque esta “no sufrirá los límites que impone la biología” [9]. Ahora bien, en tanto que soporte corpóreo de un ser supuestamente libre, la biología impone ciertamente sus límites, pero la máquina impone otros mucho más severos. Una máquina es siempre esclava obediente de su programación. Incluso si esta programación corresponde al “retrato” de un ser libre en un momento dado, la máquina nunca será verdaderamente auto-determinada; siempre será una imitación, un pálido reflejo del original. ¿Vale la pena correr el riesgo de perder la libertad -aun teniéndola por incierta- para conservar la mente envasada en una especie de retrato móvil?

¿Prefieres un retrato digital a tu yo verdadero?

Este artículo nos lo envía Gonzalo Génova, profesor de la Universidad Carlos III de Madrid. Aparte de mis clases de informática, también imparto cursos de humanidades en los que trato temas de filosofía de la tecnología y pensamiento crítico.

Además de usar las redes sociales de Naukas, si quieres comentar y debatir más a fondo puedes visitar mi blog De máquinas e intenciones (reflexiones sobre la tecnología, la ciencia y la sociedad), donde esta entrada estará disponible en un par de días.

 

Referencias y más información:

[1] Nyquist, H. (1928). Certain Topics in Telegraph Transmission Theory. Transactions of the American Institute of Electrical Engineers 47: 617-644.

[2] Shannon, C. (1949). Communication in the Presence of Noise. Proceedings of the Institute of Radio Engineers 37 (1): 10-21.

[3] Turing, A.M. (1936). On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society 2(42): 230–265.

[4] Génova, G. & Quintanilla Navarro, I. (2018b). Discovering the principle of finality in computational machines. Foundations of Science 23(4):779-794.

[5] Génova, G. & Quintanilla Navarro, I. (2018a). Are Human Beings Humean Robots? Journal of Experimental & Theoretical Artificial Intelligence 30(1):177-186.

[6] Copeland, J. (2000). A Brief History of Computing. http://www.alanturing.net/turing_archive/pages/Reference Articles/BriefHistofComp.html

[7] Churchland, P.S. & Sejnowski, T.J. (1992). The Computational Brain. Cambridge, Massachusetts: The MIT Press.

[8] Gelernter, D. (2014). The Closing of the Scientific Mind. Commentary Magazine. https://www.commentarymagazine.com/articles/the-closing-of-the-scientific-mind/

[9] Latorre, J.I. (2019). La singularidad. http://lab.cccb.org/es/la-singularidad/

 



Por Colaborador Invitado, publicado el 27 septiembre, 2019
Categoría(s): Divulgación • Tecnología