Ética y teoría computacional de la mente

Por Colaborador Invitado, el 13 enero, 2023. Categoría(s): Miscelánea • Neurociencia

Empecemos diciendo que, tal como explica Mark Coeckelbergh [1], un buen número de filósofos, a menudo seguidores de la tradición analítica de la filosofía, tienen una visión del ser humano que respalda a los investigadores de la inteligencia artificial que piensan que el cerebro y la mente son y funcionan realmente como sus equivalentes computacionales: esto es lo que se denomina teoría computacional de la mente. Y aunque en la década de los 80 las ciencias cognitivas empezaran a tomarse más en serio la importancia de la neurobiología, el paradigma computacionalista ha permanecido intacto hasta hoy día [2, 3].

Materialismo eliminativo

Coeckelbergh cita como ejemplos a Paul Churchland y Daniel Dennett. Churchland piensa que la ciencia, y en particular la biología evolutiva, la neurociencia y la inteligencia artificial, puede explicar completamente la consciencia humana [4]. Lo que él llama materialismo eliminativo niega la existencia real de pensamientos y experiencias inmateriales, que no son más que estados mentales; la conciencia es un epifenómeno de la función cerebral, y el mismo concepto de conciencia terminará siendo “eliminado” cuando la neurociencia progrese lo suficiente. Por su parte, Dennett niega también la existencia de cualquier cosa más allá de lo que ocurre dentro del cuerpo: cree que nosotros mismos “somos algo así como un robot” [5].

En el mismo sentido se expresa también Patricia Churchland, esposa de Paul Churchland, en respuesta a una de las 20 grandes preguntas acerca del futuro de la humanidad. A la pregunta de si la neurociencia cambiará el código penal, ella responde [6]:

Con toda probabilidad el cerebro es una máquina causal, en el sentido de que va de estado en estado en función de sus condiciones antecedentes.

In all likelihood, the brain is a causal machine, in the sense that it goes from state to state as a function of antecedent conditions.

Esta seguridad en afirmar que con toda probabilidad el cerebro es una máquina causal es ciertamente un atrevimiento, puesto que es una afirmación que no se puede demostrar. En realidad, lo único que refleja esta afirmación es su propio presupuesto materialista y mecanicista: lo único que existe en el universo, lo único que podemos conocer, son los fenómenos causales, es decir, los que tienen un antecedente y un consecuente, y estos fenómenos de alguna manera están relacionados mediante leyes físico-mecánicas. Por lo tanto, el cerebro es una máquina causal porque no puede ser otra cosa.

(Por cierto, que esta teoría es la consagración del argumento ad hominem, ya que cualquier cosa que uno diga –incluyendo la propia teoría computacional de la mente– se explica por la historia cognitiva pasada de cada uno: “esto lo dices tú porque eres un tal y un cual, porque has tenido tales experiencias, porque te adscribes a esta o a esa otra corriente”. Apelar a argumentos lógicos para demostrar o refutar una teoría cualquiera no pasará de ser una lamentable ficción.)

¿Sin consecuencias para el código penal?

No obstante, según ella esto no debe tener ninguna consecuencia para el código penal (the implications of this for criminal law are absolutely nil). La tesis que Patricia Churchland defiende en El cerebro moral: lo que la neurociencia nos cuenta sobre la moralidad es que el autocontrol puede ser logrado en los animales, y particularmente en los mamíferos, a través de la recompensa y el castigo [7]. Por lo tanto, el supuesto hecho de que el cerebro sea una máquina causal no sirve de excusa para justificar la inevitabilidad de las conductas criminales.

Ahora bien, lo que Churchland no explica en su respuesta es por qué, ni cómo, una máquina causal –y una sociedad compuesta por máquinas causales– podría y, sobre todo, debería evitar los actos criminales. Es decir, si todos nosotros –incluidos jueces y legisladores– somos máquinas causales, con estados futuros determinados por estados pasados, ¿no está también determinada la decisión de modificar, o no, el código penal? ¿Qué sentido tiene entonces argumentar a favor o en contra? (Esto no es ni más ni menos que la falacia del neuro-abogado sobre la que ya escribí anteriormente.)

El materialismo eliminativo y la teoría computacional de la mente pretenden la reducción de la ética a funciones cerebrales adquiridas evolutivamente, gracias a la huella que la recompensa y el castigo dejan en el cerebro. Esto, por cierto, es lo característico de una de las técnicas de inteligencia artificial denominada aprendizaje por refuerzo: acumular los premios, acumular los castigos, y a partir de ahí “decidir” algorítmicamente la conducta futura del sistema.

Pero todo esto no es sino la negación de la ética, porque lo único que queda en esta teoría para gobernar el comportamiento humano es la presión psicológica por actuar de un modo determinado, por adaptarse a las costumbres sociales: las mores (palabra latina de la que deriva “moral”). Un comportamiento socialmente inaceptable, tal como el uso de un lenguaje grosero, provocará rechazo social, y esto dejará su huella en el cerebro, en un proceso de “aprendizaje” (más bien habría que decir “condicionamiento”) puramente mecánico. En otro contexto social diferente no será penalizado el lenguaje grosero, por ejemplo, sino el excesivamente refinado. Es decir, en realidad lo único que cuenta para actuar de una manera u otra es el rechazo o aceptación social. Se ha perdido por completo la verdadera perspectiva ética, que es procurar el bien en cuanto bien: no porque se reciba un premio o un castigo.

Causas y razones

Ciertamente, el comportamiento humano puede entenderse desde la perspectiva mecánico-causal, y por tanto como el fruto de una cierta evolución, es decir, como el resultado de unas condiciones iniciales modificadas de alguna manera por la acumulación de premios y castigos. Pero la ética no se limita a estudiar las causas del comportamiento y el autocontrol, sino que, más bien, aspira a conocer sus razones. En esta postura que afirma que “con toda probabilidad el cerebro es una máquina causal” no parece haber sitio para las razones, sino solo para las causas. (Aquí es crucial la distinción entre causa como explicación físico-mecánica y razón como justificación lógica [8].) Por tanto, no hay sitio para la ética, para el comportamiento libre racional, razonado. Solo hay sitio para el estudio causal, empírico, del comportamiento humano: es decir, solo hay sitio para la sociología (o, como me gusta decir, la costumbrología).

Esta autolimitación de la razón a lo que se puede conocer empíricamente no solo es nociva para la ética. Es también profundamente destructiva de toda forma de comprensión de la tecnología. Porque un artefacto cualquiera, digamos una ratonera, una caldera de gas o una calculadora electrónica, no se puede comprender solo desde un punto de vista empírico [9]. Por supuesto que es necesario explicar el funcionamiento de la ratonera desde la perspectiva causal: “cuando llega el roedor, muerde el cebo, y eso suelta el muelle, que…”. Pero de una ratonera, si solo la explico de modo causal, lo entiendo todo, menos que es una ratonera. Porque no he explicado su razón de ser, su finalidad.

De modo que ruego al lector me disculpe si no muestro gran aprecio por los que sostienen el materialismo eliminativo y la teoría computacional de la mente. No solo dejan la ética fuera del mapa (aunque pretendan “explicarla”). Es que me dejan sin trabajo como ingeniero.

******

Paco Mariscal escribió una valiente recensión de El cerebro moral en su blog El barril de Newton. La descubrí hace unos años y se puede decir que mi comentario de entonces en su blog es el germen de este artículo que publico ahora.

Este artículo nos lo envía Gonzalo Génova, profesor de la Universidad Carlos III de Madrid. Aparte de mis clases de informática, también imparto cursos de humanidades en los que trato temas de filosofía de la tecnología y pensamiento crítico.

Puedes leer todos mis artículos en Naukas en este enlace. Además de usar las redes sociales de Naukas, si quieres comentar y debatir más a fondo puedes visitar mi blog De máquinas e intenciones (reflexiones sobre la tecnología, la ciencia y la sociedad), donde esta entrada estará disponible en un par de días.

Referencias científicas, notas y más información:

[1] Coeckelbergh, M. (2021). Ética de la inteligencia artificial, Madrid: Cátedra. (AI Ethics. Cambridge, Massachusetts: MIT Press, 2020.)

[2] Arana, J. (2015). La conciencia inexplicada. Madrid: Biblioteca Nueva.

[3] Barret, N., Güell F., Murillo, J.I. (2015). “Los límites de la comprensión computacional del cerebro”. Cuenta y Razón, 34:71-76.

[4] Churchland, P.S., Koch, C., Sejowski, T.J. (1990). “What Is Computational Neuroscience?” In E.L. Schwartz (ed.), Computational Neuroscience, pp. 46-55. Cambridge, MA: MIT Press.

[5] Dennett, D.C. (1997). “Consciousness in Human and Robot Minds”. En M. Ito et al. (eds.), Cognition, Computation and Consciousness, New York: Oxford University Press, 1997, pp. 17-29.

[6] Churchland, P. (2016). “20 Big Questions about the Future of Humanity”. Scientific American 315(3):85-86 (doi:10.1038/scientificamerican0916-28). https://www.scientificamerican.com/article/20-big-questions-about-the-future-of-humanity/

[7] Churchland, P. (2012). El cerebro moral. Lo que la neurociencia nos cuenta sobre la moralidad. Barcelona: Paidós. (Braintrust: What neuroscience tells us about morality. Princeton: Princeton University Press, 2011.)

[8] García Norro, J.J. (2012). “¿Es natural la inteligencia?” En M. Oriol (ed.), Inteligencia y filosofía. Madrid: Marova, pp. 151-169.

[9] Génova, G., Quintanilla Navarro, I. (2018b). “Discovering the principle of finality in computational machines”. Foundations of Science 23(4):779–794.

 

 



Por Colaborador Invitado, publicado el 13 enero, 2023
Categoría(s): Miscelánea • Neurociencia