Ecolocalización humana

Por Jose María Mateos, el 22 marzo, 2012. Categoría(s): Neurociencia

El chico que protagoniza el vídeo situado bajo estas líneas se llamaba Ben Underwood. Perdió la visión tras sufrir un cáncer de retina a los dos años de vida; el tratamiento requirió la extirpación de ambos globos oculares. Murió en 2009 a consecuencia de la misma enfermedad que lo dejó ciego.

Hay varios elementos a destacar en lo que acaban de ver, como el chasquido que Ben produce haciendo chocar la lengua contra el paladar (0:44 y 1:03 en adelante, por ejemplo). Se puede decir con cierta seguridad que esto le permite realizar el lanzamiento del balón a la canasta y advertir la presencia de los objetos que encuentra a su paso mientras camina por la calle (1:44). La parte del futbolín es dudosa y la del videojuego lo único que dice es que el muchacho era bastante espabilado, y eso suponiendo que estuviese jugando bien, cosa que no se puede deducir.

Al igual que otros mamíferos como murciélagos y delfines, el ser humano también viene equipado con su propio sistema biológico de sónar, aunque mucho más rudimentario.

Ben era una de las personas más famosas con capacidad para emplear la ecolocalización: el empleo de la reflexión de una onda sonora (normalmente generada por el propio individuo) en los objetos para conocer su ubicación espacial. Otro ilustre ecolocalizador gracias a su actividad docente e investigadora, apariciones en diversos documentales y programas de televisión es Daniel Kish.

Esto es, hasta cierto punto, tan fantástico que dudar de la autenticidad de lo que se ve en estos vídeos es poco menos que una obligación. Evan Balaban, de la Universidad de McGill, me envió una extensa relación de artículos sobre este tema y propuso la siguiente categorización:

  1. Ecolocalización “pasiva” (que tanto videntes como invidentes utilizan como parte de su audición “espacial”).
  2. Ecolocalización “activa” sin ayudas electrónicas (que, como antes, tanto videntes como invidentes pueden utilizar, pero no tan bien como “expertos” como los murciélagos y los mamíferos marinos).
  3. Ecolocalización “activa” con ayudas electrónicas.

Sobre esa primera parte “pasiva”, Juán Antonio Martínez, del Departamento de Teoría de la Señal y Comunicaciones de la Universidad de Alcalá de Henares, y que lleva años investigando en este campo explica que:

Lo que uno percibe son cambios de tono e intensidad en los parámetros de reverberación del sitio en el que se encuentre. Por ejemplo, muchos ciegos, se dan cuenta perfectamente cuando caminan por un museo y cambian de una sala a otra.

El más antiguo de los artículos de la bibliografía enlazada más arriba, obviando una obra de Diderot de 1749, data de 1935: Facial Vision or the Sense of Obstacles («Visión facial o el sentido de los obstáculos»), un libro de Samuel P. Hayes. Es una lástima que Google Books no tenga ni una mísera vista previa. Avanzando un poco más en el tiempo y centrándose en publicaciones en revistas revisadas por pares se llega a un artículo de 1950, Facialvision: The role of pitch and loudness in the perception of obstacles by the blind Visión facial: el papel del tono y el estruendo en la percepción de los obstáculos por los ciegos»), publicado en The American Journal of Psychology y que es una revisión de otros trabajos anteriores que ya apuntan a que en aquella fecha ya se tenía claro que existía un fenómeno que investigar. No obstante, los estudios más recientes tendrán información más relevante.

En PLoS ONE se publicó el año pasado un artículo que proporciona varios detalles interesantes. Ésta es la descripción de las dos personas ciegas que colaboraron en el estudio: «Tanto EB como LB [nombres de los sujetos] utilizan la ecolocalización diariamente, permitiéndoles explorar ciudades en sus viajes y realizar excursiones, montar en bicicleta por la montaña o jugar al baloncesto». EB, que perdió la vista a edad más temprana, es capaz de discriminar la posición de un objeto dentro de una cámara anecoica (esto es, en condiciones óptimas, dado que no hay ninguna otra fuente de eco alrededor del objeto) hasta una precisión de 3º.

Al margen de estos detalles, el artículo describe un montaje experimental que emplea resonancia magnética funcional para comprobar qué regiones del cerebro se activan cuando estas personas y dos sujetos control escuchan ciertos sonidos con eco. Hasta su publicación, la mayoría de los estudios analizaban este fenómeno desde el punto de vista del comportamiento, pero no se había intentado comprenderlo mejor a nivel funcional.

En uno de los experimentos realizados, los sujetos oyeron grabaciones de clicks (ejemplo) realizados tanto en presencia como en ausencia de un objeto capaz de devolver un eco en el interior de una cámara anecoica y en campo abierto. Se editaron las grabaciones para obtener dos versiones: con y sin eco. Las diferencias en la activación cerebral dependiendo de la presencia o no de eco aparecen en la siguiente imagen:

Figura 1. Tanto EB como LB (en menor medida) muestran activación de la cisura calcarina, relacionada con el procesamiento de estímulos visuales (etiquetada como CaS en la imagen). Esta activación cerebral no está presente en los controles. Pinchar para ampliar. Fuente: Thaler L, Arnott SR, Goodale MA, 2011, Neural Correlates of Natural Human Echolocation in Early and Late Blind Echolocation Experts.

Los autores del artículo señalan el hecho de que el córtex visual tenga activación era algo esperable, dado que la ceguera puede ocasionar la reorganización de multitud de áreas cerebrales, y que en todo caso lo que es reseñable es que haya diferencias en la activación de esa región dependiendo de la presencia o no de ecos.

El tiempo que hay entre la emisión de un click y la recepción de un eco es tremendamente corto y el sonido de éste estará muy amortiguado, ¿realmente se puede llegar a percibir?. Melvyn A. Goodale, uno de los autores del artículo, responde lo siguiente por correo electrónico:

Los ecos son obviamente de muy baja amplitud comparados con los clicks. El retardo entre el click y el eco depende de la distancia de la superficie reflectante. Un eco que rebota en una superficie situada a 100 centímetros se retrasará aproximadamente lo que el sonido tarda en recorrer 200 centímetros –el tiempo que tarda el click en alcanzar la superficie del objeto más el tiempo que tarde el eco en volver. Como el sonido viaja a 343.2 metros por segundo, esos 200 centímetros se recorren en unos 6 milisegundos.

Efectivamente, las diferencias temporales son diminutas, pero nuestro sistema auditivo es muy sensible a este tipo de diferencias. Después de todo, utilizamos la diferencia en el tiempo de llegada del sonido a nuestros oídos como pista para definir la dirección del sonido, y esa diferencia puede ser de únicamente unos microsegundos.

Dejando al margen este tipo de pruebas funcionales, y centrándonos más en estudios de comportamiento, podemos atender a otro artículo publicado el año pasado en el Journal of visual impairment & blindness que demuestra que este tipo de habilidades pueden aprenderse. Ocho sujetos con visión normal participaron en el siguiente experimento:

Figura 2. Fuente: Santani Teng and David Whitney, 2011, The acuity of echolocation: Spatial resolution in the sighted compared to expert performance, J Vis Impair Blind.

Los voluntarios, con los ojos vendados, se sentaron junto a ese aparato con dos discos de diferentes tamaños que se puede ver en la figura 2. El propósito del experimento es comprobar si son capaces de discriminar si el disco grande está arriba o abajo, y se realizaron varias tandas de ejercicios para ver si conseguían mejorar su resultado entre ellos.

Lo que se vio tras analizar los datos es que se producía una mejora en los resultados con cada prueba sucesiva: al principio no se acertaba más de lo que predecía el mero azar, pero a medida que iban pasando las sesiones se iba afinando más, hasta llegar aproximadamente a un 80% de aciertos al final de la cuarta tanda, siempre y cuando los discos estuvieran lo suficientemente separados.

Se podrían seguir comentando artículos, pero los dos anteriores permiten hablar con cierta seguridad de la existencia de un fenómeno de ecolocalización humana. Fin de la parte teórica de este artículo, por tanto. En cuanto a la parte práctica, ¿son posibles, o incluso comunes, estas proezas que se ven en los vídeos? Quizá lo mejor sea consultar a personas que son ciegas o que tienen contactos en la comunidad de invidentes.

Gracias a Javier Romañach, del Foro de Vida Independiente y Divertad, hablé con Enrique Varela; ambos me impartieron parte de una asignatura sobre accesibilidad cuando yo aún era estudiante. Lo que me cuenta Enrique no deja de ser una experiencia personal, pero tiene su interés:

Ni yo conozco ni conozco a nadie que conozca en España a alguien que sea un portento en esto. Y no es la primera vez que llega el tema, y soy ciego nieto de ciegos, con familia ciega, estudiando en colegios de ciegos allá por 1967. […] Jamás he visto a nadie […] diferenciar si en una acera hay una moto, un coche o si una persona lleva falda o pantalones, como se pretende o se muestra en algunos vídeos.

Cuando pasas por huecos en paredes, calles aunque no tengan aceras, verjas con puertas forjadas, eso se percibe por el aire, por el distinto rebote de tus pasos, etc. También y desde la época de colegios, he visto gente chasquear los dedos cuando tienen dudas en un espacio de si puede haber obstáculos.

Esta última parte recuerda perfectamente a esa ecolocalización “pasiva” explicada anteriormente: cambios en la reverberación del medio.

Algo parecido comenta Daniel Rubio, secretario de la Associació Discapacitat Visual Catalunya:

Por otra parte hay una técnica que diferencia el sonido que hace el bastón por la calle, según se está más próximo o más alejado de la pared, lo que supone utilizar el “efecto eco”, pero no es una técnica segura, ni permite una definición precisa de los objetos. No se trata de una “habilidad innata”, sino de una técnica que permite discernir algunos elementos por su sonido.

Juan Antonio Martínez, además, añade sobre Daniel Kish, a quien conoce personalmente:

Usa la ecolocación con provecho, pero simplemente para hacerse idea de tamaños de pasillos por los que está andando. En realidad no lo usa para distinguir objetos individuales; tú no lo verás usarlo para coger un vaso o cosas así.

Las cosas que te ponen de encestar la canasta… ¿es posible? Es posible si entrenas tres semanas sólo para esto. Es como todo en la vida. Tú ves a un ciego bajar y subir escaleras corriendo y piensas: ¿cómo es posible? Ha costado entrenamiento. Lo único que son capaces de percibir es si hay huecos o no hay huecos y si tiene una capacidad más o menos absorbente el sonido.

No andaríamos desencaminados si concluimos que lo que aparece en estos vídeos es, por tanto, una versión extraordinaria de lo que se puede conseguir empleando estos métodos.

——————————–
PD1: veo manos levantadas que piden quejarse de que no he hablado de las ayudas electrónicas mencionadas más arriba. Cierto es, pero se va un poco del propósito del artículo.

PD2: Enrique Varela también me habló de un estudio acerca de visión táctil. Este artículo no trata sobre eso, pero dado que es un trabajo desarrollado en España queda aquí enlazado. Es de acceso abierto.

——————————–
Referencias:

ResearchBlogging.orgThaler L, Arnott SR, & Goodale MA (2011). Neural correlates of natural human echolocation in early and late blind echolocation experts. PloS one, 6 (5) PMID: 21633496

ResearchBlogging.orgTeng S, & Whitney D (2011). The acuity of echolocation: Spatial resolution in the sighted compared to expert performance. Journal of visual impairment & blindness, 105 (1), 20-32 PMID: 21611133



Por Jose María Mateos, publicado el 22 marzo, 2012
Categoría(s): Neurociencia

 

Publicidad