Ciencia Líquida

Por Colaborador Invitado, el 27 octubre, 2023. Categoría(s): Divulgación

Argumentaba años atrás Ortega y Gasset, unos de los más prestigiosos pensadores españoles, que «la claridad es la cortesía del filósofo». Asimismo, no solo lo argumentaba, sino que como ya reconoció Thomas Mermall, lo conseguía: «Ortega es capaz de plantear al lector culto importantes problemas filosóficos sin recurrir a un lenguaje especializado». Y de aquellos polvos estos lodos, o lo que es lo mismo, el advenimiento de filósofos como Aragón Becerra, quien con extrema sencillez tradujo complejidades científicas en píldoras fácilmente digeribles para la mayoría. Muestra de ello es la traducción que grosso modo practicó al artículo científico «The science of fake news» en una de sus tantas conferencias: 1) «es tan complejo en nuestra sociedad obtener información veraz que lo único en lo que creo ciegamente es en que hace caló»; 2) «aplicar una especie de circuncisión informativa es la única manera que hay de llegar a lo veraz; no soy cirujano». Dicho esto, exprésese pues que gracias a los valores inculcados por el primero, el segundo de los filósofos aludidos nos ha legado una visión tan clara como sencilla, aunque también preocupante, de nuestra realidad informativa.

Dado lo anterior, hay una cuestión imposible de negación: existe una ingente cantidad de informaciones de baja calidad anegando todos los aspectos de la vida. De ello nada se libra, ni siquiera la ciencia, uno de los pilares sobre los que debería descansar el dintel de la verdad. Y es que, desgraciadamente, incluso no pareciere muy descabellado, parafraseando a Zygmunt Bauman, calificar a una parte de la ciencia como «ciencia líquida»; a saber, una ciencia sin «esencia» (entiéndase «esencia» como aquello que hace que una cosa sea lo que es). En pocas palabras, una ciencia no ciencia, o lo que es igual, una ciencia donde el vacío es el relleno, la rigurosidad ha perdido sus fuertes, la robustez experimentado la fragilidad y la sustancialidad vivido bajo el paraguas de lo decorativo. Ahora, las pruebas.

Como evidencia primera de lo reseñado anteriormente, obsérvese el trabajo «Poor-Quality Medical Research», un artículo en el que su autor llega a dos conclusiones. La primera de estas es que «hay pruebas considerables de que muchos informes publicados de ensayos controlados aleatorizados (ECA) son deficientes o incluso erróneos, a pesar de su clara importancia». Mientras, la segunda de las conclusiones sustenta que «una vez que los procedimientos incorrectos se convierten en habituales, puede ser difícil evitar que se propaguen por la literatura científica como una mutación genética». Es decir, se muestra una doble preocupación, en primera instancia por la deficiente calidad de la investigación, en segunda por la capacidad de difusión que pueden tener las malas praxis investigatorias. En sintonía con lo expresado puede hallarse también la publicación «Reporting Bias in Drug Trials Submitted to the Food and Drug Administration: Review of Publication and Presentation», una investigación donde sus autores «determinaron la tasa de publicación de los ensayos de eficacia presentados a la Food and Drug Administration (FDA) en las solicitudes de nuevos fármacos aprobadas (NDA) y compararon las características de los ensayos notificadas por la FDA con las notificadas en las publicaciones». Tras diversos análisis estadísticos se concluyó que «muchos ensayos seguían sin publicarse 5 años después de la aprobación de la FDA; las discrepancias entre la información del ensayo revisada por la FDA y la información encontrada en los ensayos publicados tendían a conducir a presentaciones más favorables de los fármacos NDA en las publicaciones; en definitiva, la literatura científica para profesionales sanitarios es incompleta y potencialmente sesgada». Por último, cítese el ensayo «The scandal of poor medical research», un texto de mayor antigüedad que los mencionados anteriormente, pero con gran impacto en la comunidad científica por sustentar afirmaciones como las siguientes: 1) «el sistema científico actual fomenta la investigación deficiente»; 2) «necesitamos menos investigación, pero de mejor calidad».

En base a lo anterior, quizás la pregunta más pertinente que uno pudiere realizarse ahora sería aquella de: ¿qué medios hacen posible la adulteración, consciente o inconsciente, del sistema científico? Y para con este cuestionamiento y su complejidad, quizás la mejor respuesta que pueda ser ofrecida es la argumentada por Altman en su ya citado artículo «The scandal of poor medical research»: «cada año se gastan ingentes sumas de dinero en investigaciones que adolecen de graves defectos debido al uso de diseños inadecuados, muestras no representativas, muestras pequeñas, análisis incorrectos…; errores tan variados que un libro entero sobre el tema, por valioso que sea, no es exhaustivo». Tras esta sentencia, podría enunciarse sin gran controversia que los límites de la adulteración científica solo hallan frontera en los márgenes de la imaginación. Ante ello, es patente que ilustrar al completo toda adulteración es imposible. Sin embargo, aun conscientes de ello, a continuación, se esbozarán algunas de las más comunes.

Así pues, se da comienzo a la siguiente exposición con una de las adulteraciones más habituales en la ciencia. Concretamente, con aquella bautizada como sesgo de publicación, una tipología de sesgo consistente en dar mayor relevancia a los trabajos que informan resultados positivos sobre aquellos otros que no lo hacen. Sirva como verificación de lo expresado el manuscrito «Systematic review of the empirical evidence of study publication bias and outcome reporting bias – an updated review», un análisis mediante el cual, tras un examen de la literatura científica, se expresó que «los estudios que informan de resultados positivos tienen más probabilidades de ser publicados». Igualmente, otra de las publicaciones que verifican la existencia de este tipo de sesgo es el denominado «Testing for the presence of positive-outcome bias in peer review: a randomized controlled trial», un trabajo en el que los autores enviaron falsos manuscritos, idénticos salvo en los resultados que reseñaban, pues unos destacaban resultados positivos y otros no, a más de 200 revisores. Tras obtener la respuestas de los revisores, las conclusiones fueron: «los revisores tenían más probabilidades de recomendar la versión positiva del manuscrito para su publicación; los revisores detectaron menos errores en la versión positiva; los revisores otorgaron puntuaciones de métodos más altas a los manuscrito positivos».

Como no puede ser de otra manera, las adulteraciones científicas provenientes de las propias revistas académicas levantan gran preocupación. Sin embargo, la problemática no expira aquí, puesto que existen otras adulteraciones, igualmente preocupantes, provenientes de los propios ejecutores científicos. Para con lo anterior, una de las adulteraciones más comúnmente encontrada en la literatura científica es aquella que recibe la denominación de manipulación de comparaciones, o como la llama el autor de «Bad science» o «Mala pharma», Ben Goldacre, «pruebe lo que sea contrastándolo con cualquier porquería». Como ejemplificación de ello puede vislumbrarse la investigación «Rowing Training in Breast Cancer Survivors: A Longitudinal Study of Physical Fitness», una investigación en la cual sus firmantes establecieron como objetivo «determinar si un programa de entrenamiento de remo produce mejoras en la forma física y la composición corporal en mujeres que han sobrevivido a un cáncer de mama». Hasta aquí, todo correcto. El problema surge cuando el programa de entrenamiento llevado a cabo se compara única y exclusivamente mediante la realización de un pretest y postest intrasujeto, pero nunca con el mejor programa de entrenamiento evidenciado hasta el momento de la realización de dicha investigación. Es obvio que si se compara a una misma persona poco entrenada con un protocolo pretest postest intrasujeto, las conclusiones que van a ser obtenidas en el estudio van a ser las que son: «todos los participantes mostraron mejoras en todas las variables estudiadas». Séase serio, todo nuevo tratamiento o procedimiento debería ser comparado con el mejor tratamiento o procedimiento disponible hasta la fecha.

Además de lo señalado precedentemente, uno de los estudios que mejor ha evidenciado la manipulación de comparaciones es el llamado «Design and reporting modifications in industry-sponsored comparative psychopharmacology trials». En este mismo, los autores ofrecen al lector una descripción pormenorizada sobre cómo, ocho estudios patrocinados por tres empresas farmacéuticas diferentes, llevaron a cabo comparaciones de su neuroléptico de segunda generación con una dosis de haloperidol de 20 mg/día o incluso más. Este hecho es desmesurado, pues se ha observado que dosis de haloperidol superiores a 4-10 mg/día no producen mejores resultados clínicos que dosis menores; empero, sí que provocan mayores efectos secundarios. En resumen, lo aquí narrado es una probación de como en ciertos casos se produce en la literatura científica una tortura de la comparación, tortura que, en este caso, poseía como pretensión que el nuevo producto testado pareciere superior al clásico.

Otras de las formas más comunes en que la evidencia científica se encuentra adulterada corresponde a la llamada falta de validez externa o generalisabilidad. O sea, lo que viene siendo emplear en las investigaciones muestras de estudio no representativas de la población real. En este aspecto, uno de los trabajos que versan sobre esta cuestión es el apodado «External validity of randomised controlled trials: «to whom do the results of this trial apply?», un trabajo que pone de manifiesto la creciente falta de validez externa en los nuevos estudios de investigación publicados. Para los autores este hecho es alarmante, dado que los pacientes en la vida real son complicados y, sin embargo, en la mayoría de los ensayos realizados se estudian pacientes no representativos, pacientes que extrañamente son ideales, que suelen ser jóvenes, con diagnósticos inequívocos, escasos problemas de salud, etc. En referencia a la misma problemática, otra de las publicaciones que ha analizado este fenómeno es la denominada «External validity of randomised controlled trials in asthma: to whom do the results of the trials apply?», un análisis académico que tuvo como objeto de estudio calcular la proporción de personas con asma que habrían sido elegibles para los principales ECA sobre asma. Se seleccionaron al azar a 179 personas que padecían asma en el momento de estudio y que eran representativas de la población real. Tras ello, dichos pacientes fueron evaluados según los criterios de elegibilidad de los 17 principales ECA sobre asma citados en las directrices de la Iniciativa Global para el Asma (GINA). Los resultados fueron sorprendentes, visto que solamente el 6% de las personas seleccionadas al azar habrían sido candidatas a participar en los ensayos. La conclusión de los autores fue clara: «este estudio muestra que los principales ECA sobre asma en los que se basan las directrices GINA pueden tener una validez externa limitada, ya que se han realizado en poblaciones de pacientes altamente seleccionadas. La mayoría de los participantes con asma actual en tratamiento no habrían sido elegibles para estos ECA».

Prosiguiendo con la narrativa, otra de las adulteraciones más asiduamente sufridas por la ciencia es el camuflaje de efectos adversos. En señal de ello ha de traerse a colación el escrito del profesor Toshi A Furukawa, una publicación del «The British Medical Journal» apodada «All clinical trials must be reported in detail and made publicly available». En este texto su autor denuncia como en ocasiones algunas investigaciones agrupan todo tipo de efectos adversos bajo un epígrafe que realmente no es fiel al evento acaecido sobre los participantes. De esta suerte, por ejemplo, se denuncia el caso de la paroxetina, un fármaco para el cual, en algunas investigaciones, se ha venido empleando el término edulcorado de «labilidad emocional» para referirse a «tendencias suicidas». En esta misma línea de denuncia puede hallarse también lo narrado en el artículo «Misleading data analyses in salmeterol (SMART) study» y publicado en la revista «The Lancet». En este se detalla como el salmeterol, un broncodilatador cuya acción es abrir la vías respiratorias para facilitar la respiración, en el periodo de 1996 empezó a levantar sospechas de producir broncoespasmo paradójico. Ante ello, la empresa fabricante del medicamento, GlaxoSmithKline (GSK), decidió investigar lo ocurrido realizando un ensayo aleatorizado que comparaba salmeterol con placebo. La duración se predeterminó óptima en dos fases: 1) 28 semanas de seguimiento intensivo durante el ensayo; 2) 6 meses de seguimiento no intensivo tras finalizar el ensayo. Tras unos años, el comité de vigilancia se reunió para hacer una valoración de la situación. Sus conclusiones fueron que «los resultados obtenidos muestran que el salmeterol es peor que el placebo, aunque la diferencia no es estadísticamente significativa». No obstante, esto no es todo. Y es que, GSK nunca envió a la FDA el expediente estadístico establecido en el protocolo primero de ensayo. La compañía nunca entregó los datos estadístico relativos al periodo de 28 semanas ni tampoco a los 6 meses posteriores, sino que, sin sospecharlo la FDA, entregó unos datos combinados de 12 meses. Indiscutiblemente, esto supuso que la elevada tasa de episodios adversos de las primeras 28 semanas quedara enmascarada en el período ulterior. Obsérvese lo narrado en la tabla 1.

Para finalizar con esta exposición, es de importancia destacar aquellas adulteraciones científicas consistentes en extraer conclusiones injustificadas a partir de sus metodología aplicadas. Como muestra de esta circunstancia puede observarse la acertada crítica que Trisha Greenhalgh virtió sobre el estudio «Effect of telehealth on use of secondary care and mortality: findings from the Whole System Demonstrator cluster randomised trial». El objeto de este estudio fue «evaluar el efecto de una intervención de telesalud a domicilio sobre el uso de la asistencia sanitaria secundaria y la mortalidad». Las conclusiones del mismo fueron que «la telesalud se asocia a menores tasas de mortalidad e ingresos en urgencias». Hasta lo dado todo pudiera parecer correcto, al menos, de no ser porque tales conclusiones fueron sustentadas mediante la comparación de un grupo control que recibió asistencia médica rutinaria con respecto a un grupo de intervención que recibió telemedicina y llamadas telefónicas periódicas de una enfermera. Es decir, ha de tenerse muy en cuenta que el grupo control no recibió telemedicina, pero ojo, porque este mismo grupo tampoco recibió las correspondientes llamadas telefónicas de la enfermera. Comentado lo anterior, es completamente imposible deducir las conclusiones expuestas superiormente, pues quizás no fue la telemedicina la responsable de los resultados positivos, sino que puede que fuese el contacto humano lo que marcó la diferencia. Otra ejemplificación donde puede observarse el fenómeno aquí mencionado es en el artículo «Randomized controlled evaluation of the effect of music therapy with cognitive-behavioral therapy on social anxiety symptoms». El objetivo de este artículo fue «examinar los efectos de la musicoterapia más terapia cognitivo-conductual sobre la ansiedad social en una muestra de adolescentes escolarizados del sudeste de Nigeria». Las conclusiones obtenidas fueron que «el uso de musicoterapia con terapia cognitivo-conductual es significativo para reducir la ansiedad social entre los adolescentes escolarizados». Sin embargo, durante el apartado de discusión los autores realizan afirmaciones poco sostenibles como la siguiente: «el hallazgo actual respalda las afirmaciones de Thoma et al. y Montánchez et al. de que la intervención musical reduce el miedo a las situaciones sociales». A toda luces, estas afirmaciones son imposibles de sostener, ya que en ningún momento se somete aprueba la musicoterapia aisladamente.

Todo en todo, y ante lo expuesto, parece complejo contrargumentar la existencia de un hecho preocupante: la ciencia líquida «es». Aunque eso sí, es apariencia, apariencia y nada más. En paráfrasis de Tovar Verdejo, es un intento fallido, una novia sin luna de miel, un corazón que no sabe latir, un tiempo detenido, un verso sin rima y pasión, un quiero y no puedo… Y si de alguna forma puede, no será «per se», sino porque la ciencia, la de verdad, se nos haya descosido entre avance y progreso, puesto que como advirtiera Emil Cioran a la humanidad: cuidado con ambas, vaya que admitamos que ir hacia la muerte sea un progreso.

 

****

Este artículo nos lo envía Miguel Ángel Puch Garduño, Graduado en Ciencias del Deporte y Máster en Rendimiento Físico y Deportivo por la Universidad Pablo de Olavide. Actualmente, ejerce en la universidad ya citada como Colaborador en el Departamento de Gimnasia Acrobática y, además de ello, como estudiante en el Grado de Filosofía en la Universidad de Sevilla. En su faceta divulgadora es coautor, junto a María José López Barrio, Graduada en Psicología, del proyecto educativo “No Todo es Ciencia”. Por último, ha de expresarse que colaboran con este proyecto Beatriz Vázquez Cabral, especialista en Arte Dramático aplicado al ámbito científico, y Alejandro Zambrano Linares, estudiante del Grado de Filosofía. Para más información se hallan disponibles la web https://www.notodoesciencia.es/ y/o la red social https://www.instagram.com/notodoesciencia/

Referencias y más información:

[1]          D. M. J. Lazer et al., «The science of fake news», Science, vol. 359, n.o 6380, pp. 1094-1096, mar. 2018, doi: 10.1126/science.aao2998.

[2]          D. G. Altman, «Poor-quality medical research: what can journals do?», JAMA, vol. 287, n.o 21, pp. 2765-2767, jun. 2002, doi: 10.1001/jama.287.21.2765.

[3]          K. Rising, P. Bacchetti, y L. Bero, «Reporting Bias in Drug Trials Submitted to the Food and Drug Administration: Review of Publication and Presentation», PLoS Med., vol. 5, n.o 11, p. e217, nov. 2008, doi: 10.1371/journal.pmed.0050217.

[4]          D. G. Altman, «The scandal of poor medical research», BMJ, vol. 308, n.o 6924, pp. 283-284, ene. 1994, doi: 10.1136/bmj.308.6924.283.

[5]          K. Dwan, C. Gamble, P. R. Williamson, J. J. Kirkham, y Reporting Bias Group, «Systematic review of the empirical evidence of study publication bias and outcome reporting bias – an updated review», PloS One, vol. 8, n.o 7, p. e66844, 2013, doi: 10.1371/journal.pone.0066844.

[6]          G. B. Emerson, W. J. Warme, F. M. Wolf, J. D. Heckman, R. A. Brand, y S. S. Leopold, «Testing for the presence of positive-outcome bias in peer review: a randomized controlled trial», Arch. Intern. Med., vol. 170, n.o 21, pp. 1934-1939, nov. 2010, doi: 10.1001/archinternmed.2010.406.

[7]          J. Gavala-González, I. Gálvez-Fernández, P. Mercadé-Melé, y J. C. Fernández-García, «Rowing Training in Breast Cancer Survivors: A Longitudinal Study of Physical Fitness», Int. J. Environ. Res. Public. Health, vol. 17, n.o 14, p. 4938, jul. 2020, doi: 10.3390/ijerph17144938.

[8]          D. J. Safer, «Design and reporting modifications in industry-sponsored comparative psychopharmacology trials», J. Nerv. Ment. Dis., vol. 190, n.o 9, pp. 583-592, sep. 2002, doi: 10.1097/00005053-200209000-00002.

[9]          P. M. Rothwell, «External validity of randomised controlled trials: “to whom do the results of this trial apply?”», Lancet Lond. Engl., vol. 365, n.o 9453, pp. 82-93, ene. 2005, doi: 10.1016/S0140-6736(04)17670-8.

[10]        J. Travers et al., «External validity of randomised controlled trials in asthma: to whom do the results of the trials apply?», Thorax, vol. 62, n.o 3, pp. 219-223, mar. 2007, doi: 10.1136/thx.2006.066837.

[11]        T. A. Furukawa, «All clinical trials must be reported in detail and made publicly available», BMJ, vol. 329, n.o 7466, p. 626, sep. 2004.

[12]        P. Lurie y S. M. Wolfe, «Misleading data analyses in salmeterol (SMART) study», The Lancet, vol. 366, n.o 9493, pp. 1261-1262, oct. 2005, doi: 10.1016/S0140-6736(05)67518-6.

[13]        A. Steventon et al., «Effect of telehealth on use of secondary care and mortality: findings from the Whole System Demonstrator cluster randomised trial», BMJ, vol. 344, p. e3874, jun. 2012, doi: 10.1136/bmj.e3874.

[14]        N. T. Egenti et al., «Randomized controlled evaluation of the effect of music therapy with cognitive-behavioral therapy on social anxiety symptoms», Medicine (Baltimore), vol. 98, n.o 32, p. e16495, ago. 2019, doi: 10.1097/MD.0000000000016495.

 

 

 



Por Colaborador Invitado, publicado el 27 octubre, 2023
Categoría(s): Divulgación