¿Qué resultados científicos son de fiar?


El pasado 11 de noviembre un artículo de New Scientist apuntaba a un estudio que encontraba evidencias de precognición. El estudio fue realizado por Daryl Bem, de la Universidad Cornell, conocido en el pasado por experimentos similares.

En uno de los experimentos, por ejemplo, se les ponían a los estudiantes imágenes de dos cortinas en un ordenador. Una de las cortinas tenía una imagen detrás, la otra tenía una pared en blanco. La tarea consistía en indicar con el ratón la cortina donde creyeran que estaba la imagen. Posteriormente, el ordenador situaba aleatoriamente una imagen fuertemente erótica detrás de una de las cortinas.

Bem afirma haber encontrado un porcentaje de aciertos del 53%, cuando por azar cabría esperar un número más cercano al 50% y que su resultado es estadísticamente significativo, pero ¿qué significa exactamente eso de estadísticamente significativo?… Puede que nada relevante.

Pongamos un ejemplo sencillo con un test de embarzo que acierta el 98% de las veces cuando la mujer está embarazada pero que tiene un 4% de falsos positivos, es decir, que indica que hay embarazo cuando la mujer no lo está de hecho. Una mujer se hace el test y resulta positivo. ¿Está embarazada?. Aún siendo un resultado estadísticamente significativo, una chica de 23 de años que mantenga relaciones sexuales sin protección con frecuencia interpretaría (o debería interpretar) de manera diferente ese resultado que una de 50 que mantiene relaciones una vez al mes de media. En otras palabras, el grado de verosimilitud a priori que tenga una afirmación es relevante a la hora de evaluar los resultados de un experimento.

Esa es otra manera de regresar a la máxima, afirmaciones extraordinarias requieren pruebas extraordinadinarias, puesto que con la precognición estamos más en el análogo de la mujer de 50 años, y por tanto necesitaríamos alguna evidencia más robusta que un resultado estadísticamente signficativo en un solo test. Por supuesto existen críticas más detalladas de los resultados de Bem, pero mi intención era  señalar ese único punto como ejemplo de la fuerza de algunos principios básicos como primera aproximación a una evaluación crítica.

Resulta sencillo atacar a una disciplina tan inconsistente como la parapsicología. Pero qué ocurre con disciplinas con mayor pedigrí como la psicología o la medicina por ejemplo. ¿Están los investigadores utilizando alegremente estudios cuyos resultados son tan discutibles como los de la parapsicología?. Dos artículos recientes, uno aparecido en The Atlantic y otro en The New Yorker han puesto su punto de mira en el resto de la comunidad científica. Sin embargo, ambos artículos no son más que una versión dramatizada para un diario de un artículo de John Ioannidis publicado en 2005 y posteriormente muy citado:  “por qué casi todos los resultados publicados son falsos”.

El artículo de Ioannidis –a pesar de su impactante título– sólo es una advertencia para mantener la lupa escéptica cerca del cuaderno de notas del investigador. Pongamos como ejemplo la medicina. Los primeros ensayos suelen producirse con grupos reducidos que aumentan las posibilidades de falsos positivos. Ese éxito aparente invita a más investigadores en la carrera por la publicación debido –entre otras razones– a que las publicaciones tienen un importante sesgo hacia los resultados positivos. A medida que los ensayos se hacen en grupos mayores y se mejoran los controles, el efecto inicial tiende en general a hacerse menos significativo. En ese sentido, casi todos los nuevos resultados que saltan a la prensa con grandes titalares suelen ser falsos. Sin embargo, a diferencia de la prensa, en la comunidad científica suele corregirse –al menos en el largo plazo– ese prejuicio inicial favorable a los nuevos resultados.

Llegados a este punto imagino a homeópatas y seguidores de todo tipo de pseudomedicinas exclamando: “ya ven, a nosotros nos critican por lo mismo que hace la comunidad científica”. No exactamente. La diferencia fundamental consiste en que la comunidad científica no se cree gran parte de sus resultados. Mientras que ellos sí que que se creen la gran mayoría de los suyos. Pecan de falta de escepticismo. Es una diferencia importante. Y la prueba es precisamente la repercusión del artículo de Ioannidis, ampliamente citado desde su aparición.

O el ruido de fondo de los autodenominados escépticos del cambio climático antropogénico o de los antivacunas. “¡ajá!, entonces la confianza con la que hablan los expertos está sustentadas en pies de barro”. De ningún modo. Cuando los expertos hablan con confianza es en general porque se ha realizado un trabajo meticuloso durante décadas descartando otras hipótesis alternativas y encontrando un efecto que resulta cada vez más significativo –no menos– a medida que se diseñan más y mejores ensayos, experimento u observaciones, por lo que sus afirmaciones han dejado poco a poco de ser extraordinarias. Y eso sin mencionar la existencia de un marco teórico en el que dichos resultados tienen sentido. El pecado aquí es diferente y se trata de exceso injustificado de escepticismo. Afirmaciones ordinarias sólo requieren pruebas ordinarias. La chica promiscua de 23 años con un test positivo de embarazo –siguiendo con nuestra analogía– podría sentir cierta incertidumbre, pero no precisamente sobre el resultado del test.

Más información:

●  Ensayos clínicos: ¿por qué casi todos los resultados publicados son falsos?

●  ¿Se puede presentir el futuro?. Últimas noticias del cosmos

●  Richard Feynman. Esa era acientífica. Qué significa todo eso. Drakontos.

●  The “decline effect”: Is it a real decline or just science correcting itself? Science-based Medicine

27 Comentarios

Participa Suscríbete

Offler

Si acierta en el 98% y tiene un 4% de falsos positivos, tiene un 102% de posibilidades de que haya un gazapo

Eso no quita el interés del artículo ;-)

NinguinoNinguino

No, 98% de posibilidades de acertar si está embarazada o no. Pero una vez que ha dado el diagnóstico positivo hay un 4% de posibilidades de que sea erróneo.

Jose SalverJose Salver

Son dos cosas distintas.

Acierta el 98% de las veces CUANDO ESTÁ EMBARAZADA . Es decir, si está embaraza, hay un 98% de posibilidades de que el tex acierte.

Pero, del total de positivos que se den, hay un 4% que resultan no serlo.

Lo cierto es que según a quién le dé el positivo, tiene MÁS posibilidades de que sea falso o menos. Una chica de 20 años promiscua y fértil, que no usa protección no es lo mismo que una anciana de 65 que usa preservativo y sólo tiene relaciones ocasionales con su marido…

Es casi seguro que la anciana esté en el grupo de los falsos positivos. En cambio, es casi seguro que la joven no lo esté. El 4% es un promedio, pero las circunstancias de cada cual influyen y hacen que esté a un lado o al otro del promedio…

EC-JPR

En la entrada creo hay un pequeño error, en el que me parece que también han caído Ninguino y Jose Salver.

Antes de nada:
- Sensibilidad: probabilidad de obtener un resultado positivo condicional a que esté presente la enfermedad. Depende sólo de las características de la prueba.
- Valor predictivo positivo (VPP): probabilidad de tener la enfermedad condicional a obtener un resultado positivo. Depende de las características de la prueba y de la probabilidad pretest (vg. prevalencia de esa enfermedad en la población diana, o lo que el autor llama “verosimilitud a priori“).

Un ejemplo tonto: si queremos detectar la esquizofrenia (1% de la población) y hacemos un test que siempre diese positivo, tendríamos una sensibilidad del 100% (¡da positivo en todos los enfermos!), pero un VPP bajísimo: de todos los positivos, sólo un 1% realmente estaría enfermo (en este caso, el VPP es exactamente la prevalencia de esa condición).

Así pues, la pregunta que deben hacerse las dos mujeres del texto es: ante un resultado positivo, ¿cuántas probabilidades tengo de estar embarazada? Aquí recurrimos al VPP: de todos los positivos, ¿cuántos son verdaderos positivos? Y ese valor ya está dado en el texto: 96% (1-,04). Así que, tal y como está redactado el texto, el test de embarazo se interpretaría igual independientemente de la promiscuidad sexual: ese es el error. En otras palabras: en el mundo real los falsos positivos realmente dependen de esos factores como la promiscuidad y la menopausia, variando el porcentaje del 4% (que podría ser, pongamos, del 4% para la promiscua y del 98% para la premenopáusica).

Por otra parte, hay que mencionar que significación estadística no significa significación clínica. En otras palabras: [coge aire] que una prueba matemática determinada diga que es improbable que las diferencias (u otras mayores) se deban al azar no significa que esas diferencias halladas tengan alguna relevancia. Ahí es donde sale a la palestra la magnitud del efecto. Pero esto ya es material para otra entrada ;)

Pedro J.

Es para otra entrada sí. Quizás quede más claro de la siguiente manera.
Puedes dividir a las mujeres en dos grupos
E) Embarazadas. En ese caso el test dará un 98% de positivos y un 2% de falsos negativos.
NE) No embarazadas. 4% de falsos positivos y 96% de negativos

Ahora. Una mujer de cincuenta con una frecuencia baja de relaciones sexuales da positivo. ¿Es más probable que pertenezca al grupo E o al grupo NE?.

Creo que el ejemplo está muy bien elegido (no es mío) para –sin entrar es demasiados tecnicismos– mostrar que incluso un resultado muy significativo en parapsicología es probablemente un falso positivo.

EC-JPR

«¿Es más probable que pertenezca al grupo E o al grupo NE?»
No sé a qué grupo puede pertenecer con los datos que das: dime cómo lo calcularías tú ;) Conocemos qué % hay de positivos entre las embarazadas, pero no qué % de embarazadas hay entre los positivos, que es lo que me estás preguntando (medítalo, que las probabilidades condicionales son contraintuitivas).

Si no me equivoco, tú estás pensando en una tabla como esta, ¿verdad? Vale: calcula ahora el % de falsos positivos: ¿te sale? ;) Si te percatas, en esta tabla he tenido que asumir que hay tantas embarazadas como no embarazadas… ¿por qué? Ese es el error :)

Visto por otra parte: si entiendes 4% de falsos positivos, es porque hay 96% de verdaderos positivos, ¿no? Pues ya estás respondido: en 96 de cada cien casos, el resultado positivo será verdadero. ¿No te cuadra con lo de la promiscua y la menopáusica? Normal: es que el dato del falso positivo ya lleva incluida esa modificación de la probabilidad pretest, que tú pretendes introducir a posteriori. O, lo que es igual, sin conocer la probabilidad pretest (cómo se reparten las mujeres entre la columna EMB y cuantas en la noEMB, que depende de si es una zorrupia o una monja), no podemos calcular el % de falsos positivos.

jsjs

Hola, EC-JPR.

No estoy seguro de que PedroJ y tú estéis hablando de lo mismo. Mi impresión es que su ejemplo es el tradicional de introducción en los libros de estadística bayesiana. Para poder dar la probabilidad a posteriori de forma cuantitativa necesitas dar una probabilidad a priori, y en eso tienes razón. Pero él no da la probabilidad de forma cuantitativa, utiliza el ejemplo para ilustrar que si la probabilidad a priori es prácticamente nula, la probabilidad a posteriori solo puede ser extremadamente baja. No pasa de ahí en su texto.

Lo segundo que me convence de que estáis hablando de cosas distintas es que tú hablas de la sensibilidad y el VPP y de las definiciones que das entiendo que ya son probabilidades condicionadas (no me dedico a la medicina, no lo sé). En su texto, yo interpreto que él quiere plantear el ejemplo haciendo hincapié en que es necesario considerar la información a priori para juzgar los resultados de un test. Pero no pasa de ahí.

Yo veo que ambas posturas son compatibles con las afirmaciones de cada uno, que son distintas. O así lo veo yo.

0 (0 Votos)
Pedro J.

Vale. Ahora te entiendo perfectamente (aunque no funcione el enlace a la tabla). En la redacción del texto obviamente se interpreta que daba los valores de la sensibilidad del test ya multiplicados por la probabilidad de embarazo, luego mi pregunta es literalmente absurda.

Claro que el ejemplo sólo tiene sentido si se interpreta como valores de la sensibilidad del test y lo que se intentaba explicar es que la probabilidad de embarazo en el caso por ejemplo de la mujer de 50 años es de hecho muy pequeña con lo que un resultado positivo sigue implicando una probabilidad muy pequeña de embarazo.

+1 (0 Votos)
EC-JPR

Perdón por el mal enlace: le echaré la culpa al portátil :P Este es el bueno.

Veo que, a pesar de que mi explicación no era demasiado clara, ya me has entendido :) Ahora que tengo un segundillo más, voy a poner unas tablas con lo que creo que querías decir.

Supongamos un test que sea la rehostia, con una sensibilidad del 98% (detecta el 98% de las embarazadas) y una especificidad del 96% (da negativo en el 96% de las sanas):
- Si lo aplicamos en una población de adolescentes casquivanas, donde una de cada tres está embarazada (dato inventado), el 92% de las que den positivo estará embarazada. O, lo que es igual, de entre todos los positivos, sólo un 8% serán mentira.
- Por el contrario, si ese mismo test (con el mismo poder de detección, mismas sensibilidad y especificidad) lo aplicamos a una población de menopáusicas, donde sólo una de cada veinte esté embarazada (también inventado), sólo el 55% de las que den positivo estará realmente embarazada, y el 45% de esos positivos serán mentira.

¿Cuál es la diferencia entre una situación y otra? La probabilidad pretest, la prevalencia de la condición en la población.

Que todo esto al profano le parece cogérsela con papel de fumar por gilipolladas, pero es lo que explica, por ejemplo, que sólo se hagan mamografías a partir de cierta edad o que se empleen varias pruebas para diagnosticar el VIH.

0 (0 Votos)
Pedro J.

Perfecto lo de las tablas. Se entiende de manera mucho más sencilla que con la notación típica bayesiana. Aunque tampoco está mal explicarlo simplemente como una actualización de tu probabilidad a priori tras el resultado del test. Un test positivo desde luego siempre actualiza al alza tu probabilidad de embarazo, pero si tu probabilidad a priori es suficiente baja de hecho (como si el test se lo haces por ejemplo a un grupo de hombres ;-), el resultado no te dice mucho.

Edwin Jaynes ponía un ejemplo bonito con un adivino. Si el tipo empieza a acertar el resultado del lanzamiento de un dado, digamos que después de 10 acierto consecutivos un incrédulo (a prioris no muy bajos) estará emocionado mientras que un escéptico (a prioris –>0) estaría pensando cuál es el truco que está usando el adivino, es decir, estaría buscando hipótesis alternativas que piensa que son mucho más probables que la hipótesis de los supuestos poderes del adivino con lo que incluso el enorme grado de aciertos del adivino podría estar paradójicamente jugando en su contra al favorecer alguna de las hipótesis alternativas mucho más probables a priori.

0 (0 Votos)
jambunojambuno

Bien explicado!
Creo que la cuestión está en tener claros 4 conceptos: Sensibilidad, Especificidad, y Predictividades Positiva y Negativa.
Saludos

Daniel HolgadoDaniel Holgado

Hola, soy psicólogo social y molestan en cierta medida algunas de las afirmaciones que se hacen en vuestro artículo.

Os sigo desde el principio, porque me considero un científico (soy investigador de la Facultad de Psicología de Sevilla), me gusta la ciencia en general y estoy de acuerdo con vosotros en el ejercicio que hacéis de crítica de las pseudociencias y sus seguidores.

Pero me entristece ver como ahora metéis en un mismo hilo a la homeopatía, las pseudomedicinas o la videncia, con la medicina, la psicología y las ciencias sociales en general. Ejemplos de mala ciencia hay en todas las disciplinas, incluso la física, las matemáticas o la biología. Además, pienso que la ciencia en general también se ha servido de la conjetura, de la predicción de eventos y sucesos y de la estadística y las valoraciones globales de comportamientos para avanzar.

No creo que sea este el momento de justificar por qué creo que en psicología (y en mi caso en psicología social) se lleva más de 100 años haciendo ciencia. Se puede echar un vistazo a los planes de estudio del grado y ver la cantidad de asignaturas relacionadas con el método científico, la investigación, el análisis de datos o las bases biológicas del comportamiento humano y animal que hay. O echar un vistazo a la historia de la psicología y ver cómo las pautas propuestas por Kuhn en la evolución de la ciencia se repiten también en esta disciplina.

wiredratwiredrat

El complejo de inferioridad por comparación con otras ciencias y la paranoia es normal entre psicologos, pero… cuentame más sobre tu infancia…

(Perdón, es un mal intento de hacer una broma)

Jesús R.

“me entristece ver como ahora metéis en un mismo hilo a la homeopatía, las pseudomedicinas o la videncia, con la medicina, la psicología y las ciencias sociales en general.”

Creo que lo has malinterpretado, Daniel. Lo que dice el artículo es que se ha utilizado erróneamente un artículo de Loannidis para intentar atacar a ciencias con mayor pedigree como la medicina o la psicología. Sin embargo este artículo viene a decir que eso es erróneo, porque en ciencias asentadas como la medicina o la psicología, los falsos positivos que se dan al principio en todas las ramas de la ciencia, se acaban auto-corrigiendo dentro de la propia comunidad científica.

Las únicas críticas del artículo han ido contra las evidencias actuales de la parapsicología (precognición), homeopatía, anti-vacunas, pseudo-medicinas en general y negacionistas del cambio climático.

Arturo Quirantes Sierra

Me resultó curioso que el artículo del New Yorker (el que yo he leído) habla sobre todo de aplicaciones en farmacología y psicología, donde resulta más difícil cuantificar. Si yo tiro mil manzanas al suelo, puedo obtener resultados altamente reproducibles (salvo por la pejiguera del rozamiento con el aire). Pero si le damos un fármaco a un psicótico e intentamos cuantificar los efectos, ¿cómo lo hacemos? Le tenemos que preguntar al enfermo. Y si nos dice que se siente mejor, no solamente resulta difícil cuantificar cuánto mejor, sino que su respuesta dependerá de si es sincero, si se está cachondeando del entrevistador, o le está dando la respuesta que este quiere, etc.

En esas condiciones, establecer relaciones causales es muy difícil. No quiero ni pensar en lo que tendrán que sudar los psicólogos (!hola, Daniel!) para poder establecer relaciones causa-efecto claras. Imagino que tendrán que ir a ciegas, confiando en que lo que le diga el paciente sea a) cierto, b) veraz, c) útil.

Me viene ahora a la memoria el informe Pisa, ese que cuantificaba el éxito educativo en diversos países del mundo. Todo el mundo venga a decir que estamos en la cola, que no avanzamos … pero resulta que, para empezar, los números que dan tienen un margen estadístico enorme. Si Finlandia tiene 522-+100 puntos, y nosotros 480+-95, ¿cómo podemos decir que ellos van por delante? Es estadísticamente absurdo.

De hecho, creo recordar que en el informe PISA intentaban relacionar variables, por ejemplo, el aumento en los resultados con relación a la renta familiar (por ejemplo). En la gráfica aparecen una nube de puntos, como si hubiésemos disparado a una diana con una escopeta. Pues bien, alguien hace el ajuste de regresión lineal, y decide que hay una recta de tendencia. Si mis alumnos me entregasen un informe de laboratorio con un parámetro de regresión tan pequeño, los echaría a patadas. Pero no, resulta que el resultado va a misa.

En cualquier caso, sí que es cierto que cada vez más disciplinas quieren ponerse el apellido “ciencias de.” Hace poco alguien me paró a la puerta de mi lugar de trabajo (la Facultad de Ciencias de Granada). Me dijeron que estaban buscando la Facultad de Ciencias DEL TRABAJO. Me quedé pensando, ¿cómo aplicarán el método científico en esos lugares? Me metí por curiosidad en su web, y de las diez asignaturas de su Título de Grado en primer curso hay:
- 4 asignaturas de Derecho
- 3 asignaturas de Economía y organización de empresas
- 1 de Historia Económica
- 1 de Sociología
… y una de Estadística.

Y no solo ellos. Solamente en mi Universidad hay NUEVE Facultades de Ciencias: Políticas, Sociales, de la Educación, del Trabajo. Que no es por menospreciar, pero digo yo que si aplicasen el método científico tan eficazmente como en Física o en Biología, hace tiempo que habrían determinado cuál es el mejor régimen político, o la mejor política laboral. ¿Queremos saber qué tipo impositivo es el mejor para aumentar las exportaciones, el mejor arbitraje para los controladores, el mejor modo de enseñar a los niños a leer? Pues señores, !calculemos! Pero me temo que les queda mucho camino para descubrir la psicohistoria.

PD: Porfa, a ver si algún día nos metemos con los pedagogos. !Que les tengo una ganas! ;-)

JorgeJorge

¿Qué quieres decir cuando dices…

“¿[Q]ué significa exactamente eso de estadísticamente significativo?… Puede que nada relevante.”

?

Que es estadísticamente significativo quiere decir que el experimentador tendría que haber tenido mucha suerte para que le saliera ese resultado por mero azar. Es una afirmación absolutamente relevante (siempre y cuando vaya acompañada del número p obtenido). Imagino que la investigación de ese señor será cuestionable por un montón de cosas, pero ésta no es una.

Se entiende de lo que dices que la hipótesis nula es “que haya señorita detrás de la cortina no cambia nada”, y la hipótesis alternativa “es más probable que destapen a la señorita”. Si eso es así, y el estudio está bien hecho, el resultado a publicar es “la hipótesis nula se descarta en favor de la alternativa con un p = ####”.

Efectivamente, un valor p que nos haga creer en la precognición ha de ser muuuuy bajo (“prueba extraordinaria”), pero sólo por el metaanálisis que se pueda aplicar al caso concreto: Sólo porque seguramente hay 20 ó 50 estudios equivalentes al de Bem en los que no se encontraron resultados estadísticamente significativos.

Salvo que Bem haya dejado de publicar el umbral alpha que usó, o el valor p que obtuvo, que sus resultados fueron estadísticamente significativos no sólo es relevante, sino que es *lo relevante*. (Sin que eso quite que el estudio pueda estar lleno de errores).

Pedro J.

“que sus resultados fueron estadísticamente significativos no sólo es relevante, sino que es *lo relevante*”

Para publicación estoy de acuerdo. Para que sea evidencia de precognición, dada — como señalaba EC-JPR– la magnitud del efecto, de ninguna manera. Estaba leyendo ahora mismo un artículo del NYT que lo explica perfectamente
http://www.nytimes.com/2011/01/11/sc.../11esp.html

JorgeJorge

Entiendo la importancia de la magnitud del efecto en aplicaciones médicas e ingenieriles, donde hay que tener en cuenta el coste de los beneficios. En este caso, no me parece un argumento válido. En el sentido de que si alguien me viene con evidencia irrefutable de que el ser humano elige la cortina con señorita detrás un 50,0001% de las veces; se me cae la mándibula al suelo del asombro. Porque no hay explicación alguna en toda la Ciencia para ese curioso pequeño efecto.

Mientras no haya tal evidencia, no creo que exista el efecto. No por pequeño, sino porque estoy convencido de que, en el caso de Bem, fue mucha suerte. Y si él cree que no la fue, es perfectamente capaz de seguir repitiendo el experimento, hasta que del metaanálisis se desprenda que su 53% fue algo más que suerte. Qué apostamos a que no lo hace =)

Charles D

Hola, he trabajado en genética médica durante unos cinco años. He publicado varios artículos científicos en varias revistas de prestigio en mi campo. Con ellos he hecho mi tesis. Buscando polimorfismos (variaciones de una sóla base de ADN) que presispusiesen a enfermedades. Todos los estudios se hacían con una gran base estadística, pacientes vs controles… Y sabési lo que saqué en claro. Que no me creo nada de lo que yo mismo he publicado. Las variables son tantas, y los experimentos tan modelizados, que que algo salga estadísticamente significativo no significa nada, a veces incluso con valores muy significativos. Lo siento pero es así. Por supuesto que la ciencia tiene que avanzar, y yo creo infinitamente en ella, pero también que la mayoría de los resultados son falsos o aportan my poco. El afán por publicar hace que la gente se esmere mucho en sacar un resultado mínimamente positivo, y eso está mal. Porque los resultados negativos también son buenos, evitan que alguien siga investigando por esa rama. Pero el mundo está hecho así, en todas sus facetas, y así no se va a ningún lado. Yo no soy Feynmann, pero os digo lo mismo que él. A veces nos ofuscamos con sacar algo positivo, y no hacemos ciencia de verdad. saludos

singladurasingladura

La estadistica es un instrumento matematico que hay que cojerlo con muchisima precaucion.
Los datos deben de cumplir con una serie de condicionantes previos para que los resultados sean relevantes.
Uno de los condicionantes mas importantes es la homogeneidad del universo muestral para el analisis que se esta realizando. En este sentido para un test de embarazo nunca podremos juntar jovencitas alegres con premenopausicas tardias.
Por otra parte para ver la signifciacion estadistica tambien deben tenerse en cuenta, cosa que nunca se hace, la cantidad de ensayos previos que no han sido significativos (matematicamente hablando); o la cantidad de busqueda de trabajos relevantes que no apoyan la hipotesis; o etc etc.

Nando Brando

Por favor, no hablemos de estadística, que me recordáis la matemática actuarial y eso de que la gente tenga una probabilidad de vivir unos años determinados, estadísticamente me da mala espina (dada la mala fama de la estadística).

6 Trackbacks

Información Bitacoras.com…

Valora en Bitacoras.com: El pasado 11 de noviembre un artículo de New Scientist apuntaba a un estudio que encontraba evidencias de precognición. El estudio fue realizado por Daryl Bem, de la Universidad Cornell, conocido en el pasado por experimentos…..

Deja un comentario

Tu email nunca será mostrado o compartido. No olvides rellenar los campos obligatorios.

Obligatorio
Obligatorio

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <p> <q cite=""> <strike> <strong>