Reseña de «¿Cómo sobrevivir a la incertidumbre?» de Anabel Forte

Por Juan Carlos Gil Montoro, el 9 noviembre, 2022. Categoría(s): Libros • Matemáticas

¿Cuántos alumnos debe haber en una clase para que la probabilidad de que al menos dos cumplan años el mismo día sea superior al 50%?

Matemático

La primera acepción de «matemático» según la RAE es «Exacto, preciso». Hace 30 años a la carrera de matemáticas le llamábamos «exactas». Pero eso no es exacto. Y no es sólo que las propias matemáticas confiesen sus límites inherentes (¡hola, Gödel!), sino que también se han dotado de mecanismos para lidiar con lo inexacto. Formalismos como los conjuntos difusos, la teoría de la evidencia o la teoría de la probabilidad los podemos encontrar en la caja de herramientas de la estadística, la ciencia de la incertidumbre. Y es que la palabra estadística deriva del italiano statista, «persona de estado», porque pocas cosas requieren más diligencia en la administración de la falta de certeza que la gestión de la res publica.

¿O no?

Pues no exactamente.

La estadística permea nuestras vidas, las de todos. Está en los datos de las noticias, en los resultados deportivos, en los porcentajes de las encuestas, en los prospectos de los medicamentos, en cada gráfico con el que nos encontramos. La estadística es el apero más útil para la toma de decisiones en el presente, pero también nos ayuda a interpretar el pasado y nos permite gestionar el riesgo de planes futuros.

Como dice Anabel Forte, la estadística está detrás de casi todo lo que nos es útil en nuestro día a día, son las gafas que nos permiten entender la realidad que hay tras lo que observamos. Y no conocer al menos sus rudimentos básicos nos puede suponer una fuerte limitación e incluso dejarnos en manos de manipuladores.

Y como ella sabe un potosí y comunica como un poema, pues ha escrito un delicioso libro sobre estadística que los demás tenemos la suerte de poder disfrutar. Con toda certeza.

Anabel Forte

Anabel Forte (Yecla, Murcia, 1982) es licenciada en Matemáticas y en Ciencias y Técnicas Estadísticas y Doctora en Matemáticas por la Universitat de València (UV). Tras visitar el Instituto de Ciencias Estadísticas y Matemáticas Aplicadas (SAMSI) de la Universidad Estatal de Carolina del Norte (EUA) y el Laboratorio de Estadística de la Universidad de Cambridge (Reino Unido), Ana («como me gusta que me llames en cuanto me conoces un poco») volvió a España, hizo su postdoc en el departamento de Economía de la Universitat Jaume I (Castellón) y tras eso ocupó una plaza de Profesor Ayudante Doctor en su alma mater. Y allí sigue, pero ya como Profesora Titular del Departamento de Estadística e Investigación Operativa.

Ana combina la docencia (en Grados de Ciencia de Datos y Biotecnología, Máster en Bioestadística y un curso propio de la UV sobre estadística aplicada a las ciencias de la salud), la investigación (cuando menos diversa: ordenando sus trabajos en Google Scholar por número de citas hay que irse hasta el decimosexto para encontrar dos en el mismo journal), y la gestión en organizaciones científicas (es presidenta de la Sociedad Española de Bioestadística y editora de BEIO, el boletín de la Sociedad de Estadística e Investigación Operativa) con la divulgación (en Twitter es BayesAna, que ya nos da pistas sobre qué interpretación de la probabilidad profesa).

Y precisamente haciendo divulgación la conocí, compartiendo micrófono en el podcast Enciérrate con la ciencia que montó Sara Robisco para hacernos más llevadero el encierro por la pandemia de COVID-19. Su frescura, su sapiencia y su capacidad para transmitir me llevaron a proponerle (sólo medio en broma) que podría escribir un libro de estadística, y mira, aquí lo tenemos.

¿Cómo sobrevivir a la incertidumbre?

El libro es de estadística y, ¡qué se le va a hacer!, se trata de una materia… áspera. Pero Ana no, así que contada por ella la estadística es más suave. Sin embargo, no esperes una actitud condescendiente. A lo largo del libro la autora introduce los conceptos y técnicas estadísticas paso a paso, pero sin pausa; sin abrumar, pero sin complejos tampoco; de forma agradable, pero sin rebajar ni un ápice la precisión. Con rigor, pero sin rigor mortis.

Y el ardid (acertadísimo) que ha tenido a bien usar es dejar que al principio de cada capítulo el lector atisbe por sí mismo la utilidad de la estadística que se va a tratar a la luz del día a día del terremoto Alba, el gateapasillos Mario y de sus padres Lucía y Andrés (y de fondo la radio con Àngels Barceló). El devenir de una familia y sus situaciones rutinarias (que si Mario tiene fiebre, que si se ha publicado el barómetro del CIS, o escenas del trabajo de Andrés y Lucía) traen a colación la imponente presencia de la estadística y la probabilidad en nuestros quehaceres cotidianos y sirve de hilo conductor para contarlas; la mayoría de los lectores nos veremos reflejados y posiblemente desarrollemos cierta complicidad con los protagonistas. Yo lo hice. Reconozco que acabé el (denso) capítulo 8 bien entrada la madrugada, pero no tuve por menos que ojear el principio del 9 para conocer, no sin cierta angustia, el diagnóstico de Andrés.

Tras la escena familiar de actualidad, Ana nos retrotrae al tiempo de los personajes históricos que formularon los distintos conceptos estadísticos del capítulo. El nuevo éxito de la estrategia narrativa de la autora es cómo contextualiza el estado del arte en cada época histórica para facilitarnos la comprensión del reto al que se enfrentaron aquellos grandes investigadores e investigadoras que desembocaron en avances que regalaron al mundo.

Y tras eso el capítulo entra en harina, explicándolo todo, ligando ideas por aquí y por allá, con prosa suelta, ágil y estilosa, pero a la vez precisa, serena y rigurosa. En este cuerpo del capítulo, la autora va más allá de las referencias históricas y destaca no pocas fuentes modernas, numerosos libros de los últimos años, conectando con la realidad contemporánea y brindando al lector opciones para ampliar la materia.

Cada capítulo cierra un pequeño ciclo acabando con una reflexión por parte de los padres (Lucía o Andrés) que sirve de puente hacia el próximo.

Estructura del libro

Tras el prólogo escrito por Clara Grima («el más bonito del Universo» según Ana), tenemos un prefacio seguido de trece capítulos, un epílogo y una sección de agradecimientos.

En lo que sigue recorro cada capítulo individualmente. El conjunto ha resultado casi más largo que alguno de los capítulos del libro; me disculpo por ello. Si no te interesa el detalle de cada capítulo puedes saltar a la última sección de esta reseña.

Por si te sirve de ayuda, los capítulos pueden agruparse formalmente así:

  • Introducción: el prefacio junto al primer capítulo.
  • Muestreo: capítulos 2 y 11.
  • Variables aleatorias y sus distribuciones: capítulos 3, 4 y 5.
  • Descriptiva de datos: capítulos 6 y 7.
  • Análisis e inferencia estadísticos: capítulos 8, 9 y 10.
  • Estadística compleja y futuro: capítulos 12 y 13.

Prefacio: Estadística —casi— por todas partes

Sobre estadística y la motivación de la autora para escribir el libro.

Nada más arrancar, Ana confiesa que este libro es un grito al mundo de que la estadística está en todas partes pero que a veces no se ve, y lo que no se ve, no se conoce. Tras introducir conceptos básicos como «dato» o «población» y explicar la conexión clásica entre estadística y demografía (¿quizá por eso en varias librerías por Internet este libro aparece clasificado como «Sociología y antropología»?), se define qué es la estadística, formalmente primero y menos después: para Ana la estadística es la disciplina tras la mayor parte del método científico, la ciencia detrás de la ciencia. Cabalga luego en una sola página desde Tucídides, pasando por Babbage, Lovelace y Turing, hasta W.S. Cleveland y su «ciencia de datos» que envuelve a la inteligencia artificial y el aprendizaje automático.

Capítulo 1: Un lenguaje particular

Sobre los orígenes de la probabilidad, como interpretarla, la probabilidad condicionada y el teorema de Bayes.

Lucía se pregunta: Una probabilidad de lluvia del 50% ¿significa que va a llover la mitad del día?

En este capítulo se introducen los conceptos de «azar» (palabra que comparte origen con «azahar», la flor del naranjo), «probabilidad», «incertidumbre» (la falta de certeza) y «aleatorio» (que en este contexto significa que no conocemos su resultado hasta que lo observamos). A continuación, se presentan las contribuciones fundamentales de Pascal, Fermat y Laplace, en particular la regla de este último (eso de casos favorables dividido por casos posibles, pero ¡ojo, que sólo funciona si todos los casos son equiprobables!). Sigue luego con la extraordinariamente importante idea de la probabilidad condicionada y su cálculo mediante el teorema de Bayes, que la autora ilustra con la falacia del fiscal: confundir (la probabilidad de) que se encuentren determinadas pruebas cuando una persona ha cometido un crimen con (la probabilidad de) que esa persona sea culpable cuando se dan las pruebas. El capítulo acaba con los conceptos de «sensibilidad», «incidencia» y «especificidad» de una prueba.

Capítulo 2: No me representa

Sobre población, muestra, representatividad, sesgos y encuestas.

Aunque parezca trivial, la noción de población puede ser sutil (la nota al pie de la página 44 es para que te explote la cabeza). Pero es que además la población completa no es accesible, con lo que tenemos que tomar una muestra («Si quieres saber si a la sopa le falta sal, no tienes que tomártela toda» – George Galup). Idealmente la muestra debería ser completamente aleatoria, pero a menudo eso no es posible, y ahí entran las distintas técnicas de muestreo que el libro cubre sucinta pero adecuadamente. Desconocía el concepto de muestreo no probabilístico, por ejemplo por cupos, como resulta que hace el CIS.

La autora explica que hay que lidiar con la representatividad (las encuestas por Internet sólo representan a las personas que están en Internet) y los sesgos (como el de autoselección: los encuestados con características específicas pueden estar más dispuestos a participar). La tan cacareada «cocina» del CIS es una corrección a posteriori de los sesgos de la encuesta: si no se hace, se está mintiendo deliberadamente.

Capítulo 3: Todo lo medimos —y lo guardamos—

Sobre medidas y variables, datos y como los guardamos.

Ana dice que lo que no se puede medir no se puede cambiar, que me ha recordado al clásico “No se puede amar lo que no se conoce, ni defender lo que no se ama”. Cada dato es el resultado de una medida (4,1 kg) sobre una variable aleatoria («peso de los bebés de un mes»); la distinción es semejante a la existente entre muestra y población: como vemos el mundo y como nos gustaría aprehenderlo. Con este conocimiento me atrevo a dar mi propia definición de estadística: lo que nos permite pasar de las medidas sobre una muestra (que es lo que podemos saber) a las características de las variables de una población (que es lo que nos gustaría saber).

El capítulo acaba con una sección llamada «Guardando datos» donde la autora da cuenta de los artefactos que usamos para ello que, en mi opinión, no engasta con el resto del libro.

Capítulo 4: ¿Dónde bailan las variables discretas?

Sobre fraudes, modelos discretos y distribuciones de probabilidad.

El capítulo arranca con la Ley de Bendorf, eso de que en conjuntos de datos numéricos que existen en la vida real la mayoría empiezan por el dígito 1 (¡un 30%!), luego por el dígito 2… hasta llegar al 9 por el que comienzan menos de un 5% de los números, hecho que se puede usar para comprobar cuando una lista numérica está «trucada». Me ha gustado mucho cómo Ana explica que los datos observados no tienen por qué adaptarse a los modelos probabilísticos con toda precisión de igual manera que las personas no somos como los modelos que aparecen en las revistas.

Luego recorre las distribuciones de probabilidad más útiles (Bernouilli, Poisson, geométrica…) y por el camino aprovecha para introducir qué son las medidas resumen, tanto las de localización (las que ayudan a localizar una distribución de probabilidad: media, moda…) como las de escala (las que informan de cómo de dispersa es la distribución: varianza, desviación estándar…) que se cubrirán con más profundidad en el capítulo 6.

Capítulo 5: ¿Qué es normal?

Sobre la normalidad estadística, la función de densidad, el teorema central del límite y más modelos continuos.

El capítulo 5 es una continuación natural del 4, aquel para modelos discretos y este para continuos. La estrella es la distribución normal, para la que Ana recorre su historia (De Moivre y Gauss) y que usa para introducir la desviación típica (otra medida de escala) y para hablar de funciones de densidad. Con esos cimientos Ana construye el imponente teorema central del límite. Pero claro, «no todo es normal», así que el capítulo concluye con una somera revisión de otros modelos continuos como las distribuciones beta, lognormal, ji cuadrado y exponencial.

Capítulo 6: Resumiendo, que es gerundio

Sobre las medidas resumen: localización, escala y forma.

Este capítulo recorre las medidas resumen para variables cuantitativas. Las de localización y escala aparecieron en el capítulo 4, pero Ana las trata aquí con cierta profundidad: media (o «centro de gravedad»: si equilibras un tenedor sobre un dedo, lo has encontrado), moda, mediana, percentiles, cuartiles, varianza, desviación estándar y coeficiente de variación.

También habla de la esperanza matemática en los juegos de azar o «beneficio del jugador» (spoiler: siempre es negativa) para acabar introduciendo las medidas de forma: simetría y curtosis o apuntamiento.

Capítulo 7: La estadística de la prensa

Sobre la visualización de datos.

«Para que un gráfico pueda contarnos una historia y revelar de forma óptima la información contenida en los datos debemos pensar de forma cuidadosa cuál será la opción más adecuada en cada caso.»

Ana cuenta un montoncito de gráficos y diagramas útiles para visualizar la historia detrás de los datos, muchos derivados del trabajo pionero de Playfair (de línea, barras o tarta, histogramas) y otros posteriores como la rosa de Nightingale o los diagramas de caja y bigotes. Ana ilustra la máxima «correlación no implica causalidad» con el ejemplo de la semejanza en la evolución temporal entre los ahogados en piscinas y el número de películas de Nicolas Cage cada año aunque, obviamente, ambas cosas son independientes, no existe relación de causalidad entre ellas.

Correlación no implica causalidad. Fuente: Tyler Vigen.
Correlación no implica causalidad. Fuente: Tyler Vigen.

Pero igual que cuentan una historia, los gráficos se pueden usar para manipular esa historia (Ana pone varios ejemplos). «Resulta fundamental permanecer alerta cuando leemos un gráfico y exigir cierta honestidad a quienes lo realizan. » dice Ana, y nos sugiere que cuando veámos un gráfico periodístico nos fijemos especialmente en los ejes: que tengan leyenda, unidades, un rango adecuado a lo que se representa y algunos valores de referencia.

Capítulo 8: De la parte al todo

Sobre la ley de los grandes números y la inferencia estadística, frecuentista y bayesiana.

La ley de los grandes números, eso de que la media de los datos converge a la media de la población al crecer la muestra, son los cimientos del puente entre lo que medimos y la realidad, puente que tiene dos pilares: la estimación (aproximar un parámetro de interés) y el contraste de hipótesis (para decidir cual se aproxima mejor a la realidad).

Y resulta que hay dos formas de afrontar el problema: las denominadas estadísticas frecuentista y bayesiana.

La primera es la «clásica», la que asume que la media de nuestra población es una dada a la que nos podemos acercar con una determinada significación estadística usando observaciones de los datos.

La bayesiana es más sutil y promulga que las medidas resumen no están escritas a fuego, sino que tienen un error asociado congruente con la información que tenemos sobre el suceso aleatorio que nos ocupa. Así, es posible tratar los parámetros como si a su vez fuesen variables estadísticas, y usar sobre ellos un modelo probabilístico como los de los capítulos 4 y 5. Eso es nuestra distribución a priori, que se va actualizando según obtenemos nuevos datos, aportando verosimilitud, para dar lugar a una distribución a posteriori, que se usa para estimar nuestras medidas resumen.

Es un capítulo duro, que tuve que leer dos (y algunos pasajes más) veces, pero al final hizo click.

Capítulo 9: Diagnóstico

Sobre el contraste de hipótesis, el p-valor y sus umbrales.

El capítulo comienza con el diagnóstico de una enfermedad de Andrés, enfermedad cuya historia merece varias páginas, lo que sirve de excusa a la autora para hablar del contraste de hipótesis: cuan verosimil es una hipótesis sobre una población dadas determinadas observaciones sobre una muestra. Esa hipótesis se suele llamar «nula» porque es una «verdad por defecto» y no aporta información nueva a no ser que los datos la falsen. «Es como si en un juicio no se encuentran pruebas suficientes para descartar la presunción de inocencia.» dice Ana.
Llegamos entonces al famoso p-valor, una herramienta para distinguir resultados significativos de efectos espurios debidos al proceso de muestreo.
Ana dedica un buen número de páginas al culebrón (su palabra) de los valores umbral del «señor p» y sus amigos Fisher, Neyan y Person. En particular, Sir Ronald Fisher usó un p-valor de 0.05, y aunque dejó claro que el umbral depende del caso concreto, eso junto a poner en su libro unas tablas muy fáciles de usar para p-valores de 0.01, 0.05 y 0.1, hizo que el 0.05 cuajase, que muchos investigadores tomasen esos umbrales como estándares en la toma de decisiones, un error que todavía hoy estamos pagando.

Capítulo 10: ¿Quién será más alto?

Sobre regresión lineal, regresión a la mediocridad, modelos más allá y causalidad.

Lo «normal» es que los hijos sean más altos que sus padres, ¿no? Pues resulta que Galton observó que mientras que los progenitores bajitos tendían efectivamente a tener hijos más altos que ellos, con los altos ocurría lo contrario: engendraban hijos de menor altura que los padres. A esto lo llamó «regresión a la mediocridad» porque era como si la naturaleza quisiera compensar las diferencias tratando de regresar a una (hipotética) altura media. Pero Galton no supo formalizar sus intuiciones en la idea de la recta de regresión. Trabajos fundacionales de Mayer, Boscovich, Laplace y Legendre (con permiso de Gauss) habían sentado las bases del concepto de «minimización del error (cuadrático)», pero fue Yule quien conectó las piezas.

Ana cuenta esto casi como si de una historia de detectives se tratase, historia que culmina con, en mi opinión, el punto álgido del libro, las páginas 225 y 226. Espero, amigos, que sintáis una fracción del subidón que me produjo visualizar los sistemas de ecuaciones de esas páginas como si cada símbolo viniese de un rincón de la historia, arrojados hacia el futuro por Galton, Mayer y compañía, recogidos por Yule y reinterpretados por Anabel Forte como un puzle, desvelando una cara sonriente.

Es una cosa bella esto de la regresión lineal. Toda la vida calculando pendientes y ordenadas en el origen de forma mecánica y no tenía ni idea de la enjundia (y poesía) que hay detrás. ¡Gracias Ana!

En las siguientes páginas, la autora abunda reprocesando los datos de Galton sobre las alturas de padres e hijos a la luz de este hallazgo. No me gustó que los datos de Galton representados en la figura 61 y siguientes se mantuvieran en pulgadas, para las que la mayoría de los lectores no tenemos intuición. Creo que hubiese sido mejor transformarlos a centímetros y no tener que recordar continuamente que la media (70 pulgadas) son 178 cm.

La última sección del capítulo trata los modelos lineales generalizados que la autora introduce con un análisis del desastre del transbordador espacial Challenger de 1986 y concluye con una nueva visita al concepto de causalidad (Lucía se da cuenta que los que se sientan en una reunión más cerca de la ventana se dejan la chaqueta puesta, ¿acaso hará ahí más frio? Pues resulta que no: son los que han entrado más tarde, cuando la percha ya estaba llena).

Capítulo 11: Observar o experimentar

Sobre diseño de experimentos y ensayos clínicos.

Tras dejar clara la diferencia entre datos observacionales y experimentales (estos últimos obtenidos en un ambiente controlado), Ana da cuenta del caso de Muriel, una mujer que aseguraba poder distinguir cuando en su té con leche se había cometido el terrible atropello de servir el té tras la leche, descrito en el clásico The Design of Experiments de Ronald Fisher. Muriel identificó cuatro tazas servidas correctamente y otras tantas al revés, lo que tiene una probabilidad de 1 sobre 70 o 0,014 de haber ocurrido por azar, con lo que usando su p-valor de 0,05 permitía conceder a Muriel ese poder casi sobrenatural.

Fisher formalizó el control de la variabilidad de los experimentos (el cuadrado latino de la figura 70 es una chulada), el proceso de aleatorización y el análisis de varianza (ANOVA) que se incorporaron a los ensayos clínicos modernos junto a los conceptos de grupo de control, placebo y ciego (sencillo, doble y triple). La autora describe entonces las tristemente familiares (por su popularización debida a la pandemia de la COVID-19) cuatro fases de los ensayos clínicos y la importancia del análisis de la potencia con sus también cuatro piezas: tamaño de la muestra, tamaño del efecto, nivel de significación y potencia.

El capítulo acaba con un alegato que Ana llama «No dejar a nadie atrás» donde recuerda que ciertos colectivos (por ejemplo las mujeres) han estado tradicionalmente mal representados en los ensayos clínicos y que incluso hoy en día la variable género no se incorpora a veces a los conjuntos de datos, lo que hace que sea difícil identificar los efectos diferenciales de los medicamentos en hombres y mujeres: me ha sorprendido aprender que vosotras sufrís entre un 50 y un 70% más efectos adversos que nosotros.

Capítulo 12: Paseos por un mar que crece

Sobre modelos estadísticos avanzados y modelos matemáticos o computacionales.

Andrés y Lucía consiguen escaparse un fin de semana al pueblecito donde se conocieron y se sorprenden al ver que la piedra donde se dieron el primer beso está rodeada de mar incluso en marea baja, posiblemente un efecto de la emergencia climática. El título del capítulo alude a ese paseo, pero también a que los datos y los métodos estadísticos necesarios para tratarlos crecen y crecen…

Estamos en la era del big data, de los modelos no paramétricos, de la estadística espacial (que estudia dependencias geográficas), de las series temporales y del análisis de supervivencia o fiabilidad, conceptos avanzados que se tratan en el capítulo, así como modelos matemáticos y computacionales, como el modelo epidemiológico SIR que balancea a las personas susceptibles de ser infectadas por una enfermedad (S), el número de infectadas (I) y el de recuperadas (R), y que la misma autora cuenta sucinta pero expresivamente en su pieza La estadística puede ayudarnos a escapar de un apocalipsis zombi.

Dejadme que os ilusione con el último párrafo del capítulo:

Tras la cena, regresaron al hotel para disfrutar de una última noche antes de volver a la rutina fácil de modelizar de los baños, las cenas y las rabietas, etc., pero también de los cuentos, las risas y los repentinos sobresaltos al descubrir que los niños habían vuelto a crecer y la ropa ya no les servía.

Capítulo 13: Todo cambia

Sobre la ciencia de datos.

Reconozco que fruncí el ceño cuando me di cuenta de que Ana pretendía cubrir el (enorme y efervescente) campo de la inteligencia artificial en un capítulo (corto) de un libro, pero a la postre es uno de mis favoritos. Ana apenas revolotea por encima de los conceptos de aprendizaje no supervisado, aprendizaje por refuerzo, análisis de grupos y bosques aleatorios, sin pretensiones, para acabar dando una lección de sentido común que nos ayudará a gestionar nuestras expectativas sobre lo que son capaces de hacer estas herramientas, además de ofrecer un diagnóstico brillante sobre los sesgos introducidos por los conjuntos de datos que se usan para entrenar a semejantes bestias.

¿Sabías que las personas trans tienen más probabilidades de ser requeridas para un cacheo en los controles de los aeropuertos por no tener un cuerpo normativo?

Epílogo: Ciencia se escribe con R

Cuatro erres, cuatro.

El epílogo orbita alrededor de cuatro erres: el lenguaje de programación estadístico R, los conceptos de reproducibilidad (disponibilidad de los datos de los estudios para análisis independientes; Excel no lo es) y replicabilidad (que las conclusiones del estudio puedan ser obtenidas de nuevo de forma independiente; en aras de la replicabilidad Ana aboga por la publicación de resultados significativos aunque sean negativos) y un doble reconocimiento de la autora: a perfiles estadísticos en equipos multidisciplinares y a mujeres relevantes en la historia de la estadística (y aprovecha para mencionar brevemente a algunas que no habían aparecido en el discurrir natural del libro).

Un libro bonito y necesario

«¿Cómo sobrevivir a la incertidumbre?» es un libro bonito y necesario.

Bonito en forma y contenido. Del contenido ya hemos hablado y en cuanto a forma déjame que destaque unas pinceladas:

  • Los hilos de Ana en Twitter comienzan con un muy personal «¿Me dejas que te cuente?». Esa actitud encantadora se mantiene en todo el libro, por ejemplo con preguntitas de confirmación que Ana hace al lector: ¿Verdad? ¿A qué si? ¿No te parece?
  • El editor de Stephen Hawking le previno de que cada fórmula que pusiese en su libro Breve historia del tiempo supondría dividir las ventas a la mitad. Finalmente, Hawking puso sólo una, la celebérrima E=mc^2 (me pregunto si de no haberla incluido hubiera vendido otras 10 millones de copias). Ana no ha sido tan radical, de forma razonable, y aunque no pueblan cada página sí que algún que otro logaritmo aparece por ahí.
  • Las figuras, un total de 83, cumplen su función y algunas son especialmente afortunadas como el resumen visual de las distintas distribuciones de probabilidad de la página 104 o la ilustración del modelo SIR versión zombi de la 297.
  • La edición es impecable, como nos tiene acostumbrados Next Door Publishers en su colección El Café de Cajal. La portada, la tipografía, los destacados, las mencionadas figuras, el que las referencias y notas a pie de página aparezcan donde deben, al pie de la página donde se introducen (y el detalle del tipo ligeramente más pequeño y la tinta ligeramente menos intensa, ¡qué bonito!), la maquetación (mirad el índice), la elección del papel, el factor de forma… todo suma para conformar un libro redondo.

Y en cuanto a necesario… creo que ha quedado claro que la estadística es un aparejo de supervivencia, un muro de carga del sentido crítico, un bloque de arcilla para modelar la realidad, y que en general no se nos da muy bien. Este libro está para subsanar eso.

Recordarás lo estadística que estudiaste (si tuviste suerte: la estadística es a menudo el patito feo que se arrincona hacia final de curso y se cubre mal y rápido) o la descubrirás si no lo hiciste, pero tanto en un caso como en el otro lo harás sin el esfuerzo ímprobo que exigen los textos formales (aunque, no nos engañemos, cierta concentración de tu parte si te va a pedir).

He disfrutado mucho con el libro de Ana Forte. He recordado, he aprendido, me ha sorprendido y me ha seducido, y desde la convicción lo recomiendo para cualquiera que tenga que hacer regresiones lineales, entender un percentil o interpretar una gráfica… que somos todos.

Por cierto, el número de alumnos que debe haber en una clase para que la probabilidad de que al menos dos cumplan años el mismo día sea superior al 50% es de sólo 23. A veces se llama a esto la paradoja del cumpleaños, pero de paradoja nada: es estadística.

Ficha técnica

Título: ¿Cómo sobrevivir a la incertidumbre?
Autor: Anabel Forte Deltell.
Colección: El Café Cajal.
Fecha de publicación: 14 de septiembre de 2022.
ISBN: 978-84-125063-2-7.
Páginas: 328.
Formato: 21 x 15.
Encuadernación: rústica.
Editorial: Next Door Publishers.


Por Juan Carlos Gil Montoro, publicado el 9 noviembre, 2022
Categoría(s): Libros • Matemáticas
Etiqueta(s): , , , ,