Cómo hacer cambiar de opinión a un físico en tres años

Por Fooly Cooly, el 31 mayo, 2017. Categoría(s): Física • Historia

Lucas-Higgs-CE0047H-nice_0

Es de sobra conocido el hecho de que, al estudiar la historia pasada de la humanidad, esta comienza a difuminarse conforme los años pasan. Retenemos mucho más de los años recientes, digamos del Siglo XX, que de la historia de la antigüedad. No sólo eso, si no que conforme pasan los años tendemos al simplismo y reducimos las complejas interacciones humanas que desencadenan los acontecimientos históricos a sus mínimas partes, maniqueando el discurso y simplificando en exceso. O como dirían en los Simpson al mencionar las causas de la guerra civil estadounidense: diga esclavitud.

Lo curioso no es descubrir que este efecto también ocurre en la percepción que la sociedad tiene de los avances científicos, si no reconocer que incluso aquellos que se ocupan de transmitir el conocimiento, científicos y divulgadores, se ven fuertemente afectados por esta amnesia del pasado. Y conforme estos comunicadores repiten la historia, más cierta pasa a ser esta, obviando muchas contribuciones.

Tomemos un caso concreto: el modelo estándar de física de partículas, una de las teorías más complejas de la física actual y que presumiblemente explica todos los fenómenos físicos (salvo aquellos asociados con la gravedad) hasta escalas inferiores al tamaño del protón. Este modelo está construido sobre un sólido pilar que los físicos llamamos “invariancia gauge”, un principio que dicta fuertemente la estructura matemática que la teoría debe poseer. Cuando queremos hablar de este modelo, solemos contra un pequeño cuento que comienza con un joven Richard Feynman formulando la teoría del electromagnetismo a nivel cuántico, la Electrodinámica Cuántica, y continua con Yang y Mills, que generalizan la teoría de Feynman para describir la interacción fuerte. Finalmente, Glashow, Weinberg y Salam toman la teoría de Yang y Mills y la utilizan también para describir la interacción electrodébil y el campo de Higgs, esencialmente terminando la formulación del modelo estándar en 1967.

La historia parece lógica, pues se basa en un camino recto en el que varios científicos famosos toman un trabajo anterior y lo extienden para comprender más fenómenos físicos. Sin embargo, la verdadera historia no es tan sencilla. El conocimiento científico rara vez sigue una línea recta, si no que más bien se parece a un proceso browniano, en el que a base de pequeños golpes en direcciones aleatorias terminamos dando con el camino correcto a seguir. Pese a ello, la capacidad humana de simplificar el pasado hace que, durante la mayor parte del tiempo, no nos demos cuenta de esta realidad y compremos fuertemente la historia lineal de la evolución del modelo estándar. De hecho, esto afecta fuertemente a la percepción que tenemos de la investigación contemporánea, creyendo que muchos campos han perdido el norte porque no se adecuan al simplismo que hemos establecido en el discurso sobre los descubrimientos previos.

Por esto mismo, resulta curioso encontrarse el siguiente texto en un artículo* del propio Steven Weinberg en 1964

Captura de pantalla 2017-05-30 a las 17.32.45

Traduciendo de manera un poco libre: La única crítica que puedo ofrecer a esta sencilla estrategia (el uso de la invariancia gauge) es que nadie habría podido imaginársela si no hubiese conocido previamente la teoría de Maxwell (el electromagnetismo). En particular, la invariancia gauge no ha encontrado aplicación en las interacciones fuertes o débiles, pese a que no han faltado intentos.

Tan solo tres años más tarde Weinberg publicaría, junto al paquistaní Mohammed Abdus Salam, el artículo que le merecería un tercio del premio nobel de física. Es lícito pues preguntarse qué paso entre medias para que la opinión de Weinberg cambiase tan radicalmente. La respuesta es simple: Bryce DeWitt pasó.

En 1965 el americano Bryce DeWitt publicaría un libro titulado “Teoría dinámica de los grupos y los campos”. En él, DeWitt coleccionaba los resultados de sus investigaciones sobre la consistencia cuántica de teorías similares a la de Yang y Mills, dando pie a una mejor comprensión sobre lo que hoy llamamos Teoría Cuántica de Campos. El problema con la teoría de YM, parece ser que remarcado por primera vez por Pauli en una conferencia en Zurich, era que la teoría matemática parecía describir la propagación de partículas cuyos estados cuánticos violaban un principio básico de la mecánica cuántica: en una hipotética medida, algunos de estos estados parecían aparecer con probabilidad mayor que uno, es decir, más del 100% de las veces. Por tanto, los físicos teóricos de principios de los 60 pensaban que la teoría de YM era inconsistente y que la búsqueda de teorías similares no era el camino a seguir en sus intentos de comprender el mundo cuántico. En su lugar, se dedicaron a investigar las propiedades de los experimentos de colisión entre partículas (scattering por su palabro inglés) y su relación con la física conocida hasta el momento**.

Bryce Dewitt sería, por tanto, el primero en tomarse en serio la teoría de YM y demostrar que estos estados fantasmales (llamados ghosts en la terminología científica) son una consecuencia de una mala elección de variables en nuestras ecuaciones, e introdujo una técnica para eliminarlos que, posteriormente (también en 1967), sería refinada por Ludwig Faddeev (fallecido en 2017) y Victor Popov al otro lado del telón de acero***. Así, cuando Weinberg y Salam retomaron su búsqueda de un modelo electrodebil, lo hicieron con la seguridad de que la teoría de YM y la invariancia gauge, ahora sí, parecían haber encontrado su lugar en la descripción de la interacción electrodébil.

Este hecho, la demostración de que los fantasmas de la teoría de Yang y Mills no eran peligrosos para la mecánica cuántica, propició que los físicos teóricos volviesen a tomarse en serio las teorías de campos y terminasen de cimentar, durante los siguientes veinte años, el edificio que ahora llamamos Teoría Cuántica de Campos, probablemente el constructor intelectual más sofisticado de la historia de la humanidad. Entre otros muchos, Weinberg y Salam volvieron a tomarse la teoría de YM en serio y publicaron su celebre artículo incluyendo el mecanismo de Higgs en ella, un paso importante para explicar el comportamiento de la interacción débil.

2705630-33
Gerard ‘t Hooft y Martinus Veltman en la entrega del premio Nobel

Poco después, en 1969, y según cuentan leyendas que parecen ser bastante ciertas, un joven físico holandés se presentaba en el despacho de un profesor de la Universidad de Utrecht, pidiéndole hacer el doctorado bajo su tutela y trabajando en el problema más difícil de la física. Tres, años después, Gerard ´t Hooft, con 26 años, defendía su tesis doctoral, en la que demostraba que la teoría de Yang y Mills era consistente con la mecánica cuántica en presencia del campo de Higgs, es decir, en el modelo de Weinberg y Salam; un trabajo que le acabaría dando el premio nobel de física en 1999 junto a su director de tesis, Martinus Veltman. Curiosamente, la colaboración de ambos no terminó ahí. Siguiendo el camino que había marcado DeWitt, aplicaron sus técnicas al verdadero problema más complicado de la física y calcularon la primera corrección cuántica a la Teoría de la Relatividad General, abriendo el camino para que toda una nueva generación de físicos, que se extiende hasta nuestros días, siga intentando comprender qué demonios es la teoría cuántica de la gravedad. Tan solo unos pocos meses antes, un gran físico del momento había vaticinado que el cálculo era tan complicado que jamás será posible llevarlo a cabo…

La lección que se destila de esta pequeña historia es que la ciencia y su desarrollo son, normalmente, mucho más complicados de lo que se nos cuenta cuando se presenta como un edificio ya construido y asentado. La búsqueda de nuevas teorías físicas requiere, en la mayor parte de los casos, explorar un espacio cada vez más grande de posibilidades teóricas. Esto es algo que estamos viendo en la actualidad, con intentos como la Supersimetría, la Teoría de Cuerdas, los modelos inflacionarios, posibles teorías efectivas… que algunos se atreven a tachar de pseudociencias porque no se ajustan a su visión lineal del desarrollo científico (y muchas veces sin comprender siquiera los detalles de algunos de estos modelos).

Es cierto que la ciencia puede ¡y debe! ser criticada, pero siempre desde el conocimiento. Simplemente, es bueno recordar que las cosas nunca son tan simples como aparentan.

*S.Weinberg,  Phys. Rev.138, B988 (1965)

** Como curiosidad, en el artículo de Weinberg citado previamente, el autor demuestra que bajo la hipótesis de que la colisión de partículas satisface las leyes de la relatividad especial, el electromagnetismo de Maxwell y la Teoría de la Relatividad General tienen que ser, por fuerza, las descripciones clásicas de la física de fotones y gravitones.

*** Como segunda curiosidad, en 1967 (¡vaya año!) DeWitt aplicó estas técnicas a la Teoría de la Relatividad General, dando el primer paso en el largo camino hacia una teoría cuántica de la gravedad.