CERN, una historia de física de partículas

Para el turista que cruza la frontera franco-suiza en las cercanías de Ginebra no le resulta nada llamativo una serie de edificios que parecen una combinación de oficinas y naves industriales. Si ese turista es un físico tampoco le va a decir nada ese conjunto gris de construcciones. Únicamente si se fija en los carteles indicadores de la autopista sabrá que está pasando por el mayor centro de investigación en física de partículas del mundo: el CERN, Conseil Européen pour la Recherche Nucléaire. Como decía el Principito de Saint-Exupéry, lo esencial es invisible a sus ojos: en este caso, porque se encuentra bajo tierra.

Si hubiera que establecer un comienzo, éste sería probablemente a comienzos de 1947, cuando ningún físico de partículas se esperaba lo que iba a suceder. El 20 de diciembre la revista Nature publicaba dos fotografías de dos sucesos llamados “en V”, debido a su forma característica. Estos se producen, por ejemplo, al desintegrarse una partícula neutra, sin carga (que no deja huella en la placa), en dos de cargas eléctricas opuestas (que sí la dejan).

Los dos años siguientes los físicos se esforzaron por confirmar tan inesperado descubrimiento. Esta partículas, que recibieron el apodo de “extrañas”, se convirtieron en el tema de moda. No era para menos. Su existencia era escandalosa: “Era como si la naturaleza se permitiera fantasías”, comentaba el físico francés Michel Crozon. Al poco tiempo un joven físico llamado Murray Gell-Mann introducía el concepto de extrañeza, una nueva cualidad de las partículas subatómicas. ¿Qué hacía ahí? Y lo que era más acuciante: ¿Cómo integrarla en un esquema coherente?

Era hora de dar un paso más. Desde los años 20, quienes buscaban con ahínco los ladrillos últimos de la materia se habían valido de cierto fenómeno natural proveniente del espacio, los rayos cósmicos, todo un conjunto de partículas de alta energía: fotones (rayos X, gamma…) o partículas eléctricamente cargadas, como los protones. Los rayos cósmicos, al alcanzar nuestra alta atmósfera, pueden sufrir dos destinos diferentes en función de la energía que transportan. Si no es mucha, el aire las frena. Pero si son muy energéticos, al chocar violentamente con un átomo de oxígeno o de nitrógeno del aire provoca una cascada de partículas secundarias, fragmentos de átomos o partículas arrancadas tras la colisión. Para estudiarlos los físicos buscaban las mayores alturas posibles, ya fuera en montañas o en globos. Pero tenían un inconveniente: los rayos cósmicos son escasos e impredecibles, y los físicos querían disponer de haces de partículas conocidas con energías conocidas para poder jugar con ellas a su antojo.

Evidentemente, la mejor forma para explorar el interior de la materia es lanzar las partículas unas contra otras a altísimas velocidades. Si el material empleado en las colisiones está compuesto por elementos más pequeños, se romperá y se podrán ver los productos de deshecho. De igual modo, las tremendas energías liberadas permiten la aparición de otras partículas subatómicas que no existían antes del choque por obra y gracia de la ecuación más famosa de la física, E = mc2. Así que, después de la guerra, los ojos de los experimentales se dirigieron a perfeccionar unas máquinas que aceleraran partículas a velocidades –y, por tanto, energías- cada vez más elevadas.

La única forma de lograrlo es manipulando los campos eléctricos y magnéticos. Toda partícula cargada “siente” estos campos (en realidad, ambos son expresión de un único campo electromagnético), luego se puede conseguir, mediante un manejo apropiado, que las partículas subatómicas vayan adquiriendo cada vez mayor velocidad. En 1928 Rolf Wideröe, un joven ingeniero noruego que trabajaban en Aquisgrán, diseñó el primer acelerador lineal de la historia, un recinto donde se hace el vacío y mediante unos tubos metálicos las partículas sufrían una serie de aceleraciones cada vez que pasaban de uno a otro. Un año más tarde, al otro lado del Atlántico, otro físico de origen noruego, Ernest O. Lawrence, diseñaba en California otro tipo de acelerador: el ciclotrón. Consistía en dos imanes con forma de D enfrentadas: las partículas son inyectadas en el centro y se aceleran poco a poco adquiriendo una trayectoria espiral. Su primer acelerador, construido en 1930, cabía en la palma de la mano. Casi 80 años después en el CERN se construyó uno de 27 kilómetros: el LHC, Large Hadron Collider. Mucho han cambiado las cosas.

Poco a poco fueron apareciendo otros modelos de aceleradores que mejoraban los existentes y que tenían nombres tan peculiares como sincrociclotrón y sincrotrón, pero que, en esencia, seguían basados en el mismo principio: utilizar potentes electroimanes para acelerar partículas cada vez más pesadas y a cada vez mayores velocidades. Los tamaños también se fueron agrandando: de centímetros se pasó a centenares de metros.

La situación de la física de partículas en Europa no era nada buena. Los norteamericanos ganaban por goleada. Por eso en 1949, en el Centro Europeo de la Cultura de París, los científicos Saultry y De Broglie propusieron la creación de un centro de investigación europeo que impidiese el éxodo masivo de científicos fuera del Viejo Continente y que Europa pudiera alcanzar el nivel tecnológico norteamericano, algo que ningún país por sí solo sería capaz de hacer. Esta idea que fue defendida al año siguiente en la Asamblea General de la UNESCO por la delegación de Estados Unidos a iniciativa del físico Isidor Rabi: quizá el gigante norteamericano quería asegurarse cierta ventaja en la Guerra Fría haciendo que Europa regresara al terreno de juego científico.

El 29 de septiembre de 1954 cristalizaba ese gran esfuerzo político, científico y económico en lo que sería el más grande y exitoso laboratorio de investigación europeo: el Centro Europeo de Investigación Nuclear, CERN, en Meiryn, cerca de Ginebra. Un nombre que se cambió hace unos años, quizá porque la palabra “nuclear” provoca importantes reacciones adversas: hoy es CERN, Centro Europeo para la Física de Partículas. Un nombre, todo hay que decirlo, más acorde a su objetivo.

El primer acelerador del CERN fue un sincrociclotrón bastante modesto, sustituido en diciembre de 1959 por el protón-sincrotrón (PS) de 200 metros, algo que para la época parecía gigantesco. Con él los físicos europeos empezaron una competición con sus homólogos norteamericanos, que estaban a punto de inaugurar otro en el Laboratorio Nacional de Brookhaven, Nueva York. Por su parte, la reacción de los países del Este no se hizo esperar: se creó el Instituto Conjunto para la Investigación Nuclear o JINR en Dubna. Pero nunca fue un verdadero competidor: su acelerador, un sincrotrón de protones cuyo imán pesaba de 36.000 toneladas, diez veces más que el del CERN, era un verdadero dinosaurio tecnológico.

En 1960 la competición se encontraba entre Ginebra y Nueva York. No obstante, era una pugna desigual. Los norteamericanos disponían desde principios de los 50 de diversos aceleradores con los que habían adquirido destreza y práctica en el diseño de experimentos y en la construcción del instrumental apropiado para detectar las partículas. Así que los europeos se dedicaron a copiar las iniciativas estadounidenses como mejor camino para adquirir dominio de las técnicas experimentales. Debido a ello, llegaban siempre en segundo lugar. Ahora bien, a lo largo de los 60 empezó a producirse un fenómeno de internacionalización que ya jamás se perdería: grupos norteamericanos colaboraban con los experimentos realizados en el CERN y europeos usaban fotos tomadas en Brookhaven.

Los nuevos aceleradores de partículas ponían en serios aprietos a los físicos teóricos. A medida que progresaba la investigación aparecían más y más partículas. A principios de los 60 la situación era caótica: el finlandés Matt Ross describía 41 partículas diferentes en la revista Review of Modern Physics; hablar de ‘partículas elementales’ era un dislate. Entonces entró en juego de nuevo Murray Gell-Mann. En 1962 anunció en el CERN una forma de agrupar las partículas que llamó “el Camino Óctuple”, en clara alusión a la filosofía budista. Su teoría –también formulada independientemente por Yuval Ne’eman- predecía una nueva partícula, Ω-, descubierta al año siguiente primero en Brookhaven y luego en el CERN. Dos años después Gell-Mann perfeccionaba su teoría y lanzaba al ruedo de la física de partículas los quarks.

Desde entonces los físicos fueron construyendo un marco teórico llamado el modelo estándar. Afirma que existen dos estirpes principales de partículas elementales: los quarks, de seis ‘sabores’ agrupados en tres familias de dos ⎯arriba y abajo, extraño y encanto, valle y cima⎯, y los leptones, también de seis ‘sabores’⎯el electrón, el muón, el tauón y sus correspondientes neutrinos (los neutrinos son partículas capaces de atravesar un muro de plomo de varias decenas de años-luz de grosor sin enterarse)⎯. Los leptones se pueden encontrar solos en la naturaleza mientras que los quarks nunca lo hacen: siempre aparecen en parejas o en tríos formando otras partículas (como sucede con el neutrón y el protón).

Y no sólo eso. A finales de la década de los 60, los físicos Glashow, Salam y Weinberg dieron un paso de gigante hacia el sueño de reunir bajo una única descripción matemática las cuatro fuerzas de la naturaleza: la gravedad, la electromagnética, y dos fuerzas nucleares: la fuerza fuerte, que mantiene unidos los quarks, y la débil, responsable de la llamada desintegración beta. De hecho, las fuerzas las transmiten ciertas partículas: así, mientras que los responsables de la electromagnética son los fotones, los de la fuerza débil son los bosones W+, W- y Z0. Estas tres partículas fueron predichas por Glashow, Salam y Weinberg al unificar bajo una única formulación matemática la fuerza electromagnética y la fuerza débil: es la teoría electrodébil.

Comprobar la veracidad de todas estas ideas exigía una nueva generación de aceleradores. Y es que la física de partículas sigue una sencilla regla: cuanto más adentro de la materia quieres explorar, mayor energía necesitas. En el CERN el viejo PS no se desmanteló, sino que se usó para dar servicio al nuevo acelerador: el SPS (Super Protón-Sincrotrón), un anillo de 7 kilómetros de diámetro y enterrado a 40 metros bajo tierra, que empezó a construirse en 1976 y entró en servicio en 1981. La idea, revolucionaria, era acumular antiprotones para luego hacerlos colisionar con protones. Era la primera vez que se usaba antimateria en los aceleradores de partículas, lo que incrementaba la energía de los choques de forma sustancial: si materia y antimateria se encuentran, se aniquilan completamente. Este hecho llevó al CERN a una posición de liderazgo mundial y con él Carlo Rubia y Simon van der Meer descubrieron los bosones W y Z, los transmisores de la fuerza electrodébil, con el que ganaron el premio Nobel en 1983. Puede decirse que el SPS se construyó para encontrarlos.

Después, todo estaba preparado para la construcción del mayor instrumento científico jamás construido: el LEP (Large Electron Positron Collider). En una circunferencia de 27 kilómetros enterrada a un centenar de metros donde se aceleraban electrones y positrones –la antimateria del electrón – y se les hacía colisionar. Con el LEP, que comenzó su andadura en 1989, los físicos obtuvieron mediciones que iban refinando la teoría y confirmaron que sólo podían existir tres familias de quarks. Pero siempre se pide más. La teoría seguía pidiendo aceleradores más grandes y a finales del siglo XX se concretó en dos proyectos: el SSC (Super Sincrotron Collider) en EE.UU., un monstruo de 87 km de diámetro que se empezó a construir en 1989 pero que se canceló en 1995 debido a su elevado coste, 8.000 millones de dólares, y el LHC (Large Hadron Collider) del CERN, que se aprobó el 24 de junio de 1994.

Justo ese año comenzaba en el CERN un programa de investigación de seis años de duración donde se iban a colisionar iones ⎯átomos que han perdido parte de sus electrones— de plomo y de oro para recrear lo que sucedió en nuestro universo justo unas millonésimas de segundo después de la Gran Explosión, cuando la temperatura era del orden de cien mil millones de grados centígrados. Y lo que encontraron fue un nuevo estado de la materia, 20 veces más denso que el núcleo atómico: el plasma de gluón-quark. Fue uno de los últimos experimentos del LEP. Había que desmantelarlo para construir en su lugar el LHC, que entró en funcionamiento y se estropeó el pasado año 2008.

Anuncios

3 Comentarios Agrega el tuyo

  1. Carlos dice:

    Hola Sr. Sabadell:
    Soy un apasionado lector que le descubrió en las páginas de 20 Minutos, de las que extraña sus anteriormente habituales columnas.
    Intenté comprar su libro sobre curiosidades científicas, pero una librería detrás de otra fueron dando por imposible obtener un ejemplar de tan agotada obra. He desistido de obtenerlo nuevo y albergo la esperanza de encontrarlo de viejo.
    Por casualidades de la vida dí con este blog, y, de nuevo, sigo con interés sus artículos.
    Respecto al LHC, considero un orgullo el resultado de la cooperación europea en el ámbito científico, y consulto con interés los avances del proyecto, además de colaborar modestamente con el mismo mediante el sistema LHC@home.
    Un afectuoso saludo.

  2. moises dice:

    necesito saber el nombre de su mejor fisico ??

  3. Anónimo dice:

    butaa no tienen na inportantee wn los odio amil ql

Responder

Por favor, inicia sesión con uno de estos métodos para publicar tu comentario:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s