Hace unos dias recibimos un email del Investigador Argentino Mario Benedetti nosotros al profesor Benedetti le tenemos una estima en especial.

Benedetti junto con otros muchos investigadores Latinoamericanos y Españoles aportan su importante trabajo en el CERN en Ginebra y nosotros hacemos y haremos en el futuro todo lo que esté en nuestra mano para publicar sus trabajos.

Es por esto que a continuación ponemos una conferencia que dio sobre el CERN y el LHC el Profesor Mario Benedetti.

Contestaremos en privado a su email pero desde aqui le animamos a no cejar en su investigaciones y a seguir dando conferencias y por cierto muchas Universidades Españolas estarian seguramente encantadas de recibirle y que en sus respectivas facultades de ciencia diera conferencias, animamos a lo rectores a gestionarlo. Reconocemos que tenemos especial debilidad por la Facultad de Ciencias de la UAM Universidad Autonoma de Madrid, conocemos mas de un alumno de fisica que estaria encantado de asistir.

Video-conferencia para el público en general sobre las características y aplicaciones del Large Hadron Collider (LHC), CERN en Ginebra Suiza. La charla está a cargo del Investigador Argentino Mario Benedetti. Para comentarios, sugerencias, correcciones o posibilidad de conferencias contactarse al mail mario.benedetti@cern.ch

Para quien no lo conozca

http://www.argentina.ar publicó el 30 de Marzo del 2010 este articulo sobre la colaboración Argentina en el CERN

Integrantes del Departamento de Electrónica de la Facultad de Ingeniería de la Universidad Nacional de Mar del Plata crearon una fuente de alimentación para el acelerador de partículas, que permitirá hacer descubrimientos en materia física.

Mar del Plata sigue colaborando en el desarrollo del gran colisionador de hadrones (LHC según la sigla en inglés), más conocido como Máquina de Dios. Los integrantes del Laboratorio de Instrumentación y Control (LIC) perteneciente al Departamento de Electrónica de la Facultad de Ingeniería de la Universidad Nacional de Mar del Plata, crearon una nueva fuente de alimentación para este acelerador de partículas que permitirá hacer nuevos descubrimientos en materia física.

En estos días, los ingenieros Mario Benedetti y el becario Nicolás Wassinger, están juntándose en Ginebra en el Centro Europeo para la Investigación Nuclear (CERN), donde se encuentra una de las máquinas más importantes desarrolladas en los últimos años y la más impresionante en su tipo y donde se realizó una prueba muy importante relacionada con el tema.

Dentro del Gran Colisionador de Hadrones (LHC) del CERN está el detector Atlas, que mide 46 metros de longitud, 25 metros de altura y 25 metros de ancho. El detector pesa 700 toneladas y está constituido por 100 millones de captores que medirán las partículas producidas tras las colisiones de protón a protón en el LHC.

Paciencia para ver las animaciones han de descargarse en el navegador y esto tarda un poco...

http://teknociencia.es/videos/atlas/Episode1.swf

http://teknociencia.es/videos/atlas/Episode2.swf

Animación LHC teknociencia.es

"Una vez que las partículas atraviesen el campo magnético creado por los imanes superconductores, la sensibilidad del detector le permitirá determinar las trayectorias de las partículas con una precisión del espesor de un cabello", explicó Benedetti. Y añadió que "podremos tener una nueva visión de las partículas elementales que constituyen nuestro universo", dijo tras considerarlo el experimento como una especie de "microscopio gigante".

A través de esta máquina esperan poder entender la simetría entre la cantidad de materia y la antimateria al comienzo del universo. "De hecho sabemos que en el universo existe una cantidad muy grande de materia que no conocemos, y hay una oportunidad de que pueda ser encontrada aquí", explicó el ingeniero. Aunque nadie está seguro de lo que allí se va a encontrar, los científicos tienen sospechas y esperanzas de poder definir la partícula de Higgs (llamada la partícula de Dios), que creen que es la responsable de la masa de todas las partículas".

En este marco, y tras un acuerdo firmado el año pasado entre el Laboratorio y el CERN, desde Mar del Plata los investigadores tuvieron en esta oportunidad el desafío de generar una nueva fuente de alimentación, superadora a la que ya habían realizado años anteriores para esta máquina.

"Para el año 2013 en el CERN están planeando aumentar la luminosidad del acelerador, que significa prácticamente aumentar la cantidad de partículas que van en los paquetes, así que desarrollamos una fuente nueva para el LINAC4 (acelerador lineal de inicio)", comentó Benedetti horas antes de partir de Suiza, donde se encontrará con el becario Wassinger y harán las pruebas finales junto a la gente del CERN, y así dejar listo este nuevo invento.

"El año pasado propusimos una topología y la validamos en Suiza durante el 2009. Después se siguió trabajando en Argentina junto con el becario Rogelio García Retegui y se logró poner a punto. En forma paralela se desarrollaron dos prototipos de bajo nivel de esta fuente, que fueron aprobados por el CERN", comentó Benedetti, quien agregó: "Después hicimos dos prototipos a escala de prueba que se lograron poner en funcionamiento en Mar del Plata y en Ginebra y ahora se decidió construirla a escala real".

El 8 de abril esperan recibir la aprobación final de este desarrollo y recibir un nuevo desafío que permitirá seguir el contacto entre las dos entidades.

La historia del Laboratorio

El Laboratorio de Instrumentación y Control comenzó su actividad en diciembre de 1983, a partir de la llegada a la Universidad Nacional de Mar del Plata del ingeniero Mario Benedetti, quien con el apoyo del entonces director del Departamento de Electrónica, ingeniero Evan Ciner, creó este grupo de trabajo. Su fundación constituyó el acto inicial de una serie de creaciones que dieron origen a otros cuatro laboratorios más de investigación en electrónica.

En estos años, este laboratorio investigó en el campo de la electrónica de potencia, un área de origen electrónico, pero destinada a aplicaciones industriales y cercanas a las instalaciones eléctricas. Este laboratorio fue reconocido últimamente en diferentes ámbitos por su participación en el desarrollo del LHC (Large Hadron Collider), más conocido como "La Máquina de Dios''.

Actualmente cuenta con diez investigadores y cinco becarios que son: Mario Benedetti; doctor Daniel Carrica; ingeniero Gustavo Uicich; ingeniero J. Krzemien; ingeniero W. Kloster; doctor P. Donato; doctor S. González; doctor M. Funes; ingeniero R. García Retegui; ingeniero S. Maestri. Y los becarios son: ingeniero N. Carugati; Ing. N. Wassinger; Ing. J. Fischer; Ing. M. Herrán; Matías Hadad; y Pablo Antosczczuk.

Un premio

El año pasado, Benedetti recibió la máxima distinción de la Academia de Ingeniería de la provincia de Buenos Aires. Se trata del premio consagración "Ingeniero Aquiles Ortale", lo que fue también un reconocimiento al trabajo de todo un grupo que representa a la ciudad en el mundo.

http://www.argentina.ar

Tambien os comentamos los siguientes datos: El canal CienciaPorTV en el cual se publicaran videos sobre fisica.

Recordad suscribiros en Youtube

http://www.youtube.com/user/CienciaPorTV Y como no podia ser de otra manera en www.Teknociencia.com y www.abiertohastaelamanecer.ws hemos creado en nuestro canal en youtube una lista de reproducción automatica de los videos y conferencias del canal CienciaPorTV al cual iremos añadiendo los videos que publiquen hasta 50 que es el maximo.

La dirección url de la lista es la siguiente: http://www.youtube.com/view_play_list?p=195DBBC788C96006

Sobre el bosón de Higgs breve

El bosón de Higgs es una partícula elemental hipotética masiva cuya existencia es predicha por el modelo estándar de la física de partículas. Es la única partícula del modelo estándar que no ha sido observada hasta el momento, pero desempeña un papel importante en la explicación del origen de la masa de otras partículas elementales, en particular la diferencia entre el fotón (sin masa) y los bosones W y Z (relativamente pesados). Las partículas elementales con masa y la diferencia entre la interacción electromagnética (causada por los fotones) y la fuerza débil (causada por los bosones W y Z) son críticos en muchos aspectos de la estructura microscópica (y así macroscópica) de la materia. Con esto, si la partícula existe, el bosón de Higgs tendría un enorme efecto en la física y el mundo de hoy.

Hasta la fecha, ningún experimento ha detectado directamente la existencia del bosón de Higgs. El mecanismo de Higgs, lo que da masa al vector bosón, fue teorizado en 1964 por Peter Higgs, François Englert y Robert Brout (quienes trabajaban en las ideas de Philip Anderson), e independientemente por G. S. Guralnik, C. R. Hagen y T. W. B. Kibble. Higgs -en un comentario añadido a una carta dirigida a la Physical Review- propuso que la existencia de una partícula escalar masiva podría ser una prueba de la teoría . Steven Weinberg y Abdus Salam fueron los primeros en aplicar el mecanismo de Higgs a la ruptura espontánea de simetría electrodébil. La teoría electrodébil predice una partícula neutra cuya masa no sea muy lejana de la de los bosones W y Z.

La partícula llamada bosón de Higgs es un cuanto de uno de los componentes del campo de Higgs. En un espacio vacío, el campo de Higgs adquiere un valor esperado de vacío (VEV) diferente de cero que permanece constante en el tiempo y en todo lugar del universo. El VEV de un campo de Higgs es constante e igual a 246 GeV. La existencia de un VEV no nulo tiene una importancia fundamental: da una masa a cada partícula elemental, incluyendo al mismo bosón de Higgs. En particular, la adquisición espontánea de un VEV diferente de cero rompe la simetría gaugiana electrodébil, un fenómeno conocido como el mecanismo de Higgs. Este es el simple mecanismo capaz de dar masa a un bosón de gauge que es también compatible con la Teoría de campo de gauge.

En el modelo estándar, un campo de Higgs consiste en dos campos neutrales y dos cargados. Los dos componentes cargados y uno del neutro son bosones de Goldstone, que no tienen masa y se convierten, respectivamente, en los componentes longitudinales de tercera-polarización de los bosones W y Z (masivos). Lo cuántico de los restantes componentes neutrales corresponde a los bosones masivos de Higgs. Un campo de Higgs es un campo escalar, el bosón de Higgs tiene un espín cero y no tiene momento angular intrínseco. El bosón de Higgs es también su propia antipartícula y tiene simetría CPT.

El modelo estándar no predice el valor de la masa del bosón de Higgs. Si la masa de este bosón es entre 115 y 180 GeV, entonces el modelo estándar puede ser válido a todas las escalas energéticas hasta la escala de Planck (1016 TeV). Muchas teorías están a la expectativa de una nueva física más allá del modelo estándar que podría surgir a escalas de TeV, basadas en las carencias del modelo estándar. La escala más alta posible de masa permitida en el bosón de Higgs (o en alguna ruptura espontánea de simetría electrodébil) es de un TeV; tras ese punto el modelo estándar se vuelve inconsistente sin un mecanismo de ese tipo porque la unicidad es violada en ciertos procesos de dispersión. Muchos modelos de supersimetría predicen que el bosón de Higgs tendrá una masa sólo ligeramente por encima de los actuales límites experimentales, a unos 120 GeV o menos.

Hasta la fecha, el bosón de Higgs no ha sido observado experimentalmente, a pesar de los esfuerzos de los grandes laboratorios de investigación como el CERN o el Fermilab. La no observación de pruebas claras permite estimar un valor mínimo experimental de masa 114.4 GeV para el bosón de Higgs del modelo estándar, con un nivel de confianza del 95%. Un pequeño número de eventos no concluyentes han sido registrados experimentalmente en el colisionador LEP en el CERN. Éstos han podido ser interpretados como resultados de los bosones de Higgs, pero la evidencia no es concluyente. Se espera que el Gran Colisionador de Hadrones, ya construido en el CERN, pueda confirmar o desmentir la existencia de este bosón. El fascinante anillo de 27 km de circunferencia (llamado Large Hadron Collider) fue encendido el 10 de septiembre de 2008, como estaba previsto, pero un fallo en el sistema de enfriamiento que debe mantener los imanes a una temperatura aproximada de -271,3 °C detuvo el experimento, hasta el 20 de noviembre del 2009, dia en el que volvió a ser encendido, desde 450 GeV a 2.23 TeV. Pero fue apagado para realizar ajustes y el 30 de marzo, volvió a ser encendido, aunque a potencia de 7 TeV. Eso si, no será hasta 2013 cuando funcione a pleno rendimiento.

La búsqueda del bosón de Higgs es también el objetivo de ciertos experimentos del Tevatrón en el Fermilab y en el LHC del CERN.

Bibiografia Wikipedia.org

Descargar PDF

http://teknociencia.es/videos/atlas/z-boson-ee.swf

http://teknociencia.es/videos/atlas/detects-particles.swf

http://teknociencia.es/videos/atlas/muon-spectrometer.swf

http://teknociencia.es/videos/atlas/inner-detector.swf

http://teknociencia.es/videos/atlas/hadronic-calorimeter.swf

sigue....

Todo lo que hay en este universo se manifiesta a nuestros ojos e instrumentos en dos formas bien conocidas: la materia y la energía. Este hecho simple, que es cierto hasta donde hemos llegado a observar –y a estas alturas hemos llegado a observar muy lejos–, ha dado lugar a numerosas disquisiciones científicas, filosóficas e incluso teológicas a lo largo de la historia. Pero, ¿qué son? ¿Cuál es su naturaleza? ¿Por qué están ahí?

Pese a cierta tendencia que tiende a considerar a la energía en un plano superior al de la corruptible y pecaminosa materia (como si en ete universo hubiera algo superior a cualquier otra cosa), la energía es la más básica y primaria, la menos organizada y más fácil de entender de las dos. Aunque, en realidad, las dos viajan indisolublemente trenzadas por el espacio y el tiempo: en el cosmos presente, no hay energía desvinculada de la materia ni materia desvinculada de la energía (la ecuación más conocida que relaciona la una con la otra es, naturalmente, E = mc2).

Cualquier manual de física elemental describe a la energía como la capacidad de una fuerza para realizar un trabajo. Dicho muy a lo bruto: la característica fundamental de una energía es que hace cosas, o puede hacerlas: mover esto, calentar aquello, aniquilar lo de más allá.

Vemos, pues, que para tener energía hace falta una fuerza primero. Aunque de vez en cuando se postule alguna quinta fuerza más allá del Modelo Estándar, en estos momentos tenemos bien identificadas cuatro fuerzas o interacciones fundamentales: fuerte o cromática, electromagnetismo, débil y gravedad. Cada una de ellas tiene una teoría que la explica, y una partícula asociada que la transporta; excepto la gravedad, donde se ha postulado el gravitón pero todavía no se ha observado. Repasémoslas:

Interacción fuerte o cromática, estudiada por la cromodinámica cuántica. Es la más intensa de las cuatro, con muchísima diferencia. Mantiene juntos los quarks para formar protones y neutrones, y los protones y neutrones juntos para formar núcleos atómicos, estructuras esenciales de la materia. La partícula subatómica vinculada a esta fuerza es el gluón.

Electromagnetismo, estudiada por la electrodinámica cuántica. Es cien veces más débil que la cromática. Mantiene juntos los núcleos atómicos con sus electrones para formar átomos, y las moléculas entre sí, lo que viene a constituir la materia macroscópica. La partícula mensajera de esta fuerza es el fotón.

Interacción débil, estudiada por el modelo electrodébil. Es cien mil millones de veces más tenue que el electromagnetismo, y diez billones de veces menor que la cromática. Es la causante inmediata de la radiactividad. Sus partículas mediadoras son los bosones W y Z.

Gravedad, estudiada por la relatividad general. Aunque no lo parezca cuando nos caemos, o cuando vemos planetas orbitando alrededor de sus soles o galaxias en sus supercúmulos, es inconcebiblemente débil: cuatrillones de veces más tenue que las anteriores. Su partícula mensajera hipotética, el gravitón, resulta complicadísima de encontrar debido a su baja interacción con el resto de la realidad. Se requerirán, por tanto, aceleradores de partículas muy potentes –más que el LHC– para detectarla sin duda de ninguna clase.

Las cuatro fuerzas fundamentales tienen características comunes, y la más notoria de ellas es que las cuatro obedecen a la teoría de campos (clásica y cuántica). Estas similitudes nos hacen sospechar que todas ellas forman parte de una realidad que las engloba y explica conjuntamente; por eso, los físicos de altos vuelos andan detrás de una teoría del campo unificado que explicaría una gran parte de la realidad y abriría el paso a la teoría del todo. En estos momentos, la teoría electrodébil unifica ya en gran medida la interacción débil con el electromagnetismo.

¿Y la materia? La materia podría definirse como cualquier cosa que tiene masa y ocupa un volumen en el espacio; aunque algunas de las partículas transportadoras de fuerzas, como los bosones W y Z, también poseen estas propiedades. La materia bariónica –esa que constituye todo lo que vemos y tocamos, incluyéndonos a ti y a mí– está compuesta por quarks y leptones (el leptón más conocido es el electrón). La inmensa mayoría, sólo por cuatro de ellos: el quark arriba, el quark abajo, el electrón y el neutrino.

Aunque las características de la masa son bien conocidas, su naturaleza profunda aún permanece oculta. El bosón de Higgs, comúnmente conocido como la partícula de Dios, podría haber sido clave en el surgimiento de la misma mediante el mecanismo de Higgs. El mecanismo de Higgs, que puede quedar a nuestro alcance gracias al LHC e incluso se puede aproximar en el Tevatrón, explicaría la manera en que la energía se convirtió en materia y puede dar un paso de gigante hacia la comprensión de cómo empezó todo.

Sabemos que la materia bariónica (corriente) se organiza en átomos. Dependiendo del número de protones que haya en el núcleo de cada átomo, estaremos ante un elemento u otro: esto es el número protónico, más conocido como número atómico. Un átomo cuyo núcleo alberga un solo protón, por ejemplo, es hidrógeno. Si tiene dos, es helio. Si tiene tres, litio. Si tiene seis, carbono. Si tiene ocho, oxígeno. Si contiene 79 será oro, 92 y tendremos uranio, 94 y será ya plutonio. Y así con todos. La tabla periódica de los elementos de Mendeleev nos lo organiza de una manera muy visual:

No todos los núcleos atómicos son estables. De hecho, sólo existe un estrecho rango de combinaciones estables entre protones y neutrones. En realidad, cualquier núcleo con más de 83 protones (es decir, el bismuto) es esencialmente inestable y tiende a dividirse rápidamente en otras cosas, con las notables excepciones del torio y el uranio, que aunque no son estables del todo aguantan bastante tiempo (tanto, que aún los podemos encontrar en las minas). Glenn Seaborg postuló la posible existencia de una isla de estabilidad más allá del número atómico 100, lo que permitiría crear en un reactor nuclear o un acelerador de partículas átomos más o menos firmes de elementos excepcionales que actualmente no están presentes en el universo. De momento, esto no se ha conseguido.

Es posible convertir unos elementos en otros en el laboratorio: el sueño del viejo alquimista hecho realidad. Por ejemplo, es relativamente fácil transmutar mercurio en oro irradiándolo con rayos gamma. Pero si estás pensando en montarte un negociete, me temo que no es posible en el momento actual: este oro es enormemente caro, mucho más que el natural, debido al coste de la energía necesaria. La plata, el paladio, el rodio y el rutenio se extraen habitualmente del combustible consumido en los reactores nucleares (originalmente, uranio) aunque, de nuevo, no acaba de ser económico.

Una propiedad intrigante de la materia es la dualidad onda-partícula que estudia (entre otras muchas cosas) la mecánica cuántica (ver este curiosísimo video). Algunos piensan que esto debe ser alguna clase de brujería, pero se verifica constantemente en el laboratorio: la materia puede comportarse a la vez como si fuera materia y energía, y se decanta por ser una cosa u otra según la interacción a que se vea sometida. Esta característica tan peculiar y contraria al sentido común nos ha abierto unas puertas extraordinarias para comprender mejor la naturaleza íntima de la realidad.

Antimateria

Esta materia bariónica que nos es tan conocida, a su escala más básica, está compuesta de quarks y normalmente acompañada por leptones.

Los leptones (como por ejemplo, el electrón o el neutrino) son partículas subatómicas que están sujetas al electromagnetismo, a la gravedad y a la interacción débil, pero no a la interacción fuerte (que es la fuerza más fuerte del universo, valgan las redundancias). Esto significa que tienen masa y spin y algunos presentan carga eléctrica, pero ninguno posee carga cromática. El más importante para constituir la materia que conocemos es el electrón, que tiene una masa muy pequeñita pero real, una carga eléctrica negativa y spin 1/2.

Los quarks están sujetos a las cuatro fuerzas, incluyendo la fuerte, y por tanto pueden presentar masa, spin, carga eléctrica y carga cromática. Este universo los sirve en seis sabores, que llamamos arriba, abajo, encanto, extraño, cima y fondo. Para la formación de la materia bariónica los más relevantes son los dos primeros, pues componen los protones y neutrones. Ambos están formados por tres quarks. El protón, por dos arribas y un abajo. El neutrón, por dos abajos y un arriba.

Materia invertida.

La antimateria es, sencillamente, materia donde alguna de las cargas está invertida con respecto a la materia corriente. Veámoslo con un electrón, que se comprende muy bien. El electrón, como leptón que es, tiene masa y spin pero sólo una carga: la eléctrica, siempre negativa. Su antipartícula, llamada positrón, posee exactamente la misma masa, spin y carga eléctrica; sin embargo, en este caso la carga eléctrica es positiva.

Interacciones entre cargas de igual y distinta naturaleza.

De esta forma el positrón mantiene todas las propiedades de su antipartícula el electrón pero electromagnéticamente reacciona al revés. Por ejemplo: dos electrones, por tener carga negativa, tienden a repelerse entre sí. Pero un electrón y un positrón, aunque en todo lo demás sean idénticos, tienden a atraerse entre sí porque uno tiene carga eléctrica negativa y el otro positiva. Y así con todo.

Ejemplo de estructura de color de un neutrón. Puede observarse la composición de quarks y la carga de color que adopta.

Con los quarks ocurre lo mismo. El quark arriba, por ejemplo, tiene una carga eléctrica de +2/3 (dos terceras partes de la de un positrón). Antiarriba, en cambio, tiene una carga eléctrica de -2/3 (dos terceras partes de la de un electrón). Su carga cromática también cambia: si por ejemplo está en estado rojo, el antiquark estará en anti-rojo, que se suele llamar magenta. (Que esto de los colores no te confunda: es una forma simbólica de representar su estado de cara a la cromodinámica cuántica; no tiene nada que ver con colores de verdad).

Veamos lo que ocurre entonces con un protón y un antiprotón; por ejemplo, respecto al electromagnetismo, que es más sencillo. Hemos quedado en que los protones (como todos los bariones) están compuestos de tres quarks, y que en su caso éstos son dos arribas y un abajo. El quark arriba lleva una carga eléctrica de +2/3 y el quark abajo, otra de –1/3. Sumémoslas: (+2/3) + (+2/3) + (–1/3) = +3/3 = +1. Resultado: el protón tiene una carga positiva.

Ahora contemplemos el antiprotón, formado por dos antiquarks arriba (carga –2/3) y un antiquark abajo (carga +1/3). Observa que está formado exactamente igual, sólo que con las versiones invertidas de los quarks. Sumemos (–2/3) + (–2/3) + (+1/3) = –3/3 = –1. Resultado: el antiprotón tiene una carga negativa.

El resto de cargas también se invierten. En aquellos leptones que no tienen carga eléctrica (los neutrinos) se invierte otra propiedad distinta, la helicidad, que es la proyección del spin relativa al momento de inercia. O, alternativamente, es posible que sean partículas de Majorana y constituyan su propia antipartícula. Pero no nos compliquemos por el momento.

Bien. Entonces imaginemos un átomo, el más básico de todos: el hidrógeno-1 o protio (hidrógeno corriente). Está compuesto por un protón (carga eléctrica positiva) y un electrón (carga eléctrica negativa) en órbita alrededor. Esta configuración es posible porque el protón y el electrón, al tener cargas distintas, tienden a atraerse (igual que hace la gravedad con una nave espacial en órbita alrededor de un planeta).

Si sustituimos el electrón por su antipartícula el positrón, o el protón por un antiprotón, este átomo se vuelve imposible: ambos tendrían idéntica carga, se repelerían violentamente y saldrían despedidos cada uno por su lado.

Pero si sustituimos los dos –el electrón y el protón– por un positrón y un antiprotón, el átomo es igualmente posible porque las relaciones entre ambos se mantienen; sólo que ahora están invertidas. Ahora la carga positiva está en el positrón orbitando y la negativa se halla en el antiprotón del núcleo, pero como la relación entre ambas se mantiene (cargas invertidas), el átomo puede existir. Y se llama antihidrógeno. No sólo puede existir, sino que hemos fabricado un poquitín. El CERN (sí, los mismos del LHC) fue el primero en lograrlo, probablemente en 1995 y de manera verificada a partir de 2002 en sus deceleradores de partículas. En los aceleradores también se ha creado un pequeño número de núcleos de antideuterio (antihidrógeno-2) y antihelio-3. Hablamos, en todo caso, de cifras de billonésimas de gramo. Con la tecnología presente, su coste sería tan exorbitante como su rareza: aproximadamente, 50 billones de euros por un gramo de antihidrógeno.

Pero no todo es tan difícil. Por ejemplo, ya existen desde hace algunos años aplicaciones tecnológicas basadas en la antimateria, como la tomografía por emisión de positrones (PET) de uso generalizado en medicina moderna.

La aniquilación materia-antimateria y el problema de la contención.

Lamentablemente, no se conoce todavía ningún método eficaz para contener antiátomos sin que entren en contacto con la materia circundante. Las partículas con carga –positrones e iones o núcleos sueltos, por ejemplo– se pueden mantener durante algún tiempo en trampas magnéticas, como las trampas de Penning. Los átomos, en cambio, acaban entrando en contacto con la materia circundante y se aniquilan.

Se ha hablado mucho de la aniquilación materia-antimateria: la reacción más energética del universo, en la que ambas masas desaparecen por completo para liberar la energía que las forma según la famosa ecuación E = mc2. Es absolutamente real y de hecho ocurre constantemente a nuestro alrededor, cada vez que una antipartícula natural entra en contacto con materia corriente (por ejemplo, en la atmósfera terrestre).

Lo que ocurre es que sus cargas –electromagnéticas, cromáticas o del tipo que sea– se cancelan entre sí. Supongamos un electrón y un positrón. Como poseen carga eléctrica opuesta, tienden a atraerse y finalmente colapsar entre sí, lo que daría lugar a una partícula con el doble de masa que un electrón (o un positrón) y carga cero. Sin embargo, tal partícula está fuera de los rangos de estabilidad de la materia: no puede existir en este universo. Es materia muerta, por así decirlo, incluso antes de llegar a ocurrir. Así pues, cambian a un estado más básico: pierden su masa y ésta se transforma íntegramente en energía. El resultado suelen ser dos rayos gamma (compuestos por fotones, carentes de carga y de masa efectiva) que conservan su momento linear y angular, así como la energía total (por el principio de conservación de la materia y de la energía). En resumen: que su materia se ha transformado íntegramente en energía, bajo la forma de radiación gamma.

A un protón y un antiprotón les pasa exactamente lo mismo: se transforman en rayos gamma y un pión neutral. Pero el pión neutral es altamente inestable y decae en una birrionésima de segundo para transformarse también en dos rayos gamma (o, a veces, en un par electrón-positrón). El neutrón y el antineutrón se convierten también en un par de rayos gamma, pero con una energía pavorosa. En suma: el encuentro entre materia y antimateria produce energía de la manera más óptima posible en este universo, en forma de radiación y conllevando a cambio la desaparición de la masa precedente. Esta es la tan cacareada aniquilación materia-antimateria.

La antimateria en el cosmos.

El descubrimiento de la antimateria se deriva de los primeros estudios sobre mecánica cuántica, a principios del siglo XX. La primera propuesta seria en este sentido la hizo Paul Dirac en 1928, elaborando sobre la versión relativista de la ecuación de onda cuántica de Schrödinger para el electrón, lo que le llevó a concluir teóricamente que podían existir antielectrones (positrones). Dan premios Nobel por estas cosas: Carl Anderson comprobó su existencia real en 1932 y Dirac se llevó el Nobel de Física ipso facto, en 1933, por esta y otras cosillas como postular buena parte de la teoría atómica moderna (a Anderson también se lo concedieron, en 1936). También escribió Principios de la Mecánica Cuántica, en 1930, una obra magna que marcó un antes y un después en nuestra comprensión de la realidad.

http://cdsweb.cern.ch/record/1065975

Dirac, un genio extremadamente humilde y ateo como él solo, de quien se ha dicho que sufría un cierto grado de autismo (aunque puede que fuera simplemente un carácter muy taciturno) teorizó más cosas sobre la antimateria. Según sus ecuaciones, validadas más allá de toda duda mediante el descubrimiento material del positrón y las restantes antipartículas, a cada partícula de este universo debería corresponderle una antipartícula... y deberían haberse aniquilado entre sí al principio de todo, impidiendo la consolidación de la materia. De hecho, según las observaciones realizadas –y a estas alturas hemos mirado muy lejos– la cantidad de antimateria en el cosmos es muy inferior a la de materia; tal fenómeno se llama asimetría bariónica.

Durante muchísimos años esta asimetría ha sido uno de los grandes problemas sin resolver en la física, y aún hoy en día sólo tenemos algunas hipótesis bien fundadas al respecto. Una posibilidad es que, simplemente, haya grandes cantidades de antimateria más allá de los límites del universo observable actualmente; sin embargo, esta especulación es poco elegante y no explica a qué se debe semejante separación, cuando materia y antimateria deberían atraerse entre sí. En general, representa una violación del principio cosmológico. Una hipótesis más interesante, postulada por Cronin y Fitch en 1964 (premios Nobel 1980) es la llamada violación de la simetría CP; el Nobel se debe a que esta violación ha sido verificada experimentalmente.


http://cdsweb.cern.ch/record/1065976

La simetría C y la simetría P vienen a regir la manera en que la materia y la antimateria pueden formarse. Ya en los años ‘50 se había constatado que algunas partículas no cumplen rigurosamente la paridad que se le suponía a todas ellas. Cronin y Fitch demostraron que estas simetrías se producen bajo la acción de todas las fuerzas menos una: la interacción débil. Esto significa que nuestro universo, al menos desde momentos muy tempranos, no es exactamente simétrico sino que está sesgado hacia la materia frente a la antimateria (a partir de donde algunos proponentes de multiversos sugieren la existencia de al menos otro universo que favorezca la antimateria frente a la materia). No es la única asimetría de nuestro universo: la quiralidad del cosmos está virada a la izquierda en todos sus ámbitos, desde la física a la biología (esto se suele convertir en una broma política, pero constituye un fenómeno fascinante del que hablaremos un día de estos).

De todas formas, parecen existir grandes acumulaciones de antimateria dentro del universo observable. El observatorio espacial europeo INTEGRAL ha confirmado la existencia de una de estas cerca del centro de nuestra propia galaxia: una nube de antimateria que emite fuerte radiación gamma porque está aniquilando positrones a razón de 1,5 seguido de 42 ceros cada segundo. No obstante, la proporción sigue siendo anómalamente baja y se sospecha que toda o casi toda la antimateria existente en el universo actual es reciente, creada en procesos vinculados a la materia.

Esta es una pregunta aún sin respuesta, que se estudia atentamente pues resolverla implicaría destruir uno de los grandes obstáculos para alcanzar una gran teoría unificada.

¿Antigravedad?

Hay quien ha especulado que la existencia de la antimateria implicaría la existencia de la antigravedad. Sin embargo, esto no está demostrado y todas las probabilidades apuntan a que sea una idea incorrecta. Sabemos que la materia atrae gravitacionalmente a la antimateria como si fuera materia corriente, no la repele como sería el caso si estuviéramos ante un fenómeno de antigravedad. La razón fundamental es que en la antimateria se invierte la carga, pero no la masa. En la antimateria, la masa sigue siendo masa, no antimasa.

Aunque el fenómeno inverso todavía no ha sido verificado (atraer gravitacionalmente materia con antimateria), debido a lo débil que es la gravedad y la poca antimateria que hemos logrado producir para su estudio, todo apunta a que materia y antimateria se atraen también por gravedad como si ambas fueran materia (o antimateria) corriente.

La antimateria como fuente (o acumulador) de energía.

Desde luego no es practicable con la tecnología presente, pero la interacción materia-antimateria ha sido evidentemente postulada muchas veces como una fuente (o al menos acumulador) de energía extraordinaria (para uso tanto civil como militar). Estas transformaciones de materia en energía por aniquilación, que como ya dije son las más energéticas posibles del universo conocido, son impresionantes.

Pongamos un ejemplo. Medio gramo de materia interactuando con medio gramo de antimateria (un gramo de masa total) genera espontáneamente 89.876 gigajulios de energía (se obtiene aplicando simplemente E = mc2; E = 0,001 · 299.792.4582 = 89.875.517.873.682 J). En términos de energía utilizable, esto equivale a unos 25 gigawatios-hora (una central nuclear como Cofrentes tirando watios a toda mecha durante casi un día entero); si queremos presentarlo en términos de energía explosiva, son 21,5 kilotones: como Nagasaki más o menos. Con un solo gramo de material.

Comparemos. El uranio-235 de grado militar puede llegar a producir, óptimamente, 88,3 gigajulios por gramo; la mezcla usada normalmente en las centrales civiles, entre medio y tres y medio. Por debajo de mil veces menos. La fusión del deuterio-tritio en las armas termonucleares puede alcanzar 337 gigajulios por gramo; y la fusión más energética posible roza los 650; esto es, ciento y pico veces menos.

La aniquilación materia-antimateria tiene otra ventaja: a diferencia de la fusión, se produce espontáneamente en todos los rangos de energía. A diferencia de la fisión, se produce con cualquier cantidad de materia/antimateria. Esto significa que no presentaría problemas de contención: el diseño conceptual de un reactor de materia-antimateria se parecería mucho al de un carburador o, si lo prefieres, a un motor cohete o una central térmica normal. Si necesitas más energía aumentas un poco el flujo, si necesitas menos lo reduces, si dejas de necesitar lo cortas. Eso es todo.

El problema ya lo hemos visto antes y es en esencia el de siempre: no existe hoy por hoy ninguna forma práctica de producir antimateria en cantidades industriales; mucho menos, de hacerlo a un coste económica y energéticamente rentable (se consume mucha más energía para producir un átomo de antimateria que la energía resultante generada por la aniquilación de ese átomo).

Sin embargo, esta es una posibilidad realista si lográramos crear una fuente de antimateria practicable. Por ello y por todo lo demás aquí expuesto, constituye un campo de investigación extremadamente interesante para la física teórica. El CERN europeo ha dedicado y dedica grandes esfuerzos en este ámbito.

El estudio de la antimateria –que ya nos trajo enormes beneficios como parte de las teorías atómica y cuántica, sin las cuales jamás habrían surgido todas las tecnologías contemporáneas que usamos cotidianamente– puede aportarnos inmensos conocimientos sobre la naturaleza profunda de la realidad, sobre el origen y evolución del universo y sobre nuevas formas de producción energética que ahora mismo sólo podemos soñar; por no mencionar sus utilidades médicas y en otras ciencias aplicadas.

http://lapizarradeyuri.blogspot.com

Searching through the LHC data flood for dark matter

As we mentioned in recent coverage, a hypothesis called supersymmetry is one of the leading candidates to fix the problems that have appeared in the Standard Model, which explains the behavior of the fundamental components of matter. Supersymmetry also makes a nice candidate to transition out of coverage of the Lindau Meeting, which took place in Europe, and the next stop on our scientific tour: CERN's Large Hadron Collider, where many scientists expect that the first direct evidence for supersymmetry will appear.

Previous generations of particle accelerators, like CERN's LEP and Fermi's Tevatron, have filled out a full complement of particles that act as the fundamental building blocks of the Universe. These include components of matter, like quarks and leptons (which include the electron and neutrinos), and the force carriers, from the familiar photon to the heavy and hard-to-produce W boson. As David Gross described it in his Lindau talk (linked above), these components of the Standard Model make extremely precise predictions that have been tested on scales from the Planck length to the Universe.

Although the Standard Model has needed some minor tweaking to deal with recent observations, Gross said that there are three major issues that suggests it's due for a major overhaul. One of these is that we have convincing evidence that dark matter exists, and comes in the form of particles that are heavy and stable to at least the life of the Universe. Unfortunately, the Standard Model provides nothing that meets these requirements.

Force unification is another issue. All of the forces—electromagnetism, the strong and weak force, and gravity—change as energy increases. For a while, it looked like, under the Standard Model, their trajectories would cause all three forces to unify at sufficient energy, but more recent calculations indicate that, although they'll meet, they won't meet at the same point. Either physicists will have to get comfortable with the thought that the forces don't unify, Gross said, or the Standard Model is missing something.

Another issue is what Gross termed the mass scale. The Standard Model required modification simply to ensure particles had mass, and it says little about why different masses end up being what they are. There are several orders of magnitude between the mass of the lightest particles (neutrinos) and everything else, and even the rest of the particles are in the Mega- and Giga-electronVolt range. Physicists appear to be deeply unhappy about not knowing why.

According to Gross, supersymmetry can solve all of these issues. He described the concept as rotating the particles of the Standard Model around an additional axis, creating a set of symmetric ones—quarks get squarks, electrons selectrons, photons photinos, etc. (Given that we've apparently already dealt with the four known dimensions, Gross said that the rotation requires a quantum dimension in which numbers no longer commute.) Most of these new particles are very heavy, and all of them are unstable except the very lightest. Conveniently, in some forms of supersymmetry, this light particle ends up in the neighborhood of 1TeV, right in the neighborhood that astronomy data tells us that dark matter particles should reside.

With minimal extensions, Gross said, the forces end up unifying within one percent accuracy. The mass of the Higgs (given the symmetry, there are actually two Higgs particles) can be related to fermion masses, which we apparently understand well enough to be happy. All that supersymmetry is really lacking, apparently, is some evidence that supersymmetric particles actually exist.

Which supersymmetry should we be looking for?

In our visit to CERN, however, it became very clear that the version of supersymmetry described by Gross was one of a number of potential ways of having supersymmetric particles. John Ellis, a theoretician who has worked at CERN for decades, describes supersymmetry as the "most plausible" replacement for the Standard Model, and has focused on finding ways to help physicists detect the particles proposed in this and other hypotheses ("how to test the crazier ideas," was how he put it).

The model presented by Gross would apparently fall into what's termed the Minimal Supersymmetric Standard Model (MSSM), in which the vast majority of the behavior of the existing Standard Model is maintained in the supersymmetric realm. Even though this class of models has the smallest range of parameters, Ellis told Ars that some parameters, such as the potential masses of these particles, remains very uncertain. And other theoreticians are considering non-minimal extensions, which add degrees of freedom to many other parameters.

You'd like to test as many of these as possible, but Ellis said that theoreticians often arrive at what he termed a "fork in the road." In an MSSM, the lightest supersymmetric particle is stable, and provides a natural candidate for dark matter. There are non-minimal models in which it's not stable, but these don't solve the problem of explaining what dark matter is. So, people have to decide how much they want their models to solve outstanding issues (much more on that below).

On any case, detecting dark matter, Ellis suggested, will be pretty easy because of the "missing" energy and mass that the particles will take out of a collision. But, given the vast volumes of data produced by the detectors, there's still a premium on searching efficiently, and this is where theorists can help guide the production of software to perform the searches.

The real fun may start, however, if we see something that doesn't match up well with any theoretical expectations. Because of the many degrees of freedom allowed by some supersymmetry models (not to mention some of the other theoretical frameworks out there), we'll probably have an abundance of possibilities to consider—"like Lego on the floor," as Ellis put it. The fun will be in figuring out how to match what the detectors are seeing to a limited number of potential models. But Ellis doesn't see the point in worrying about this until it happens, asking, "Why overanalyze until you know it's there?"

Why not solve everything at once?

As Ellis noted, the expectation that dark matter consists of a stable, weakly interacting massive particle has gotten a lot of people excited about forms of supersymmetry that contain something that fits that description. But dark matter is hardly the only unexplained astronomical phenomenon, and that's got people like Indiana University's Pauline Gagnon interested in finding out whether it might be possible to come up with a form of supersymmetry that ties all of the anomalies up in a neat bundle.

Gagnon talked about a set of observations that suggest the world of dark matter might be a bit more complex than a single, heavy particle. These included PAMELA, which has detected an excess of positrons, the ATIC experiments' detection of high energy electrons, an excess of gamma rays from the galactic center (seen by EGRET), and a microwave haze detected by the WMAP satellite. Although some of these observations haven't been replicated by independent instruments, some have suggested they could be explained by high energy events involving dark matter. The same applies to some lower energy evidence produced by experiments like DAMA/LIBRA and INTEGRAL.

A lot of people, including Peter Gross, expect that further observations will fail to replicate some of these results, and the remainder will condense into one or two phenomena that can be incorporated within existing ideas of dark matter. Gagnon and others are considering an alternative: what if they're all right, and dark matter behavior covers a range of different energies (and, by implication, masses).

The result of this speculation is what she called a "hidden valley" model of matter, where there's a high energy barrier between the familiar particles of the Standard Model and those of the "dark sector." The dark sector contains at least two particles: one a heavy WIMP candidate, and the second a lighter boson that can explain some of the lower-energy anomalies. According to this model, we've not spotted them previously in part because of the high energy barrier between the dark sector and ordinary matter, and in part because the lighter dark matter particle decays into a jet of familiar leptons.

Unfortunately, Gagnon indicated that, at the moment, the ATLAS detector's triggers, which filter out the majority of collisions as uninteresting, would actually get rid of any of the lepton jets that might indicate there's some merit to these ideas. As a result, the theorists have to work out how to create a software trigger that could pull out candidate events without overwhelming the storage capacity of the LHC's computing facilities.

When will we know something?

Gagnon indicated that searches for supersymmetry and dark matter would take time, since we need to capture huge numbers of events in order to find some of the rare particles that have escaped detection elsewhere—"Everything we do relies on statistics, but we're not gamblers," as she put it. Since anything that's easy is already done, it could be several years of slogging through data before new physics shows up, and she worried that it could be tough to maintain the high level of enthusiasm that the physics community is now experiencing.

John Ellis was quite a bit more optimistic; he expects that we might be seeing new physics once we've obtained somewhere in the neighborhood of a trillion events, which may happen as soon as this autumn. Since the Higgs boson, the ostensible target of the LHC, is in a noisy place, in terms of the other particle decays with similar signatures, we may actually end up seeing supersymmetry first. Since the experiments are so well-tuned, it may only be a matter of hours before it's flagged, and the rumors start to filter out.

And he's clearly relishing the thought. He said he's been around long enough to remember when the discovery of charm quarks set off 18 months of confusion, and called them "the most exciting months of my physics lifetime." With the LHC, he thinks we've got good reasons to think that something will show up—we just don't know what.

http://arstechnica.com

Original de Teknociencia.com