Sábado, 8 de noviembre de 2008 | Hoy
FISICA DE PARTICULAS
Por Matias Alinovi
Después de Popper, sabemos que la gran tarea científica es la crítica, y también, que en las ciencias opera un criterio de demarcación: sólo debe conjeturarse lo que pueda ser refutado a través de la observación, y esa es la cualidad que distinguirá a una proposición científica de otra que no lo es. Un científico puede, lícitamente, afirmar que todos los árboles son negros y esperar a que otro encuentre uno rojo. Pero no que dios existe, o que todos los hombres nacemos con un complejo de Edipo, porque esas afirmaciones son esencialmente irrefutables mediante la experiencia.
No hay nada valorativo en la demarcación. Es, estrictamente, la descripción de un criterio. Hoy, los argumentos epistemológicos circulan por la física como crítica sensata a un desarrollo teórico que, desde hace unos treinta años, parece acumular afirmaciones irrefutables: la teoría de las cuerdas.
En los años setenta comenzó a desarrollarse una teoría de las partículas elementales y de sus interacciones, conocida como modelo estándar. Es un lugar común referirse a esa teoría como víctima de su propio éxito: aun cuando dejaba preguntas abiertas, incesantemente sus predicciones teóricas eran confirmadas una y otra vez en los aceleradores de partículas. La situación persiste, y hoy mismo un famoso experimento puede desestimar o no una nueva conjetura: el campo de Higgs.
Pero lo que importa aquí es que mientras se exploraban nuevas ideas para la mejor comprensión del modelo, surgió una propuesta radical: reemplazar la noción de partícula elemental, puntual, por la de ciertos objetos unidimensionales llamados cuerdas.
Los matemáticos nos acostumbraron al infinito, pero no está claro si existe o no algo infinito fuera de la imaginación, si existe el “infinito empírico”. Los problemas de la física con el infinito proceden de la descripción matemática de la realidad.
Los campos son una abstracción que permitió describir la misteriosa acción a distancia. Pero los campos suelen presentar problemas. Y los de las teorías cuánticas de campos, que describían la interacción entre partículas, no fueron la excepción. Hacia 1930, esos problemas condujeron a una propuesta alternativa. Como aparecían infinitos en la descripción de las interacciones a muy cortas distancias, se pensó en abandonar el concepto de campo bien definido en todos los puntos del espacio y reemplazarlo, a distancias cortas, por alguna otra cosa. ¿Pero por qué cosa? Nadie lo sabía.
Heisenberg tenía una propuesta: expresar las interacciones mediante una “matriz de dispersión”, expresión matemática que permite predecir qué ocurrirá cuando dos partículas se aproximan e interactúan. ¿Emergen de la colisión intactas, pero cambiando de trayectoria? ¿Se aniquilan, produciendo otras partículas? La matriz respondía y podía calcularse, pero en cierta medida equivalía a cambiar de tema. Era una construcción operativa que ocultaba una ignorancia: qué ocurría entre las partículas cuando estaban muy cerca.
La propuesta de Heisenberg impulsó en la física de las interacciones una especie de “filosofía de la matriz de dispersión”, a la que se opuso Wolfgang Pauli. Pauli, físico suizo nacionalizado norteamericano y considerado uno de los padres de la mecánica cuántica, argumentaba que la propuesta de Heisenberg no resolvía los problemas que la habían originado. La interacción fuerte, una de las fuerzas fundamentales entre partículas, siguió, sin embargo, pensándose en los términos de Heisenberg, por lo menos hasta que apareció la cromodinámica cuántica (QCD), una teoría que sí tenía una idea sobre lo que ocurría a distancias cortas: la fuerza fuerte era el resultado del intercambio de ciertas partículas virtuales llamadas gluones.
Ahora bien: uno de los mayores teóricos en interacción fuerte de la época se llamaba Geoffrey Chew, y trabajaba en Berkeley. A pesar del surgimiento de la QCD, Chew perseveró en el desarrollo de una versión de la matriz de dispersión a la que se ponían ciertas condiciones y principios generales con los que, pensaba Chew, se podría determinar unívocamente la matriz. Y, como antes Heisenberg, alentó una especie de filosofía asociada con el procedimiento. La llamaba autosuficiente. Según Chew, eran las interacciones de cada partícula con todas las demás las que determinaban sus propiedades básicas.
En Berkeley, a mediados de los sesenta, esas interpretaciones debían prestarse a conclusiones improcedentes. En momentos políticamente álgidos, casi toda discusión teórica acomoda las opiniones por fuera de la argumentación estrictamente científica, es una constante de la historia de la ciencia.
La cuestión es que Chew identificó sus ideas con una “democracia nuclear”: no había partículas más elementales que otras; todas debían pensarse como compuestas por todas. Y, lo que era cantado, enarboló la bandera de su democracia nuclear oponiéndose a lo que consideraba la aristocracia de la teoría cuántica de campos, que admitía partículas elementales, las que correspondían a los “cuantos” de los campos. Pero oponerse a los campos era enfrentarse a una idea fundamental de la teoría: la idea de simetría.
La discusión que subyacía era si la simetría debía considerarse una construcción de la mente o una propiedad de la naturaleza. Si conducía, o no, a leyes fundamentales. Según los partidarios de Chew, buscar simetrías fundamentales en la física de partículas constituía una herencia helénica, inconsistente con la visión del mundo que emergía de la ciencia moderna. Olvidaban, quizás, que también la ciencia moderna era una herencia helénica, y que aun las partículas lo son. Basta pensar en Demócrito.
Si la simetría era estática, aristocrática, helénica, Chew proponía una visión dinámica, democrática y oriental de la física de partículas. Las cosas degeneraron un poco más, y aquella filosofía de Chew devino, de algún modo, una filosofía new age. Fritjof Capra, uno de sus discípulos, publicó en 1975 El Tao de la física, un libro en el que contrastaba esas nociones: la simetría estática occidental y la interrelación dinámica de todas las cosas, oriental.
Chew creía entonces que las condiciones impuestas sobre la matriz de dispersión serían suficientes para determinarla de manera única. Pero resulta que existían infinitas matrices posibles, de modo que eran necesarias condiciones extra y que se volvían cruciales. Nadie, sin embargo, sabía cómo debían ser.
En 1968 el físico Gabriele Veneziano notó que una función matemática estudiada por Euler en el siglo XVIII, la función llamada beta, tenía las propiedades correctas para describir una matriz de dispersión. Pero la expresión de la matriz era muy distinta de lo que se esperaba. Tenía una propiedad llamada dualidad: al mirarla de dos modos diferentes describía dos comportamientos distintos de las partículas.
Hacia 1970 Yoichiro Nambu, el último Premio Nobel, junto a dos colegas, encontró una interpretación elegante de la fórmula de Veneziano: podía pensarse como la matriz de dispersión siempre que las partículas hubieran sido reemplazadas por “cuerdas”. Una idea extraordinaria.
La cuerda era una idealización (como la partícula, por lo demás). Las cuerdas podían ser abiertas o cerradas: o tenían dos extremos libres, o los extremos estaban conectados. Había, sin embargo, una diferencia esencial entre cuerdas y partículas: si para especificar la posición de una partícula en el espacio sólo se necesitan tres números, para especificar la de una cuerda se necesitan infinitos: tres por cada punto de la cuerda.
Con Nambu los físicos volvieron a la década del ’30 y desarrollaron una teoría cuántica de las cuerdas, así como lo habían hecho antes con las partículas, arduamente.
Y sin embargo, ¡ay!, esa mecánica cuántica desarrollada a partir de las cuerdas presentó dos problemas serios: funcionaba si la dimensión del espacio-tiempo en el que la cuerda vivía era ¡veintiséis y no cuatro!; e incluía un taquión, una partícula que se movía más rápido que la luz. Moverse más rápido que la luz es siempre un problema, porque altera la causalidad: uno puede viajar al pasado y sembrar la inconsistencia.
Otro problema de las teorías de cuerdas consistía en que no incluían fermiones (como el electrón o el protón). Y para hacer contacto con el mundo real de la interacción fuerte había que resolver ese problema. Muchos físicos trabajaron entonces en teorías con fermiones, y descubrieron que sus teorías podían tener sentido en diez dimensiones, y no sólo en veintiséis. Era un progreso.
En la década del ’70 se descubrió que las teorías cuánticas de campo en cuatro dimensiones presentaban una nueva simetría, la supersimetría, que se correspondía con una especie de raíz cuadrada de la simetría de traslación que involucraba a los fermiones. Pensemos ahora en la superficie barrida por una cuerda al moverse. Es una superficie bidimensional, una especie de sábana; los primeros teóricos de cuerdas descubrieron que las teorías de cuerdas con fermiones involucraban una versión de la supersimetría análoga a la supersimetría “corriente” de las cuatro dimensiones pero en las dos dimensiones de aquella sábana. Ese tipo de teoría de cuerdas se conoció como de “supercuerdas”.
Hacia 1973, el éxito de la QCD hizo que muchos abandonaran las cuerdas. Algunos, sin embargo, siguieron investigando sus propiedades, como John Schwarz, un discípulo de Chew. No se resignaban a creer que aquella construcción soberbia fuera físicamente irrelevante.
Uno de los problemas era que la teoría de supercuerdas predecía la existencia de una partícula nunca observada, sin masa: el gravitón, es decir, el cuanto del campo gravitatorio. Y así, una teoría casi vencida por el éxito de los quarks resucitó como gran candidato a teoría unificada, que incluiría tanto a los campos del modelo estándar como a una teoría cuántica de la gravedad.
En pocos años, Schwarz y sus colaboradores resolvieron algunos de los problemas más ostensibles de la teoría, como el de los taquiones, y produjeron la primera revolución de la teoría de las supercuerdas, que comenzó el éxodo progresivo hacia las cuerdas.
Digamos que hacia 1990 existían cinco teorías de cuerdas, algunas con simetrías extremadamente complejas. Edward Witten, el físico norteamericano que había iniciado aquel éxodo, desarrolló en 1995 una serie de conjeturas sobre cómo estaban relacionadas esas cinco teorías. Habló de relaciones de dualidad entre las distintas teorías y una versión supersimétrica de la teoría de la relatividad general de Einstein. A partir de esa evidencia, y de acuerdo con argumentos cada vez más complejos, Witten conjeturaba la existencia de una nueva teoría supersimétrica en once dimensiones, a la que de algún modo todas remitían. Nunca hubo teoría más conjetural. Witten la llamó M.
En 1997 apareció un artículo de Juan Martín Maldacena, físico argentino, con una conjetura que dominó la investigación reciente en cuerdas. Maldacena conjeturaba, a la Witten, que existía una relación de dualidad entre dos tipos muy diferentes de teorías, en dos dimensiones diferentes. El artículo fue uno de los más citados de la historia de la física.
¿Qué valor tiene el desarrollo teórico de las cuerdas? Peter Woit, físico norteamericano, escribió un libro para responder desde el título: Ni siquiera está mal. Y aunque Woit matiza su opinión, es, desde luego, lo peor que puede decirse de una teoría científica. O que aspira a ser científica. Después de Popper, el criterio unánime es la falsación.
Con el desarrollo de las cuerdas la física estaría abandonando su objeto central: describir la naturaleza en términos de una única teoría convincente que al hacer predicciones sobre la realidad se ponga a prueba. Los teóricos de las cuerdas podrían replicar: paciencia, ya entenderemos lo que estamos haciendo, y entonces la teoría servirá para hacer predicciones.
En esa actitud hay un peligro, el de Tolomeo. Tolomeo era un genio, y creía que la Tierra era el centro del Universo. Y como era un genio, estudió todos los datos que existían sobre el movimiento de los planetas y construyó un modelo geométrico que permitía calcular sus posiciones. Tolomeo decía, explícitamente, que con su sistema no pretendía descubrir la realidad, que lo suyo era sólo un método de cálculo.
La cuestión es que con su técnica del epiciclo-deferente resolvió, con bastante éxito, los dos grandes problemas del movimiento planetario: la retrogradación de los planetas y la duración dispar de las revoluciones siderales. Cada vez que tenía un problema, agregaba un epiciclo. Hasta que un día llegó Copérnico.
© 2000-2022 www.pagina12.com.ar | República Argentina | Política de privacidad | Todos los Derechos Reservados
Sitio desarrollado con software libre GNU/Linux.