Sáb 05.03.2005
futuro

FRAGMENTOS

RIESGOS EXTREMOS

El matemático y místico Blaise Pascal propuso un célebre argumento en defensa de una conducta devota: aunque una persona considere extraordinariamente improbable que exista un Dios vengativo, lo racional y prudente es comportarse como si existiese, porque merece la pena pagar el precio (finito) de renunciar a placeres ilícitos en esta vida como “prima de seguro” para protegerse de la probabilidad, por muy pequeña que sea, de algo infinitamente horrible en la otra vida, el fuego eterno del Infierno. Este argumento no goza hoy de mucho crédito, ni siquiera entre los creyentes.
Pero la célebre “apuesta” de Pascal es en realidad una versión extrema del “principio de prevención”, un principio de razonamiento que se utiliza con frecuencia en la política ambiental y la sanidad. Por ejemplo, las consecuencias que las plantas y animales modificados genéticamente puedan tener a largo plazo para la salud humana y para el equilibrio ecológico son manifiestamente inciertas: un resultado calamitoso puede parecer improbable, pero no podemos afirmar que sea imposible. Los defensores del principio de prevención insisten en que debemos proceder con cautela, y que es sobre los defensores de la modificación genética sobre quienes recae la responsabilidad de convencernos a los demás de que nuestros temores son infundados, o al menos que los riesgos son tan pequeños que se ven compensados con creces por beneficios concretos y sustanciales. Un argumento análogo es que deberíamos renunciar a los beneficios de un consumo derrochador de energía para reducir así las consecuencias perniciosas del calentamiento global, y especialmente el riesgo pequeño de que sus consecuencias sean mucho más graves de lo que sugieren las “mejores estimaciones”.
El precio que se ha de pagar por las inmensas posibilidades de la tecnología es una variedad mayor de desastres potenciales, no sólo por intención malévola, sino también por error involuntario. Son concebibles sucesos que, aunque muy improbables, pueden causar epidemias globales de enfermedades mortales para las que no exista antídoto o que modifiquen irreversiblemente la sociedad. A más largo plazo, la robótica y la nanotecnología pueden convertirse en la mayor amenaza.
Incluso la física podría ser peligrosa. Algunos experimentos están diseñados para crear condiciones más extremas que las que se producen en la naturaleza, y nadie sabe con certeza qué puede ocurrir. Aunque, ¿qué sentido tendría realizar un experimento si su resultado se pudiese predecir completamente por adelantado? Algunos teóricos conjeturan que ciertos tipos de experimento pueden desatar un proceso sin control que destruya no ya a nosotros, sino a la propia Tierra. Un acontecimiento de este tipo sería mucho menos probable que cualquiera de las catástrofes biológicas o nanotecnológicas provocadas por los humanos que nos acechan durante este siglo, y ciertamente menos probable que el impacto de un gran asteroide. Pero si llegara a producirse, sería bajo cualquier concepto peor que la “simple” destrucción de la civilización, o incluso la destrucción de toda la vida humana. Se plantea entonces la cuestión de cómo debemos cuantificar los grados relativos del horror y qué precauciones tenemos que tomar (y quién debe tomarlas) para impedir que se produzcan eventos que quizá tengan una probabilidad infinitamente pequeña, pero que podrían desencadenar un horror “casi infinito”. ¿Hemos de renunciar a ciertos tipos de experimentos por la misma razón por la que Pascal recomendaba un comportamiento prudente?
Estas singulares preocupaciones se remontan al proyecto de la bomba atómica durante la Segunda Guerra Mundial. ¿Podemos tener la certeza absoluta, se preguntaron entonces algunos, de que una explosión nuclear noinflamará toda la atmósfera y los océanos? Edward Teller ya consideró esa posibilidad en 1942, y Hans Bethe realizó unos cálculos rápidos que tranquilizaron los ánimos. Antes de que en 1945 se probase en el campo de Trinity, en Nuevo México, la primera bomba atómica, Teller y dos de sus colegas abordaron la cuestión en un informe de Los Alamos. Los autores se centraron en la posibilidad de una reacción sin control con el nitrógeno atmosférico, y escribieron que “el único aspecto inquietante es que el ‘factor de seguridad’ disminuye rápidamente al aumentar la temperatura inicial”. Esta inferencia condujo a un renovado interés en la década de 1950, puesto que las bombas (de fusión) de hidrógeno generan temperaturas mayores; otro físico, Gregory Briet, reexaminó el problema antes de que se realizase la primera prueba de la bomba H. Hoy sabemos con certeza que el “factor de seguridad” es realmente muy grande. Pero cabe preguntarse en qué grado hubiesen tenido que ser bajas las estimaciones de ese factor disponibles en aquella época para que los responsables de las pruebas de la bomba H hubiesen decidido cancelarlas.
Hoy sabemos con certeza que una sola arma nuclear, por muy devastadora que sea, no puede desencadenar una reacción en cadena que destruya toda la Tierra o su atmósfera. (No obstante, la utilización de los arsenales enteros de Estados Unidos y Rusia podría tener un efecto tan calamitoso como cualquiera de los desastres naturales que cabe esperar que se produzcan en los próximos 100.000 años). En cambio, algunos experimentos físicos realizados por razones de investigación científica pura podrían suponer una amenaza global, o incluso cósmica. Al menos así lo afirman algunos autores. Estos experimentos nos brindan un interesante “caso de estudio” sobre quién debe tomar las decisiones (y cómo) acerca de la conveniencia de prohibir un experimento que con una probabilidad extraordinariamente baja, pero no inconcebible, puede tener resultados catastróficos, sobre todo cuando los más destacados expertos carecen de la suficiente confianza en sus teorías como para ofrecer a la sociedad, con convicción, el grado de tranquilidad que ésta tiene derecho a esperar.
La mayoría de los físicos (y yo me cuento entre ellos) califican estas amenazas de muy, muy improbables. Pero es importante dejar claro el significado de esa calificación. Existen dos significados distintos de probabilidad. El primero, que conduce a una estimación firme y objetiva, se aplica cuando se comprende el mecanismo subyacente, o cuando el suceso que se estudia ha ocurrido muchas veces en el pasado. Por ejemplo, es fácil calcular que cuando se lanza al aire diez veces una moneda no trucada, la probabilidad de obtener diez caras es algo inferior a uno contra mil. La probabilidad de contraer sarampión durante una epidemia también puede cuantificarse porque, si bien no conocemos todos los detalles biológicos de la transmisión del virus, disponemos de datos de muchas epidemias anteriores. Pero existe un segundo tipo de probabilidad que no refleja más que una conjetura basada en información sólida, pero que puede verse modificada a medida que avanzamos en nuestro conocimiento. (Las evaluaciones en diferentes expertos sobre, por ejemplo, las consecuencias del calentamiento global son estimaciones de “probabilidad subjetiva” de naturaleza parecida.)
En una investigación criminal, la policía puede decir que “parece muy probable” o “es altamente improbable” que un cuerpo se encuentre enterrado en un lugar determinado. Estas expresiones reflejan sólo lo que se atreven a conjeturar a la luz de la evidencia disponible. Tras excavar en el lugar, el cuerpo puede aparecer o no, y a partir de entonces la probabilidad es o bien uno o bien cero. Cuando los físicos consideran un acontecimiento que no se ha producido nunca en el pasado, o un proceso que todavía no se comprende plenamente, las valoraciones que pueden ofrecer corresponden a este segundo tipo de probabilidad: se trata de conjeturas basadas en la mejor información disponible, y reforzadas (a menudo muy sólidamente) por teorías bien establecidas pero que en último término sonsusceptibles de ser revisadas a la luz de nuevas evidencias o nuevas hipótesis.

Este fragmento corresponde al libro Nuestra hora final (Editorial CríticaPlaneta), del cosmólogo inglés Martin Rees (profesor de astrofísica de la Universidad de Cambridge), en el que examina los problemas que afligen en los últimos tiempos a los seres humanos, como el calentamiento global .

(Versión para móviles / versión de escritorio)

© 2000-2022 www.pagina12.com.ar | República Argentina
Versión para móviles / versión de escritorio | RSS rss
Política de privacidad | Todos los Derechos Reservados
Sitio desarrollado con software libre GNU/Linux