MUSICA › PENSAMIENTOS SOBRE LA INTELIGENCIA ARTIFICIAL
“En el show del sábado, en el Luna Park, van a ver en pantalla dos frases: una es de Elon Musk, dueño de la empresa Tesla; Musk es, quizás y después de Steve Jobs, el tipo más escuchado en Silicon Valley. Y la otra frase es de Stephen Hawking. Ellos van para donde va el futuro. Y ambos alertan acerca de los riesgos de desarrollar una inteligencia artificial más poderosa que nuestros cerebros, lo que conlleva riesgos muy concretos y muy graves que podrían significar la desaparición de la raza humana. El otro día estaba leyendo a Nick Bostrom, profesor de Oxford; para él no hay términos medios: el desarrollo de una inteligencia artificial superior a la nuestra traería cosas o “muy buenas” o “muy malas” pero, si no tomamos cartas en el asunto, los resultados habrán de ser muy malos. ¿Qué hacemos con las especies a las que consideramos menos inteligentes? ¿Las suprimimos, las dejamos, o las corremos de su lugar para dejar el territorio y los recursos libres para nosotros?”.
“Me parece necesario que este tema esté en discusión. Y que participemos todos, porque por ahí mucha gente puede pensar que esto queda muy lejos, tanto en el futuro como geográficamente: ‘¿En qué me afecta a mí lo que hacen cuatro nerds en Silicon Valley?’. Nos afecta de todas las maneras posibles: en principio, en la posibilidad de que sigas teniendo trabajo; la robótica se está acelerando y entonces, ¿acaso no hemos pecado en correr detrás de lo urgente, en lugar de detrás de lo más importante? Esta será la discusión más seria en el mundo. No estoy diciendo que no sean graves la hambruna, las guerras o las enfermedades, por supuesto; hay un montón de cosas que atajar. Pero en un corto plazo –estamos hablando de los próximos veinte o treinta años, no más–, esto es incluso más serio que el calentamiento global. Estamos ahí: como digo en ‘Caballo de fuego’: ‘Hay tanto en juego, tanto que ganar corriendo ciegos, queriendo alcanzar una utopía sin limitación; vida infinita, más que la del sol…’”·
“Hay muchos beneficios económicos detrás de esto: ¿quién desarrollará la primera inteligencia artificial? El motor de búsqueda de Google es hoy, quizá, la más eficaz inteligencia artificial aplicada a nivel mundial: en menos de un segundo te trae todo ¡y encima te filtra! Lo que hay en juego es… ¿poderío militar? Hace poco, intelectuales de todo el mundo firmaron una carta en contra de la inteligencia artificial para la guerra, cosa que ya se está aplicando: todo lo va a decidir una máquina de acuerdo con ciertos parámetros que le sean dados. En Wall Street se están usando inteligencias artificiales –que por ahora son acotadas– para el intercambio de acciones; en 2010 hubo una corrida por un sistema de seguridad que se dio cuenta de que se estaban haciendo algunos intercambios muy raros… y cortó: fue una especie de “fusible”: no había pasado ni un segundo y ya había explotado la Bolsa.”
“Todo es cada vez más rápido y más inteligente y más poderoso. Y muchas cosas habrán de salirse de nuestras manos. Todos los gobiernos de los países ricos están corriendo detrás de esto… porque no pueden no correr detrás de esto. De alguna manera, es fascinante lo bueno que podría resultar; resolver problemas de los que todavía no encontramos la clave… Si estas entidades trabajan con nosotros, y no en nuestra contra, sería un salto evolutivo tremendo.”
“Al mismo tiempo, con las armas nucleares tuvimos –y tenemos– la oportunidad de exterminarnos. Estuvimos a punto de hacernos pelota varias veces, pero no lo hicimos: primó el buen juicio. Lo que pasa es que en aquel entonces las decisiones las tomábamos nosotros… y ahora ya no. Porque no sabemos qué puede resultar: aun cuando pusiéramos en estas máquinas la idea de no trabajar en contra del ser humano, una vez que tengan una verdadera autoconciencia y una inteligencia comparable o superior a la nuestra… en cuestión de minutos, se van a poner a replicar. Y eso también es exponencial. Una inteligencia miles de millones superior a la nuestra; una explosión de inteligencia. No sabemos qué va a ser eso, ni qué camino va a tomar, ni sus valores éticos.”
“Una posibilidad es que con la superinteligencia hubiera una superética, pero no sabemos de qué índole. Si una superinteligencia se fijara en cómo estamos llevando el mundo hoy… Hay gente muriéndose de hambre; nos matamos como perros los unos a los otros; amenazamos el futuro del mundo como entidad ecológica… ¿No sería lógico que una entidad superinteligente se hiciera cargo? Es un momento inigualable en la historia de la humanidad. Es increíble; es como estar en los últimos capítulos de la serie más atrapante de Netflix (risas de angustia). Esperemos que no sea el último.”
Y las frases en pantalla, el sábado, serán éstas:
“Debemos ser extremadamente cuidadosos con la inteligencia artificial. Es potencialmente más peligrosa que las armas nucleares.” (Elon Musk)
“El desarrollo de una inteligencia artificial completa podría significar el fin de la raza humana.” (Stephen Hawking)
(Versión para móviles / versión de escritorio)
© 2000-2022 www.pagina12.com.ar | República Argentina
Versión para móviles / versión de escritorio | RSS
Política de privacidad | Todos los Derechos Reservados
Sitio desarrollado con software libre GNU/Linux