De los primeros emprendimientos en pos de una inteligencia artificial a la posibilidad de programar máquinas al servicio del hombre; del desarrollo de la computación en el siglo XX a la historia de Internet y los celulares en el siglo XXI; y de pioneros como Charles Babbage y la condesa de Lovelace a Bill Gates y Steve Jobs: Los innovadores, de Walter Isaacson, repasa los triunfos, las derrotas, los deseos ocultos y los miedos más íntimos de la alianza que durante siglos se entabló entre el hombre y la máquina.
› Por Fernando Bogado
El 26 de marzo que pasó, en una entrevista otorgada al medio australiano Financial Review, Steve Wozniak, cofundador de la empresa Apple junto con el ya fenecido y actual leyenda Steve Jobs, dio un pronóstico bastante sombrío con respecto a los años por venir: “Las computadoras van a reemplazar al hombre, sin duda”. La base para tal afirmación tenía su razón científica: la Ley de Moore, establecida en 1965, tras un artículo aparecido en la revista Electronics firmado por uno de los fundadores de la empresa Intel, Gordon Moore, afirma que cada dos años se duplica el número de transistores en un circuito integrado, haciendo que las circuitos crezcan en capacidad, en líneas generales. Por esos tiempos, el propio Moore ya predecía que, en un futuro no muy lejano, los hombres utilizarían máquinas basadas en tecnología con microchips a base de silicio, como los teléfonos personales y las computadoras hogareñas –cosas que no existían en la agita década del ’60–, y que esas máquinas, cada dos años, quedarían obsoletas por la mejora de la tecnología que las sustenta. La ley también marca un límite: aproximadamente, en la década de 2020, esta progresión alcanzaría su fin y daría paso a una nueva tecnología que superaría el estado de los avances científicos y comerciales contemporáneos: la era del silicio daría paso a quién sabe bien qué cosa. Wozniak, como muchos otros, temen lo peor: ese salto haría que las máquinas, las computadoras y los desarrollos en Inteligencia Artificial lleguen al extremo tal de crear un ser artificial capaz de superar y dominar al hombre. Como en una clásica trama de ciencia ficción, nosotros jugaríamos el papel de los dioses de la Antigüedad, superados, históricamente, en gracia y beligerancia, por nuestras propias creaciones.
El problema de la Inteligencia Artificial, el desarrollo de la computación y la historia de Internet son temas recurrentes en el último libro de Walter Isaacson, Los innovadores, texto que se propone repasar los aportes particulares de un gran número de científicos, emprendedores e ingenieros que pusieron su granito de arena para llegar al transistor de silicio, las PC, las páginas web, el correo electrónico y los primeros, temblorosos pasos de la I.A. Detrás de la historización de esas innovaciones y de la (no tan) tímida defensa del modelo comercial del mundo norteamericano, lo que tenemos es el despliegue en el tiempo de una obsesión que, como mínimo, se remonta al nacimiento de la modernidad: la máquina como espejo del hombre.
Nos quedará a nosotros, le quedará a la propia máquina, inclinarse por el costado bueno o malo del asunto.
El primer momento de esta búsqueda de siglos se registra en los comienzos del XIX en Inglaterra, cuando una entusiasta por las matemáticas como Augusta Ada King, condesa de Lovelace, conocida simplemente como Ada Lovelace, se vinculó con el trabajo de Charles Babbage, un notable matemático hijo de un banquero, quien exhibía en una serie de tertulias vespertinas organizadas en su casa un modelo parcial de lo que él llamaba su “máquina diferencial”, un artilugio mecánico que podía resolver complejas operaciones matemáticas (como lo son las ecuaciones polinómicas). La máquina consistía en un conjunto de ejes verticales con discos que podían girarse hasta cualquier posición numérica. Los discos iban unidos a unas ruedas dentadas que giraban para sumar el número elegido a un disco adyacente: así, los números de un eje se sumaban al siguiente eje mientras otro eje contenía los resultados parciales, permitiendo resolver cualquier tipo de polinomio. La idea era bastante sencilla y propia de su época: a través de una sola operación aritmética (la suma) y dividiendo en acciones mínimas los cálculos necesarios para resolver un polinomio dado, se hacía factible la solución de problemas de diversa complejidad. Era la división del trabajo propia de los años de la revolución industrial aplicada a la matemática.
Lovelace quedaría impresionada por el invento, pero sería la siguiente obsesión de Babbage la que realmente la cautivaría: la “máquina analítica”. La “diferencial” podía realizar sólo una operación para resolver una función, pero ¿qué pasaría si una máquina fuera capaz de realizar varias operaciones y resolver varias funciones con la misma capacidad material? O sea, una máquina que pudiera hacer varias cosas con el mismo equipo físico, pero respondiendo a diferentes instrucciones, sin estar pegada estrictamente a una. Esas “instrucciones” seguían el modelo del telar automático inventado a comienzos del siglo XIX por el francés Joseph-Marie Jacquard, telar que funcionaba a partir de tarjetas perforadas, las cuales controlaban el movimiento de las varillas, activándolas alternativamente según los agujeros de la tarjeta (una varilla pasa, la otra no), creando diferentes patrones. La combinación de las ideas de Babbage con el modelo de telar de Jacquard lograría algo adelantado cien años a su tiempo: la “máquina analítica” es el primer antecedente de nuestras netbooks, tablets y celulares.
Pero Charles Babbage y su “máquina analítica” necesitaban el apoyo de la comunidad científica como trampolín para tener más financiamiento. Babbage se enteró de que Ada Lovelace realizaría una traducción del artículo del italiano Luigi Menabrea sobre la invención del querido Charles para la publicación Scientific Memoirs, y éste convenció a lady Lovelace de que le agregara a la publicación unas “notas” que reforzaran la defensa de sus creaciones. Estas “notas” superarían en varias líneas el artículo de Menabrea y se convertirían en un hito para el desarrollo de la programación y del razonamiento científico en torno de la Inteligencia Artificial. En ellas, Lovelace estudia las posibilidades de una “máquina universal” que, como la “máquina analítica” de Babbage, pudiera resolver no sólo una función concreta, sino cualquier función dispuesta según la programación dada (la tarjeta perforada de Jacquard); pero fue mucho más lejos que eso. Sostuvo que la máquina en cuestión podía manejar cualquier tipo de lenguaje simbólico, no sólo el matemático, apelando a la idea de que toda producción humana podía ser resumida en un lenguaje formal y lógico. La pregunta que quedaba flotando en el aire era obvia: ¿puede esta máquina, entonces, “pensar”? Para Lovelace, no. La máquina podía realizar cualquier operación que se le ordenase, pero no podía originar nada, no podía producir su propia “tarjeta perforada”, por decirlo de alguna manera. Esta observación pasaría a la historia como la “objeción de lady Lovelace”, según la bautizó Alan Turing, responsable de otros hitos en el largo camino que faltaba recorrer para llegar a la computadora moderna y dueño también de su propio test para diferenciar la inteligencia humana de la artificial.
Charlas Babbage no tendría financiamiento para terminar la máquina diferencial (pese a haberlo obtenido en un principio por parte del gobierno) ni para la analítica: moriría en 1871 sin ver ninguna de las dos terminadas. Ada Lovelace, por su parte, murió en 1852 de cáncer de útero, con apenas 36 años. Pidió que su tumba fuera ubicada al lado de la de su padre, con quien vivió durante muy pocas semanas después de su nacimiento, en 1815. Y es que Lord Byron, el poeta romántico por antonomasia, prefirió seguir con su vida libertina y alejada de todo tipo de imposición antes que serenarse en las rutinarias mieles de la familia y el matrimonio. Annabella Milbanke, tal el nombre de la madre de Ada y esposa de Byron, decidió alejarse del poeta y se encargó de que la hija de ambos no saliera con el peligroso temple artístico del progenitor, por eso la volcó obsesivamente a las matemáticas. ¿Quién iba a decir que sería Lovelace, hija de Byron y maga matemática, la madre de la programación, aquella que sentaría el germen de una posible “ciencia poética” que combine imaginativamente lo mejor de dos mundos teóricamente antagónicos?
Al menos en apariencia, la historia demuestra que la línea a seguir (y el negocio rentable) no estaba tanto en el equipo físico, el “hardware”, como en la programación, el conjunto de órdenes simples y lógicas que podían alcanzar elaborados grados de complejidad, el “software” ya avizorado por Lovelace. Baste un ejemplo para ilustrar la cuestión: el uso de tarjetas perforadas como modo de organizar datos volvería a aparecer en 1890, en Estados Unidos, cuando un simple empleado de la Oficina de Censos, Herman Hollerith, decidiera copiar el modelo de perforación que los guardas de los trenes llevaban adelante en los vagones para acelerar el control de los datos recabados en el censo vigente. Una tarea que demandaba varios años fue resuelta en sólo uno. Hollerith, con espíritu emprendedor, decidió fundar en 1896 la empresa Tabulating Machine Company con el objetivo de comercializar su invento. En 1924, fusionada a otras empresas, pasaría a ser llamada International Business Machine, o, sencillamente, IBM, compañía que sería la principal responsable de numerosas invenciones a lo largo del siglo XX, las cuales determinarían la aparición de la computadora personal (PC) a comienzos de los ’80.
Si bien el libro de Isaacson apunta a revelar constantemente la importancia de diferentes nombres dentro de una creación colectiva extendida a lo largo de dos siglos, en no pocas oportunidades muestra las rencillas de algunos contemporáneos por ganarle al otro, ya sea en términos comerciales o de inventiva, o en ambas situaciones mezcladas. La más resonante es, claro está, la disputa entre Bill Gates y Steve Jobs, quienes, a lo largo de los ’80, entraron en conflicto por ver quién desarrollaba el mejor y más elegante sistema operativo para el manejo de las computadoras personales. Gates había desarrollado para IBM el MS-DOS a partir de una base del programa comprada a un empleado de una empresa de poca monta en Seattle, mientras que Jobs buscaba deslumbrar al mundo con un sistema intuitivo que se aprovechara de la interfaz gráfica posible gracias al desarrollo del hardware y el manejo del mapa de bits. El sistema operativo basado en la metáfora del “escritorio”, idea de los desarrolladores de Xerox retomada por Jobs, deslumbraría al mundo en 1984 con la aparición del modelo Apple Macintosh, mientras que, al poco tiempo, Bill Gates sacaría al mercado un sistema organizado en función de la misma metáfora y con un fuerte apoyo en lo visual: había nacido Windows. Aunque ambos se reclamaran la autoría de ese principio, los dos habían recuperado (¿robado?, ¿comprado de manera fraudulenta?) ideas anteriores y las habían sabido explotar en su beneficio. Sea de una manera u otra, lo que habían dado a las computadoras personales es la posibilidad de presentar una interfaz amable que permitía un manejo mucho más cómodo por parte de un sinnúmero de personas no necesariamente especialistas en computación. Los empresarios de IBM estaban errados: lo que realmente definiría la llegada de la computadora a la casa de cada una de las personas del mundo no era tanto la composición de sus elementos físicos sino la compleja red de secuencias lógicas que ahora podían desarrollarse con la sencillez de hacer un click y mover un objeto de un lugar al otro en un inmaterial escritorio hogareño.
De los sueños de Babbage y Ada Lovelace, pasando por los razonamientos de Alan Turing, la invención del transistor a cargo de William Shockley, Walter Brattain y John Bardeen, las reflexiones de Vannevar Bush (responsable de idear el dispositivo de base de datos Memex, antecedente teórico del concepto de hipertexto y, básicamente, de Internet) hasta llegar a los avances de Jobs y Gates a finales del siglo pasado y la novedad del siglo XXI del blogging y las páginas “wiki” de libre modificación por parte del usuario (por algo la palabra “wiki”, en hawaiano, significa “rápido”), cada momento del libro de Walter Isaacson –un antiguo director del multimedio Times y ex presidente de la CNN, responsable de una de las muchas biografías dedicadas a Steve Jobs– trata de recuperar los bienes tecnológicos del presente como parte de una herencia científica y filosófica que se extiende a lo largo no sólo de los dos últimos siglos, sino de la historia completa del hombre. Si bien la perspectiva es sesgada (sólo se limita a analizar los casos norteamericanos o, como mucho, ingleses) y tiende a ciertas formas de “consejo de marketing” (hay pasajes en donde, incluso, parece recomendar formas de organizar el espacio de trabajo para promover el libre intercambio de ideas entre los empleados), Los innovadores es una dinámica y notable recuperación casi biográfica de diversos avances que, a la larga, terminarían en el mundo que hoy tenemos a disposición en cada botón que presionamos o en cada mensaje (SMS, mail o tweet) que soltamos a la virtualidad de la red. Pero, tal como adelantamos al principio, es presa también de un temor cada vez más tangible por varios “futurólogos” que parten de especulaciones racionales para tener un atisbo del mundo que viene.
El desarrollo de la tecnología parece borrar, progresivamente, la antes nítida diferencia entre el hombre y la máquina, haciendo posible lo que antes parecía imposible, tal como se demuestra con la aparición de creaciones que, con una programación especial, pueden conectar un dato cualquiera con cualquier otro sin necesidad de seguir patrones lógicos rígidos o preestablecidos, haciendo el equivalente de lo que hace el cerebro humano: imaginar, conectar de manera impensable y novedosa dos saberes previos. Aunque el propio Isaacson determina que lo que nos espera es una mutua colaboración entre humano y máquina para la mejora de la civilización (al menos, en su formato occidental), cada tanto aparecen voces un poco más pesimistas, cargadas muchas veces de una cuota de resignación, que adelantan que el mundo por venir ya es patrimonio de las mismas herramientas que usamos para construirlo. Pero dejémosle al mañana el veredicto final.
(Versión para móviles / versión de escritorio)
© 2000-2022 www.pagina12.com.ar | República Argentina
Versión para móviles / versión de escritorio | RSS
Política de privacidad | Todos los Derechos Reservados
Sitio desarrollado con software libre GNU/Linux