INTELIGENCIA ARTIFICIAL: ¿SERAN CONSCIENTES LAS MAQUINAS DEL FUTURO?
› Por Sergio A. Moriello
El siglo XX fue testigo de cómo las máquinas primero y las computadoras después vienen superando inexorablemente las habilidades tanto físicas como intelectuales del hombre. ¿Será el ser humano capaz de tolerar el fuerte choque que experimentará ante el aberrante concepto de “máquina consciente”?
Varios filósofos y científicos argumentan que es poco concebible que una auténtica inteligencia pudiera manifestarse sin estar acompañada por una conciencia. Si se alcanzara la inteligencia artificial, la conciencia surgiría como una directa consecuencia. No obstante, hay otros pensadores que consideran que ésta no necesariamente estaría atada a la primera. Por ejemplo, los enjambres se comportan de manera inteligente, aunque resulta difícil argumentar que existe alguna especie de conciencia unificada revoloteando entre los miles de abejas que los componen.
Asimismo, aunque varios expertos aseguran que la conciencia es un atributo que pertenece únicamente a la especie humana, otros lo ponen en duda: quizá muchos animales también tengan un cierto tipo de conciencia, aunque muy primitiva o poco desarrollada. Si bien muy pocas personas estarían convencidas de que es el caso de los peces, no ocurre lo mismo cuando se observa el comportamiento de un perro o de un chimpancé.
¿Podrá la conciencia cobrar vida a partir de los circuitos de una máquina? ¿Es posible duplicar las funciones de un cerebro orgánico en una estructura artificial semejante? ¿Podrán algunos procesos computacionales generar propiedades mentales que sean indistinguibles de las humanas?
Muchos filósofos afirman que la computadora no tiene ni podrá tener conciencia porque está construida con materiales no orgánicos y no cuenta con una estructura neuronal profundamente integrada a un cuerpo biológico. Tal vez la conciencia humana sea un fenómeno que dependa no sólo de la interacción del cerebro con el resto del cuerpo, sino también de las interacciones de la persona con su entorno físico y social.
Algunos filósofos admiten que si alguna vez se llegara a duplicar las funciones cognitivas quizá también se podrían duplicar las funciones afectivas (las emociones y los sentimientos). Pero para eso no sólo habría que construir un cerebro, sino también un cuerpo artificial y, en lo posible, de forma humana. En consecuencia, la máquina ya no sería simplemente una computadora con un gran intelecto, ni siquiera un robot dotado de elaborados sistemas sensomotores, sino un complejo androide capaz de interactuar con su entorno y con las personas.
De todas formas, y desde el punto de vista de la ingeniería, se trata de un desafío formidable: no sólo no se tiene un acabado conocimiento de la neuroanatomía del cerebro ni de cómo éste trabaja, sino que tampoco las ciencias cognitivas están lo suficientemente desarrolladas como para entender cómo funciona la mente.
Sin embargo, y con independencia de eso, ¿se necesitan realmente máquinas que sean conscientes de su propia existencia? Si la respuesta fuese afirmativa, con seguridad surgirán otras tal vez más inquietantes: ¿qué pasará con la libre voluntad?, ¿tomarán estas máquinas sus propias decisiones? ¿Desarrollarán algún tipo de discriminación sobre los organismos biológicos, en especial sobre los humanos? ¿En qué se transformarían las futuras máquinas?
Si se logra algún día construir una “máquina consciente”, ¿no dejaría de ser ésta, por simple definición, una máquina? ¿Acaso las máquinas no se construyen única y exclusivamente para desempeñar una función y nada más?
El problema no sería tanto si las computadoras fuesen capaces de pensar –algo que de por sí ya es bastante atemorizante–, ni siquiera que lo hagan a velocidades muchas veces superiores a la del Homo sapiens, sino si podrían desarrollar algún tipo de conciencia. Si la inteligencia estuviera enlazada indisociablemente a la conciencia, entonces es posible que las máquinas inteligentes tengan aspiraciones y deseos propios y hasta podrían rebelarse a seguir trabajando para sus dueños, como si fueran esclavas.
Quizá también surgiría en ellas el deseo de autoconservación, la negativa a dejarse desconectar. Y dado que la conciencia es equivalente a la vida, desconectar una máquina sería una forma de homicidio. Hasta el concepto mismo de posesión –por parte de un ser humano– de una máquina inteligente podría cuestionarse desde el punto de vista moral.
Por otra parte, el hecho de aceptar que una máquina pueda tener un cierto tipo de conciencia, sin dudas constituiría una profunda herida para el narcisismo humano. Una herida que seguiría a las anteriores: la de que la Tierra no es el centro del universo (con el polaco Nicolás Copérnico y el italiano Galileo Galilei), la de que el hombre no está tan separado de los primates (con el británico Charles Darwin) y la de que coexisten en el ser humano la inteligencia y la emoción, la razón y la irracionalidad (con el austríaco Sigmund Freud).
Humillado otra vez, el Homo sapiens trata actualmente, de la mano de sus filósofos, de alzar su propia autoestima aduciendo que las máquinas nunca tendrán conciencia, o que jamás experimentarán emoción alguna. ¿Estará seguro de eso?
Sergio A. Moriello es ingeniero en Electrónica y Magister en Ingeniería en Sistemas de Información. Lidera GDAIA (Grupo de Desarrollo de Agentes Inteligentes Autónomos, UTN-FRBA) y es miembro activo de ALAS (Asociación Latinoamericana de Sistemas) y de GESI (Grupo de Estudio de Sistemas Integrados). Es autor de los libros Inteligencias sintéticas e Inteligencia natural y sintética.
(Versión para móviles / versión de escritorio)
© 2000-2022 www.pagina12.com.ar | República Argentina
Versión para móviles / versión de escritorio | RSS
Política de privacidad | Todos los Derechos Reservados
Sitio desarrollado con software libre GNU/Linux