CIENCIA › PUEDE CONVERTIR LAS EMOCIONES EN SONIDO
En Intensa-mente, el exitoso film de animación, las emociones se muestran como personajes entrañables. Ahora, la ciencia las puede traducir en un sonido.
› Por Jessica Mouzo *
Las emociones y sentimientos que generan los seres humanos ya se pueden traducir en un sonido audible. No suena igual la alegría más intensa que la pena más profunda. Lo saben bien los científicos del Centro de Regulación Genómica (CRG) de Barcelona que desarrollaron un sistema de comunicación pionero que convierte en tiempo real las ondas eléctricas que se producen en el cerebro en toda una orquesta polifónica según el tipo de emoción y la reacción que provoca en el cuerpo un determinado sentimiento. El dispositivo está pensado para “dar voz” a las personas con algún tipo de discapacidad motora que les impide comunicarse con facilidad con su entorno.
Aunque ya existen sistemas de traducción de señales cerebrales, éste es el primer prototipo que convierte los impulsos eléctricos del cerebro en sonido en tiempo real y no precisa de un control motor por parte del paciente –el movimiento de la retina de los ojos, por ejemplo– para ponerlo en marcha. El sistema, denominado Brain Polyphony, consta de un casco y un software. El proceso comienza colocando el casco en la cabeza del individuo, que funciona como una interfaz que conecta su cerebro con un software que traduce sus ondas cerebrales en sonidos. “Este sistema explora la posibilidad de crear un sistema de comunicación alternativa entre pacientes con parálisis cerebral. Así, sonificamos ondas cerebrales para proveer de un medio de comunicación a las personas que no pueden comunicarse”, explicó Mar Dierssen, jefa de grupo en el CRG y responsable del proyecto.
A través del casco, que se llama Enobio y se conecta con el organismo mediante electrodos, los científicos miden la actividad cerebral y cardíaca del paciente. Los sensores calculan las emociones a partir de los patrones cerebrales, cardíacos, musculares y de acelerometría que se generan en el organismo ante un determinado sentimiento. El dispositivo recoge toda esta información y mide dos parámetros emocionales: la valencia, que indica si el sentimiento es agradable o no, y la arousal, que marca la intensidad de esa emoción. “A partir de estos dos elementos somos capaces de mapear emociones concretas y darles un sonido”, apuntó David Ibáñez, investigador de la empresa de innovación Starlab, que participó en el proyecto del CRG junto al equipo de investigación Barcelona Research Art & Creation (BRAC) de la Universidad de Barcelona. Toda la información adquirida a través de la interfaz se traslada a un ordenador con un software que traduce, en tiempo real, las emociones recogidas en sonidos.
Según cada caso, los investigadores deciden si se ha de utilizar el patrón cerebral, el cardíaco o el motor (o los tres a la vez); luego realizan un cálculo basal (registran cuál es el estado neutro del paciente) y, a partir de ahí, comienzan con el análisis de las reacciones registradas a partir de estímulos visuales y auditivos en el ordenador.
Aunque el dispositivo todavía se encuentra en fase piloto, los científicos ya probaron el sistema con voluntarios sanos y dos personas con parálisis cerebral y, según los investigadores, “los resultados fueron satisfactorios”. Durante el próximo año, el sistema Brain Polyphony será desarrollado completamente y aplicado a 15 pacientes más para comprobar su rendimiento.
* De El País, de Madrid. Especial para Página/12.
(Versión para móviles / versión de escritorio)
© 2000-2022 www.pagina12.com.ar | República Argentina
Versión para móviles / versión de escritorio | RSS
Política de privacidad | Todos los Derechos Reservados
Sitio desarrollado con software libre GNU/Linux