La música, más que cualquier arte, es una hermosa mezcla de ciencia y emoción. Sigue un conjunto de patrones casi matemáticamente para extraer sentimientos de su audiencia. Máquinas que hacen que la música se concentre en estos patrones, pero que presten poca atención a la respuesta emocionalUn equipo de investigación internacional dirigido por la Universidad de Osaka junto con la Universidad Metropolitana de Tokio, imec en Bélgica y Crimson Technology ha lanzado un nuevo dispositivo de aprendizaje automático que detecta el estado emocional de sus oyentes para producir nuevas canciones que provocan nuevos sentimientos.
"La mayoría de las canciones de máquina dependen de un sistema de composición automática", dice Masayuki Numao, profesor de la Universidad de Osaka. "Están preprogramadas con canciones pero solo pueden hacer canciones similares".
Numao y su equipo de científicos querían mejorar la experiencia interactiva alimentando a la máquina el estado emocional del usuario. Los usuarios escuchaban música mientras usaban auriculares inalámbricos que contenían sensores de ondas cerebrales. Estos sensores detectaron lecturas de EEG, que el robot solía hacermúsica.
"Preprogramamos el robot con canciones, pero agregamos las ondas cerebrales del oyente para hacer nueva música". Numao descubrió que los usuarios estaban más involucrados con la música cuando el sistema podía detectar sus patrones cerebrales.
Numao prevé una serie de beneficios sociales para una interfaz hombre-máquina que considera las emociones. "Podemos usarlo en la atención médica para motivar a las personas a hacer ejercicio o animarlas".
El dispositivo se exhibió en la 3ra Exposición ponible en Tokio, Japón, en enero pasado.
Fuente de la historia :
Materiales proporcionado por Universidad de Osaka . Nota: El contenido puede ser editado por estilo y longitud.
Cita esta página :