La música, más que cualquier otro arte, es una mezcla hermosa de ciencia y emoción.
Sigue una serie de patrones en buena parte matemáticos, para despertar sentimientos en las personas que la escuchan.
Las máquinas experimentales que componen música se centran en estos patrones matemáticos para lograr ritmos coherentes y arquitecturas melódicas que no resulten disonantes, pero dan poca importancia a la respuesta emocional de su audiencia.
Un equipo de investigación internacional integrado por científicos de la Universidad de Osaka en Japón, la Universidad Metropolitana de Tokio en el mismo país, IMEC en Bélgica y la empresa Crimson Technology, ha dado a conocer un nuevo sistema de aprendizaje automático que detecta el estado emocional de sus oyentes para producir nuevas canciones que provoquen nuevos sentimientos.
El concepto de aprendizaje automático consiste en que, en vez de programárselo todo a un computador o a un robot, se intenta lograr que estas máquinas sean capaces de aprender por su cuenta, a partir de sus éxitos y fracasos al intentar realizar una tarea que nadie les ha enseñado a hacer, y, si es el caso, buscando información, examinándola e integrando los nuevos conocimientos a lo que ya saben.
La mayoría de las piezas musicales compuestas por máquinas son el fruto de un sistema de composición automático que está preprogramado con un repertorio concreto de canciones a modo de ejemplos pero que solo puede componer otras similares.
Because of this issue the men are not ready to perform sexual action with his accomplice with longer erections and some kind of assurance of verity cialis sales australia and libido. cialis generic You will have to surround yourself with supportive individuals who encourage you to cope with and naturally get rid of your anxieties. It’s understandable if a company is not able to answer them for you. buy cheap sildenafil review It’s actually pretty common and affects most men at some point in their viagra samples http://davidfraymusic.com/orquestra-sinfonica-brasileira-at-theatro-municipal-do-rio-de-janeiro/ lives. El equipo de Masayuki Numao, de la Universidad de Osaka en Japón, se propuso mejorar la experiencia interactiva mediante la incorporación a la máquina del estado emocional del usuario.
En las pruebas realizadas con el nuevo sistema, unos voluntarios escuchaban la música mientras llevaban un casco (llamado Brain Music EEG) equipado con unos auriculares inalámbricos y con sensores para captar las ondas cerebrales.
Estos sensores recogían lecturas de electroencefalograma, que el sistema de inteligencia artificial usaba para decidir las características de la música que componía y ejecutaba.
Numao y sus colegas preprogramaron al sistema con canciones de ejemplo, pero al hacer que las ondas cerebrales del oyente se añadieran al proceso de composición de nueva música, el funcionamiento del sistema se volvió mucho más flexible, adaptándose, en cierto modo, a los gustos del oyente.
Comprobaron que los usuarios se sentían más atraídos por la música cuando el sistema podía detectar sus patrones cerebrales.
Fuente: Noticias de la Ciencia