miércoles, 6 de agosto de 2014

Adobe y Microsoft crean un programa que reconstruye el sonido a partir de imágenes

Científicos del MIT, con apoyo de Microsoft y Adobe, han creado el que podría ser el primer micrófono
"visual"
de la historia, un sistema que observa a distancia las vibraciones de los objetos y construye a partir de ellas el sonido que las causa. 
El núcleo del dispositivo es un algoritmo que, en uno de los experimentos, fue capaz de reconocer una conversación con sólo analizar el movimiento de una bolsa de patatas fritas que estaba siendo filmada a 5 metros de distancia y a través de un cristal con aislamiento acústico.

En otro de los experimentos, los investigadores del prestigioso instituto tecnológico y de las dos multinacionales del software fueron capaces de escuchar la melodía que sonaba en otra habitación con el análisis visual de las vibraciones de varios objetos, como la superficie de un vaso de agua o las hojas de una planta de interior.

"Cuando el sonido choca contra un objeto, lo hace vibrar",
explica al servicio de noticias del MIT Abe Davis, estudiante de ingeniería eléctrica en esta universidad y autor principal del estudio. Davis explica que esa vibración, apenas perceptible para el ojo humano, es suficiente para reconstruir la onda de sonido:
"la gente ni siquiera es consciente de que esa información está ahí".

La clave del éxito de sus experimentos está en el algoritmo desarrollado específicamente para esta tarea, aunque la capacidad técnica de la cámara utilizada influye directamente en la calidad de la reconstrucción del sonido.

Claro que el equipo necesario tampoco es de ciencia ficción: en sus experimentos los investigadores utilizaron una cámara de vídeo de alta velocidad que es capaz de captar entre 2.000 y 6.000 fotogramas por segundo, una frecuencia a años luz de los 60 frames por segundo de algunos teléfonos móviles pero que dista mucho de los 100.000 fotogramas/segundo de las mejores cámaras del segmento.