Científicos de la Universidad de Zaragoza desarrollan un método para “ver a través de esquinas”
Una nueva técnica de imagen computacional, que combina hardware de imagen ultra-rápida a un billón de fotogramas por segundo con novedosas técnicas computacionales, permite por primera vez ver a través de esquinas en escenas del mundo real no controladas en un laboratorio, incluyendo geometría y materiales complejos.
Esta técnica ha sido publicada en la prestigiosa revista Nature, considerada la más importante en investigación científica, y ha sido desarrollada gracias a la colaboración de los científicos Diego Gutiérrez, Adrián Jarabo e Ibón Guillén del grupo Graphics and Imaging Lab del Instituto de Investigación en Ingeniería de Aragón (I3A) de la Universidad de Zaragoza, con investigadores de la University of Wisconsin - Madison, liderados por Andreas Velten.
Desde que Gutiérrez y su equipo, en colaboración con el MIT (EEUU), desarrollaron en 2013 una cámara capaz de capturar luz a un billón de frames por segundo, la idea de usar esta tecnología para ver a través de esquinas ha sido explorada por varios grupos a nivel mundial, pero hasta ahora se limitaba a objetos sencillos en condiciones ideales de laboratorio: “Esencialmente, a un billón de fotogramas por segundo podemos aproximar qué camino ha recorrido cada fotón al viajar por la escena, para luego invertir matemáticamente el camino de millones de fotones y reconstruir una escena”, señala Adrián Jarabo. “Sin embargo, invertir este camino resulta poco robusto, haciendo esta técnica impracticable salvo en situaciones sencillas en condiciones muy controladas”, añade. Esas limitaciones hacían que esta prometedora tecnología no pudiese ser aplicada en condiciones realistas.
Según explica Diego Gutiérrez, para tratar de superar estas limitaciones, fue necesario adoptar un enfoque radicalmente nuevo: “Nos dimos cuenta de que las cámaras tradicionales no requieren modelos matemáticos complejos para capturar una imagen. De hecho, su funcionamiento básico es conocido desde hace unos 200 años. De modo que nos replantemos el problema de cero, y desarrollamos un modelo computacional que nos permite transformar una pared en una cámara virtual que captura directamente la escena oculta”.
Estas cámaras virtuales poseen las mismas capacidades que los sistemas ópticos existentes (incluyendo también microscopios o telescopios), y es muy robusta a señales degradadas por ruido, rango, iluminación ambiental, e incluso a exposiciones muy cortas, necesarias para llevar esta tecnología al mundo real: “Ahora mismo capturamos escenas no visibles en medio minuto, pero para mitad del año que viene esperamos ser capaces de realizar la captura en uno o dos segundos, o incluso menos”, comenta Ibón Guillén.
Este nuevo modelo no solo permite superar las limitaciones de los modelos previos, sino que “describe una nueva clase de algoritmos que a su vez abren la puerta a multitud de aplicaciones en campos como la seguridad, robótica, vehículos autónomos, o situaciones de rescate en situaciones de catástrofes, donde los miembros de equipos de rescate podrían evaluar riesgos al entrar en zonas peligrosas sin necesidad de exponerse”, comenta Gutiérrez.
Prueba del futurible impacto de esta tecnología está en el interés por parte del Departamento de Defensa de EEUU, que ha cofinanciado esta investigación (junto con, entre otros, una Beca Leonardo de la Fundación BBVA a Adrián Jarabo) dentro del programa REVEAL. A medio plazo, la NASA está en proceso de pruebas para incorporar esta tecnología para la exploración remota de cuevas lunares.
0