18 de marzo de 2014

La computación y las matemáticas cambian el arte de la fotografía

La empresa estadounidense Rambus se encuentra desarrollando un nuevo sistema para capturar imágenes sin usar lentes
Rambus es una empresa estadounidense creada en 1990 que lidera investigaciones y gestiona patentes. Estuvieron presentes en el Mobile World Congress de Barcelona y allí explicaron uno de los proyectos en los que se encuentran inmersos. Patrick R. Gill, investigador científico senior de Rambus Labs, explicó a ABC que están desarrollando una nueva forma para capturar las imágenes. Con esta nueva tecnología, creada por Gill, se eliminan los lentes ópticos y se añaden algoritmos para obtener una fotografía.
Actualmente, las técnicas de fotografía requieren de una lente, cuya información es recogida por un sensor. Este dato es procesado y luego se almacena. Rambus quiere saltarse el paso del lente y simplificar el de los sensores y el procesamiento. Todavía es un prototipo pero ya están realizando pruebas con la que denominan «la cámara más pequeña del mundo». «Estas es una tecnología muy nueva. Requiere mucha computación para hacerlo, y no era posible inventarlo antes porque no existían las herramientas», apuntaba Gill.
Lo han llamado Lensless Smart Sensor Module (Módulo de Sensor Inteligente Sin Lentes) y se una sola placa diminuta que engloba en ella todas las partes de componen una cámara de móvil, por ejemplo.
Funciona a través de «difracción sin lentes». La difracción es un fenómeno físico en el que las ondas se desvían cuando se encuentran con un obstáculo. El Lensless Smart Sensor Module está compuesto por tres partes: la «rejilla de fase difractiva», un «espiral óptico» y un sensor de baja potencia.
Según explican desde Ramsus, que la «rejilla» es muy delgada, sin lentes y fiable. El espiral óptico es el encargado de recopilar los «datos» de la imagen a través de un patrón establecido cuya tamaño es minúsculo. Su trabajo es descifrar la profundidad de campo y el enfoque a través de una «recomposición» de la imagen. El sensor extrae datos específicos de la imagen.
Se debe entender que a través de este proceso, la «cámara» capta el objeto «fotografiado» en una «espiral de fase», luego es interpretada por el sensor, y el resultado final es una imagen «computada o computarizada». Es decir, esa imagen ha sido reconstruida a través de algoritmos y procesos de computación. En este caso, el algoritmo ha sido creado por el investigador Gill.
Reconocen que es una tecnología en fase de prueba y que las imágenes que se consiguen con ella son de baja resolución. A pesar de esto, consideran que este método de obtención de imagen puede ser de gran provecho para otros campos en los que la resolución no es de suprema importancia. Por ejemplo, en la automatización de funciones del hogar, como cámaras de seguridad, sensores de movimiento para coches o monitorización del conductor. También para instrumentos médicos y procesos quirúrgicos.
Fuente: Abc.es