Un nuevo algoritmo retoca las fotos en tiempo real

Un nuevo algoritmo retoca las fotos en tiempo real

A la caza del selfi perfecto. Una nueva serie de algoritmos desarrollados por ingenieros de Google y del Instituto Tecnológico de Massachusetts (MIT) va a revolucionar el mundo de la fotografía hecha con el móvil pues estos algoritmos permiten procesar y retocar las fotos en tiempo real, incluso antes de pulsar el botón de disparo. Antes de procesar una imagen de mala calidad, la fotografía podrá ser editada y retocada antes de pasar a nuestro archivo de  imágenes.

Este proyecto aprovecha el aprendizaje de máquinas y redes neuronales entrenadas con 5.000 imágenes creadas por Adobe y el MIT y retocadas por cinco fotógrafos profesionales, enseñando al software cómo ajustar una imagen para conseguir su mejor aspecto.

La verdadera innovación en este caso es hacer que los algoritmos resultantes sean eficientes y lo suficientemente rápidos para aplicar el retoque (aplicando mejoras en el brillo, el contraste o la saturación) mientras todavía estamos encuadrando la fotografía-.

“Esta tecnología tiene el potencial de ser muy útil para la mejora de la imagen en tiempo real en las plataformas móviles”, afirma John Barron de Google.

El aprendizaje de máquinas ya se había utilizado antes para enseñar a los ordenadores a procesar imágenes antes, tanto por Google como por otras compañías, pero el gran tamaño de las imágenes de los teléfonos inteligentes de hoy en día, además del limitado poder del hardware integrado, hace que las ediciones en tiempo real sean muy difíciles.

 

La clave del retoque en tiempo real

Para evitar esto, los ingenieros desarrollaron algoritmos que podían realizar el procesamiento de imágenes en una versión de baja resolución de la imagen -que entra a través del visor de la cámara-, y luego ampliar los resultados de la fotografía sin que la calidad se arruine por el camino.

Al convertir imágenes de baja resolución en alta, lo habitual es que veamos formas pixeladas, entre otras cosas, y que el software tenga que hacer una gran cantidad de conjeturas sobre cómo rellenar los detalles que faltan. Para evitar esto, los expertos aumentaron las imágenes de baja resolución dejándolas no como imágenes reales, sino como fórmulas que podrían aplicarse a las versiones de alta resolución, expresando los cambios a través de las matemáticas en vez de como píxeles reales.

Así, cada píxel de la imagen final de alta resolución tiene cuatro fórmulas que se combinan para establecer qué color/contraste/saturación… es el más adecuado para ese píxel.

Por comparar con un sistema de aprendizaje automático que utiliza versiones de resolución completa de las fotos a lo largo del proceso, este nuevo enfoque utiliza solo una centésima de la memoria.

Lo que significa que la imagen que ves en la pantalla de tu cámara mientras encuadras la foto se puede procesar muy rápidamente, incluso mientras te mueves. Los ingenieros dicen que pueden ajustar el sistema para crear diferentes estilos de disparo que se utilizarán para diferentes fines más allá de nuestra próxima foto de Instagram. Podremos crear fotos realmente profesionales.

Además de aclarar las manchas oscuras y equilibrar el contraste, por ejemplo, los algoritmos podrían incluso imitar el estilo de un fotógrafo en particular. Y es que estos nuevos algoritmos se adaptan inteligentemente a medida que modificamos hacia dónde mira nuestro teléfono.

Barron dice que todos podemos esperar “experiencias fotográficas nuevas, convincentes y en tiempo real sin drenar la batería ni experimentar latencia”.

 

 



Quizás tambien le interese...

Optimization WordPress Plugins & Solutions by W3 EDGE