Filmaciones históricas de los alunizajes son mejoradas gracias a la inteligencia artificial
Si bien es asombroso —y polémico para algunos— ver las filmaciones de los astronautas de la NASA caminando sobre la Luna, hay que admitir que la calidad de aquellos tiempos no es la mejor, incluso a pesar de los esfuerzos de la agencia por mejorarla. Ahora, gracias a la tecnología de inteligencia artificial, un experto ha logrado crear una experiencia visual completamente nueva a partir de las filmaciones originales.
Un especialista en restauración de fotos y videos, conocido bajo el nickname de DutchSteamMachine, ha creado magia junto con la inteligencia artificial al editar algunas filmaciones de las misiones Apolo para crear imágenes vívidas.
«Realmente quería proveer una experiencia nunca vista para estos viejos metrajes», dijo al portal Universe Today.
Por ejemplo, el video del rover de la misión Apolo 16, filmado originalmente a 12 fotogramas por segundo (FPS), ahora a sido incrementado a 60fps:
¿Deslumbrante, verdad? Y aún hay más, como esta vista mejorada de la superficie donde alunizó la misión Apolo 15, en Hadley Rille:
O más histórico aún. A continuación, Neil Armstrong puede verse claramente en esta versión mejorada del famoso video del «pequeño paso» dado en Apolo 11, filmado con una cámara de 16mm dentro del módulo lunar:
Wow, ¡increíble!
La inteligencia artificial (IA) que usó DutchSteamMachine es llamada DAIN (Depth-Aware video frame INterpolation). Esta IA es código abierto, gratis y en constante desarrollo.
El «movimiento de interpolación» o «interpolación de movimiento compensado para fotogramas», es una manera de procesamiento en la cual fotogramas animados intermedios son generados entre los existentes y originales, para así hacer un video más fluido y compensar desenfoques, etc.
Sin embargo, la técnica usada por este experto no es algo que puedas intentar fácilmente en casa. Para este nivel de procesamiento se requiere una GPU de alta gama con ventiladores (coolers) especiales. DutchSteamMachine detalla que, por ejemplo, un video de solo 5 minutos puede requerir desde 6 hasta 20 horas en completarse. Aunque los resultados hablan por sí mismos.
La edición
A continuación, un explicación más técnica y detallada para aquellos duchos en la materia.
«Divido el archivo original —en la máxima calidad posible— en fotogramas PNG individuales, y los agrego a la IA con la cantidad de fotogramas por segundo (1, 6, 12, o 24) y la cantidad deseada de salida para la interpolación (2x, 4x, 8x). La AI comienza usando mi GPU para identificar dos fotogramas reales consecutivos. Utilizando algoritmos, analiza movimientos de los objetos en los dos fotogramas y renderiza nuevos. Con una interpolación de unos 5x, es capaz de renderizar cinco fotogramas falsos a partir de los dos reales», explica.
«Si el metraje fue grabado a 12fps y el rango de interpolación se configura a 5x, los fotogramas por segundo resultantes serán 60, lo que significa que con solo 12 fotogramas reales, hice 48 falsos. Ambos son luego exportados como video y reproducidos a 60fps».
«Finalmente, aplico una corrección de color, dado que a medida los archivos originales tienen un tinte azul o naranja, y sincronizo el metraje con el audio de ser posible», concluye.
Fuente: ScienceAlert. Edición: MP.