El grupo de Robótica, Visión por Computador e Inteligencia Artificial (RoPeRT) del Instituto de Investigación en Ingeniería de Aragón (I3A) de la Universidad de Zaragoza (UZ), en colaboración con investigadores de la Universidad de Stanford, ha desarrollado ‘CineMPC’, un sistema cinematográfico que permite a los directores integrar drones en su equipo de trabajo.
La Universidad de Zaragoza ha informado que este avance tecnológico no solo supervisa la posición y orientación del dron, sino también los parámetros internos de la cámara, como la distancia focal, la distancia de enfoque y la apertura. Esto amplía significativamente las posibilidades de aplicación y facilitará el trabajo de los cineastas.
Hasta el momento, todas las soluciones de drones cinematográficos se centraban únicamente en controlar aspectos relacionados con la posición del dron con respecto al sujeto, como grabarlo a una distancia específica de tres metros, con un ángulo de 45 grados o desde el lado derecho. El sistema desarrollado por este grupo de investigadores representa la primera solución que incorpora de forma autónoma los parámetros internos de la cámara.
«Este sistema no solo sigue las indicaciones para moverse, sino que también ajusta el enfoque, la profundidad de campo y el zoom para capturar imágenes según diferentes preferencias artísticas», ha indicado el solo sigue las indicaciones para moverse, sino que también ajusta el enfoque, la profundidad de campo y el zoom para capturar imágenes según diferentes preferencias artísticas», ha indicado el investigador del I3A Pablo Pueyo.
Además, ha explicado cómo ‘CineMPC’ reoptimiza la trayectoria en cada paso en respuesta a las condiciones cambiantes de la escena en tiempo real. «La percepción del sistema rastrea múltiples objetivos, incluso en situaciones desafiantes, como movimientos rápidos o condiciones de iluminación difíciles», ha señalado.
Pablo Pueyo ha reconocido que «en robótica existe un gran número de soluciones que se crean y son funcionales para la simulación» y que «lo verdaderamente desafiante es implantar esas soluciones en robots reales, con todos los problemas que estos sistemas, y particularmente en el campo de los drones, pueden conllevar».
El investigador ha afirmado que, al realizar experimentos en simulación, «se pueden tomar grabaciones en entornos más desafiantes; por otro lado, al implementar la solución en una plataforma robótica real, hemos demostrado que esta plataforma es capaz de funcionar en un dron y, por tanto, es viable».
Recrear grabaciones muy icónicas del cine es una de las aplicaciones que, según Pablo Pueyo, ‘CineMPC’ puede aportar a creadores de contenido y cineastas, «un ejemplo que siempre nombramos es el ‘Dolly Zoom’ o ‘Vértigo Effect’, introducido por Alfred Hitchcock en la película de 1958 «Vértigo». Este efecto se consigue gracias al control de los intrínsecos de la cámara –en concreto, la distancia focal–. Sin este control, el efecto no es reproducible en una plataforma de drones cinematográficos.» Asimismo, este sistema permite realizar grabaciones teniendo en cuenta otras filmaciones, aplicando los parámetros de estas.
MÁS ALLÁ DEL CINE
No obstante, los investigadores se plantean el uso de este control de los elementos internos de la cámara para otros campos que no sean solo cine, por ejemplo, la vigilancia de animales en espacios naturales.
«Es difícil utilizar drones para el seguimiento de la vida silvestre desde puntos de vista cercanos. Los drones suelen ser muy ruidosos, por lo que, si el dron se acerca demasiado a los animales, estos se asustan. Gracias al control automático del zoom de la cámara podemos grabarles desde muy lejos, tomando grabaciones de los mismos desde puntos de vista cercanos sin necesidad de acercarnos físicamente a ellos.», ha comentado Pueyo.
De cara al futuro, el principal desafío que los investigadores se plantean es la democratización del uso de estos drones a través de interfaces más sencillos. De hecho, uno de sus últimos trabajos presentados es para introducir una interfaz a la plataforma que sea capaz de extraer diferentes estilos y características de un vídeo que aporte el usuario, y esta le envíe las instrucciones al dron.
«Si estás viendo una película y te gusta un determinado corte, puedes introducir esa grabación en el sistema, que se encarga de extraer la información relevante y enviar las instrucciones al dron, el cual se mueve y se controla para recrear estos efectos», ha explicado.
Aparte de este punto, un buen reto para los investigadores es el uso de varios drones a la vez, grabar a una persona desde diferentes perspectivas y que los drones automáticamente decidan cuál es la mejor coordinándose entre ellos. «Eso sería una extensión a multirobot que nos estamos planteando», ha apuntado.
COMPATIBILIDAD CON AIRSIM Y ROS (SISTEMA OPERATIVO ROBÓTICO)
El código de ‘CineMPC’ puede ejecutarse en el simulador ‘AirSim’, ofreciendo una experiencia fotorrealista para probar y perfeccionar las técnicas de filmación antes de llevarlas al mundo real. El investigador argumenta que este sistema aporta esa flexibilidad, «la simulación te permite probar más cosas y en escenarios más difíciles de conseguir con un dron real».
En cuanto a ‘ROS’, el sistema operativo que se usa en robótica, Pueyo ha indicado que «la mayoría de los robots que podemos ver, al menos en el campo de la investigación, utilizan ‘ROS'», por lo que el hecho de que ‘CineMPC’ tenga compatibilidad con este sistema lo hace más versátil, ya que no tiene que estar adaptado a una plataforma o a un dron en particular».
Junto a Pablo Pueyo, Juan Dendarieta, Eduardo Montijano, Ana Cristina Murillo y Mac Schwager, son los investigadores que han desarrollado este sistema cinematográfico.