Epic Games ha presentado recientemente MetaHuman Animator, una nueva función que permitirá a los usuarios capturar cualquier movimiento facial a través de las cámaras de sus teléfonos móviles y reproducirlos para crear avatares hiperrealistas personalizados. La herramienta formará parte de la herramienta MetaHuman, que a su vez forman parte de Unreal Engine, el entorno de desarrollo 3D en tiempo real para la creación de imágenes fotorrealistas y experiencias envolventes.
Permitirá reproducir movimientos faciales como animación de alta fidelidad en personajes de MetaHuman
El desarrollo se ha dio a conocer en la keynote “State of Unreal”, celebrada durante la Game Developers Conference en San Francisco (Estados Unidos), espacio en el que la compañía compartió algunas de las innovaciones en las que ha estado trabajando en los últimos tiempos. Allí, al igual que en un comunicado posterior, explicaron que MetaHuman Animator permitirá “utilizar tu iPhone o tu cámara de montaje frontal (HMC) estéreo para reproducir cualquier movimiento facial como animación de alta fidelidad en personajes de MetaHuman”.
Así, usuarios particulares y desarrolladores podrán capturar la particularidad, el realismo y la fidelidad de las actuaciones de un actor y transferir todos los detalles y matices a cualquier MetaHuman para darle vida en Unreal Engine. El objetivo de la nueva herramienta es facilitar y agilizar el proceso de creación de humanos digitales fotorrealistas, que actualmente requieren un trabajo meticuloso de animación para ofrecer resultados realmente creíbles.
MetaHuman Animator promete brindar una calidad de animación facial similar a la que exigen los desarrolladores de juegos triple A y los productores de Hollywood, y desde Unreal Engine señalan que será accesible para estudios independientes e incluso para aficionados. “Con un iPhone, que es posible que ya tengas, y un trípode estándar, podrás crear animaciones creíbles para tus MetaHumans y lograr conectar emocionalmente con tu público, aunque la animación no sea tu fuerte”, explican desde la compañía.
Para todo ello, el sistema comenzará creando lo que denominan una “MetaHuman Identity” del actor, es decir, una malla de edición a partir de una cantidad reducida de material capturado. La plataforma utiliza esto para interpretar la actuación del actor y permitiendo solucionar gestos faciales. Cada expresión quedará recreada de forma precisa en el personaje objetivo, independientemente de las diferencias que haya entre el actor y el avatar. El procesos solo ha de hacerse una vez por actor y puede revisarse fotograma a fotograma.
La compañía asegura que MetaHuman Animator funcionará con modelos de iPhone 11 o posteriores y con la aplicación Live Link Face para iOS. No obstante, el sistema también funciona con cualquier cámara de montaje frontal vertical estéreo de uso profesional, incluidas las de Technoprops. Epice Games no ha concretado la fecha exacta del lanzamiento, pero asegura que este está previsto para los próximos meses.