ProyectoDefinitivo EliasAM
ProyectoDefinitivo EliasAM
ProyectoDefinitivo EliasAM
CAPTURE
Proyecto fin de ciclo: Iluminación, captación y tratamiento de la
imagen
Historia y Orígenes
Uno de los primeros términos que conocemos al hablar de la tecnología MOCAP, como
bien indica su propio nombre, es la captura de movimiento. Esto se remonta al siglo XX
con un primer acercamiento a lo que será el futuro del MOCAP, ya que se desarrolló una
nueva técnica para animar personajes. El primero en intentarlo fue Max Fleischer.
1
Cuando se llevó a cabo la producción de Blanca Nieves y los Siete Enanitos se usó la
recién inventada tecnología que consistía en reemplazar y calcar cada fotograma real de
la película por dibujos usando una maquina especifica. Fleischer hizo uso del rotoscopio,
que era un dispositivo que permitía hacer y diseñar imágenes para la realización de
películas de animación de la época.
Sim embargo, podemos retroceder un poco más en la historia para realmente saber el
origen por el cual Max Fleischer tuvo esa iniciativa de inventar el rotoscopio. Nos
remontamos al siglo XIX con un destacado fotógrafo y además inventor, Eadweard
James Muggeridge. Este fotógrafo británico probó que un caballo despega las cuatro
patas del suelo cuando galopa, esto lo realizó para un trabajo que se le encomendó.
Para realizar esto, colocó una serie de cámaras que estaban conectadas entre sí para
obtener el movimiento del galope del caballo. Así obtuvo un conjunto de fotografías
que, de forma sucesiva, hacía percibir una ligera sensación de movimiento con el galope.
Esto fue el inicio de lo que mucho después de va a desarrollar en cine o videojuegos.
Pero una vez más, el primer indicio directo de lo que es la captura de movimiento lo
tenemos en un anuncio publicitario sobre la década de los ochenta realizada por un
programador llamado Rober Abel. Para realizar un anuncio sobre comida en lata, usó a
una actriz con una serie de puntos negros en su cuerpo como referencia y luego un grupo
de fotógrafos realizaba distintas fotografías desde distintos ángulos. Una vez obtenidas,
se pasaban por un software y dio lugar a un spot publicitario llamado “Sexy Robot”.
Para la industria de los videojuegos también hubo un primer acercamiento a la captura
de movimiento. Prince of Persia fue el primer videojuego precursor en el uso de la
tecnología de captura de movimiento de una forma muy sencilla y revolucionaria.
Jordan Mechner fue el programador del juego y tan solo una cámara de video consiguió
las animaciones que necesitaba. Grabó a su hermano realizando los distintos
movimientos en la calle en 1985 y con su posterior lanzamiento en 1989.
https://www.youtube.com/watch?v=ZW_eExHpTZI
Este enlace lleva a un video donde se ven las imágenes grabadas por Jordan Mencher
para el juego Prince of Persia y a su vez las imágenes procesadas para el juego.
También destacamos el juego desarrollado por Midway Games, Mortal Kombat. Este
famosísimo juego, fue lanzado en 1992 con muchas características llamativas que le
hicieron destacar sobre el resto de juegos de su género y de otros juegos de recreativas
de la época. Entre estas características se encuentra su estilo gráfico y visual. Nos
encontramos en unos años en los que la gran mayoría de juegos tienen un mismo estilo,
asique para hacer algo distinto, Midway realizó un estilo “más realista”. Para ello
recurrió a la captura de movimiento con distintos actores. Como ya hemos explicado, se
tomaban capturas del actor o actriz en cuestión haciendo distintos movimientos con
luces frontales, un fondo gris plano y luego se procesaban las capturas en un software.
https://www.youtube.com/watch?v=f-AECxvqObs
2
Imágenes en una calidad muy reducida de el detrás de las cámaras de las animaciones
del videojuego Mortal Kombat.
Como podemos ver todos estos primeros pasos se asemejan mucho a la realización que
se hace en producciones actuales. Muchas empresas, tanto de videojuegos y cine, se
interesaron por esta tecnología tan prometedora. Por supuesto y cabe mencionar que
también tiene un gran uso en el campo de la medicina y militar.
Evolución
Hemos mencionado antes el uso de “puntos negros” para tener unas referencias a la
hora de procesar los movimientos. Por eso destacamos la aparición del “Exoesqueleto
o Exoeskeleton”, se trata de un dispositivo que permite obtener la información más
precisa del movimiento. En este dispositivo se encuentran unos potenciómetros que se
ubican en las articulaciones del cuerpo. Esto fue desarrollado en 1988 por Rick Lazzarini.
Fue un técnico en efectos especiales y creador de animatrónica, que es el uso de
mecanismos eléctricos y mecánicos para muñecos o marionetas para simular
movimientos. Juntos con este avance, se presentan y aparecen algunas empresas
dedicadas al uso de la Tecnología MOCAP que sin el desarrollo del traje creado por Rick
Lazzarini no hubiera prosperado.
Unos años antes de esta invención, ya existía una tecnología de puntos de referencia,
marcadores dispuestos por el cuerpo como el OP-EYE y el SELSPOT.
Varios años después, para perfeccionar la captura facial, se desarrollan los mismos
marcadores, pero para el rostro. En el video de detrás de las escenas de la película
Avatar, podemos observar unos puntos verdes por el rostro de los actores. Son las
marcas con las que el software es capaz de leer y entender. Luego para el cuerpo, el
traje se divide en varias partes y con unos colores determinados. Además, para animar
algún mechón de pelo o alguna característica adicional también ser marca con un color
llamativo. En el video de Avatar algunas tranzas están marcadas con colores rojos o
azules. Toda esta información es capaz de interpretarla el software que se esté usando
para la posterior animación.
Como ya hemos hablado actualmente no solo se hace uso de la captura de movimiento
para el cine o publicidad. Si no que durante estos años se ha aplicado a la industria de
los videojuegos, la medicina para prótesis e incluso estudio del cuerpo humano y por
supuesto en el ámbito militar.
Con este gran avance se desarrollaron tipos de Exoesqueleto con características
diferentes. Pero antes, como ya sabemos se puede obtener información de forma
analógica y esta se transmite a un dispositivo que la interpreta de forma digital.
Tipos:
Exoesqueletos Electromecánicos que traduce en señales eléctricas los movimientos del
cuerpo como codos, rodillas, dedos, posición en el espacio o incluso la pulsación de
diferentes formas de interruptores para interactividad de tiempo real. Estas señales son
3
convertidas a formato digital por medio de conversores análogo/digital, los cuales la
computadora interpreta como, ángulos, posiciones o señales de interacción
pertenecientes a cada una de las partes del cuerpo.
Exoesqueletos electromagnéticos. Es un poco menos complicada de utilizar ya que se
puede adaptar mejor al cuerpo, cosa que será muy difícil de alcanzar con exoesqueletos
hechos a base de sensores de rotación mecánicos como el estudiado anteriormente,
pero la cantidad de medidas que se puede tomar es muy inferior por lo que la captura
del movimiento es muy limitada.
Captura de movimiento mediante cámaras de vídeo. También encontramos captura de
movimiento de tipo óptico, que son muy usadas en la actualidad por la su accesibilidad.
Sin embargo, tiene un inconveniente importante ya que al realizar movimientos es
posible ocultar los marcadores que son importantes para procesar la información. En las
ópticas también existen las capturas por infrarrojos y por video.
Una noticia muy reciente sobre el avance de la tecnología de la captura de movimiento
es que se ha conseguido hacer un traje muy económico y de uso libre. Se trata del traje
de Chordata, que presenta 15 sensores y un microordenador. Con esto se pueden hacer
cosas muy interesantes sin ser una empresa triple A con gran presupuesto. Además, que
al recibir la información de los movimientos mediante velcros se muestra en el software
un modelo sencillo 3D de lo que se ve en la realidad.
Como se indica en el post de la noticia sobre este traje, “el teléfono móvil puede
entender esos 15 sensores del traje cuando lo balanceas o inclinas.”
Como hablaremos en el siguiente punto, hoy día es posible realizar animaciones faciales
e incluso corporales propias sin necesidad de tener varias cámaras de videos o tener una
gran zona de realización. Se pueden lograr resultados decentes gracias a un teléfono
móvil, la licencia de un software para procesar esa información y un traje económico
para captar movimientos.
https://www.uoc.edu/portal/es/news/actualitat/2019/281-vestidos-movimientos-
3D.html
Artículo donde se habla sobre un nuevo traje llamado Chordata.
4
actuación y captación de movimiento está correctamente iluminada para no perder
información.
Los trajes presentan colores planos y de color oscuro y sensores que van desde la cabeza,
pecho y caderas. Normalmente se hace uso de un gran número de cámaras para la mejor
obtención de información y evitar los puntos ciegos durante la escena.
Para cuando se hace la realización de las escenas para obtener la información del
movimiento ya se ha tenido en cuenta el guion y se ha visto el storyboard. Con esto en
cuenta ya se puede construir todo lo necesario: los actores, los trajes de captura de
movimiento, las escenas y objetos que se tiene en cuenta durante la grabación y por
último al equipo de personas implicadas.
En algunas ocasiones se suelen usar zonas muy grandes para grabar escenas donde hay
mucho movimiento y donde el actor debe desplazarse en un escenario. También
observamos que los trajes están divididos en distintas partes, con colores específicos
que nos permite saber por ejemplo que lado del cuerpo estamos viendo y que el
software es capaz de leer. Además, si existen objetos o accesorios a tener en cuenta en
la animación, también se incluye en el traje del actor con colores.
Para las animaciones faciales hemos hablado que algunas ocasiones se hacen marcas
con puntos en el rostro del actor, que al igual que los movimientos se muestran en unos
monitores donde se ve la vista previa en el software y en otros monitores donde se ve
los movimientos corporales y faciales en directo. De hecho, el accesorio que vemos
durante la grabación que está justo en la cabeza de los actores son cámaras que
muestran el rostro del actor en directo.
En los alrededores de la escena ya hay un equipo de personas que trabajan para que
todo el proceso de captura funcione correctamente, todo está monitorizado para luego
la postproducción.
Postproducción
Como en una producción de cualquier obra audiovisual, se determinan varias cosas a
tener en cuenta. Algunos programas de animación más destacados son :
Nos introducimos en el mundillo del 3D con algunos conceptos básicos para el tema nos
trata.
Un tema en el que vamos a centrarnos es con el UNREAL ENGINE, se trata de un motor
gráfico desarrollado por EPIC GAMES. Pero antes vamos a conocer que es exactamente
un motor grafico en la industria de los videojuegos. Se conoce como un software que
determina y ejecuta una serie de rutinas de programación que ofrece funcionalidades
básicas, como en el caso que estamos viendo, el renderizado o interpretación para
gráficos 2D y 3D. Además, de tener otras funcionalidades como la colisión de los objetos
con el entorno, físicas y animación
Este motor grafico es de los más usados actualmente para el desarrollo de muchos
videojuegos. Cuenta con una amplia variedad de licencias, con lo cual, se puede acceder
5
al uso de este motor y variantes para lo que necesitemos, además de tener una alta
portabilidad. Muchas empresas optan para sus obras este motor por las razones
anteriores.
La utilización de este software es bastante compleja ya que se pueden usar los
movimientos captados previamente con la realización del exoesqueleto y los puntos de
referencia. Si en lugar de tener una información de los movimientos como ya hemos
explicado anteriormente, podemos crear animaciones y movimientos desde 0 gracias a
las opciones que nos da el software. Se puede crear una estructura de huesos y además
posee las distintas articulaciones. También existen opciones especiales digitales con los
que se pueden modificar las propiedades de un rostro y se pueden controlar el
movimiento de ciertas partes faciales.
Entonces, se pueden modificar los huesos o “bones” para el cuerpo, como se llama en
el propio UNREAL, y otro para el rostro.
Podemos obtener nuestras animaciones en tiempo real con distintos pluggins que nos
ofrece UNREAL. EN este caso para poder usar nuestro móvil y capturar nuestras
expresiones faciales se hace uso de un plugin llamado LIVE LINK. En nuestro flujo de
trabajo podemos unir unos módulos con estas animaciones que nosotros necesitemos.
Se pueden usar pressets que existen por la red y que mucha gente comparte.
Normalmente son creados desde cero usando la propia aplicación del UNREAL y otras
son creadas desde otros softwares pero que son compatibles con UNREAL. En nuestro
flujo de trabajo podemos incluir módulos de animación para el rostro y el cuerpo. Para
el cuerpo es algo más complejo y se necesita un traje para poder verlo en tiempo real
en nuestra aplicación.
Una vez que tengamos nuestros módulos con la información que queremos, en nuestro
flujo de trabajo podremos enlazar cada modulo para ya conseguir lo más básico en
captura de movimiento y animación.
Un termino a destacar en este punto, es el modelaje 3D. Necesitamos un modelo en 3D
al cual le añadiremos los movimientos que podemos diseñar nosotros mismo o
podremos adquirir con alguna licencia o que venga ya hecho. Cuando se nos presenta el
modelo 3D suelen venir con ciertas poses básicas. La más conocida es la pose en T. Esta
pose hace referencia al dibujo de EL HOMBRE DE VITRUVIO DE LEONARDO DA VINCI,
que en 3D se usa esta pose para marcar que una animación no está acabada del todo.
Además, en captura de movimiento es una pose que se realiza al empezar y acabar los
movimientos que se necesitan para la escena. El motivo es muy sencillo. Cuando se
captura todo el movimiento la pose en T ayuda a trabajar con esas animaciones, que
como hemos dicho no están acabadas y suele ser una pose predeterminada en muchos
de los softwares de captura de movimiento o animación. Una variante de la pose en T
es la pose en A. Tiene la misma función pero no resulta tan rara para trabajar.
(A modo de curiosidad, la pose en T se convirtió en un meme de internet hace unos años
debido a que cuando un juego presentaba bugs o algún tipo de error, algunos personajes
6
del mismo aparecían con la pose en T. Al ser una pose extraña y a su manera graciosa,
se usa para algunos memes que vemos hoy día por la red.)
En este mundillo se puede profundizar y perfeccionar esas animaciones si lo hacemos
de una forma “amateur” ya que las empresas más grandes suelen tener bastante más
presupuesto. Podemos encontrar muchísimos videos gratuitos donde nos enseñan los
conceptos básicos de una gran variedad de programas. Con el UNREAL ENGINE ocurre
igual y hay muchos tutoriales básicos para dar unos primeros pasos y por supuesto
existen tutoriales más avanzados y específicos.
https://www.unrealengine.com/es-ES
La página oficial de UNREAL ENGINE con información básica del software.
https://www.youtube.com/watch?v=gTb3Pjl95-o
https://www.youtube.com/watch?v=YgnOS0G4UEM
Ambos enlaces son tutoriales bastante extensos pero muy buenos para la utilización del
software.
Conclusión
Estamos ante una de las tecnologías más importantes y extendidos de la historia. Por
eso es necesario conocerla ya que en la actualidad se usa en la gran mayoría de obras
de cine y videojuegos. En esta ultima ya se hacen verdaderas obras de arte su uso ya es
normal en videojuegos. Con todos los conocimientos que hemos investigado podemos
hacernos una idea de la magnitud de esta tecnología.
Para nosotros los estudiantes es más que necesario conocer la captura de movimiento,
ya no solo por lo que supone, pero también por el futuro laboral.
Sin duda, investigar este tema en concreto me ha parecido una maravilla. Darte cuenta
de lo preciosas que pueden ser algunas obras con esta tecnología y de la cantidad de
posibilidades que existen y que se pueden crear.