Escolar Documentos
Profissional Documentos
Cultura Documentos
Profesores
Estudiante
FACULTAD DE INGENIERIA
IMAGINERÍA EN MULTIMEDIA
BOGOTÁ
2009
1
CONTENIDO
Pág.
INTRODUCCIÓN
1. OBJETIVOS………………………………………………………………………………………………………………………..4
1.1 OBJETIVO GENERAL………………………………………………………………………………………………………..4
1.2 OBJETIVOS ESPECIFICOS………………………………………………………………………………………………….4
2. PROPUESTA……………………………………………………………………………………………………………………..5
2.1 Titulo, Problema e Identificación……………..……………………………………………………………………..5
2.2 Antecedentes………………………………………………………………………………………………………………….6
2.3 Delimitación………………………………………………………………………………………………………..6
2.4 Justificación…………………………………………………………………………………………………………8
2.5 Metodología……………………………………………………………………………………………………….9
3. MARCO TEÓRICO………………………………………………………………………………………………………………9
3.1 HISTORIA……………………………………………………………………………………………………………………..10
3.2 EL PROCEDIMIENTO…………………………………………………………………………………………………….13
3.3 APLICACIONES……………………………………………………………………………………………………………..14
3.4 TÉCNICAS DE CAPTURA DE MOVIMIENTO…………………………………………………………………..15
4. METODOS……………………………………………………………………………………………………………………….15
4.1 ÓPTICOS……………………………………………………………………………………………………………………….15
4.2 NO ÓPTICOS………………………………………………………………………………………………………………..17
4.3 MIRADA A LOS ALGORITMOS………………………………………………………………………………………18
5. TECNICAS SEMEJANTES……………………………………………………………………………………………………21
5.1 ANIMACIÓN FACIAL………………………………………………………………………………………………………21
6. CONCLUSIONES……………………………………………………………………………………………………………….22
7. BIBLIOGRAFIA…………………………………………………………………………………………………………………23
Bibliografía con EndNote…………………………………………………………………………………………………….23
8. ANEXOS…………………………………………………………………………………………………………………………..25
2
INTRODUCCIÓN
Tan revolucionario como la misma creación de las imágenes tridimensionales por computador, es el
sistema de captura de movimiento, empleado para muchas aplicaciones en varios ámbitos
industriales ya sea desde la industria del juego hasta los más complejos análisis de movimientos de
personas, animales u objetos.
En definición llamado Motion capture, motion tracking, o mocap usado para describir el proceso de
grabar el movimiento y aplicarlo a un modelo digital. Inventado inicialmente en Escocia, es usado en
el desarrollo militar, entrenamiento, deportes y aplicaciones médicas. En la parte de rodaje de
películas o sector cinematográfico se enfoca en grabar las acciones de los actores reales, y usar dicha
información para animar los personajes digitales en animación 3D.
Hasta hace unos años los animadores eran los encargados de crear todos y cada uno de los objetos
animados dentro de un proyecto 3D. Pero la mejora de los sistemas ha cambiado la forma de
trabajar dentro del sector de la animación digital. Hoy en día los animadores cuentan con la ayuda
de una técnica que captura el movimiento de un esqueleto animado. El movimiento, una vez
captado a través de cámaras infrarrojas, es importado a un programa de animación e insertado en
un objeto 3D. Así, el animador ahorrará tiempo y conseguirá movimientos mucho más realistas sin
tener que ser él quien los cree. Aunque eso sí, siempre con limitaciones. No se podrá reproducir
nada que no pueda hacer un actor.
3
1. OBJETIVOS
2. PROPUESTA
Opción 1
Opción 2
Ventajas:
• Reduce en un gran porcentaje los tiempos de animación.
• Capturar movimientos complejos para realismo en modelos tridimensionales.
2.2 ANTECEDENTES
Antecedentes en la UMNG
2.3 DELIMITACIÓN
La necesidad de poner barreras finitas al tema planteado surge del problema que esté presente y a
su vez de acuerdo con los elementos de interés que describieron. Para cumplir con los objetivos y
lograr resultados reales esperados se profundizo en los factores que afectan a la investigación,
primero en el ámbito ingenieril concretamente computacional que abarca dese la cuestión legal en
las nuevas investigaciones hasta el desarrollo del problema en sí dentro del tema que se trabaja.
Factores Internos, estos preceden a el tema en el área de la computación grafica que se ha venido
empleando desde que se lograron imprimir datos en forma grafica en un computador. Para este
proyecto existen problemas que se dirigen al investigador, como el vacio en conocimientos o limite
teórico es decir que al recurrir a la investigación como herramienta fundamental para cumplir la
función del proyecto es prudente manejar la información de manera adecuada y siempre
6
atendiendo a los derechos de autor. Por otro lado está el tener que aprender intensamente sobre
los subtemas que involucran el tema, desde la programación hasta los investigadores que preceden
el tema.
Algunos subtemas propuestos son: Computación grafica-elementos de la CG, Conceptos básicos II.
Transformaciones, Conceptos básicos de procesamiento de imágenes, Modelado físico Algoritmos
Fundamentales, ámbito virtual 3D entre otros acoplados no descriptivos sino prácticos. Dentro de la
interactividad hombre maquina-reconocimiento humano, interactividad por sensores, dispositivos
de reconocimiento y otros componentes de hardware o no virtuales que permiten un contacto real-
virtual con el computador.
Llegara llenar solo a llenar la expectativa con temas específicos con el proyecto y no extenderse a
subtemas que puedan consumir tiempo como ir por ramas de la captura del movimiento aplicado en
industrias que no tengan que ver con el área de desarrollo implicado o también el investigar sobre el
uso de otros dispositivos sensoriales que recurran a un alto nivel de complejidad como el mecánico u
otros comercializados de nivel mayor de producción.
Otra preocupación es el hecho de que surjan otros problemas a medida que se investigue como
tener que recurrir a aprender completamente un software que es muy probable pero la
investigación científica siempre se da dentro de este marco, casi siempre es necesario el tener que
saber de mas para innovar o mejorar, a lo que viene este es a no tener que desviar toda la línea de
investigación por causa de un problema que surja eventualmente o que estos problemas sean de
gravedad y afecte al diseño de del proyecto.
Ideas relacionadas con el uso de dispositivos se encuentran en numerosas partes del proyecto y
estos conceptos pueden o no tener relevancia, lo que realmente marcara su diferencia serán los
resultados a media que se desarrolle el sistema de captura de movimiento, por ejemplo existe
software que hace mucho mas que reconocer el movimiento humano o animal, también son capaces
de reconocer elementos presentes en estos como la ropa inclusive accesorios que también
presentan un movimiento característico o ligado al personaje principal de interés. Esto es una
limitación mediante conceptualización de los dispositivos que se asemejan al sistema propuesto.
También hay limites espaciales específicos, la captura de movimiento se apoya en un lugar para el
montaje del sistema. Debe ser limitado pero que se acomode a factores como la distancia,
iluminación, practicidad y demás que afecten el funcionamiento del sistema.
Limites en cuanto a la unidad empleada, por ejemplo cuantas personas se les va a recolectar datos si
es que se puede tomar de más de una simultáneamente o que cantidad de datos se deberían tener
en cuenta para el funcionamiento óptimo y evitar colapsos técnicos.
2.3 JUSTIFICACIÓN
A pesar de que este tipo de sistemas ya se implementan con éxito en universidades o empresas, esto
viene a hacer una necesidad local como universidad y como animador más específicamente. El
estudio traerá nuevos objetivos y retos para futuros investigadores que quiera saber más sobre
dispositivos de reconocimiento motor así como poder aclara mitos acerca del área que aún se
desconoce por falta de investigación estudiantil o que no se dicta en clases comunes, debido a que
esto es tema específico de interés propio de alguien que sienta deseos de enriquecerse mas. Es en sí
un aporte a los estudiantes directamente e inclusive a los profesores de la universidad que requieran
del uso de un dispositivo para enseñar, mostrar o crear animaciones por medios reales físicos y que
los que se interesen se involucren y trabajen con ello y los que no por lo menos sepan cómo se usa y
para qué sirve.
Resolverá preguntas que muchos se han hecho al ver películas que se basen en la animación por
computador e inclusive juegos que a simple vista se ven demasiado reales, todo esto apoyado en
sistemas de captura de movimiento sea general o específico como la captura facial de movimiento o
de manos para situaciones de calidad alta en recolección de datos aproximadamente reales.
Conlleva una ayuda total a la universidad como área local y pues los interesados externos a ella
también podrían llegar a tener acceso al sistema, aunque todo se enfoca a el aporte de esta clase de
proyectos a los que se encierran respecto al área multimedia sujeto a la animación y la enseñanza
de esta rama del arte digital y tradicional.
2.3 METODOLOGÍA
8
La metodología mide los pasos basados en técnicas y herramientas para el desarrollo de este
proyecto. A medida que este se va desarrollando se cumplen los pasos pero primero para poder
plantearla de forma correcta se necesita saber sobre la ciencia y el diseño del método
profundamente. Por ahora se puede empezar haciendo un reconocimiento de lo que se va a usar y el
porqué.
La lógica investigativa en este proyecto corresponde a una clausula sistemática, en las que ya
existen reglas y apuntes que se usaron anteriormente para la postulación, clasificación y
comprobación del tema , es decir que basado en dichas normas la metodología presente completa la
guía y herramienta primordial para dar resultados esperados.
El camino que se requiere seguir concreta el tema y va dando metas a media que se sigue, es el
pensamiento que se quiere llevar durante y después de finalizar el proyecto. Argumentar es el
propósito del método encerrado en aspectos científicos, prácticamente es el objetivo general y que
se comprueba con resultados y conclusiones dadas a partir e ello. Debido a las limitaciones y en
general al tema y tanto como su aplicación el método usado seria el método deductivo que ha de
tomar los resultados y conclusiones generales que han sido aplicados a una situación en particular:
el capturar movimiento mediante un dispositivo básico y a eso se le puede agregar que es de bajos
costo que se limita a la recolección de datos en 3d o 2d dependiendo de lo que se quiera. En
retrospectiva son los datos el resultado técnico del sistema y dependiendo de esa recolección de
datos es la aplicación, función y uso del prototipo.
3. MARCO TEÓRICO
3.1 HISTORIA
El análisis del movimiento humano comenzó en la antigua Grecia, donde Aristóteles escribió De
Motu Animalium (Sobre el movimiento de los animales), en la cual comparó los cuerpos de los
animales con sistemas mecánicos.
Casi dos mil años después, Leonardo da Vinci describió algunos mecanismos que utiliza el cuerpo
humano a la hora de moverse: como nos mantenemos de pie, como saltamos, como nos levantamos
9
tras estar sentados, como caminamos en pendientes... Cien años después, Galileo tratará de analizar
la fisiología humana desde un punto de vista matemático. Con la ayuda del trabajo de Galileo, Borelli
calculó las fuerzas necesarias para mantener el equilibrio en varias articulaciones del cuerpo,
determinó el centro de gravedad del ser humano, calculó los volúmenes de aire que inspiraba y
expiraba el ser humano y demostró que la respiración era debida a la elasticidad de los tejidos. Estos
trabajos del campo de la biomecánica fueron seguidos por Newton, Bernuolli, Euler, Poiseuille,
Young y otros científicos reconocidos.
A finales de los años 70, cuando se empezaba a hacer posible la animación de personajes por
computador, los diseñadores comenzaron a usar las técnicas clásicas de diseño (como el rotoscopio).
El rotoscopio era una técnica en la cual se utilizaban frames reales que se utilizaban como base para
diseñar algo por encima, similar a calcar un folio por encima de otro que contiene lo que queremos
copiar. Pero mientras, se empezaron a usar los computador es para analizar el movimiento humano,
en estudios de biomecánica. Las técnicas y dispositivos usados en éstos empezaron a adoptarse en la
10
comunidad de GC. Al principio de los años 80 , Tom Calvert, un profesor de kinesiología y ciencias de
la computación en la Simon Fraser University, adhirió potenciómetros a un cuerpo y usó la salida
para generar personajes animados por computador con objeto de ser usado en estudios de
coreografía y asistencia clínica para pacientes con problemas de locomoción. Por ejemplo, para
analizar la flexión de rodilla, creó una especie de exoesqueleto para cada pierna, cada uno de los
cuales tenía adherido un potenciometro para analizar el grado de flexión. La señal analógica era
digitalizada e introducida en un programa que hacía una simulación mediante una animación en el
computador
Poco después, comienzan a salir los primeros sistemas de seguimiento visual como el Op-
Eye y el SelSpot. A principios de los 80, tanto el MIT como el CGL del NYTC experimentaron
con dispositivos de seguimiento visual aplicados en el cuerpo humano.
Estos sistemas normalmente usan pequeños marcadores adheridos al cuerpo (tanto LEDs
parpadeantes como pequeños puntos reflectantes) y una serie de cámaras alrededor del
espacio de maniobras. Una combinación de hardware especial y software distinguen los
marcadores en el campo visual de cada cámara, y mediante comparación, calculan la
posición tridimensional de cada marcador en cada instante.
La tecnología está limitada por la velocidad a la que los marcadores pueden ser rastreados,
por la oclusión de los marcadores por el cuerpo y por la resolución de las cámaras
(específicamente por su capacidad para diferenciar distintos marcadores próximos). Los
primeros sistemas podían rastrear sólo una docena de marcadores al mismo tiempo. Los
sistemas más recientes pueden distinguir varias docenas. Los problemas de oclusión se
pueden superar con el uso de más cámaras, pero incluso con eso, los sistemas ópticos más
modernos suelen requerir un post-procesamiento manual para recuperar trayectorias
cuando un marcador se pierde de vista. Esto cambiará según los sistemas se vuelvan más
sofisticados. El problema de la resolución está relacionado con varias variables, como el
precio de la cámara, el campo de visión, y el espacio de movimientos. A mayor resolución
requerida, mayor el precio de la cámara. La misma cámara puede dar una mejor resolución
de movimiento si está enfocando un menor campo de visión, pero esto limita la capacidad
de los movimientos a realizar. Por ello, casi todos los resultados de los sistemas de captura
11
ópticos necesitan una post-producción para analizar, procesar y limpiar la información antes
de ser utilizados.
En 1988, Wahrman desarrollaron Mike the Talking Head para Silicon Graphics para mostrar
las capacidades en tiempo real de sus nuevas máquinas 4D. Mike era dirigido por un
controlador especificamente hecho para él que permitía a un usuario manejar varios
parámetros de la cara del personaje, incluyendo boca , ojos, expresión y posición de la
cabeza. El hardware de Silicon Graphics proporcionaba una interpolación en tiempo real
entre las expresiones faciales y geometría de la cabeza del personaje y del usuario. Mike fue
mostrado en público en la conferencia de SIGGRAPH (grupo de interés en GC que realiza una
conferencia anualmente sobre el tema) de ese año, donde se demostró que la tecnología
mocap ya estaba preparada para su explotación comercial.
En 1985, Jim Henson Productions había intentado crear versiones virtuales de sus personajes.
Consiguieron un éxito limitado, principalmente debido a las capacidades limitadas de la tecnología
en ese momento. Finalmente, en 1988, con los equipos 4D de Silicon Graphics, y con la pericia de
Pacific Data Images, encontraron una solución viable. Conectando un dispositivo de entrada de ocho
grados de libertad hecho a medida a través del cuadrante estandar SGI, fueron capaces de controlar
la posición y los movimientos de la boca de un personaje a baja resolución en tiempo real. Entonces
fue cuando nació la marioneta virtual Waldo C. Graphic. Se capturaba el movimiento de las manos
de un titiritero con un aparato llamado Waldo, y después se interpretaban en un computador.
12
aplicarlos a un modelo virtual en tiempo real. La importancia de este sistema fue que un actor podía
manipular todas las expresiones faciales de unos personajes sólo mimetizando lo que quería que
hiciese, lo cual supone una interfaz completamente natural.
Uno de los mayores éxitos con este proyecto fue la interpretación en tiempo real de Mario Bros.
Dirigido por un actor detrás del escenario usando el face waldo, Mario lograba conversar con los
miembros de la audiencia, respondiendo a sus preguntas y comentarios. A partir de ahí, SimGraphics
se ha concentrado en la animación en directo, desarrollando personajes para conferencias,
televisión y otros entretenimientos en directo.
En SIGGRAPH 93, Acclaim entusiasmó al público con una animación realista y compleja de dos
personajes hecha completamente con mocap. Durante los años anteriores, Acclaim había
desarrollado en secreto un sistema de rastreo óptico de alta definición, superior a los anteriormente
citados, capaz de seguir 100 marcadores simultaneamente en tiempo real. Acclaim usa el sistema
principalmente para generar secuencias de movimiento de personajes para videojuegos. Su sistema
es propietario y no planean distribuir comercialmente su tecnología.
En los años venideros se siguieron perfeccionando las técnicas de mocap, incluyendo nuevo
hardware con mayores posiblidades y nuevo software que permita utilizar el hardware. Se hicieron
un hueco empresas como Autodesk (conocida por su 3D Studio Max y Maya), Kaydara (conocida por
FilmBox y MotionBuilder, y absorbida por Alias) o Alias(conocida por Maya, y actualmente absorbida
por Autodesk), cuyos programas son usados intensivamente en mocap.
3.2 EL PROCEDIMIENTO
En sesiones de Captura de Movimiento, eventos de uno o más actores son muestreados muchas
veces por segundo, aunque algunas técnicas (recientes desarrollos del ILMuse imágenes para
captura de movimiento 2D y proyectarlo en 3D) Captura de Movimiento
13
Graba solo los movimientos del actor, no sus apariencias visuales. Estos datos de animación es
mapeada a un modelo 3D, así el modelo muestra las mismas acciones que las del actor . Esto es
comparable con una técnica más antigua como la del rotoscopiado, donde la apariencia visual del
movimiento del un actor fue filmado y después la filmación es usada como guía del movimiento
cuadro a cuadro de personajes pintados a mano.
Los movimientos de la cámara también pueden ser capturados así la cámara en la escena virtual se
moverá alrededor de escenario manejado por un operador, mientras el actor está actuando y el
sistema de captura puede grabar la cámara y el actor al mismo tiempo. Esto permite al personaje
generado por computador, estar de la misma perspectiva que las video imágenes de la cámara. Un
computador procesa información y muestra la información del actor, otorgando la posición de la
cámara que se desee en términos de objetos en la puesta de escena. Obtener la información del
movimiento de la cámara del metraje es conocido como igualamiento de movimiento o match
moving.
3.3 APLICACIONES
En video Juegos es usado muy a menudo para capturar el movimiento de atletas, artes
marciales y otros personajes de juegos.
En realidad virtual y realidad aumentada permite a los usuarios a interactuar con contenidos
digitales en tiempo real. Puede ser usado para simulaciones de entrenamiento, exámenes
de percepción visual, o hacer caminatas virtuales en un ambiente 3D. La tecnología de
14
captura de movimiento es frecuentemente usada en sistemas de propósitos digitales para
manejar personajes generados por computador en tiempo real.
Parte como una herramienta de análisis fotométrico en investigaciones de biomecánica entre 1970
y 1980, expandida dentro del sector educacional, deportes, recreación y animación por computador
para juegos y películas entre otros. Como tecnología madura se ven empresas dedicadas a esto y la
explicación básica o el fundamento de estas empresas es el mismo y empiezan de la misma forma:
Un actor usa un traje o marcadores cerca de cada articulación o punto de flexión para identificar el
movimiento por las posiciones o ángulos entre los marcadores acústicos, inerciales, LED, magnéticos
o reflectivos inclusive hay combinaciones entre estos tipos. Luego se hace por lo menos dos tomas
del movimiento deseado y se promedian las posiciones, analizándolas en un software que ya puede
tener un modelo 3D o un software probabilístico según para lo que se requiera la información que se
grabo, así es como empieza cada técnica que se vuelven métodos más complejos para mayor
precisión.
4. METODOS
3.1 ÓPTICOS
15
Estos sistemas producen información con 3 grados de libertad por cada marcador y la información
rotacional tiene que se infrarroja de la orientación relativa de los tres o más marcadores.
Estos sistemas emplean sensores y sistemas de control electrónico, para rastrear el movimiento.
Estos sensores poseen cables que van conectados directamente a una computadora.
Sin marcadores: Una técnica emergente de la investigación en áreas de la visión que lidera el rápido
desenvolvimiento de una captura de movimiento, estos emplean algoritmos de reconocimiento de
siluetas, inclusive son capaces de crear el esqueleto del personaje al que se le va a montar la
información del movimiento .
16
3.2 NO ÓPTICOS
Los sistemas de captura de movimiento electromecánicos son aquellos sistemas en los que, en
general, la captura de movimiento se realiza utilizando sensores mecánicos.
17
3.3 MIRADA A LOS ALGORITMOS
Aquí hay una muestra de lo que se usa para realizar el software de captura de movimiento, el cual
incluye procesamiento de imágenes, desarrollo de plataformas en 3D, ambiente simulado, software
que reconozca hardware sensorial y aplicaciones 3D en general como la animación hasta la realidad
virtual.
Imagen captura con una cámara en blanco y negro, con su respectiva umbralización.
18
Imagen con alto contraste Histograma
En el campo de la captura de movimiento las técnicas de substracción de video, son una de las más
sencillas. Esta técnica consiste en tomar una imagen de la escena sin movimiento, a la que
llamaremos “fondo”, y a partir de ahí, restársela a cada nueva imagen capturada en la escena.
float valor;
float valor;
20
valor = Math.abs( readRed(actual,i,j) - readRed(fondo,i,j) );
valor += Math.abs( readGreen(actual,i,j) - readGreen(fondo,i,j) );
valor += Math.abs( readBlue(actual,i,j) - readBlue(fondo,i,j) )
dife[i][j] = valor;
Esta tecnología trabaja de forma diferente a los sistemas tradicionales ya que se basa en el análisis
del volumen del protagonista y no en la data de rotación y posición obtenida a través de sensores o
marcas.
Para lograrlo primero genera mediante un scanner 3D el modelo digital del actor, luego captura su
performance mediante 8 cámaras de video y por último analiza frame a frame en cada una de las
cámaras su silueta, la compara con la malla 3D y ajusta los vértices para hacerla coincidir con la
filmación.
Este sistema libera al actor de cualquier elemento extra y permite capturar hasta el movimiento del
pelo o la ropa, como se ve en el video.
4. TECNICAS SEMEJANTES
Hoy se ven otros métodos de este tipo de animación como el de la aplicación de químicos
fluorescentes o la del maquillaje que consiste en que al actor se le pone un maquillaje fosforescente
invisible al ojo humano a simple vista, pero visible a varias cámaras que graban la acción desde
distintos ángulos, y en entonces se extraen los patrones de la cara que son iluminados por patrones
aleatorios creados por el maquillaje, los cuales bajos unos algoritmos de triangulación detectan cada
21
punto de la cara de la persona, lo que es suficiente para crear una representación en 3D de la cara
original. Se ven bastantes nuevas técnicas ya que muchos están dedicados solo a esta área de la
captura de movimiento que comprender desde el facilitamiento del lipsync hasta exageración de
gestos en criaturas.
5. CONCLUSIONES
La captura de movimiento como todos los avances permite una facilidad a la hora de hacer una
animación, análisis de movimiento, interpretación de caracteres, simulación y demás aplicaciones ya
mencionadas, estas nuevas tecnologías ahorran pasos que antes eran extenuantes e inclusive
bastante costosos, ya se aprecio que se puede crear métodos sencillos y de no muy alto precio, lo
único que toca tener es esmero.
La revolución informática nos dice que con cada nueva idea se desenvuelven un puñado mas y
gracias a los pioneros de la animación, abstracción del movimiento, fotografía, científicos e inclusive
doctores podemos tener sistemas sofisticados como este que crea más realismo dentro de un
22
mundo virtual con ayuda de algo tan pequeño como un sensor y un marcador que puede ser hasta
una pelota de ping-pong.
Algo mas especifico visto es el planteamiento de la limitación de el sistema, es decir los problemas
que genera el movimiento y la captura de la información, para resolver estos problemas será
necesario aplicar algoritmos de Análisis de Formas para interpretar y así discriminar la dependencia
e independencia entre objetos en movimiento. O en otras palabras la separación de objetos
mediante técnicas como la umbralizacion o el contraste.
6. BIBLIOGRAFIA
www.stt.es/descargas/descripcion_MotionCaptor
www.semac.org.mx/archivos/congreso11/DISE%C3%91O1
manuelmelendezandrade.blogspot.com
en.wikipedia.org/wiki/Motion_capture
www.3dyanimacion.com
www.proyecto-biopus.com.ar/textos/Emiliano
sabia.tic.udc.es/gc/trabajos08-09/Mocap/tecnol
www.proyecto-biopus.com.ar/tuto/instalacion/captura
ieeexplore.ieee.org/xpl/freeabs_all
www.spectrum.ieee.org/blog/consumer-electronics/gaming/sandbox/xbox_motioncapture_cam
[1-40]
1. Velasquez, F. Captura de Movimiento de una Camara Real a una 3D 2005; Available from:
http://student.vfs.com/~felipev/tutoriales/camara_3d.htm#.
2. Troje, P.D.N. The Biomotion Lab. 2008; Available from: http://www.biomotionlab.ca/.
3. Systems, V.M. House of moves. 2005; Available from: http://www.moves.com/.
4. Systems, S.R.M., Simi MotionCapture3D. 2009.
5. Space, P. OPTICAL MOTION CAPTURE. 2009; Available from: http://www.phasespace.com/.
6. SonotaCo, Post processing tool for Motion Capture. 2000.
7. software, G., VisualMarker 2006.
23
8. Soft, i. Motion Capture For The Masses. 2008; Available from: http://www.ipisoft.com/.
9. Selva, P.E. SliBase. 2008; Available from:
http://slidertime.blogspot.com/search/label/_my%20downloads.
10. Selva, P.E., How to make you own motion capture video in maya. 2008.
11. Rose, B.B.C., The Process of Motion Capture: Dealing with the Data. 2006.
12. Romero, C. Dispositivo de interfaz humana (HID) basado en Motion Capture Óptico. 2009;
Available from: http://biblioteca.universia.net/html_bura/ficha/params/id/45165224.html.
13. Riedemann, D.v. (2007) Is motion capture animation?
14. Rias, B.f.a.C., processing. 2001.
15. Research, E. Measurement and Analysis of Mechanical Motion and Related Parameters.
2001; Available from: http://www.euclidres.com/.
16. Orman, M. Michael Gleicher Nicola Ferrier. 2009; Available from: http://tyrell-innovations-
usa.com/shop/index.php?option=com_content&view=article&id=9&Itemid=8.
17. OptiTrack. Motion Capture optical solutions. 2009; Available from:
http://www.naturalpoint.com/optitrack/.
18. Nimoy, J. Myron. 2003; Available from: http://webcamxtra.sourceforge.net/index.shtml.
19. Mendez, M. Sistema de Captura de Movimiento (MOCAP) y otros Trucos 2009; 1]. Available
from: http://manuelmelendezandrade.blogspot.com/.
20. Liverman, M., The Animator's Motion Capture Guide: Organizing, Managing, and Editing.
2005.
21. lever, N., Real-time 3D character animation with Visual C++. 2002.
22. Kirillov, A. Motion Detection Algorithms. 2007; Available from:
http://www.codeproject.com/KB/audio-video/Motion_Detection.aspx.
23. Hodgins, L.B.a.J. (2008) Animating Non-Human Characters using Human Motion Capture
Data.
24. Hodgins, J. Computer Animation. 1998; Available from:
http://www.cc.gatech.edu/classes/cs8113a_98_spring/.
25. Henson, J., Performance / Motion Capture (MoCap) & Control. 2004.
26. Hasler, N., Markerless Motion Capture with Unsynchronized Moving Cameras. 2007.
27. Gauthier, J.-M., Character animation using motion capture files in Maya. 2007.
28. Furniss, M. (2008) Motion Capture
29. Furniss, M. (2005) Motion Capture.
30. Ferrier, M.G.N. (2002) Evaluating Video-Based Motion Capture.
31. Costas, T.P.y.M.R. Tutorial de captura óptica de movimiento y análisis de gesto corporal con
Max-MSP-Jiiter. 2007; Available from: http://www.proyecto-
biopus.com.ar/tuto/instalacion/captura_mov_jitter/index.html.
32. company, S. Maya Motion Capture. 1998; Available from:
http://caad.arch.ethz.ch/info/maya/manual/UserGuide/CharSetup/MotionCapture/MotionC
aptureTOC.fm.html.
33. Chu, C.-W. (2003) Markerless Kinematic Model and Motion Capture from Volume Sequences.
34. Carpintero, A., software motion detector. 2009.
35. Bowden, R. Recognition and Vision C++ Library. 2005; Available from:
http://www.ee.surrey.ac.uk/CVSSP/.
36. Blog, a., Motion capture posses. 2008.
37. Bailey, D. Imaging Reserach Center. 2009; Available from:
http://www.irc.umbc.edu/research/current.html.
38. B, T. (2008) Is Motion Capture the New Cgi?
39. anonymous, B., Motion Capture Software. 2008.
40. Captura de movimientos electromecánica. 2008; Available from:
http://sabia.tic.udc.es/gc/trabajos08-09/Mocap/tecnol.htm.
24
7. ANEXOS
Anexo 1
Anexo 2
Oct 2009
Id. Nombre de tarea Comienzo Fin Duración
11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
Según cada objetivo específico se establecen tareas para que este sea cumplido como meta al final
de un tiempo determinado.
25