Los próximos animales generados por computadora en King Kong o El Rey León podrían parecer mucho más realistas gracias a un gran avance de los científicos informáticos de la Universidad de California.
Los investigadores de UC San Diego y UC Berkeley desarrollaron un método que mejora drásticamente la forma en que las computadoras simulan el pelaje y, más específicamente, la forma en que la luz rebota dentro de la piel de un animal.
El equipo presentó recientemente sus hallazgos en la conferencia SIGGRAPH Asia en Tailandia.
"Nuestro modelo genera simulaciones mucho más precisas y es 10 veces más rápido que el estado de la técnica", dijo Ravi Ramamoorthi, uno de los autores principales del artículo y director del Centro de Computación Visual de UC San Diego.
El método se puede aplicar a todo, desde videojuegos hasta efectos especiales generados por computadora y películas animadas por computadora.
Un problema con los modelos existentes es que fueron diseñados para crear cabello generado por computadora y no funcionan bien para la piel. Eso es porque la mayoría de estos modelos no tienen en cuenta el cilindro central o médula presente en cada piel.La médula en el pelaje es mucho más grande que en el cabello humano y el paso de la luz y su dispersión a través de ese cilindro es muy importante para la apariencia del pelaje. Hasta ahora, la mayoría de los investigadores han ignorado la médula y han construido modelos que siguen un rayo de luz comorebota de una fibra de piel a la siguiente. Como resultado, los modelos existentes requieren una enorme cantidad de cálculos y son costosos y lentos.
Por el contrario, los investigadores de UC San Diego y UC Berkeley utilizaron un concepto llamado dispersión subterránea para aproximarse rápidamente a cómo la luz rebota alrededor de las fibras del pelaje. Básicamente, la dispersión subsuperficial describe cómo la luz ingresa a la superficie de un objeto translúcido, como cabello o pelaje, enun punto; se dispersa en varios ángulos; interactúa con el material del objeto; y luego sale del objeto en un punto diferente. Este concepto se comprende bien y se usa a menudo en simulaciones en los campos de gráficos por computadora y visión por computadora.
En la vida real, puede observar la dispersión subterránea encendiendo la linterna de su teléfono inteligente y cubriéndola con el dedo en una habitación donde las luces se han atenuado. Verá un anillo de luz, porque la luz ha entrado a través de su dedo, se dispersan por dentro y luego vuelven a salir la luz es roja porque no es absorbida por el cuerpo, a diferencia de la luz verde y azul.
Para aplicar las propiedades de la dispersión subsuperficial a las fibras de piel, los investigadores utilizaron una red neuronal.
"Estamos convirtiendo las propiedades de la dispersión subterránea en fibras de piel", dijo el estudiante de doctorado Ling-Qi Yan, de UC Berkeley, quien trabajó en el estudio bajo la dirección de los profesores de informática de UC San Diego Ravi Ramamoorthi y HenrikWann Jensen. "No existe una forma física o matemática explícita de realizar esta conversión. Por lo tanto, necesitábamos usar una red neuronal para conectar estos dos mundos diferentes".
La red neuronal solo necesitaba ser entrenada con una escena antes de poder aplicar la dispersión subterránea a todas las diferentes escenas que se presentaron. Esto resultó en simulaciones que se ejecutaron 10 veces más rápido que el estado de la técnica.
El algoritmo resultante funciona tan bien para el pelaje como para el cabello. De hecho, la apariencia del cabello humano renderizado con el nuevo método es más realista.
Los siguientes pasos incluyen el uso del método para renderizar el pelaje y el cabello en tiempo real.
Fuente de la historia :
Materiales proporcionado por Universidad de California - San Diego . Nota: el contenido se puede editar por estilo y longitud.
Referencia de la revista :
cite esta página :