Por mucho tiempo, el escaneo de objetos tridimensionales ha sido complicado. Las soluciones existentes son costosas. Sí, hay cierto tipo de escáner que es como un brazo, con un número de grados de libertad, que permite ir mapeando un objeto tridimensional en el mundo real punto a punto. Puede uno ser tan preciso como se deseé, pero es claro que esto es una labor que lleva cierto tiempo. Sin embargo, las cosas podrían cambiar con tecnología que ha sido mostrada en la conferencia UpLinq 2014 de Qualcomm, que se desarrolla en San Francisco.
La empresa Pelican Imaging ha desarrollado un enfoque interesante: usando un arreglo de microcámaras fotográficas, captura una imagen y la convierte en 3D. Evidentemente no es una cuestión de magia, sino de software muy preciso que mide las diferencias de pixeles entre imagen e imagen (de las 16 tomas del objeto fotografiado), y lo convierte entonces en una imagen 3D que puede portarse a programas que manejan imágenes tridimensionales, como Maya, 3D studio, Blender, etcétera, pues usa archivos “.stl” como salida.
Una pregunta que surge es ¿cómo hace el software para ver la parte trasera de una imagen, es decir, la parte que no se ve en una foto? (algo así como la cara oculta de la Luna). Pues bien, aparte del modo de imagen fija, tiene un segundo modo en video en donde las 16 cámaras se hacen girar alrededor del objeto. Tenemos entonces un video (que  o son más que 30 fotos por segundo de 16 cámaras en un arreglo de 4×4), que es procesado por un programa de Pelican Imaging y genera la imagen final en 3D. Cabe decir que el resultado final podría no ser tan preciso como hubiésemos esperado, pero evidentemente como la salida es un objeto manipulable por los programas convencionales de 3D, podemos siempre hacer ajustes.
El siguiente video muestra las ventajas de este enfoque:


Ustedes que Opinan...

Comentarios

Entradas populares de este blog

Colección de movimientos para personajes de Blender