Examinando por Materia "Visión Estereoscópica"
Mostrando 1 - 2 de 2
Resultados por página
Opciones de clasificación
- PublicaciónAcceso abiertoImplementación de un algoritmo de correspondencia entre píxeles empleando geometría epipolar, para aplicaciones de visión estereoscópica(2015) Barros Gallego, Steven; Agudelo Granda, Laura Mercedes; Flórez Velásquez, Camilo AndrésLos sistemas de visión artificial son ampliamente empleados en aplicaciones de navegación robótica donde se requiere extraer del ambiente, información sobre las dimensiones de los objetos y obstáculos presentes con la finalidad de planificar la estrategia de navegación más adecuada que optimice la energía consumida y el tiempo necesario para navegar el espacio bajo condiciones controladas o no controladas. En particular la visión artificial estereoscópica es ampliamente utilizada para la reconstrucción de entornos de tres dimensiones, dada su buena precisión y simpleza algorítmica. (Sáez Martínez, 2001). La estimación de las coordenadas en tres dimensiones de un punto del espacio capturado simultáneamente por dos o más cámaras, es una tarea simple que se reduce a la resolución de un sistema de ecuaciones lineales o no lineales (Hartley, Zisserman, 2001). Uno de los problemas clásicos es la detección del punto 3-D de interés en las imágenes capturadas por el sistema de visión artificial, que recibe el nombre del “Problema de correspondencia entre píxeles”, que a la fecha sigue siendo un problema abierto a múltiples y novedosas soluciones (Mujika, 2010; Brendstrup, 2013). En particular se propone en el presente proyecto de grado analizar algunas técnicas de correspondencia entre píxeles fundamentadas en la aplicación de la geometría epipolar y del uso de matrices fundamentales, con la finalidad de evaluar el éxito de las técnicas a la hora de detectar píxeles correspondientes entre varias imágenes, para su posterior uso en la reconstrucción 3D de objetos bajo condiciones de luz controlada. La metodología propuesta para abordar la solución del problema parte del desarrollo de los modelos matemáticos que rigen a las cámaras digitales y su interrelación con los conceptos de la geometría epipolar. Se propone diseñar y ejecutar algunas simulaciones del sistema de visión estereoscópica + correspondencia de píxeles propuesto empleando Matlab, usando los parámetros de calibración de las cámaras provenientes del trabajo elaborado por (Zapata Herrera; Silva Narvaez, 2015); con la finalidad de cuantificar la precisión del algoritmo construido a la hora de predecir las coordenadas en tres dimensiones de varios puntos representativos del objeto a reconstruir. Luego se procederá a implementar un programa ejecutable en Matlab (GUI) que incorpore el algoritmo de correspondencia diseñado, para su posterior aplicación en la reconstrucción de coordenadas 3D. Finalmente se procederá a medir el error cometido por el sistema de visión implementado respecto a las posiciones reales de los puntos en 3D medidos en función de la distancia. Los productos a generar son los siguientes: Interface gráfica en Matlab para la estimación de coordenadas en tres dimensiones de puntos representativos de un objeto, empleando las matrices de calibración, la matriz fundamental y el algoritmo de correspondencia entre píxeles
- PublicaciónAcceso abiertoReconstrucción de entornos 3d mediante un sistema de visión artificial estereoscópico, para aplicaciones en navegación robótica: etapa 1: implementación de un sistema de visión artificial estereoscópico para la estimación de las coordenadas 3 – d de objetos presentes en un entorno bajo condiciones de luz controladas(2015) Silva Narváez, Juan Esteban; Zapata Herrera, Ana María; Flórez Velásquez, Camilo AndrésLa visión artificial es ampliamente utilizada a nivel mundial en aplicaciones donde se requiere la información del mundo 3D para la toma de decisiones: en medicina, búsqueda de objetivos militares, aplicaciones de rescate en desastres y en particular en la resolución de problemas asociados a la navegación robótica. Para implementar estas aplicaciones, se emplean cámaras para capturar la información del mundo tridimensional en dos dimensiones, y a partir de algoritmos de procesamiento de imágenes y de inteligencia artificial proceder a reconstruir el medio donde el agente robótico navegará. Existen diversas técnicas que permiten reconstruir la información 3D, dentro de las cuales se destaca, la visión estereoscópica por su alta precisión en la medición de las coordenadas de puntos 3D. A raíz de los diversos desarrollos a nivel mundial y de la creciente necesidad de avances en esta área que enfrenta la nación (Plan ETI, 2013), se propone Implementar un sistema metrológico para la medición de las coordenadas 3D de objetos presentes en un entorno bajo condiciones de luz controlada, mediante el uso de técnicas de visión estereoscópica y algunos algoritmos de visión artificial, con la finalidad de emplear el sistema implementado en aplicaciones de navegación de agentes robóticos móviles. Para llevar a cabo este proyecto, se propone emplear una investigación de tipo cuantitativo y el método planteado para alcanzar los objetivos propuestos es del tipo “deductivo-inductivo” e “inductivo- deductivo”, donde se busca corroborar de manera experimental la calidad o validez de los modelos y técnicas propuestas a lo largo de la investigación, modelos como el de Pin-Hole, necesario para estudiar la formación de imágenes, las diferentes técnicas de calibración para hallar los parámetros intrínsecos (Zhang) y extrínsecos de las cámaras (Faugeras, técnica homogénea y técnica no homogénea), las ecuaciones necesarias para la estimación de la profundidad de los objetos 3D usando la Técnica de Estereoscopía y finalmente el algoritmo empleado para la reconstrucción de superficies 3 – D a partir de la nube de puntos del objeto tridimensional, estimados por el sistema de visión artificial. 7 Los mejores resultados estimando las coordenadas tridimensionales de un objeto real, se obtuvieron a partir del uso de matrices de calibración lineal, aplicando la técnica homogénea y la técnica de Faugeras, generando resultados con un alta precisión cuando el objeto se encuentra desde la distancia mínima de captura hasta 1.2 metros de profundidad, con respecto al centro de referencia del sistema de coordenadas (cámara uno).