Étape 3: Rectification 3D
Plus précisément, nous utilisons le sublibrary de Reconstruction 3D pour nous aider à obtenir des informations 3D. Cette bibliothèque permet de prendre une paire d’images et d’obtenir des points 3D dans l’espace pour chaque pixel. Très simplement l’algorithme fonctionne comme suit :
1. Trouvez les régions de chaque image qui correspondent à l’autre. Par exemple l’objet le œil gauche dans chaque image.
2. calculer la quantité de mouvement, à distance de pixel, chaque région déplacée entre les images.
3. plus une région s’installe, la plus proche qu’il est à la caméra. Donc, en connaissant beaucoup chaque pixel s’installe entre les images, nous pouvons venir vers le haut avec une localisation 3D pour chaque point par rapport à tous les autres dans l’image.
Il y a certaines choses à noter concernant ce processus. Cet algorithme dépend généralement connaître beaucoup de choses sur le monde dans lequel les photos ont été prises afin d’arriver à la bonne information de dimension trois. Notre approche pour créer ces modèles 3D est nouvelle et difficile parce que nous tentons de le faire sans une bonne partie de ces connaissances sur le monde extérieur. À savoir, les plus grands choses nous manquent sont les intrinsèques et extrinsèques paramètres de la caméra . Caméra intrinsèque paramètres doivent ajuster pour des choses comme la déformation du cristallin où paramètres extrinsèques ajuster pour des choses comme le montant exact de la distance, la caméra s’installe entre. Notre système fait (probablement mauvais) hypothèses au sujet de ces deux et donc ne peut pas produire des nuages de points très précis pour le moment. Une zone d’amélioration supplémentaire comprend certainement essayer d’estimer ces paramètres mieux.
Les images jointes montrent une représentation 2D de notre nuage de points où le blanc un pixel est le plus proche de la caméra que c’est.