Lunettes actives permettent de visualiser et d’interagir avec le monde autour d’eux de façons nouvelles et novatrices. Les formes d’interaction courante sont aujourd'hui les commandes vocales et l’utilisation des gestes de la main pour donner des ordres à l’appareil.
Objectif principal de notre projet est de fournir une interface plus fluide et naturelle à l’aide de la main des gestes non seulement donnent des ordres, mais également référence la réalité que nous voyons.
Nous visons à fournir une nouvelle API pour la communauté de développeurs verres intelligents permettant de nouvelles applications.
L’API créé se traduit par un programme qui décrit une image (appelée CamFind) et un OCR.
Comme on le voit dans la démonstration que le système reconnaît le geste de la main. Ensuite, l’image de l’IPD est découpée à la zone carrée indiquée par les mains de l’utilisateur. Enfin, le système reçoit une commande vocale, permettant à l’utilisateur de choisir une application peut utiliser l’image recadrée et une réponse est retournée vers l’oreillette.
Le geste de la main spécifique et la zone capturée peut être vu dans l’image ci-dessus. Au dos des deux mains sont face à la caméra, seulement le pouce et les doigts index sont ouverts, tous les autres doigts sont fermées.
Le code est modulaire et chaque partie peut être utilisé de séparabilité. Le code du projet est disponible sur Github.
Matériel :
1. framboise modèle Pi B +
2. raspberry Pi HD caméra: a. résolution vidéo Max: 1080p b. taille : porte-lentille de ch. 36 x 36 mm: M12x0.5 ou monture CS
3. RPi Camera Extension Kit Bitwizard
4. 300 Mbps Wireless N USB Adapter TL - WN821N - un internet connexion est nécessaire uniquement pour les applications, pas nécessaires pour la partie reconnaissance de main
5. casque - nécessaire pour les applications uniquement
6. Powerbank - pour la mobilité de l’IPD