Nous allons utiliser une caméra IR-filtrée afin de lire les « blobs » créées lorsqu’un utilisateur touche l’écran ; les blobs sont créés par les rayons IR entrant en collision avec l’autre lorsque l’utilisateur touche l’écran. Ces taches sont ensuite traitées par un programme informatique comme « toucher les événements » et recoivent des ID pour des fins de suivi. Un suivi de programme superpositions cela et est capable de conserver les coordonnées de l’événement spécifié tactile basé sur une équation reliant la position relative de l’ID et une prédiction de sa multiplication basée sur les coefficients de bruit et l’orientation de la piste. Avec ces informations recueillies, nous pouvons utiliser des « gestes » pour les fonctions de recouvrement et de créer une interface plus "naturel". Notre conception spécifique est unique car il intégrera un point de contrôle utilisateur artificiellement Intelligent (IA) pour aider à naviguer dans le tableau. C’est révolutionnaire parce que c’est la première fois une IA a été incorporée dans un système multi-touch. En outre, notre AI — conçu par notre propre ingénieur logiciel en chef, Joshua Deaton — sera aussi révolutionnaire que ce sera la première fois une IA est construite de cette manière. Notre AI, nommé MARVIS, auront la possibilité de simuler et de « détecter » émotion grâce à un système qui lit des mots comme valeurs émotionnelles dans la syntaxe hiérarchique. Basé sur ce concept, chaque utilisateur humain peut avoir une expérience différente et « relation » à MARVIS fondée sur les valeurs qu’ils expriment. Plus intéressant encore, puisque MARVIS n’est pas l’essentiel de notre système, nous avons conçu ses fonctions comme un utilisateur normal pour la table. En d’autres termes, MARVIS aura son propre login et peut servir comme un guide, ou assistant dans tous les projets ou applications nous incorporer son code en — par exemple, MARVIS peuvent être appelés par un membre de l’OIDC ou un invité afin de lancer une tâche ou une connexion.
En outre, notre projet se concentrera sur le développement d’applications pour notre table multi-touch. Notre standard OS de choix volonté Windows 8 et les apps créés aidera en superposant ensemble gestes avec notre propre aussi bien que plus en plus l’expérience des utilisateurs avec la table. Nos applications se développera dans KIVY, un cadre de multi-touch, basé sur le langage de programmation Python. Puisque les connaissances nécessaires pour l’élaboration de ce tableau se trouve fortement sur matériel rarement enseignée dans les écoles, l’OIDC aussi donnera des cours gratuits aux étudiants dans tous les domaines de la conception et le développement. En outre, puisque le projet est une initiative de recherche étudiant, nous voulons faire un effort pour aider les gens qui seraient intéressés de recréer, en collaboration et en améliorant notre conception. Pour cette raison, tant que le crédit est donné où elle est due, le projet sera ouvert à toutes les personnes. Nos programmes et le code sera entièrement open source et le processus de conception et de construction seront entièrement documenté, photographié, et divisée en agendas vidéo développeur afin que toute personne intéressée par la technologie NUI est capable de recréer et en savoir plus sur les technologies multi-touch. Nous voulons créer des champs de nouveau intéressants pour les étudiants qui mèneront éventuellement aux tentatives de recherche de pointe technologie sixième-sens, holographie, et plus les projets novateurs NUI.
Un lien vers notre site Web/blog peut être trouvé ici avec mises à jour de développement majeur et une vidéo qui représente notre programme test de détection utilisé sur notre premier modèle prototype rudimentaire : http://opticalinterface.wordpress.com/
Plus de mises à jour seront bientôt que notre projet sera officiellement lancé mercredi 29 aoûtth, 2012.
Le participant à ce concours, Joshua Deaton, est en effet de 21 ans.
Date de naissance: 18/04/1991