Étape 15 : Visualiseur graphique avec Unity3D.
C’est le visualiseur de graphiques créés avec Unity3D pour afficher une simulation en temps réel du robot lors de l’envoi des données en série à l’Arduino pour chaque position du servo sur la partie supérieure la moitié du robot. Bien que l’unité est conçue pour faire des jeux vidéo, elle sert notre but très bien comme un contrôleur de robot. Notez que vous n’avez pas la version Pro pour ce projet - la version gratuite devrait fonctionner parfaitement.
Pour commencer, lancez l’unité et ouvrez le dossier de projet étiqueté « Halley Robot ». Cela peut être fait en cliquant sur fichier -> ouvrir un projet et en sélectionnant le dossier "Halley Robot". Puis ouvrir la scène intitulée « Halley_Robot ». Cela peut être fait en allant vers le volet du projet et en cliquant sur l’icône de l’unité, intitulée « Halley_Robot ». Maintenant, sélectionnez l’objet étiqueté « Arduino contrôle conjoint ». Dans l’inspecteur, vous devriez une pléthore de paramètres. Celui qui dit « Port » changer le nom de votre port série de l’Arduino (sous Windows, seuls les ports allant de COM1 à COM9 semblent fonctionner. Sur OS x, utilisez le nom complet du port, qui est quelque chose comme "/ dev/tty.usbmodem#"). À ce stade, vous devriez être capable d’appuyer sur le bouton de lecture (en forme de triangle sur la partie médiane supérieure de la fenêtre de l’unité) pour commencer la course la simulation. Si vous ne voyez pas les erreurs flagrantes de rouges, vous devriez être en mesure de contrôler totalement le robot à ce stade. Notez que vous devez votre Arduino connecté pour exécuter ce programme.
Voici j’ai mis en place des contrôles :
- Appuyez sur M pour activer/désactiver le suivi de la souris. Si activé, la tête du robot suivra la position de la souris.
- Appuyez sur n’importe quel nombre de 0 à 5 sur le pavé numérique sur la droite de votre clavier pour contrôler les positions de bras. Vous pouvez ajouter plus de positions en modifiant l’objet de « Contrôles posent » dans la hiérarchie.
- Tapez dans la zone de texte dans le coin supérieur gauche de la fenêtre de simulation, puis appuyez sur Speak pour faire parler les le robot. C’est en fait alimenté par Google Translate pour la fonction de synthèse vocale, donc vous aurez besoin d’une connexion internet pour fonctionner.
- Appuyez sur n’importe quel nombre de 0 à 6 sur la partie supérieure de votre clavier pour contrôler le visage. Nous verrons comment configurer le téléphone Android pour refléter le visage dans la simulation à l’étape suivante.
Remarque : Si vous êtes peu familier avec l’utilisation de l’unité, je recommande l’apprentissage des fondements ici : http://unity3d.com/learn/tutorials/projects/roll-a-ball. Alors qu’est ce qui explique les notions de base sur l’utilisation de l’unité, il rayures vraiment que la surface sur quelle unité est capable de. Si vous êtes intéressé en savoir plus sur l’unité (ou quoi que ce soit d’autre d’ailleurs), je recommande fortement passer beaucoup de temps à développer des projets de petites sur vos propres et accumulent progressivement les connaissances que vous avancez.