


Description détaillée du projet
Ce projet a pour objectif de doter un robot mobile de capacités autonomes avancées. Le système permet à l'utilisateur de communiquer avec le robot par des commandes verbales en français, qui sont traitées par WhisperAI et converties en texte. Par la suite, un module Python interprète ces commandes et les transforme en instructions compréhensibles pour le microcontrôleur du robot, permettant d'exécuter des mouvements. Le robot est équipé d'une caméra qui détecte et suit des balles colorées en temps réel, utilisant la vision par ordinateur pour adapter son comportement. Le code de contrôle est implémenté en Arduino, gérant tant la mobilité que l'évitement d'obstacles.
Réalisations
- Premier contact réussi avec les systèmes embarqués, ROS et la programmation de microcontrôleurs
- Maintien de la position du meilleur système de commandes de la promotion, programmé pour MoBotSim
- Amélioration de la détection d'objets multiples, passant d'une précision de 90% à 98% en diamètre/position comparé à MoBotSim
- Système de commandes adaptable aux phrases complexes et unités variables