• Rohmer posted an update 3 weeks, 5 days ago

    Bonjour, si quelqu’un peux me donner la solution concernant l’utilisation de Myrobotlab.1.0.2340 qui à chaque lancement, m’indique une erreur de Framework sous windows 10, photos ci-jointes, je n’arrive pas non plus à avoir un signal sur mes deux cartes arduino gauche et droite avec les commande vocal. Je me sens un peu perdu. Au passage je voulais remercier Gaël pour l’excellent boulot sur le site.

    • Bonjour,
      Comme vous aviez egalement pose cette question assez smilaire en message prive, je colle ici la reponse qui vous a permis de debloquer votre probleme. Cela peut servir pour d’autre personne.

      “Version officielle et fonctionnelle se trouve ici:

      http://inmoov.fr/how-to-start-myrobotlab/

      La liste des commandes en Français se trouve dans le répertoire:
      C:\Myrobotlab\myrobotlab.1.0.2430\InMoov\chatbot\bots\fr\aiml/inmoovGestures.aiml
      (Vous pouvez éditer ces fichiers avec un éditeur de texte.)
      Exemple de commande vocale pour la main:
      OUVRE TES MAINS
      OUVRE TA MAIN DROITE

      Il est necessaire d’utiliser les bonnes commandes vocales pour faire effectuer des gestuelles sinon le robot va vous donner des reponses par defaut.”

      Autre de vos questions:
      “Je bloque à nouveau au niveau de la bouche qui ne bouge pas, je me pose la question s’il faut intégrer une carte arduino supplémentaire avec le signal audio d’un ampli, ou est-ce que tout celà est déjà intégré dans MRL ?
      j’ai bien activer true dans config/skeleton/Head/Mouthcontrol et audioprocessing en true, la bouche ne bouge pas pour l’intant.
      Faut-il faire ce branchement ?

      http://img15.hostingpics.net/pics/832542branchementparoleinmoov.jpg

      Ma reponse:
      Je n’utilise pas ce principe pour faire fonctionner la bouche, mais celui intégré dans MRL.
      Mon servo moteur(jaw) étant branché comme tout les autres servo moteur, lorsque du texte est transformé en MP3, MyRobotLab génère automatiquement un code au servo moteur basé sur les consonne et voyelle qui active la bouche.
      Il suffit de brancher le servo sur la breakout board(Eye/Mouth) pin 26 qui elle même est reliée à la Nervo board.

      Activer dans la skeleton_head.config:
      [MAIN]
      isHeadActivated=True

      Et insérez vos paramètres personnel:
      [SERVO_MINIMUM_MAP_OUTPUT]
      ;your servo minimal limits
      jaw=10

      [SERVO_MAXIMUM_MAP_OUTPUT]
      ;your servo maximal limits
      jaw=25

      ;robot move the jaw while speaking
      [MOUTHCONTROL]
      MouthControlActivated=True
      ;How much the jaw move ( after map )
      MouthControlJawMin=0
      MouthControlJawMax=100

      Le système avec ampli et Arduino supplémentaire est plus précis au niveau des mouvements de la mâchoire car mieux calé par rapport au son.
      Par contre cela demande de la ressource supplémentaire pour le port USB de la tablette et un peu plus compliqué à mettre en œuvre.