Viewing 58 reply threads
  • Author
    Posts
    • #8978
      cholet
      Participant

      Bonjour,

      Je commence doucement à utiliser les scripts python et aiml et j’aurais quelque question :

      – Est-il possible de mettre à jour un fichier aiml ou py sans avoir à relancer myrobotlab à chaque fois.
      – Peut ton ouvrir ou contrôler des applications (windows, linux….).

      – Pour tout ce qui est connexion à un serveur (local ou distant) comment sa se passe quelque sont les limite . ex: j’utilise Octoprint comme serveur d’imprimante 3D puis-je demande au bot de se connecter a une imprimante en particulier l’allumer(via arduino relais) et manipuler vocalement l’imprimante (x a droite, z en haut……, allume extrudeur)

      – Concernant l’Aiml, durant une conversation, si un mot et inconnue (ex: chat) peut on enregistrer et classifié se mot dans une catégorie ou contexte.

      ex de conservation:
      – moi: j’aime les chats
      – bot: (ne connais pas le mot chat)
      – moi: un chat est un animal
      – bot: (créer une catégorie nommée animal et y stock le mot chat) et (ne connais pas le mot animal)
      – moi: un animal est un être vivant
      – bot: ne connait pas animal donc stocke le mot expliqué
      – etc…….

      ce qui créer un sorte de hiérarchie (parent/enfant) et pour chaque mot on peut passer des paramètres

      – moi: le chat a 4 pattes
      – bot: (connais le mot chat, donc il va lié 4 pattes à chat
      etc….

      Voila déjà pour quelque question 🙂

    • #9004
      Gael Langevin
      Keymaster

      Hello,
      -Tu peux modifier tes scripts python dans le tab Python de MyRobotLab.
      Copie colle dans le tab python ta fonction par ex:
      `def stopTracking():
      i01.headTracking.stopTracking()
      i01.eyesTracking.stopTracking()`
      puis cliques sur “execute”.

      -Pour l’instant tu ne peux modifier ton AIMl dans MRL sans être obligé de relancer MyRobotLab.

      Pour lancer une application sous Python, tu peux suivre cet exemple:

      Pour lancer une application sous ProgramAB, c’est moins simple car tu ne peux pas tout te permettre:

      En ce qui concerne ta demande par rapport à l’apprentissage:
      La version InMoov Anglaise peut faire ce que tu souhaites, mais la version Française n’est pas aussi évoluée. A ce jour, sauf erreur de ma part, la VF ne peut pas faire ce que tu souhaites car les AIML ne comportent pas le mode apprentissage.

    • #9005
      anthony
      Moderator

      Hello ! je te répond rapidement je ferais un 2ème message avec des exemples pour l’apprentissage basé sur la balise learn ainsi que les predicates

      Vu que les aiml et les .py sont chargés en mémoire au démarrage je ne pense pas. tu peux accélérer les chargements en désactivant les sons au démarrage ( ismute=1)

      pour contrôler basiquement un process local ce que j’utilise, exemple pour lancer vlc avec des paramètres optionnels :
      p = subprocess.Popen([“C:/Program Files (x86)/VideoLAN/VLC/vlc.exe”,”parametres1″,”parametres2…”])

      Pour octoprint il existe une api , voici un exemple en python, il y en a d’autre
      https://github.com/dragondgold/octo-control

      Basiquement tu peux utiliser des choses comme cela aussi pour communiquer avec un serveur web
      contenuWWW=urllib2.urlopen(“http://mapageweb”).read()

    • #9006
      anthony
      Moderator

      lol on a répondu en même temps pile poil 🙂 @++

    • #9007
      Gael Langevin
      Keymaster

      Ahaha, effectivement! Hello Anthony.
      J’ai d’ailleurs utilisé ton exemple de lancement de VLC.

      Tu dis qu’il y a la fonction apprentissage (learn.aiml) en VF?
      Comment lui dis-tu de que sa réponse est incorrecte afin de lui faire mémoriser la bonne?

      En Anglais il suffit de lui dire “that is not correct” et ensuite il demande quelle réponse il doit apprendre à la place.

    • #9009
      anthony
      Moderator

      J’avais commencé un travail dessus qui n’est pas dans le dépôt actuel.
      Il y avait 3 niveaux
      – Mémoire à court terme > ce peut être des variables temporaires type heure / capteurs …
      – Mémoire personnelle > quel est le nom de mon chat
      – Mémoire partagée avec les clones > c’est quoi un spéculos . sur ce point j’utilisais un serveur perso public pour stocker en bdd, je peux le ressusciter ou attendons peut être le future réseau “mrl p2p” ou utilisons le serveur inmoov @Sebastien ?

      A terme cela risque d’être sympa avec dl4j le moteur de machine learning ! on pourra théoriquement apprendre au robot ce qu’il voit et qu’il ne comprend pas. Il pourra surtout partager sa couche d’apprentissage avec les autre en p2p, et c’est parti 🙂 autre sujet, enfin les 2 seront liés (chatbot+dl4j).

      petit schéma qu’a posté Greg pour comprendre le moteur :

      @cholet ton idée de hiérarchie est ce sur quoi il faut se diriger je pense. L’aiml offrant de telles possibilité grâce aux catégories. reste a cuisiner cela. on va déjà remettre les fonctions d’apprentissage de base ça va être rapide, en se calquant sur le chatbot anglais pour garder la même logique.

      I’ll be back, pour quelques exemples simples

    • #9011
      cholet
      Participant

      Salut, merci de vos réponse. J’ai de quoi m’occuper la.

      @Gael, sur le coup oui je n’ai pas pensé à passer par l’interface myrobotlab je redémarré à chaque fois et étant donné que dans les scripts python on fait vite des erreurs sa devenait un peu long.

      Par contre concernant l’Aiml étant donner la structure assez simple des fichiers il serait intéressant d’avoir une interface pour taper nos Patterns,Template….etc et avoir une droplist de nos variable et fonction python existante afin de générer nos fichier Aiml. Au boulot je bosse en c# et on à certaine méthode qui génère du XML à partir de data, donc je pense que c’est faisable et il me semble avoir vu traîner des fichiers angular (ce doit être pour la webGui) ce serait pas mal d’avoir une interface web permettant la gestion de nos robots(à moins que ce soit déjà prévu ?). Angular est assez facile à prendre en main, je bosse avec la version 2 au boulot, je vais voir si je peut aller bidouiller la webGui.


      @Anthony
      , Je ne connaissait pas dl4j sa mal l’air vraiment intéressant de plus apparemment il y a une api pour python(Keras). je pense que dl4j doit rassembler plusieurs algo d’apprentissage et on peut importer nos propre algo (TensorFlow……). Concernant ton approche c’est un bon début pour commencé à vraiment donné de l’autonomie au robots, le stockage en bdd et indispensable, je serait vraiment intéressait de voir ce que tu a déjà fait (comment tu a structurer tes tables, les liaisons….) si tu à un schéma de ta bdd se serait cool. Je vais me documenté sur tout ça et si tu à quelque exemple d’utilisation avec dl4j je suis preneur.

      • This reply was modified 7 years, 4 months ago by cholet.
      • This reply was modified 7 years, 4 months ago by cholet.
    • #9055
      anthony
      Moderator

      Hello ! il y a eu beaucoup de modif concernant l’apprentissage je ferais une synthèse claire prochainement.
      Il reste encore un bug ( bien planqué ) à corriger concernant la prise en charge de l’UTF8 dans le moteur d’Alice.

      Pour la GUI c’est dans les tuyaux ( elle est même fonctionnelle ) . Manque juste le feu vert, ou rouge. On passera a l’orange sinon 🙂
      Il n’y a pas de module de prévu pour gérer graphiquement les AIML donc si tu veux faire quelque chose cela sera bienvenue et très utile pour tous !
      dl4j est en cours d’intégration https://github.com/MyRobotLab/myrobotlab/blob/develop/src/org/myrobotlab/service/Deeplearning4j.java
      Kevin pourra te renseigner sur l’avancement et l’utilisation

      @++

    • #9065
      anthony
      Moderator

      En attendant la prochaine maj concernant l’apprentissage qui ne devrait pas tarder ( bug utf8 ok / bug wikidata nok + polissage )
      Voila déjà un schéma explicatif de l’apprentissage sémantique. J’ai pris comme base le chatbot en français pour ne pas casser le chatbot anglais qui fonctionne plutôt bien. Les 2 devront à terme suivrent le même schéma a quelques différences prêt . ( Le chatbot EN n’utilise pas wikidata mais des web services avec retours non catégorisés )

      Il reste à traiter l’enregistrement local de la petite base de donnée aiml, ainsi que la partage des connaissances. Mais comme tout ça est sans fin on a le temps 🙂

      Les graph sont open pour qui veut modifier la chose

      https://github.com/MyRobotLab/inmoov/wiki/BRAIN-DOCUMENTATION
      https://github.com/MyRobotLab/inmoov/tree/develop/tools/shared_diagrams_documentation

    • #9066
      Gael Langevin
      Keymaster

      Merci Anthony pour le partage des graphs, cela va en aider plus d’un à comprendre le process.

    • #9068
      cholet
      Participant

      Merci Anthony.

    • #9070
      Dominique
      Participant

      Super Anthony. Ca c’est une bonne nouvelle, les choses sérieuses vont pouvoir commencer…

    • #9073
      laurent
      Participant

      Bonjour, cela semble super cool, mais eu quelqu’un pourrait expliquer de façon plus basique de quoi vous parlez, et ce que va apporter ces choses ? pitié for for the no inicier

    • #9075
      anthony
      Moderator

      coucou laurent, ce sont des améliorations liées au chatbot. Une des fonctionnalités du chatbot est l’analyse sémantique ( signification des mots )
      Ceci à pour objectif d’accroire la possibilité de réponses données par le robot. Et d’autre part améliorer la logique de la conversation. Dans ce cas précis ce sont des améliorations liées aux capacités du chatbot d’apprendre des choses qu’il ne connait pas, après être allé cherché des infos sur le net.
      Il y a plusieurs façons de parler au robot. Coder en dure des réponses , ou tenter d’analyser le sens de la question sans prendre la phrase complète au sens littéral.

      Une ébauche de doc : http://inmoov.fr/forums/topic/tuto-aiml/

    • #9078
      laurent
      Participant

      excellent ;); merci Anthony, tu nous prévient des que la mise a jour est dispo ?

    • #9079
      anthony
      Moderator
    • #9081
      Sebastien
      Participant

      Merci Anthony ! C’est parti pour une petite séance de test.

    • #9082
      laurent
      Participant

      Bonjour Anthony, j’ai juste un petit soucis avec l’étape 5
      5 / Télécharger le lanceur: https: //raw.githubusercontent .

      quand je clic sur le lien du lanceur j’ai un fichier txt qui s’ouvre, voir photo joint, et non pas un lanceur autoextractible, j’en fait quoi de ce fichier lanceur ? je le met ou ?

      Attachments:
      You must be logged in to view attached files.
    • #9084
      laurent
      Participant

      dans l’exemple de Gael j’avais ceci et la j’y suis arrivé sans problemes

      -Créer un nouveau dossier C:/mrl/myrobotlab.1.0.22XX (tu modifies afin de mettre le n°de version)
      -Télécharge la dernière version de MRL: https://s3.amazonaws.com/mrl-bucket-02/current/develop/myrobotlab.jar
      -Télécharge la dernière version de inmoov-develop: https://github.com/MyRobotLab/inmoov/archive/develop.zip
      -Copie/colle le dossier “InMoov” de ton ancienne version dans ton nouveau dossier.
      -Glisse myrobotlab.jar dans ton nouveau dossier
      -Décompresse ce qui est dans inmoov-develop.zip/inmoov-develop/InMoov dans ton nouveau dossier, cela va te demander si tu veux remplacer les fichiers existant, accepte.(InMoov, START_INMOOV.bat start.imoov.sh et les autres fichiers…)
      -Une fois les éléments remplacés, dans ton nouveau dossier, double clique sur START_INMOOV.bat et laisse faire toute l’installation.

      enfaite dans ton lien il me manque :inmoov-develop.zip/inmoov-develop/InMoov ??

    • #9085
      laurent
      Participant

      bon visiblement j’ai réussi, en reprenant l’ancien lanceur et en copiant les script donner ! , mais ça ne marche pas,, mrl se lance, il me dit alerte mon cerveau est corrompu je vais recompilé aim, après il continue et il me dit alerte open cv ne peux pas démarrer camera 1 puis c’est fini il bloque la !mrl ne va pas plus loin ! que doit je faire ,?

    • #9086
      cholet
      Participant

      Salut Laurent,

      J’ai eu le même problème essai ceci :

      Dans le fichier ConfigParser.py à la ligne 35 tu ajoute ce morceau de code

      try:
      virtualInmoovAlwaysActivated=0
      virtualInmoovAlwaysActivated = BasicConfig.getboolean(‘VIRTUAL_INMOOV’,’virtualInmoovAlwaysActivated’)
      except:
      BasicConfig.add_section(‘VIRTUAL_INMOOV’)
      BasicConfig.set(‘VIRTUAL_INMOOV’, ‘virtualInmoovAlwaysActivated’, ‘False’)
      configNeedUpdate=1
      pass

      • This reply was modified 7 years, 4 months ago by cholet.
    • #9088
      laurent
      Participant

      Bonjour Cholet, je n’est pas ce fichier, dans les ancienne version cela se trouver dans inmoove master/inmoove scripte, mais dans cette version je le trouve pas il est ou ce fichier ConfigParser.py ?

    • #9089
      laurent
      Participant

      OK je l’ai trouver et modifié, du coup la fenêtre dos défile un peut quand je démarre mrl et reste figé comme photo joint, tu a refait l’installe après modification de ce fichier ?

      Attachments:
      You must be logged in to view attached files.
    • #9091
      cholet
      Participant

      non je n’ai pas refait l’installe, j’ai télécharger la nouvelle version de myrobotlab ainsi que les fichiers inmoov-develop du github, j’ai ensuite lancer l’installe avec START_INMOOV.bat. Myrobolab a afficher un message d’erreur par rapport à ‘virtualInmoovAlwaysActivated’ et c’est la que j’ai remit le morceau de code que je t’ai indiqué et j’ai relancer le tout, rien de plus.

    • #9092
      laurent
      Participant

      les fichiers inmoov-develop du github c’est un seul fichier text quand je clic dessus, ba écoute moi mon mrl il reste figé a open cv, et la fenêtre dos comme la photo que j’ai joint ci-dessus

    • #9093
      laurent
      Participant

      enfaîte avec ou sans la modif de cholet mon mrl reste bloquer a open cv ne peut pas démarrer, et ma fenêtre dos a la photo ci-dessus déjà présenter, un truc bloque mais ou ?

    • #9094
      anthony
      Moderator

      laurent vu le lien ci dessus, il semblerait que tu ais téléchargé une vielle version, les serveurs de mrl changent souvent de nom en ce moment.

      La procédure à jour est ici, il ne manque pas le lien vers inmoov develop, inmoov develop est intégré au jar tout va se mettre à jour automatiquement.
      Dans ton cas comme tu as ( avais ) déjà une installation fonctionnelle, c’est la section update qui te concerne :

      https://github.com/MyRobotLab/inmoov/wiki/HOWTO—SETUP-&-PREREQUISITES

    • #9095
      laurent
      Participant

      bonjour Anthony, c’est le mème lien que celui que tu a mi a 12h32, et le meme jar que j’ai telecharger, mais pareil il s’arrête a open cv, comprend pas,

    • #9096
      anthony
      Moderator

      Hello ! tu peux poster ton fichier myrobotlab.org stp ?
      Tu peux essayer aussi une reeinstall ( dans Tools\resetmrl.bat )

      • This reply was modified 7 years, 4 months ago by anthony.
    • #9100
      laurent
      Participant

      bon alors j’ai copier coller mon ancien mrl 2273, dans un nouveaux répertoire, j’ai supprimé myrobotlab.jar, je l’ai remplacer par le nouveau qu’il y avait dans ton lien, modifié le lanceur, et refait l’installe, j’obtient un mrl 10.0.2328 photo joint c’est que cela a réussi ? il semble beaucoup plus vif

      Attachments:
      You must be logged in to view attached files.
    • #9102
      Gael Langevin
      Keymaster

      Hello Laurent,
      Possible que ta configuration de webcam soit differente.
      Vérifie ta config OpenCV si tu as bien une webcam connectée ou pas:
      https://github.com/MyRobotLab/inmoov/blob/develop/InMoov/config/service_D_OpenCv.config.default

      [MAIN]
      isOpenCvActivated=False
    • #9106
      laurent
      Participant

      bien vue gael, il était en true, donc au démarrage de mtl plus d’erreur open cv, par contre aucune fonction vidéo, la camera s’allume pas, et quand je lui dit face recognition il dit démarrage de face recognition puis rien

    • #9107
      laurent
      Participant

      mais eu en mettant false je désactive open cv, c’est ca ? il n’est donc toujours pas en fonctionnement 2328 dans la version 2328 c’est ça ?

    • #9109
      cholet
      Participant

      Bonjour,

      J’ai moi aussi refait l’installe en suivant parfaitement la procédure et du coup impeccable, tout fonctionne bien. Désolé Laurent de t’avoir fourni de mauvaise info j’avais moi même foiré mon installe.

      j’en ai profiter pour tester un peu le système de learn patern.

      Quant il trouve la réponse sur wikidata il donne bien la définition, par contre quand il ne trouve pas il demande une explication, une fois celle ci donner il confirme mais n’enregistre pas l’info car quand je repose la même question il demande à nouveau une explication. Faut il utiliser un terme precis afin qu’il enregistre l’info donné ?

      Par contre j’ai toujours mon soucis avec les yeux personne ne ma répondu 🙁

      Anthony, concernant l’enregistrement en base de donnée tu a quelques explication sur les test que tu à déjà fait(base en local, serveur….).

    • #9110
      laurent
      Participant

      cc pas de soucis Cholet, idem il enregistre pas les réponses ,

    • #9111
      Bruno.Ash
      Participant

      Salut à tous,
      MAJ faite.
      Après téléchargement du .jar 2336 et une MAJ de Java puis redémarrage de la tablette : tout est OK.
      J’ai testé rapidement le face tracking, ça fonctionne.
      Mes réglages de base n’ont pas bougé, c’est nickel !!
      Un grand MERCI à toute l’équipe pour le travail accompli.

      J’espère avoir un WE un peu cool pour pouvoir tester tout ça en profondeur.

      Pour info, j’ai mis un micro cravate pour l’acquisition et je n’ai plus d’erreur de compréhension en version .FR. Il comprend toutes les commandes à la volée.

    • #9112
      laurent
      Participant

      hello bruno , ton face tracking fonctionne ? il fonctionne depuis la mise a jour du jar 2336 ?, peut tu me donner le lien du 2336 stp, merci, moi aussi il comprend les commande a la volée c’est agreable

    • #9113
      Bruno.Ash
      Participant

      Salut Laurent,
      Le lien est le même pour toutes les MAJ de MRL en phase bêta…

      Attachments:
      You must be logged in to view attached files.
    • #9115
      laurent
      Participant

      bon bon bon, et bien quand je débranche ma kinect, la camera marche, quand je lui dit reconnaissance facial, il se met bien en mode spécial dans open cv, après je ne sait pas l’utilisé, et quand je lui dit cherche les humains, open cv change a nouveau de mode, noir et blanc ce coup si, mais il me suis pas de la tète, car je ne sait pas non plus comment ça fonctionne

    • #9117
      anthony
      Moderator

      Coucou ! le tracking c’est le dernier gros chantier qui est en cours avant la prochaine version officielle. D’ici la peut être que ça va marcher peut être pas 🙂
      Pour l’enregistrement des réponses je vais jeter un œil pouvez vous donner qq précisions sur les questions que vous avez posées. Quand vous dites que ça n enregistre pas, c’est au moment ou vous reposez la question juste après, ou après un redémarrage ?
      ( wikidata est actuellement cassé il donne des réponses mais pas toutes )
      Descriptif du process pour info

      – Question que le robot ne comprend pas
      -> Il demande une explication
      -> On lui donne
      -> Il enregistre l’info dans le fichier learn.csv ( repertoire aimlIf )
      -> On ferme mrl en disant “extinction” ou en cliquant sur la croix de la gui
      -> Au prochain redémarrage ce sont les csv qui sont chargés, non plus les aiml
      todo : informations non généralistes personnelles

      Cette opération est transparente, c’est juste un descriptif

      @Cholet pour le partage des connaissances c’était un simple POC ,j’enregistre un question je la stocke en BDD et j’associe à la réponse.
      https://github.com/MyRobotLab/pyrobotlab/blob/master/home/moz4r/Inmoov/InmoovScript_InmoovAI/INMOOV-AI_memory.py#L2
      https://github.com/MyRobotLab/pyrobotlab/blob/master/home/moz4r/Inmoov/InmoovScript_InmoovAI/INMOOV-AI_memory.py#L32
      https://www.youtube.com/edit?o=U&video_id=taXwTN6V3OA

      On se dirige plus vers une infra en P2P pour le partage des connaissances catégorisées . L idée étant de partager l’apprentissage de dl4j aussi. tout reste à écrire la dessus.

    • #9119
      laurent
      Participant

      bonjour, bon et bien moi le tracking fonctionne, quand je lui dit cherche les humains il me suis de la téte, merci a tous c’est cool

    • #9120
      Gael Langevin
      Keymaster

      Ah bah voila une bonne nouvelle!
      Content que tu y sois arrivé!

      La kinect et la webcam branchées en meme temps ne font pas bon ménage sur Windows. Les deux sont détectées en tant que camera, et Windows n’en prends qu’une seule au passage.
      Il y a surement moyen de resoudre ce pb, mais pour l’instant je n’ai pas encore trouvé de solution.

    • #9121
      anthony
      Moderator

      chouette !
      Désolé y avait en effet un pti bug sur l’enregistrement des réponses, c’est corrigé @++

    • #9122
      anthony
      Moderator

      chouette !
      Désolé y avait en effet un pti bug sur l’enregistrement des réponses, c’est corrigé @++

    • #9126
      laurent
      Participant

      bonjour,Anthony, c’est corrigé y a une mise a jour a faire ??

    • #9127
      cholet
      Participant

      Merci Anthony!

      Concernant la qualité de reconnaissance vocal, j’ai un micro casque de bonne qualité mais j’ai pas mal d’erreur sur la reconnaissance des mots. Avait-vous quelque conseil afin d’améliorer ceci.

      Bruno tu à beaucoup différence concernant l’utilisation d’un micro cravate par rapport a un micro casque ?

    • #9128
      Bruno.Ash
      Participant

      Salut Cholet,
      Pour les tests, le micro cravate est fixé sur le torse de façon a ce qu’il ne prenne pas les vibrations du Bot : Scotché par son propre fil souple. Je n’ai jamais testé les micro casque…

    • #9168
      cholet
      Participant

      Bonjour à tous,

      Petite question bête, dans la config actuel LeftSide connect le bras gauche tête, stomach….

      j’ai fini le bras droit tête hanche … enfin tout sauf le bras gauche :). Donc comme vous avez surement compris je souhaite inverser bras gauche et droite au niveau config, dans quel fichier je doit modifier cela ?

    • #9171
      Gael Langevin
      Keymaster

      Pour cela il faut que tu aies deux Arduinos.
      Une pour le bras droit et une autre pour la tete et hanche.
      Dans InMoov.config il faut modifier:

      [MAIN]
      ScriptType=Virtual

      par:

      [MAIN]
      ScriptType=Full

      Il faut egalement parametrer service_6_Arduino.config:

      ;my rightport if used
      MyRightPort=COM4
      BoardTypeMyRightPort="atmega2560"
      
      ;my leftport if used
      MyLeftPort=COM3
      BoardTypeMyLeftPort="atmega2560"

      et définir ce qui est connecté en “True” dans les skeleton.config, par exemple pour la tete:
      skeleton_head.config

      [MAIN]
      isHeadActivated=True
      • This reply was modified 7 years, 4 months ago by Gael Langevin.
    • #9175
      laurent
      Participant

      Bonjour, pour ma part il n’enregistre pas ce que je lui apprend ,je lui pose la question qu’ecce qu’un pull, il me demande de lui expliquer, je lui explique que c’est une vêtement, il me répond OK je sait maintenant qu’un pull c’est un vêtement, mais quand je redémarre MRL , si je lui repose la même question il ne sait a nouveau pas y a t’il une manip a faire pour mettre a jour la modification qu’a fait Anthony ?

    • #9178
      cholet
      Participant

      Bonjour Laurent,

      si tu a bien fait la dernière mise à jour logiquement sa fonctionne.

      Pour vérifier essai les manip suivante :

      1 – pose ta question
      2 – si il ne connais pas la réponse tu lui donne

      répète 1 et 2 avec plusieurs question afin de tester plusieurs enregistrement

      3 – ferme myrobotlab (la normalement il va enregistrer les nouvelles info qu’il a appris)

      4 – cherche le fichier learnf.aiml(C:\mrl\myrobotlab.1.0.xxxx\InMoov\chatbot\bots\fr\aiml\learnf.aiml)

      dans le fichier learnf.aiml tu doit voir tes questions posé entre les balise <pattern>…</pattern>
      et la réponse entre les balise <template></template>

      exemple :

      <category><pattern>QU EST CE QUE UN MICRO ONDES</pattern>
      <template>ça sert à réchauffer les aliments.</template>
      </category>

      si tu ne voit pas tes questions dans ce fichier cela signifie qu’il n’a pas enregistrer la question et la réponse.

      par contre si tu les voit et que cela ne fonctionne pas quand tu relance myrobotlab et que tu repose la question dans ce cas copie ta question ce qui ce trouve entre <pattern>.. </pattern> va dans dans l’onglet chatbot de myrobotlab, colle la question dans le champ texte et valide afin de vérifie si ce n’est pas du à une erreur de reconnaissance vocal de la question.

      bonjour et merci Gael pour cette réponse, sur ce point la pas de souci j’avais bien compris l’histoire des 2 arduinos et du virtual, full…. mais ce que je voulais savoir en fait c’est que actuellement l’ensemble tête, hanche et bras gauche on été déclarer ensemble (avec leftside) et le bras droit actuellement seul(surement que les jambes seront ajouté après) sur un autre arduino. d’ou 2 port com. je voulais donc savoir si en gros on pouvais modifier les fichiers afin que par exemple on se retrouve avec leftside seul sur un arduino. Et rightside avec tête hanche….. sur l’autre arduino (l’inverse quoi).

      • This reply was modified 7 years, 4 months ago by cholet.
    • #9180
      Gael Langevin
      Keymaster

      Je n’ai jamais essayé. Tu peux peut-être inverser le coté gauche du droit. Dans la arduino.config, il faut inverser les COM port. Mais certaines gestuelles ne vont pas fonctionner correctement, a cause des poignets, car ceux ci vont tourner dans le sens opposé. Il faudrait donc également modifier les hand.config en changeant:

      [SERVO_INVERTED]
      thumb=False
      index=False
      majeure=False
      ringFinger=False
      pinky=False
      wrist=False

      par:

      [SERVO_INVERTED]
      thumb=False
      index=False
      majeure=False
      ringFinger=False
      pinky=False
      wrist=True

      Bon ceci dit, je pense que ce n’est pas vraiment une bonne option de départ. Anthony aura peut-être une autre idée.

      • This reply was modified 7 years, 2 months ago by Gael Langevin.
    • #9230
      anthony
      Moderator

      en effet tu va avoir des effets de bord . Tu peux tenter de modifier le port com associé au bras lors du démarrage :
      https://github.com/MyRobotLab/inmoov/blob/develop/InMoov/skeleton/leftArm.py#L80

    • #9259
      Anonymous
      Inactive

      Bonjour,

      J’essaie d’utiliser la fonction learn mais en vain. Lorsque je pose une question, il me répond “Interesting question” (je suis resté en anglais pour le moment).

      Y a-t-il un mot clé à dire avant pour “passer” en mode learning ?

      PS: Je suis en mrl 2386 sous Linux en mode virtual (ScriptType=Virtual dans _Inmoov.config)

      Merci d’avance
      Eric

    • #9270
      Anonymous
      Inactive

      J’ai poursuivi mes tests. En anglais, je n’arrive jamais à ce qu’il me demande une explication sur un mot inconnu. Il recherche systématiquement sur Internet (answers.com ou autre). Dans le cas où il ne trouve rien, il donne une réponse bateau et c’est tout. Quelqu’un a-t-il un exemple ?

      J’ai ensuite testé en français. Là, lorsqu’il ne trouve pas un mot, il me dit : “désolé, je ne sais pas, si tu as une idée…”. Je lui donne une explication et le fichier learnf.aiml est mis à jour.

      Après un redémarrage, si je lui pose la même question, il ne trouve toujours pas ma réponse et redemande “désolé, je ne sais pas, si tu as une idée…”. Par exemple:

      H: qu’est-ce qu’un poussin
      R: désolé, je ne sais pas, si tu as une idée
      H: c’est le petit de la poule

      redémarrage

      H: qu’est-ce qu’un poussin
      R: désolé, je ne sais pas, si tu as une idée

      Dans le fichier learn on trouve:

      <category><pattern>QU EST CE QUE UN POUSSIN</pattern>
      <template>le petit de la poule.</template>
      </category>

      Si je dis alors:

      H: qu’est ce que un poussin
      R: le petit de la poule

      Ca marche.

      En comparant le fichier questceque.aiml et learn.aiml, on constate que les articles sont supprimés. J’ai alors modifié le fichier _inmoov.knowledge.aiml pour que l’article soit supprimé et avoir:

      <category><pattern>QU EST CE QUE POUSSIN</pattern>
      <template>le petit de la poule.</template>
      </category>

      La modif dans le fichier _inmoovKnowledge.aiml est ici:

      <learnf><category><pattern><eval><get name=”determinantinterogatif”/> <get name=”courant”/></eval></pattern><template><eval><star index=”2″/></eval>.</template></category><category><pattern><eval><get name=”determinantinterogatif”/> <star index=”2″/></eval></pattern><template>Cela peut être <eval><star index=”1″/></eval> par exemple.</template></category><category><pattern># EST CE QUE <eval><star index=”1″/></eval> EST <eval><star index=”2″/></eval></pattern><template>Oui, <random>

    • bien sûre
    • évidement
    • je pense
    • </random>.</template></category></learnf>

      Est-ce correct de faire ainsi ? Qu’en pensez-vous ?

      Eric

  • #9294
    anthony
    Moderator

    je vais regarder ça

  • #9363
    anthony
    Moderator

    merci pour ta correction de _inmoovKnowledge.aiml ! c’est intégré ( j’ai ajouté une déclinaison du mot donc sans l’article )
    Pour le chatbot anglais je ne l’ai pas modifié encore, de mémoire le bot ne rebondit pas pour proposer un apprentissage mais on peut le forcer :

    * MEANS *
    A * IS A *

  • #9364
    anthony
    Moderator

    merci pour ta correction de _inmoovKnowledge.aiml ! c’est intégré ( j’ai ajouté une déclinaison du mot donc sans l’article )
    Pour le chatbot anglais je ne l’ai pas modifié encore, de mémoire le bot ne rebondit pas pour proposer un apprentissage mais on peut le forcer :

    * MEANS *
    A * IS A *

  • #9365
    anthony
    Moderator

    merci pour ta correction de _inmoovKnowledge.aiml ! c’est intégré ( j’ai ajouté une déclinaison du mot donc sans l’article )
    Pour le chatbot anglais je ne l’ai pas modifié encore, de mémoire le bot ne rebondit pas pour proposer un apprentissage mais on peut le forcer :

    * MEANS *
    A * IS A *

  • Viewing 58 reply threads
    • You must be logged in to reply to this topic.