Viewing 8 reply threads
  • Author
    Posts
    • #5537

      C’est pas un truc cochon. J’ai juste du mal à voir exactement la relation. Le langage utilisé par MRL C’est le Python c’est tout ? Ou c’est plus compliqué que ça ?
      Y-a-t’il une version minimum toute faite du genre j’ai monté les moteurs réglés pas trop mal, tout branché les nappes, les plots, les CI(s), l’alim, les servos etc. Je lui dit tourne la tête la “créature” (Brrrr.) la tourne grossièrement et il ne reste que les réglages fins. Ou nous sommes laissés à nous-même pour faire le moindre murmure ou geste ? (J’ai chercher avant de demandé.)
      Est-ce qu’InMoov suit les objets des yeux ? Là aussi j’ai chercher sans rien trouver de probant. Apparemment il ne reconnait rien.
      Est-ce dangereux de passer l’alim de 5 à 6 volts pour tout le système ? Je pense que l’électronique le supportait, mais pour les moteurs, ça les rendraient certainement plus nerveux surtout les bras, mais je me demande si ils tiendraient bien longtps…
      Amicalement.
      Sy.
      Sinon j’ai tout commandé, imprimante, cartes en tt genres, filaments kaki (Non je déconne du blanc) et j’ai vraiment hâte de rentrer dans la bagarre moi aussi et d’arrêter de poser et poser encore des questions. Car bon sang il y a encore un sacré travail à faire… Pfiou… Je vous souhaite à tous le meilleur.

    • #5539
      My’s Moov
      Moderator

      lol … MRL est en gros une interface pour piloté le robot !! y’a déjà pas mal de chose qui sont apporté !! quand tu lui dis tourne la tête à droite il le fera car il reconnait certain mots et autres commandes !! ensuite .. en gros tout est décortiqué dans cette interface, bras, mains, bouche, yeux, paupières etc … et évidement tout est ajoutable quasi … vraiment très intéressant

      Pour ce qui est du 5V au 6V !! tu peux les arduino gére plus que ça !! les servos qu’on prends sont de ordre de 8 Volts !! … Mais la lattepanda c’est 5 Volts, pas osé mettre plus que préconisé.

      Et pour finir, oui tu va vite comprendre comment tout ça fonctionne, au début j’étais perdu aussi, mais très vite tu pige comment tout ça se marie très bien 🙂

    • #5540

      Donc la “créature” ne situe rien… Sinon c’est vrai que là voyant l’avancement de certains, je ne suis pas très rassuré. Je vais aller voir ce que font les Grds Bretons et autres Anglo-Saxons, pour voir si on a, comme pour bcp de choses là aussi, 10 ans de retard. Merci d’avoir pris le tps de répondre. Bonne soirée.
      Sy.

    • #5552
      Gael Langevin
      Keymaster

      Hello Sylvain et les autres,
      La créature fait de l’object tracking, du face tracking, du face recognition également avec possibilité de dire le prénom de la personne reconnue. Sur OpenCV il existe toute sorte de filtre et masque que tu peux tester pour effectuer des tracking differents, par exemple par selection de couleur, ou par ombrage etc… Il est aussi possible d’utiliser une Raspi en amont du PC/Tablette qui gère le robot et MRL afin de faire du post processing visuel. Une des Université Américaine que j’ai visité m’a montré leurs tests sur InMoov, cela permets de détecter jusqu’à 30 000 objets courants grâce à la librairie intégrée. Un peu comme la Pixy mais avec les images en librairie.
      Les servo moteurs fonctionnent bien mieux en 6V qu’en 5V car plus rapide. Les Inmoov sous 5V sont malheureusement un peu lent, déjà qu’en 6V parfois ça manque de rapidité, autant avoir le max dès le départ. Par contre les 805bb ne supporte pas au dela du 6V et peuvent se mettre à jigoter et à surchauffer avec un voltage supérieur. Voir tout simplement bruler. Regarde les batteries préconisées dans ma BOM ainsi qu’une alimentation.
      http://inmoov.fr/default-hardware-map/

    • #5557

      Ok, merci Gaël.
      Bon tu parles un peu Martien pour moi Raspi, Pixy, OpenCV… Pfff…
      D’après ce que j’ai pu lire comprendre et un petit peu assimiler, je crois qu’ effectivement mieux de mettre ce système de reconnaissance de forme avt le pc/tablette (surtout le mien qui n’est pas encore quantique, je sais j’ai honte. Enfin pas trop)
      30 000 objects c’est trop pour nous (moi). Non ? Puis, je serai très étonné qu’ils partagent une telle évolution alors qu’ils ont dû y passer un tps dingue. Leur sys parait performant, mais n’existe-t’il pas une version avec juste 100 objets, qqs couleurs, qqs mouvements, etc à reconnaitre ? Je pourrai leurs demander mais sans ton aval je suis peanuts.
      J’insiste lourdement ainsi car sans interactions, toucher, reconnaissance en général (perception), etc un bot qui ne perçoit pas grd chose bah c’est pas terrible. J’ai vu qu’Anthony travaillait sur le touché. Super.
      Amicalement.
      Sy.
      Travailles-tu tout seul Gaël ? Ou y a t’il une foule de gens autours de toi ?

    • #5559
      Gael Langevin
      Keymaster

      Ils partagerons leur travail en temps voulu, afin d’en faire bénéficier la communauté InMoov.
      Pour l’instant cela reste encore dans les tiroirs.
      🙂
      Si tu regardes mes vidéos de tests avec capteur tactile pour les doigts, tu verras qu’avec presque rien je propose de faire des capteurs. C’est dans mes tutoriels.
      Ce qui reste encore à implémenter, c’est l’utilisation dans MRL de cette perception tactile. Mes tests n’ont pas étés plus loin qu’en créant du code Arduino. Nous avions commencé à aborder les capteurs sur MRL, mais les développeurs ont radicalement transformé en profondeurs MyRobotLab, ce qui fait que l’évolution à ce sujet sur InMoov est en mode stagnant depuis près de deux ans.

      Nous venons enfin de sortir de cette crise de jouvence, ce qui fait que nous allons à nouveau pouvoir travailler sur ce genre d’éléments.

      Pour répondre à ta dernière question, je travaille, créer et développe InMoov seul dans mon atelier.
      Par contre je m’appuie sur la communauté en ce qui concerne l’évolution du software. J’ai choisi MyRobotLab et Arduino, depuis le début pour cette raison. D’autre plateforme non Open Source et possiblement plus performantes existent, mais elles ne rentrent pas dans mon choix éthique et éducatif que j’applique à mon projet.
      La communauté aujourd’hui mondiale, participe au développement dans énormément de domaine, comme les prothèses Open Source pour les pays sous développé grâce à des associations comme E-nable. Mais aussi sur l’intelligence artificielle en deep learning comme à l’école 42, par exemple ou au Kaist institute en Corrée du sud.

      • This reply was modified 8 years, 2 months ago by Gael Langevin.
    • #5562
      anthony
      Moderator

      En gros OpenCV c’est un algorithme qui analyse la caméra pour par exemple détecter un visage/une couleur et le transformer en coordonnées/données. Infos que l’ont peux traiter dans le programme pour effectuer des actions . c’est très très complet. Oui Gaël a fait des trucs quand même plus pro pour les doigts. je n’ai pas tiré les fils pour les capteurs je voulais tester une méthode alternative je pense que ça ne sera pas aussi précis.

    • #5563

      Ok MerciS.
      Je viens de lire la doc Module de reconnaissance Pixy et Arduino
      http://www.lextronic.fr/P30095-module-de-reconnaissance-video-pixy.html
      C’est effectivement sympa et pas trop cher. Mais je serai bien incapable d’installer ça et de le faire fonctionner sur un PC. Alors en aval comme en amont… Lol… Je vais faire comme My’s Moov et chercher sur des machines ou des jouets déjà existants ceux qui font déjà ce travail (reconnaissance) pourquoi pas, puis les détourner de leur but originel pour essayer de les adapter sur InMoov. C’est bientôt Noël il y a plein de jouets très sophistiqués qui doivent pouvoir le faire. Et pour que cela passe inaperçu par rapport à la famille qui pourrait croire que je me fais des cadeaux à moi-même. Je vais dire que c’est pour un neveu lointain… Si si… Non ? C’est diabolique je sais. :0)

      Gaêl tu as tout mon respect pas seulement pour ta façon de penser mais d’agir aussi.
      Amicalement.
      Sy.

    • #5564
      My’s Moov
      Moderator

      Kikou Sylvain !!! pour faire fonctionner “openCV” c’est simple il suffit installer “Myrobotlab” ensuite y connecter une simple caméra que tu trouve à 20 € du style (Microsoft HD 3000) c’est tout ….

Viewing 8 reply threads
  • You must be logged in to reply to this topic.