0Home Page test forums PROGRAMMATION INTELLIGENCE ARTIFICIELLE [TRAVAUX PRATIQUES] #1

Tagged: ,

This topic contains 8 replies, has 5 voices, and was last updated by  Pierre Hould 1 year, 9 months ago.

  • Author
    Posts
  • #6409

    anthony
    Moderator

    Coucou !
    La mission si vous l’acceptez :
    Demander à Inmoov : “Dessine moi un mouton”
    Et bien sûre qu’il le fasse , sans que cela soit scripté !

    Pistes de réflexion :
    1/ Récupérer une image – une formalité
    2/ En faire un contour et transformer le tout en points ou vecteurs – avec un algo de opencv ? http://docs.opencv.org/2.4/doc/tutorials/imgproc/shapedescriptors/find_contours/find_contours.html
    3/ Convertir ces points ou vecteurs pour les balancer dans le service IntegratedMovement
    4/ Un stylo bricolé avec un capteur de pression peut être pas mal pour corriger le pointage sur Z

    Vous êtes est chauds ? 🙂

  • #6417

    BIGIARINI Vincent
    Participant

    Alors si j’ai bien compris ce que j’ai vu sur le site mrl, avec ce service on est capable de demander une position de la main dans l’espace et le service s’occupe de déterminer les positions des articulations pour y arriver ?

    Si c’est ça, cest une chouette avancée !

  • #6421

    Gael Langevin
    Keymaster

    Bien sur que c’est tentant!
    Le service integratedMovement, pour l’instant ne determine que le point de départ et le point d’arrivé, mais j’imagine qu’il faudrait passer par une vectorisation du fichier de contour afin de determiner les points qui represente le tracé. Exactement comme lorsque l’on creer un DXF qui sera ensuite utilisé pour un tracé de fraiseuse CNC.

    J’avais fait un script il y a quelque temps, qui fait faire une signature à InMoov, mais il s’agit d’un fichier scripté (signature.py dans Gesture). On se rends vite compte de la complexité du problème, lorsque l’on exécute un mouvement en 3 dimension, sur les 3 axes.
    https://github.com/MyRobotLab/pyrobotlab/blob/master/home/hairygael/GESTURES/signature.py

    Idéalement dans un premier temps, serait de partir sur un mouvement x et y, papier à plat sur la table.

  • #6422

    Dominique
    Participant

    Oui c’est une avancé prometteuse.

    J’aimerais bien y participer mais pour cela il faut au moins un bras complètement fonctionnelle et j’en suis pas encore la malheureusement.

    Je suis sûr que tu va trouver la solution.

    • This reply was modified 2 years, 11 months ago by  Dominique.
  • #6427

    Gael Langevin
    Keymaster

    InMoov, vu et dessiné par un bras robot lors de la Makerfaire de Nantes.
    Le principe est un peu different car il ne fait pas les contours, mais les ombres et lumières en utilisant un filtre de contraste.

    Ce qui est assez troublant (humainement parlant) c’est que le bras robot a une webcam qui lui sert d’oeil montée sur deux servos moteurs. L’oeil capture une image, qui est automatiquement transformé par l’ordi et le bras commence à dessiner. Mais l’oeil, qui a partir de cet instant n’a plus d’utilité, regarde alternativement, le bras en train de dessiner puis le visage de la personne qui pose en donnant l’impression qu’il s’inspire réellement des traits de la personne qui pose.
    Ce qui fait que les gens n’osent plus bouger jusqu’à la fin du portrait.

    Attachments:
    You must be logged in to view attached files.
  • #6441

    anthony
    Moderator

    très intéressant et époustouflant cette expérience

  • #6732

    anthony
    Moderator
  • #10433

    Pierre Hould
    Participant

    Très intéressant et je viens de découvrir cette rubrique étant nouveau sur InMoov! Je suis un gars de défis et comme j’ai réussi à fabriquer une table traçante (plotter) à partir de composantes de vieilles imprimantes, je crois que dès que mon InMoov sera fonctionnel, je travaillerais là-dessus. l suffit de lui envoyer du code GRBL avec un arduino programmé à cet effet et si on lui donne le point (0,0,0) dans l’espace il pourra dessiner en (x,y) sur une table par exemple. Voir ma petite vidéo accélérée sur facebook. 🙂 https://www.facebook.com/pierre.hould/videos/vb.1082401765/10204172941018724/?type=3

  • #10434

    Pierre Hould
    Participant

    Autre note après réflexion: il va falloir que je ressorte mes mathématiques car je devrai mesurer les distances de chaque composante du bras (ex: épaule, bicep, avant-bras, main) et aussi mesurer les angles de chaque articulation pour projeter le bras au bon endroit dans l’espace (x,y,z). Ouf! on travaille à ce moment avec les Sinus, Cosinus, Tangente…etc). Beau défi en effet. Mais imaginons ce qu’on pourra faire faire au robot à ce moment là!!! Il suffira de l’armer avec des senseurs de distance pour qu’il trouve les points (x,y) sur un plan ou encore les (x,y,z) ou si on désire travailler en (x,z) comme un peintre sur un canevas. Si le canevas est penché, alors on doit travailler en (x,y,z). WoW! Quel beau défi! 🙂

You must be logged in to reply to this topic.