Ok merci pour l’info Steve ! faut que je m’y remette un peu sous l’eau
Gael je ne me suis pas documenté encore, le facereconiton est dans le service Inmoov ?
Les gars, il va y avoir du boulot entre les personnes non reconnues, les visages multiples, les artefacts, les chats 🙂 . C’est génial comme fonctionnalité en tous cas. Question , on peut faire de l’apprentissage en temps réel , sans avoir a placer des photos dans le dossier au préalable ? C’est à dire > je ne te connais pas, qui es tu ? Avec une capture de frames peut être ?
Lecagnois, la seule fois ou j’ai essayé ça a ramé un peu la lattepanda je trouve. Mais c’était juste un test rapide. il faut trouver des compromis entre puissance et consommation pas facile.
Au cas ou opencv ne marche pas chez toi, kevin de mrl à indiqué cette fonction pour changer l’acquisition vidéo de la lattepanda entre autre :
opencv.setFrameGrabberType(“org.myrobotlab.opencv.SarxosFrameGrabber”)