Salut Peloche ! et bonne année à tous !
je te remercie et ce n’est pas fini 😀
Alors pour répondre à tes questions :
1) oui toujours !
2) Bien évidemment il est possible d’utiliser Linux, un dual boot, hackintosch ou tout ce que tu veux. c’est un pc après tout. J’ai un Linux virtuel avec ROS dessus sous VMware.
3) Pour le SSD étant donné que j’avais besoin du port M.2 pour le GPU, J’ai pris un SSD SATA3. Attention il faut un port M.2 qui gère le PCIE. un port M.2 ne gérant que le SATA ne fonctionnera pas.
4) pour la carte Wifi j’ai pris une carte au format mini pcie ou je ne sais plus quoi, c’est le format des cartes wifi de pc portable. c’est une intel. Pour être exact, c’est celle là :
https://www.ldlc.com/fiche/PB00210816.html attention il faut acheter une antenne (ce sont des fils)
5) pour le GPU c’est une carte NVIDIA GTX 960 au format Mini (format court). j’insiste sur le mini car il n’y a déjà as bcp de place… marque ASUS, 4Go de RAM (4Go obligatoire pour YOLO 9000 par exemple)
6) Pour la connexion sur la carte mère, j’utilise un adaptateur qui se nomme EXP GDC avec un adaptateur au format M2 PCIE X4 a mettre sur la carte mère qui est relié via deux câbles HDMI sur l’adaptateur PCIE 16X. Ca se trouve chez les chinois. La carte graphique est alimentée avec un gros transfo DELL avec un connecteur spécifique (une portion de connecteur ATX). l’avantage est que l’alim se met en route au démarrage de l’ordi. j’ai eu des soucis avec cette solution, j’ai été obligé de tirer une masse entre l’adaptateur PCI 16 et la carte mère car sinon ça ne fonctionnait pas. maintenant ça roule mais ca reste imposant.
7) Donc non, pour le moment il n’y a rien d’autonome, il faut une prise de courant, la carte mère est alimentée avec un transfo de pc portable (c’est prévu pour) en 19 volts. on pourrait très bien utiliser un convertisseur DC-DC 12 vers 19 pour la carte mère et la carte graphique prend du 12V.
Alors après, il y a d’autres solutions plus simples à mettre en œuvre :
– Si je ne veux pas de Deep Learning sous CUDA, et bien il suffit de ne pas mettre de gpu externe et ça prendra du coup bcp moins de place.
– Si je veux un GPU pour faire du Deep Learning sous CUDA, il est envisageable d’installer une carte mère mini ITX avec donc un port pciex16 directement sur la carte mère. A partir de là, il est possible d’installer un gpu directement dessus soit en le connectant sur le port de la carte mère et donc on ne mets plus le dos du robot (voir Alan RobotLab avec son robot Grey), soit en prenant un riser, qui est en fait un grosse nappe faisant office de rallonge entre la carte mère et le GPU. et la il est peut-être envisageable de tout caser. le pb étant qu’une carte mère mini ITX fait 170×170 et ce n’est vraiment pas évident de caser ça dedans. J’avais acheté une carte mère Thin mini ITX (que j’ai toujours, c’est une mini ITX bcp plus fine mais sans port PCIEx16). c’est plus plat, mais quand on a découvert le format Mini STX, qui fait 140×147, j’ai foncé dessus.
Honnêtement, la solution pour laquelle j’ai opté sort vraiment des entiers battus, c’est assez risqué. j’ai pas trop de recul encore sur la fiabilité du PCIEx4 à voir avec le temps, et ce n’est pas évident à intégrer dans le robot (Quid des parasites ?) Cependant je pense que ça en vaut la peine.
Autre truc important ! Cette solution n’est pas viable sur les génération de GeForce 10X0 (les dernières en date), Nvidia ayant eu la très bonne idée de désactiver la possibilité de faire de l’eGPU avec leurs cartes si le port pcie ne prend pas en charge le débranchement à chaud… (évidemment je suis dans ce cas là, comme énormément de monde, car cette solution permet de jouer à des gros jeux sur des pc portables dépourvus de cartes graphiques puissantes. donc pour le coup si on veut utiliser des cartes plus récentes c’est carte mère mini ITX avec le port qui va bien.
Voilà tout ! avec tout ça on se retrouve quand même avec qqch de bien plus qualitatif que l’Atom dans la tablette. Etant donné que je n’utilise plus la tablette dans le dos du robot, j’accède au pc du robot par TeamViewer depuis ma tablette ou tout autre pc.
Sinon, pour les réjouissances de la nouvelle année, j’ai concrétisé une idée grâce à Dom et Anthony cet après-midi, à savoir, utiliser YOLO dans MRL.
il y a encore du boulot mais ça fonctionne.
Capture et enregistrement d’une image par le biais d’opencv sous MRL
depuis MRL, je lance YOLO pour qu’il face une détection sur cette image
Yolo exporte le resultat de sa recherche dans un fichier texte
Le fichier texte est lu par MRL.
Ce qui veut donc dire, qu’il va être possible de demander au robot ce qu’il voit à un instant T, le robot analyse et dit ce qu’il a vu.
C’est pas beau YOLO ?
😀
Attachments:
You must be
logged in to view attached files.