Bonjour à tous,
en attendant la journée de formation du 25 novembre, nous commençons à nous creuser la tête pour accueillir au mieux nos futurs robots.
L’annonce faite aux collègues a été un franc succès. Les élèves ne sont pas encore dans la confidence, nous attendons d’en savoir plus.
Nous commençons à manipuler Torso sur Vrep. J’ai par exemple fait une interface graphique (rudimentaire…) pour faciliter les démonstrations basiques.
Mon collègue et moi nous posons pas mal de questions sur l’intégration de capteurs. Nous sommes assez familiers du dispositif sur Arduino. D’après les documentations, Poppy et Torso ont une Raspberry (et Ergo ??). Les différents périphériques (caméra, par exemple) sont-ils accessibles directement dans le code Python ? Je n’ai malheureusement pas trouvé d’exemple de code me montrant les procédures de communication avec autre chose que les moteurs.
Pour l’instant, nos idées sont assez floues (reconnaissance faciale avec Torso, jeu pierre-feuille-ciseaux avec Ergo et des cartes illustrées…). L’univers des possibles nous parait à la fois très vaste (avec des capteurs) et très restreint (uniquement avec les moteurs). Ils nous tarde d’en discuter le 25 novembre !
Un grand merci en passant pour votre accueil et pour ce projet très enthousiasmant.
Il me semble que les torso ont une Odroïd et pas une Raspberry mais il y a peut-être plusieurs config. Les capteurs sont un peu le point faible pour l’instant, mais ça va sans doute s’améliorer
Cependant, les moteurs sont eux-même des capteurs ( de la position present_position et du couple present_load par exemple). Il est possible d’intégrer des capteurs mais il va falloir faire du développement pour qu’ils soient accessibles dans Pypot.
Si vous voulez jeter un œil à ce que je fais avec mes élèves, vous pouvez regarder ici : www.poppy-prof.fr
Bonjour,
merci pour ta réponse et surtout pour le lien vers tes activités !
L’idée de faire préparer une mini-chorégraphie par chacun des groupes est très sympa.
Je vais me pencher vers Odroïd… mais pour l’instant, je n’ai pas de Torso réel.
J’ai vu sur ton blog que ton Torso s’était cassé à la première chute, il est si fragile que ça, ou c’était vraiment une grosse chute ?
Merci encore et à bientôt,
En général, c’est quand il tombe de la hauteur d’une table.
La ventouse ne marche pas bien sur toutes les surfaces. Peut être que le mieux serait d’avoir une petit plaque de plexi pour être sûr que le robot soit toujours posé sur une surface stable et compatible avec la ventouse.
Bonjour @Gilles_LFM, tout d’abord merci de contribuer au forum et de partager vos expériences, ensuite voici quelques détails supplémentaires à vos questions:
La documentation c’est faite au fur et à mesure, par de nombreuses personnes différentes sur plusieurs années, nous sommes actuellement en train de l’harmoniser… celle-ci est disponible sur github : GitHub - poppy-project/poppy-docs: Documentation of the whole poppy platform
Attention le travail est encore en cours! Beaucoup de parties sont encore manquantes, et la traduction française n’est pas encore effectuée… mais vous pourrez trouver dès maintenant un certain nombre d’informations utiles…
Vous pouvez également visiter le dépôt poppy-project/community-notebooks que nous avons créé spécialement pour rassembler ce genre de documents, cependant il est actuellement peu fourni et ne dispose pas d’un affichage html comme la doc. @juju pense à y ajouter tes notebooks (tu as déjà les droits d’écriture sur le dépôt!)
Autre point important, la page poppy-project.org/education a été mise à jour, et -à moyen terme- celle-ci devrait rediriger vers un site web dédié qui devrait ressembler au site perso de @juju.
Bonjour, merci beaucoup pour partager vos projets sur le forum! Nous avons déjà commencé à faire des brainstorming sur la forme que pourraient prendre
les activités pédagoques/mini projets. En particulier, vous en trouverez ici:
Pour l’électronique: la version actuelle de Poppy Torso utilise une carte Odroid U4, mais une prochaine version va utiliser une Raspberry Pi 2.
Les Poppy Ergo Jr utilisent déjà la Raspberry Pi 2. D’un point de vue logiciel (avec pypot), c’est entièrement transparent.
Pour l’Ergo Jr, voici une vidéo que nous venons de publier:
Pour les capteurs: la caméra est opérationnelle et @Pierre pourra vous donner des exemples de code par exemple pour détecter et localiser des QRCodes.
Les moteurs peuvent être utilisés pour détecter des contacts/forces extérieures (par exemple, il est assez facile de détecter si le robot touche la table avec son bras).
Quand on programme le robot en Snap! à partir du navigateur d’un ordinateur, il est possible de brancher sur l’ordinateur une Arduino et des capteurs
qui sont accessible en Snap! (avec Snap4Arduino). Dans ce cas on peut ajouter des capteurs du monde Arduino. @Pierre tu as des idées pour faire simplement la même chose
en python ?
@tibo@Pierre@Stephanie Il serait très utile d’expliquer sur le readme de ce dépot comment les gens doivent s’y prendre pour (proposer d’) ajouter un notebook dans ce dépôt.
(et que le readme soit bilingue pour les notebooks francophones)
j’ai placé les traductions dans les readme.md en-dessous des versions anglaises. Ce n’est pas le plus optimal, mais nous l’adapterons en fonction de ce qui sera fait sur le dépôt poppy-docs.
Merci, j’ai merge ta pull request. Pas de souci pour les noms de fichier. Juste, je fusionnerai les dossiers image en un seul pour que ce soit plus clair.
Dans tout les cas, la structure de ce dépôt sera aménée à changer lorsque nous produirons une version html de celui-ci. Pour le moment il sert essentiellement à l’archivage.