Les 4 et 5 octobre aura lieu à la cité des sciences un atelier de programmation autour du robot Poppy. @Clement, @Steve, @ribas et moi seront présent là-bas les deux jours afin d’animer ces ateliers.
Mais deux jours ça passe vite ! Et afin de préparer au mieux ce workshop, nous proposons de commencer dès maintenant à échanger, via ce forum et le groupe WorkshopUniverscience, autour des différents composants logiciels que nous utiliserons et d’autre part à l’élaboration des projets que nous pourrons réaliser là-bas.
Tout d’abord, concernant les outils logiciels qui seront utilisés:
Pypot : la bibliothèque de contrôle utilisée pour piloter le robot. Vous pouvez trouver la documentation et les instructions sur comment l’installer ici.
Explauto : une bibliothèque permettant de faire de l’exploration autonome et des expériences autour de la curiosité.
Et enfin, le simulateur V-REP dans lequel nous avons intégré une version simulée de Poppy. J’ai écrit un post pour expliquer comment utiliser Poppy dans V-REP avec pypot.
Avec tous ces outils, vous pouvez déjà commencer à vous familiariser et à tester chez vous ce qui pourra être fait lors des ateliers. Nous vous recommandons vivement d’essayer dès maintenant de les installer et de suivre ces quelques exemples d’utilisation de base:
Cela nous permettra de directement s’attaquer à la partie fun et intéressante des différents projets! N’hésitez pas à réagir directement ici si vous rencontrez des difficultés d’installation ou d’utilisation.
D’autre part, ce post est également l’occasion pour nous de commencer à échanger des idées, des projets sur ce que nous allons réellement faire lors de ces deux jours. Avec @Clement et @Steve, nous avons quelques idées que nous allons détailler par la suite mais n’hésitez surtout pas à proposer les votre:
Projet autour de la marche
Un exemple d’utilisation d’Explauto : Poppy apprend à placer sa main au centre de son champ de vision à la manière d’un enfant
Jeu d’imitation musicale : Poppy joue des maracasses ^^
Utilisation d’une interface midi pour contrôler le robot
J’aime et je peux vous amener mes controlleurs midi !
Il existe aussi des controlleurs midi avec un beamer , Poppy pourrait passer sa main au dessus et declencher du son , des samples, etc
Tout d’abord bonjour aux futurs participants, je suis Clément Moulin-Frier et réalise mes recherches dans l’équipe Flowers à Bordeaux. Je serai présent les 2 jours du workshop.
Ci-dessous, un point sur :
le matériel que nous emmènerons
les capteurs disponibles sur le robot
quelques nouvelles expériences possibles. @Steve ne devrait pas tarder à en proposer une ou deux autres autour de la marche
Mais avant ça, quelques questions pour ceux qui participeront au workshop :
Il peut être intéressant de poster ici quelques lignes pour vous présenter. Qu’est ce qui vous intéresse dans ce workshop ? Qu’aimeriez-vous y réaliser ? Quelles sont vos expériences précédentes en informatique et/ou robotique ?
Qui des participants a essayé de jouer avec les librairies dont les liens se trouvent dans le 1er post ? Merci de nous dire s’il y a des problèmes d’installation ou autre. Si vous n’y comprenez pas grand chose, ou rien du tout, c’est tout à fait normal, n’hésitez pas à nous le dire et nous essaierons de vous guider pas à pas.
Qui d’entre vous emmènera un ordinateur ?
Matériel
Nous emmènerons nos ordinateurs et un Poppy + quelques jouets, en particulier des instruments de musique pour enfant (type tambourin, maracasse etc … en lien avec l’expérience 4 proposée dans le premier post).
Si vous avez des idées n’hésitez pas, ou si vous avez certains objets chez vous avec lesquelles vous aimeriez voir le robot interagir, on peut discuter ici des aspects pratiques.
Capteurs disponibles
Certains de nos Poppy seront peut-être équipés d’une caméra. Mais extraire de l’information d’une image est un problème compliqué que nous n’aurons certainement pas le temps de traiter d’ici le workshop. Une solution envisagée par @Pierre qui pourrait au moins permettre de capter la position des mains des robots : utiliser des QR code, qui eux se détectent très facilement dans une image.
Nous avons un Leap Motion au laboratoire, qui est un dispositf permettant de capter les positions/orientations des mains d’un utilisateur. Lors d’une résidence d’artiste avec Poppy il avait été possible de capter les mains du robot avec ce dispositf. Une idée pourrait être de coller un Leap Motion sur son visage pour qu’il puisse percevoir la position de ses mains par rapport à sa tête (dans l’idée de l’expérience 2 évoquée par @Pierre plus haut). Ça peut aussi lui donner un look marrant, type lunettes de soleil futuristes. Il faut que l’on vérifie toutefois si le capteur fonctionne lorsqu’il n’est pas en position horizontale.
On peut aussi imaginer des dispositifs originaux, par exemple Poppy produit du son en fonction de la position de ses membres. Certains paramètres sonores sont faciles à percevoir : intensité (volume), fréquence (grave/aigu). Cette idée avait aussi été exploitée précédemment.
Les idées de tout monde sont les bienvenues, lâchez vous c’est votre workshop !
Quelques autres expériences possibles :
Poppy dessine : nous avons du code permettant de générer des mouvements de bras qui font de beaux dessins, bien que plutôt abstraits:
Nous ne l’avons pour l’instant jamais appliqué sur un vrai robot.
Matériel : un stylo, voir une tablette
Modification Poppy : il faut trouver un moyen de fixer le stylo à la main du robot, soit en imprimant une main adaptée, soit avec une attache.
Réalisation d’un but (par exemple, placer la main de Poppy à une certaine position) à partir d’un signal de récompense (bien/pas bien) fourni par un humain. Nous avons fait des premiers tests avec @Pierre cette après-midi sur un exemple jouet, les résultats ne sont pas géniaux mais pas inintéressants non plus.
Matériel : pour fournir la récompense, soit un slider sur un écran d’ordi (pas super, on vient d’essayer), soit une interface midi.
Bonjour à tous,
Information complémentaire : pour le workshop nous aurons une imprimante 3D Up filaire à notre disposition !
A vos dessins 3D de main et/ou d’accessoires dès maintenant !
Lisa (équipe Poppy à la cité des sciences)
Je peux aussi emmener mes contrôlleurs midi, qui sont très basiques mais font le job comme disent les ricains. Ce sont ces trois là (apparemment ils ne sont plus mentionnés sur le site korg).
Mais ça peut être cool d’en avoir d’autres, tu as quoi toi @ribas?
Le beamer est un capteur où tu passe ta main proche et il envoie plus ou moins un effet (midi CC et velocity). Rien de bien innovant
J’ai un ableton live push, un mini akai mpk ‘mini clavier avec pad, touches et bouttons rotatifs’.
quelques sequenceurs (tenori, beat707 fait maison) , synthe, etc.
j’ai eu en main pas mal de controlleurs midi, PAD, sliders, joystick, etc. dans le but de faire de la zic
dernièrement, j’ai eu dans les mains une sorte de boules , tu mets les mains au dessus et cela envoi des notes des CC, etc… mais 500 euros le controlleur!!!
j’ai au final garder le mini akai mpk et le push. mais biensûr comme tout bon geek music j’en vends et je rachete sans cesse.
Avec le controleur PUSH , tu pourras faire la même chose qu’avec la serie nanokorg.
en faite, PUSH ajoute un ecran LCD, des pads de couleurs, etc…
on peut imaginer controler le robot et lui faire faire des choses pre defini, des choregraphies :
le push accepte la velocité… il a 64 pads qui repondre au toucher … chaque PAD envoie un clip / sequence…
donc tu cliques sur les pads (qui sont chacun de couleurs differentes) et tu lances une sequence, je monte le bras a droite, a gauche etc…
Oui c’est une idée qu’on a en tête depuis quelques temps et ce week-end est sûrement une très bonne occasion de la réaliser. Content de voir qu’on est pas les seuls à y penser
Oui, et on peut même boucler la boucle : un poppy contrôle un autre poppy par interface midi/beamer. Et réciproquement ? Non là ça risque de dégénérer ^^
Version française de mon post sur Makey Makey, qui peut être utile pour ce Hackaton:
Le kit Makey Makey, basé sur Arduino, permet aux enfants (petits et plus grands :)) de faire, en 5 mn et 3 lignes de code, des expériences rigolotes comme transformer un fruit, un verre d’eau ou son voisin en interface avec un ordinateur pour déclencher de la musique ou contrôler un jeu vidéo:
Cela apparait direct de l’utiliser avec Poppy: e.g; en 3 lignes de code et 5 mn de bricolage, on peut faire un piano en bananes et en oranges sur lequel Poppy peut jouer pour de vrai.
Le principe est simple: on connecte la carte par USB sur l’ordi, elle émule un clavier et une souris. Ensuite, on connecte un cable à chaque objet conducteur (un fruit, un verre d’eau) qu’on veut utiliser pour déclencher des “key press” ou des mouvements de souris, et un cable à la main de Poppy. Ensuite, on peut écrire une ligne de code qui fait faire ce qu’on veut à l’ordo chaque fois que Poppy touche un objet (ou quelqu’un)
Il y a plein de choses intéressantes à faire avec ce kit dans le cadre de ce hackathon, le plus dur va être de choisir quoi
Rien à voir avec l’événement mais l’émission Tracks propose de leur envoyer des vidéos sur le thème “Faites-nous du son avec tout ce que vous voulez… sauf un instrument”. La deadline est assez courte, lundi prochain (29/09). Il y a peut-être quelque chose à tenter avec ce Makey Makey (c’est quoi ce nom ?) et Poppy (ok, pas mieux ^^). Si la vidéo leur plait et qu’ils la diffusent ça peut faire un gros coup de pub germano-francophone à la plateforme (c’est une émission qui a du succès dans les milieux qui se veulent plus ou moins branchés et alternatifs).
Après avoir tout chargé : python 2.7, numpy et pyserial, je reçois toujours une commande de “syntaxe invalide” sur ma fenêtre python…
Une idée de ce que j’aurais oublié ?
Je suis très novice en terme d’informatique, j’ai peut etre raté une solution évidente !
Dans le doute, j’ai mis les 3 setup sur une clé usb, au cas où je ne parviendrais pas à tout installer, cela facilitera peut etre l’installation…
merci pour vos infos.
bonne journée