Workshop pypot à la cité des sciences

Bonjour à tous,

Tout d’abord bonjour aux futurs participants, je suis Clément Moulin-Frier et réalise mes recherches dans l’équipe Flowers à Bordeaux. Je serai présent les 2 jours du workshop.

Ci-dessous, un point sur :

  • le matériel que nous emmènerons
  • les capteurs disponibles sur le robot
  • quelques nouvelles expériences possibles. @Steve ne devrait pas tarder à en proposer une ou deux autres autour de la marche :wink:

Mais avant ça, quelques questions pour ceux qui participeront au workshop :

  • Il peut être intéressant de poster ici quelques lignes pour vous présenter. Qu’est ce qui vous intéresse dans ce workshop ? Qu’aimeriez-vous y réaliser ? Quelles sont vos expériences précédentes en informatique et/ou robotique ?
  • Qui des participants a essayé de jouer avec les librairies dont les liens se trouvent dans le 1er post ? Merci de nous dire s’il y a des problèmes d’installation ou autre. Si vous n’y comprenez pas grand chose, ou rien du tout, c’est tout à fait normal, n’hésitez pas à nous le dire et nous essaierons de vous guider pas à pas.
  • Qui d’entre vous emmènera un ordinateur ?

Matériel

Nous emmènerons nos ordinateurs et un Poppy + quelques jouets, en particulier des instruments de musique pour enfant (type tambourin, maracasse etc … en lien avec l’expérience 4 proposée dans le premier post).

Si vous avez des idées n’hésitez pas, ou si vous avez certains objets chez vous avec lesquelles vous aimeriez voir le robot interagir, on peut discuter ici des aspects pratiques.

Capteurs disponibles

  • Certains de nos Poppy seront peut-être équipés d’une caméra. Mais extraire de l’information d’une image est un problème compliqué que nous n’aurons certainement pas le temps de traiter d’ici le workshop. Une solution envisagée par @Pierre qui pourrait au moins permettre de capter la position des mains des robots : utiliser des QR code, qui eux se détectent très facilement dans une image.

  • Nous avons un Leap Motion au laboratoire, qui est un dispositf permettant de capter les positions/orientations des mains d’un utilisateur. Lors d’une résidence d’artiste avec Poppy il avait été possible de capter les mains du robot avec ce dispositf. Une idée pourrait être de coller un Leap Motion sur son visage pour qu’il puisse percevoir la position de ses mains par rapport à sa tête (dans l’idée de l’expérience 2 évoquée par @Pierre plus haut). Ça peut aussi lui donner un look marrant, type lunettes de soleil futuristes. Il faut que l’on vérifie toutefois si le capteur fonctionne lorsqu’il n’est pas en position horizontale.

  • On peut aussi imaginer des dispositifs originaux, par exemple Poppy produit du son en fonction de la position de ses membres. Certains paramètres sonores sont faciles à percevoir : intensité (volume), fréquence (grave/aigu). Cette idée avait aussi été exploitée précédemment.

  • Les idées de tout monde sont les bienvenues, lâchez vous c’est votre workshop !

Quelques autres expériences possibles :

  • Poppy dessine : nous avons du code permettant de générer des mouvements de bras qui font de beaux dessins, bien que plutôt abstraits:

    Nous ne l’avons pour l’instant jamais appliqué sur un vrai robot.
    • Matériel : un stylo, voir une tablette
    • Modification Poppy : il faut trouver un moyen de fixer le stylo à la main du robot, soit en imprimant une main adaptée, soit avec une attache.
  • Réalisation d’un but (par exemple, placer la main de Poppy à une certaine position) à partir d’un signal de récompense (bien/pas bien) fourni par un humain. Nous avons fait des premiers tests avec @Pierre cette après-midi sur un exemple jouet, les résultats ne sont pas géniaux mais pas inintéressants non plus.
    • Matériel : pour fournir la récompense, soit un slider sur un écran d’ordi (pas super, on vient d’essayer), soit une interface midi.

À vos claviers et à bientôt :slight_smile:

Clément