Workshop pypot à la cité des sciences


#3

Oui ça c’est le genre de setup qui va beaucoup plaire aux participants. Et qui autorise facilement une augmentation de complexité par la suite.


#4

Bonjour à tous,

Tout d’abord bonjour aux futurs participants, je suis Clément Moulin-Frier et réalise mes recherches dans l’équipe Flowers à Bordeaux. Je serai présent les 2 jours du workshop.

Ci-dessous, un point sur :

  • le matériel que nous emmènerons
  • les capteurs disponibles sur le robot
  • quelques nouvelles expériences possibles. @Steve ne devrait pas tarder à en proposer une ou deux autres autour de la marche :wink:

Mais avant ça, quelques questions pour ceux qui participeront au workshop :

  • Il peut être intéressant de poster ici quelques lignes pour vous présenter. Qu’est ce qui vous intéresse dans ce workshop ? Qu’aimeriez-vous y réaliser ? Quelles sont vos expériences précédentes en informatique et/ou robotique ?
  • Qui des participants a essayé de jouer avec les librairies dont les liens se trouvent dans le 1er post ? Merci de nous dire s’il y a des problèmes d’installation ou autre. Si vous n’y comprenez pas grand chose, ou rien du tout, c’est tout à fait normal, n’hésitez pas à nous le dire et nous essaierons de vous guider pas à pas.
  • Qui d’entre vous emmènera un ordinateur ?

Matériel

Nous emmènerons nos ordinateurs et un Poppy + quelques jouets, en particulier des instruments de musique pour enfant (type tambourin, maracasse etc … en lien avec l’expérience 4 proposée dans le premier post).

Si vous avez des idées n’hésitez pas, ou si vous avez certains objets chez vous avec lesquelles vous aimeriez voir le robot interagir, on peut discuter ici des aspects pratiques.

Capteurs disponibles

  • Certains de nos Poppy seront peut-être équipés d’une caméra. Mais extraire de l’information d’une image est un problème compliqué que nous n’aurons certainement pas le temps de traiter d’ici le workshop. Une solution envisagée par @Pierre qui pourrait au moins permettre de capter la position des mains des robots : utiliser des QR code, qui eux se détectent très facilement dans une image.

  • Nous avons un Leap Motion au laboratoire, qui est un dispositf permettant de capter les positions/orientations des mains d’un utilisateur. Lors d’une résidence d’artiste avec Poppy il avait été possible de capter les mains du robot avec ce dispositf. Une idée pourrait être de coller un Leap Motion sur son visage pour qu’il puisse percevoir la position de ses mains par rapport à sa tête (dans l’idée de l’expérience 2 évoquée par @Pierre plus haut). Ça peut aussi lui donner un look marrant, type lunettes de soleil futuristes. Il faut que l’on vérifie toutefois si le capteur fonctionne lorsqu’il n’est pas en position horizontale.

  • On peut aussi imaginer des dispositifs originaux, par exemple Poppy produit du son en fonction de la position de ses membres. Certains paramètres sonores sont faciles à percevoir : intensité (volume), fréquence (grave/aigu). Cette idée avait aussi été exploitée précédemment.

  • Les idées de tout monde sont les bienvenues, lâchez vous c’est votre workshop !

Quelques autres expériences possibles :

  • Poppy dessine : nous avons du code permettant de générer des mouvements de bras qui font de beaux dessins, bien que plutôt abstraits:

    Nous ne l’avons pour l’instant jamais appliqué sur un vrai robot.
    • Matériel : un stylo, voir une tablette
    • Modification Poppy : il faut trouver un moyen de fixer le stylo à la main du robot, soit en imprimant une main adaptée, soit avec une attache.
  • Réalisation d’un but (par exemple, placer la main de Poppy à une certaine position) à partir d’un signal de récompense (bien/pas bien) fourni par un humain. Nous avons fait des premiers tests avec @Pierre cette après-midi sur un exemple jouet, les résultats ne sont pas géniaux mais pas inintéressants non plus.
    • Matériel : pour fournir la récompense, soit un slider sur un écran d’ordi (pas super, on vient d’essayer), soit une interface midi.

À vos claviers et à bientôt :slight_smile:

Clément


#5

Bonjour à tous,
Information complémentaire : pour le workshop nous aurons une imprimante 3D Up filaire à notre disposition !
A vos dessins 3D de main et/ou d’accessoires dès maintenant !
Lisa (équipe Poppy à la cité des sciences)


#6

Qu’entends-tu par beamer? Ça a l’air intéressant :slight_smile:

Je peux aussi emmener mes contrôlleurs midi, qui sont très basiques mais font le job comme disent les ricains. Ce sont ces trois là (apparemment ils ne sont plus mentionnés sur le site korg).

Mais ça peut être cool d’en avoir d’autres, tu as quoi toi @ribas?


#7

Le beamer est un capteur où tu passe ta main proche et il envoie plus ou moins un effet :slight_smile: (midi CC et velocity). Rien de bien innovant :slight_smile:

J’ai un ableton live push, un mini akai mpk ‘mini clavier avec pad, touches et bouttons rotatifs’.
quelques sequenceurs (tenori, beat707 fait maison) , synthe, etc.

j’ai eu en main pas mal de controlleurs midi, PAD, sliders, joystick, etc. dans le but de faire de la zic :slight_smile:

dernièrement, j’ai eu dans les mains une sorte de boules , tu mets les mains au dessus et cela envoi des notes des CC, etc… mais 500 euros le controlleur!!!

j’ai au final garder le mini akai mpk et le push. mais biensûr comme tout bon geek music j’en vends et je rachete sans cesse.

A+


#8

Avec le controleur PUSH , tu pourras faire la même chose qu’avec la serie nanokorg.
en faite, PUSH ajoute un ecran LCD, des pads de couleurs, etc…

on peut imaginer controler le robot et lui faire faire des choses pre defini, des choregraphies :

  • le push accepte la velocité… il a 64 pads qui repondre au toucher … chaque PAD envoie un clip / sequence…
    donc tu cliques sur les pads (qui sont chacun de couleurs differentes) et tu lances une sequence, je monte le bras a droite, a gauche etc…
  • tu peux refaire jouer toute la sequence…

bon rien de nouveau si je regarde: Artist residency: Êtres et Numérique.

ou alors il faut poser poppy sur un clavier qui contient des capteurs de type beamer et le robot pourrait jouer :slight_smile:
A++


#9

Oui c’est une idée qu’on a en tête depuis quelques temps et ce week-end est sûrement une très bonne occasion de la réaliser. Content de voir qu’on est pas les seuls à y penser :slight_smile:

Oui, et on peut même boucler la boucle : un poppy contrôle un autre poppy par interface midi/beamer. Et réciproquement ? Non là ça risque de dégénérer ^^


#10

j’amene le PUSH et le yamaha tenori :slight_smile: pour la cité des sciences.


#11

Version française de mon post sur Makey Makey, qui peut être utile pour ce Hackaton:

Le kit Makey Makey, basé sur Arduino, permet aux enfants (petits et plus grands :)) de faire, en 5 mn et 3 lignes de code, des expériences rigolotes comme transformer un fruit, un verre d’eau ou son voisin en interface avec un ordinateur pour déclencher de la musique ou contrôler un jeu vidéo:

Cela apparait direct de l’utiliser avec Poppy: e.g; en 3 lignes de code et 5 mn de bricolage, on peut faire un piano en bananes et en oranges sur lequel Poppy peut jouer pour de vrai.
Le principe est simple: on connecte la carte par USB sur l’ordi, elle émule un clavier et une souris. Ensuite, on connecte un cable à chaque objet conducteur (un fruit, un verre d’eau) qu’on veut utiliser pour déclencher des “key press” ou des mouvements de souris, et un cable à la main de Poppy. Ensuite, on peut écrire une ligne de code qui fait faire ce qu’on veut à l’ordo chaque fois que Poppy touche un objet :slight_smile: (ou quelqu’un)


#12

J’oubliais: on en a 2 kits au labo, prêt à partir à la Cité des Sciences.


#13

Il y a plein de choses intéressantes à faire avec ce kit dans le cadre de ce hackathon, le plus dur va être de choisir quoi :slight_smile:

Rien à voir avec l’événement mais l’émission Tracks propose de leur envoyer des vidéos sur le thème “Faites-nous du son avec tout ce que vous voulez… sauf un instrument”. La deadline est assez courte, lundi prochain (29/09). Il y a peut-être quelque chose à tenter avec ce Makey Makey (c’est quoi ce nom ?) et Poppy (ok, pas mieux ^^). Si la vidéo leur plait et qu’ils la diffusent ça peut faire un gros coup de pub germano-francophone à la plateforme (c’est une émission qui a du succès dans les milieux qui se veulent plus ou moins branchés et alternatifs).


#15

Chouettes possibilités !


#16

alors? vous faites la video :wink:


#17

On s’y met cette aprem avec @Pierre, @Matthieu et @Steve. On essaierai de poster des nouvelles sur le fil Poppy-Music.


#18

Vous êtes trop fort les gars!!!


#20

“Nous” sommes là : http://www.cite-sciences.fr/fr/au-programme/activites-spectacles/zone-3/zone-3-en-ce-moment/#item-grid-18993
:smile:
Et nous serons affichés en grand écran devant la cité tout le weekend !
bonne journée à tous


#22

pour la video, si vous avez besoin de music… dites le moi :slight_smile:


#23

Après avoir tout chargé : python 2.7, numpy et pyserial, je reçois toujours une commande de “syntaxe invalide” sur ma fenêtre python…
Une idée de ce que j’aurais oublié ?
Je suis très novice en terme d’informatique, j’ai peut etre raté une solution évidente ! :slight_smile:
Dans le doute, j’ai mis les 3 setup sur une clé usb, au cas où je ne parviendrais pas à tout installer, cela facilitera peut etre l’installation…
merci pour vos infos.
bonne journée


#24

Comme ça je dirais que c’est un problème… de syntaxe :slight_smile:

Plus sérieusement, sans le message d’erreur complet je ne peux pas dire grand chose. Ça peut venir d’à peu près n’importe où.


#25

Voici ce que j’ai entier :

pip install pypot
File “” line 1
pip install pypot
SyntaxError: invalid syntax

pareil pour easy_install pypot…