Pilotez Poppy place du Capitole


#1

Grace à une interface de manipulation, essayez de piloter Poppy.
Poppy sera de sortie:


#2

Mon Poppy a fait sa première sortie au grand air hier (et ca continue aujourd’hui) j’ai pu faire tourner mon programme de marionnette pendant 2heures non stop. Les principaux bug sont des overload dus a une utilisation un peu violente de certains enfants… Des oublis de brancher la prise et enfin, une période de checksum error a repetition qui coincide avec le fait que le robot était en plein soleil. Je vais voir aujourd’hui si ça le refait.
En tous les cas, le design et le comportement de Poppy ne laisse pas indifférent. Encore une occasion de feliciter les flowers :wink:


#3

Si t’as le temps, ce serait chouette de prendre quelques photos de l’installation :smile:

Sinon ton Poppy est peut être encore un peu pâle pour s’exposer au soleil sans protection ^^ (c’est quand même bizarre)


#4

Ca y est, c’est fini. Encore une super journée.
Poppy a fait rire.
Il a fait pleurer
Il s’est fait bousculer
Voici une photo légendée de l’installation de la marionnette.

Cet après-midi, on recommence au Fablab Artilect pour un mini festival en l’honneur de la venue de Neil A. Gershenfeld qui est l’inventeur du concept de Fablab au MIT.

Mais cette fois-ci, c’est un atelier.


#5


#6

Deux petites videos de mini scènes:

https://vine.co/v/OlM9DeLaKv3
https://vine.co/v/OliUbI2H3ZM

et l’installation au Fablab Artilect.


Le Fablab festival de début Mai se prépare bien :smile: Un week-end Poppy bien chargé d’autant plus que maintenant il y a deux Poppy à Toulouse avec Science Animation !


#7

Je suis épaté par l’expressivité que t’arrives à tirer de ton Poppy avec un tête si simple.
Beau boulot.


#8

Salut @Thot,

Comment tu gère les mouvement de la tête?


#9

Merci. J’avoue que le design de la tête a été chaotique et cette solution improvisée est finalement celle qui me plait le plus sachant qu’elle laisse au public beaucoup d’imagination sur ce que peut penser la marionnette comme personnage.

C’est une longue histoire (qui est encore en cours d’étude) mais je vais résumer:
L’algorithme de contrôle que j’utilise est sur la base d’un algorithme d’optimisation. La variable test est chaque articulation des abdos jusqu’au bout des bras en passant par la tête.
La fonction à optimiser est par contre un coût global image des différentes contraintes que je vais commander avec le système haptique qui est juste derrière (les petits bras sur la table). Une de ces contraintes est que quand j’appuie sur un bouton qui est au bout d’un des bras du système haptique, je contrains la distance entre la main de Poppy et la droite qui passe par le nez de Poppy orthogonale à son visage.
Ainsi, le Poppy va optimiser les articulations du cou (et du torse à moindre échelle) pour satisfaire cette contrainte.
Au final, la bande passante est assez large (du point de vue du manipulateur) même si c’est encore perfectible.

Ca me permet d’obtenir le rendu de gestes que je souhaite… mais il y a encore un geste qui m’échappe : la marche :heart_eyes: .