ErgoJr in the browser

Je n’ai pas de robot à moi mais je vais aux Samedis Robots du Carrefour numérique à la Villette une fois par mois. Par ailleurs, je travaille avec des enfants d’école primaire avec Scratch et nous prévoyons de commencer l’apprentissage de la robotique avec un robot Thymio (en attendant mieux !) très bientôt.

Ayant beaucoup galéré ce soir pour réussir à utiliser Snap et V-rep conjointement, je rêve de pouvoir un jour commander un Poppy virtuel, voire réel, aussi simplement que ce que l’on voit sur ce simulateur ! Bravo pour ce travail, et cette ergonomie.
J’ai juste mis quelques minutes à comprendre que le clic droit permettait le déplacement vertical et horizontal mais je suis un peu fatiguée… :wink:

Cependant, pour cette simulation de PoppyErgoJr, je n’ai pas bien compris ce que vous souhaitez obtenir au final. D’après ce que j’ai lu ici, commander le robot réel avec javascript a l’air compliqué à mettre en place. Interfacer avec Snap permettra-il de résoudre ce problème et si ce n’est pas le cas, comment envisagez-vous la chose ?

Je trouve que s’il s’agit juste de déplacer quelques curseurs, cette fois, ça devient un peu trop simple et effectivement moins intéressant pédagogiquement, même avec des enfants assez jeunes.
Ce qui pourrait être utile pour des apprentis en robotique, et pas trop compliqué à implémenter au stade que je vois ici, c’est de proposer à côté des curseurs un bouton montrant le code python équivalent (en vue d’apprendre à l’utiliser ensuite avec ipython-notebook). Qu’en pensez-vous ?

Dans le cas du robot de la Nasa, très sympa, la facilité de manipulation est compensée par les explications sur les différentes parties du robot et sur l’exploration.

A noter quand même que si les jeunes auront relativement facilement accès à des robots style ErgoJr dans leur écoles, collèges ou lycée, ils ne les auront sans doute pas à la maison, et donc, le virtuel peut-être utile pour réviser des notions ou s’intéresser au sujet.