Monthly Archives: juin 2012

What you see is what you get

J’aime voir la musique (chaque couleur représente un instrument).

J’aime observer en temps réel la circuitrie d’un processeur 8 bits ou l’adressage mémoire d’un Commode 64.

J’aime les skeleton watches.

Je n’entrave pas grand-chose aux liens supra. Je vois le système fonctionner, pas comment il fonctionne. Mais c’est totalement fonctionnel, par exemple le morceau n’est pas une vague allégorie de musique : c’est véritablement la symphonie, modulo un certain encodage. Il ne tient qu’à moi de télécharger ces logiciels et de voir comment ça marche.

Je trouve ça génial. Pourquoi ?

1. Ce sont des système transparents. Ils ne cachent ni leur fonctionnement ni leur structure. Ce n’est pas un hasard si j’aime l’architecture moderne, puisqu’elle est issue des même principes. Je raffole particulièrement de la variante dite high tech. Un exemple au hasard : le centre George Pompidou, construit totalement à l’envers. On appelle ça aussi parfois de l’expressionnisme structural — le terme est aussi pédant que parfait. Il y a beaucoup de sincérité dans ce refus de cacher les infrastructures qui sous-tendent nos vies. C’est aussi un rapport assez sain à la technologie, l’inverse de la boite-noirisation

2. Ça c’était le point de vue du badaud. Ensuite, du point de vue du créateur, cela promet des feedback très rapides. Par exemple, dans l’exemple du Commode 64, l’utilisateur peut faire un changement et voir le résultat immédiatement. C’est aussi la force des langages de script. Lancez Python en mode interactif, commencez à bidouiller un script tout simple, exécutez, regardez où est l’erreur, réparez-là. Etant un programmeur du dimanche (et encore), cette simplicité et cette possibilité d’itérer facilement me vont droit au cœur. Récemment, Bret Victor s’est fait l’avocat de l’importance d’avoir un feedback immédiat lors qu’on crée, que l’on soit artiste ou programmeur. Il a proposé des outils allant dans ce sens (voir cette conférence et cet article — magnifique). Avoir des boucles de rétroaction étroites permet de suppléer aux faiblesses de nos facultés de représentation.

The Uncanny Valley

L’uncanny valley, la vallée dérangeante, est une hypothèse fondamentale en robotique et en animation. Elle énonce que plus une créature est proche de l’être humain, plus notre affinité pour elle croît, jusqu’à au point où cette tendance s’inverse et où commence le dégoût. Par exemple, un robot industriel ne dérange guère, un humanoïde idéal non plus. Par contre, voir un robot proche de l’être humain mais mal animé, ou un personnage de dessin animé très bien rendu mais avec des yeux inertes, cela provoque une réaction de rejet. Le problème n’est pas seulement que l’imitation peut être creepy, mais que le phénomène est limitée à une zone de la courbe.

Uncanny Valley

A mon sens, le problème vient de l’écart entre deux types de fidélité à l’original : la manière dont se comporte une créature et l’apparence qu’elle a. Un robot humanoïde à l’anatomie et à la peau impressionnantes, mais pas foutu de se mouvoir ni d’interagir correctement avec un être humain, ça peut provoquer un sentiment de rejet. Le cas est inverse est flippant aussi, par exemple un humanoïde dont les rouages seraient mis à nu mais qui dirait “maman, maman” avec des inflexions parfaites. L’imitation n’est pas le propre des créatures artificielles : l’amusement que l’on ressent face à un enfant qui imite très bien un adulte peut facilement se muer en gêne si la singerie dure ou est trop parfaite.

On peut ainsi rendre la courbe linéaire “simplement” (je suis doué pour l’armchair robotics) en faisant attention à ce que les différents aspects gagnent en simulation parallèlement.

Tout ça pour dire que l’idée fut développée en 1970 par un roboticien japonais et que l’article original n’avait jamais été traduit jusqu’à aujourd’hui.

Concepts, bullshit et video

Vous le savez sans doute, Google a annoncé qu’il comptait sortir des lunettes avec un affichage tête haute. La vidéo de présentation était aussi excitante qu’avare de détails. Plus récemment, cet entretien avec le leader du projet s’étend sur leur démarche mais me laisse toujours un peu frustré. Son message : les gens de Google ne sont pas qu’une bande d’ingénieurs amateurs de nouveaux joujoux, ils réfléchissent à ce qu’ils font et sont bien conscients des questions ergonomiques et sociales que posent leur produit.[1]  Au-delà, l’article donne peu de réponses concrètes et on est toujours dans le flou. Notamment, on ne sait pas toujours pas grand-chose sur la manière dont l’utilisateur interagirait avec les lunettes, alors que la question est centrale pour un produit aussi novateur.
 
Cela m’évoque ces vidéos de grandes entreprises informatiques présentant leur vision du futur, où le but est apparemment de fourrer autant de nouvelles technologies que possible par scène. Un exemple avec RIM, un autre avec Nokia et enfin une vidéo de Microsoft qui date de l’an dernier. Vous voyez le dataporn, ces visualisations de donnée plus impressionnantes qu’éclairantes ? Ben là c’est du futureporn : c’est woah, on ne comprend pas comment ça marche ni même toujours ce qui se passe. Un peu de hand-waving et d’hocus pocus de la part de la maitresse d’école et hop et elle manipule le tableau blanc interactif. [2] Vite, scène suivante pour qu’on n’ait pas le temps de voir plus d’une interaction et de commencer à poser des questions.
 
Pourtant, quelle est la différence entre la communication de Google et la vidéo de prospective faite par Microsoft ? Dans les deux cas, on n’en est même pas au stade du prototype : ce sont des idées mises en image pour être frappantes ; on fait comme si les problèmes d’autonomie, d’ergonomie, d’infrastructure, d’interactions sociales n’existaient pas. Bref, on tripe sur des technologies futures et sur la manière dont elles vont influencer nos vies. Pourquoi pas. Ça pose plein de questions d’implémentation mais c’est à ça que peut servir ce genre de brainstorming. Pourquoi dans ce cas trouve-je la vidéo de Microsoft exaspérante alors que celle Google est seulement agaçante ?
 
    •    Google annonce un produit, là où Microsoft présente une vision globale et impressionniste. Je ne sais combien d’appareils par plan, chacun entrainant des ramifications de problème.
    •    On peut être très sceptique sur le produit final par rapport au modèle de la vidéo et sur la capacité de Google à tenir ses promesses. Pourtant, on sait que la vidéo n’est qu’une étape du plan marketing et qu’on en saura bientôt plus. Alors que les vidéos de Microsoft sont des one-shots qui ne déboucheront probablement sur rien.
    •    La “vision” de Microsoft n’est pas si impressionnante. Au lieu d’imaginer le prochain paradigme, elle se contente de pousser l’actuel à l’extrême. En gros, des écrans tactiles partout.
    •    Enfin, derrière ce genre de vidéo, on sent Microsoft qui crie “I’m still relevant!” et essaye de persuader le monde que lui aussi peut innover. Sauf que bon, rappelez-vous du Courier : Microsoft avait annoncé la sortie d’une tablette à deux écrans et l’a finalement tué dans l’œuf, à cause de problèmes techniques et de divisions internes. Ne reste du projet… qu’une vidéo. De son coté, Apple a annoncé l’iPad quand il était prêt et en a vendu des millions. Insérez ici une citation de Steve Jobs.

[1] Google a la réputation d’avoir une très forte culture de l’ingénieur où chaque décision doit être étayée par des données (voir notamment). Google ou en tous cas certains Googlers ont l’air de vouloir nuancer cette idée.

[2] Je fais référence à une scène dans ces vidéos mais hélas elles n’ont plus l’air d’être en ligne. Microsoft a aussi joué les futorologues dans les domaines de la santé, de la banque, de la fabrication, etc.

Les liens de la semaine #1

  • Tactus, un écran tactile à retour haptique avec des boutons qui, selon le contexte, apparaitraient pour déformer l’écran. Cela pourrait faire disparaitre le plus gros inconvénient des interfaces tactiles.
  • Ensuite, T(ether), une interface qui combine gestes et réalité augmentée. Prometteur pour le travail collaboratif.