Monthly Archives: septembre 2014

Vous n’avez pas le monopole du design

Les relations entre client et prestataire sont compliquées, presque par définition. Un problème fréquent pour le prestataire est de faire reconnaître son expertise, notamment quand il est dans un rôle de conception. Il est sans doute tentant d’apprendre son métier à un concepteur d’interfaces, à un architecte (de systèmes ou de bâtiments) ou à un styliste automobile, plus qu’à un illustrateur, un développeur ou tout autre personne qui réalise elle-même le résultat final.

Face à cette prétention, la solution habituelle est d’essayer d’asseoir cette expertise : « vous me payez pour ça, faites-moi confiance ». Ça peut marcher, mais c’est un joker qui ne marche pas éternellement et qui remplace l’échange par le bras de fer. Il y a certes bien des manières de convaincre et on peut être pédagogue avec un client sans l’envoyer bouler. Mais si cela se résume à surenchérir d’arrogance en voulant « éduquer » le client, j’ai peur que cela n’enterre toute possibilité d’aborder la racine du problème – et il y en a souvent une.

Le design comme symptôme

Prenons un cas auquel j’ai assisté : un client n’était pas content de propositions de pictogrammes. Après quelques échanges, il nous a envoyé des contre-propositions se résumant à des cliparts tirés d’une banque d’images et à des croquis faits par eux-même. Clairement, c’était mauvais, ça ne marchait pas. L’épisode nous a énervé et donné l’impression que le client prétendait faire le travail à notre place. A mon sens, notre très compréhensible colère se trompait de cible. Le problème n’est pas qu’ils aient osé prendre le feutre et l’initiative, c’est qu’ils l’aient fait dans leur coin.

Il y avait là une situation idéale pour une séance de co-conception, tous ensemble autour d’un tableau. On aurait ainsi pu les guider vers de meilleures solutions, voire remettre à plat l’iconographie et son utilisation. C’était peu envisageable parce qu’il n’y avait pas assez de respect mutuel. La question du design était surtout le symptôme d’un problème de communication et de cadrage. Cette guéguerre pour savoir si ces pictos étaient intelligibles n’était que le dernier épisode d’un projet mal parti, le genre où l’on doit justifier le moindre détail.

Dans ce contexte, s’arc-bouter sur ses prérogatives n’est au mieux qu’une solution à court-terme. Asséner « c’est moi le designer » ne remplace pas une vraie argumentation voire, soyons fous, des tests auprès d’utilisateurs. Adopter une approche plus collaborative offre bien des avantages. Avoir un rôle de conseiller plutôt que d’expert tout puissant permet de gagner en confiance ce que l’on perd en contrôle. Mais cela suppose dès le départ une relation saine et propice.

Le design comme monopole

Plus fondamentalement, cette idée même de prérogative est contestable. Chacun a éminemment le droit de se sentir viscéralement designer, mais dans le cadre d’un projet ce n’est qu’un un poste attribué à quelqu’un. Il y a de nombreuses manières d’organiser ce qui relève du « design ». Ça peut être une des casquettes de quelqu’un, aussi bien qu’être décomposé en spécialités : concept, études utilisateur, prototypage, animations, spécification, éditorial, graphisme, tests… c’est large.

Enfin, le design (et par extension le design UX) peut être vu comme une responsabilité de tout l’équipe, moins une compétence particulière qu’un processus plus ou moins formalisé et plus ou moins co-extensif à tout le projet. La littérature en théorie du design et en gestion de projet est abondante.

Un avis ?

VGE, wink wink
Source

Pour aller plus loin

Design et compromis : le cas du nouveau Blackberry

all design is a series of compromises ; but good design finds the right ones. (Doug Bowman)

Blackberry Passport
Blackberry Passport

Avec la Surface, Microsoft est l’archétype de la compagnie qui, à force de ne vouloir faire aucun compromis, finit par faire les pires et sortir un produit batard. Le cas du Blackberry Passport parait différent puisqu’il vise un public précis (les professionnels) et qu’il est prêt à sacrifier certains cas d’utilisation (la vidéo) au profit d’autres (la bureautique). Pourtant la situation est similaire.

Plusieurs critiques ont vu dans le Passport l’achèvement de ce que Blackberry fait depuis quinze ans, une manière de se démarquer en persévérant dans les même choix formels. À mon humble avis, c’est plus compliqué : l’entreprise essaye de satisfaire les derniers fidèles et les gens n’ayant jamais été convaincus par les claviers virtuels, tout en s’adaptant à l’air du temps. L’ancienne promesse était : vous aurez un petit écran (3.1” le plus souvent) mais un bon clavier, vu que votre activité essentielle est d’écrire et converser. La nouvelle est : puisque les écrans sont de plus en grands, les applications de plus en plus puissantes et que vous voulez faire de plus en plus de choses sur votre téléphone, vous aurez un clavier physique et aussi un grand écran. C’est là que les compromis se transforment en impossible jeu d’équilibriste.

En guise d’exercice pour comprendre le dilemme, considérons une autre solution : le clavier coulissant. C’est d’abord un gros défi technique et augmente forcément l’épaisseur. Ensuite, on perd en modularité puisque le clavier ne peut s’adapter au contexte (mode adresse mail, mode mot de passe, etc.) et que l’OS n’a pas l’air de profiter de la rangée de caractères virtuels. Enfin, le clavier est placé en mode paysage sur la plupart des modèles (malgré d’honorables tentatives comme le Palm Pre ou le Dell Venue, ce qui complique l’utilisation. Personnellement je ne sais jamais dans quel sens tenir ces machins. En ne sacrifiant rien du clavier et de l’écran, cette solution fait naitre encore d’autres contraintes.

Revenons à la solution retenue par Blackberry : le clavier a une ergonomie douteuse (trop large pour taper à une main, placé trop bas) et ses trois rangées de touche ne satisferont pas les habitués d’un jeu de touches plus complet. La petitesse du clavier permet un plus grand écran, mais qui fait « seulement » 4.5” (par comparaison, le Galaxy Note fait 5.7”). La forme carré est intéressante et permet de ne pas hésiter en permanence entre les deux orientations, mais elle empêche surtout de profiter des avantages de chacun (par exemple portrait pour Twitter, paysage pour les jeux). Il y a quelques trouvailles, notamment le clavier tactile qui permet de scroller et déplacer le curseur, mais rien qui rattrape une ergonomie globale critiquable.

Bref, on ne peut que respecter la tentative de Blackberry, mais elle tourne à la quadrature du cercle et finit par compromettre ce qui faisait sa force, à savoir une bonne expérience de frappe. Son erreur a sans doute été de croire que celle-ci signifiait forcément un clavier physique et d’ignorer des alternatives comme les écrans immenses des phablets.

Pour aller plus loin

Les liens de la semaine #9

  • Un chouette recueil de design-fiction (prospective ancrant un concept dans les usages) : Une histoire du futur en cent objets.
  • Un panorama des outils pour tester des sites sur mobile.
  • Reportage chez le projet de livraison par drones de Google, mais aussi chez la concurrence. Deux visions se dessinent : petits colis pour particuliers ou fret collectif sur des voies aériennes préétablies.
  • Un article sur les stades d’intégration d’une technologie à la culture. Par exemple on ne pense plus à l’écriture, encore moins à la cuisson des aliments, comme à une technologie.
  • Une analyse visuelle simple et puissante montrant à quel point les voitures bouffent l’espace public.

Concevoir pour l’apesanteur

Strabic a publié un article passionnant sur la création d’une bouteille et d’un verre qui soient utilisables dans une station spatiale. Je vous encourage à le lire en détail, mais voici quelques remarques.

La bouteille
La bouteille – Crédits photo : Tanguy Masson, Basile de Gaulle

Par certains aspects (surtout pour ce qui est de l’analyse de l’activité et du contexte), on est dans du classique : il y a des codes à intégrer (parti pris que la bouteille reste verte), un aspect social (le rituel de boire ensemble), une dialectique entre usage prescrit et réel (l’alcool est interdit dans les sous-marins et les environnements spatiaux, donc soit on boit en cachette, soit le chef est conciliant).

Quant à la conception, elle est largement exotique. Pour tester le bon fonctionnement des objets, ils utilisent des nacelles en chute libre dont l’intérieur est filmé. Apparemment la méthode est de leur cru (ils citent des inspirations mais je ne trouve pas de sources). Pas le plus commode mais c’est fascinant. Je me suis pris à rêver à des processus d’itération plus souples. À quand le premier designer dans l’espace, équipé de machines à prototypage rapide ?

L’absence de gravité change le moindre geste et influe sur bien des aspects de la physique. Mais il faut en tirer parti :

Et il ne s’agit pas seulement de s’accommoder de l’apesanteur, mais aussi et surtout de tirer profit d’autres forces physiques qui deviennent gouvernantes. Je pense notamment à la capillarité, qui est largement inhibée par la gravité sur Terre mais qui devient dominante en apesanteur.

En jouant avec la manière dont les fluides sont retenus ou repoussés selon la topologie et le matériau, plus une valve pour le goulot, ils ont ainsi pu recréer le geste de se servir un verre et de le boire. Plus largement, les designers réfléchissent à la réinvention de tout un répertoire de concepts et d’opérations. Par exemple, s’arrimer ou coincer un objet entre des bandes souples, au lieu de tout sangler et accrocher.

Le verre
Le verre – Crédits photo : Tanguy Masson, Basile de Gaulle

Octave De Gaulle : Distiller, sur Strabic.

La génération procédurale dans le jeu vidéo

Je recycle ici un travail étudiant datant d’il y a trois ou quatre ans. Le texte a été un peu désuniversitarisé, à part ça il est tel quel. Le format était volontairement court et limité au jeu vidéo.

Les jeux vidéos grand public actuels ont souvent une grande valeur ajoutée en terme de contenu : graphismes réalistes, environnements vastes et variés, acteurs professionnels, etc. Même avec un gros budget, cette richesse représente un défi de production. Par exemple, la ville immense et détaillée de GTA4 a été entièrement créée « à la main » : chaque immeuble a été dessiné et placé avec soin par des artistes. Il existe une autre approche, qui consiste à partir d’éléments de base (ici, un ensemble de bâtiments) et à les disposer semi-aléatoirement, avec certaines contraintes (laisser des vides pour que des rues se forment, rassembler les immeubles similaires pour que chaque quartier ait une identité, etc.). Cette approche dite procédurale est très générique : avec elle, on peut générer des textures, des terrains, des niveaux de jeu, des scénarios, etc.

Un peu de technique

Il y a globalement deux familles de techniques : celles des grammaires de formes et celles utilisant des fonction de bruit.

[Note 2014 : J’avoue ne plus savoir d’où je sors cette distinction. Il existe des dichotomies plus générales, notamment entre algorithmes ontogénétiques et téléogiques, c’est-à-dire en gros entre les modèles réalistes seulement en apparence et ceux qui le sont vraiment. Voir cette liste et cet article.]

Les grammaires de formes sont héritées des grammaires formelles, qui permettent de décrire avec un jeu de règles l’ensemble des phrases correctes d’un langage donné. On procède en générant toutes les phrases possibles à partir d’un alphabet et de règles de transition. Par, exemple, à partir de l’alphabet {a, b} et de la règlea => b, on peut générer le langage {a, ab, abb, abbb…}. Cette idée fut d’abord utilisée pour modéliser des phénomènes de croissance naturelle (feuilles, colonies de bactérie), puis étendue à l’architecture. En prenant des formes géométriques simples comme alphabet de base, on peut créer des façades, des bâtiments, voire des villes entières.

Système L
Système L

Passons aux fonctions de bruit. On commence par placer des points dont les valeurs sont générées de façon pseudo-aléatoire, puis à effectuer une interpolation entre eux afin d’obtenir une courbe. Faire la somme de plusieurs de ces courbes permet d’en obtenir une d’aspect plus fractal, compliqué et naturel. On peut faire la même chose en deux dimensions, ce qui donne alors une texture. Le passage à la troisième dimension permet d’obtenir un terrain, ce qui est relativement trivial : il suffit d’interpréter la valeur du niveau de gris comme une hauteur.

Bruit de Perlin en dimensions 1, 2 et 3
Bruit de Perlin en dimensions 1, 2 et 3

Un nouveau processus de conception

Générer du contenu procéduralement au lieu de le créer à la main a de multiples avantages :

  • Réduction des coûts de main d’œuvre. Concevoir et paramétrer un algorithme qui génère une forêt n’est pas trivial, mais ce sera toujours moins long que de dessiner et placer chaque arbre.
  • Diminution des besoins de stockage et de bande passante. Par exemple si l’on veut des textures hautement réalistes, il suffit de stocker l’algorithme qui les génére à la volée, et pas les lourdes images finales. C’est ce qui permet à certains de créer des démos graphiques spectaculaires avec un fichier d’origine pesant quelques dizaines de Ko, alors que l’équivalent en vidéo pèserait beaucoup plus. Voir par exemple .kkrieger.

Cette approche a évidemment des limites. Générer procéduralement un objet revient à automatiser sa création, ce qui implique dans une certaine mesure qu’on le comprenne. Par exemple, créer des récits vraisemblables suppose que l’on sache ce qui fait qu’une histoire est bonne. Il faut au pire avoir de bonnes intuitions et heuristiques à ce sujet, au mieux avoir isolé des invariants et savoir les combiner. Cela fait écho à la quête des théoriciens du récit et des spécialistes des séries télévisées qui cherchent à trouver des archétypes et des mécanismes présents dans tout récit.

Ces limites suggèrent une méthode de conception différente de celle fréquemment en vigueur. Les jeux vidéo pour le grand public sont souvent très linéaires, avec une suite d’évènements scriptés minutieusement. Par exemple, un avion doit passer au-dessus du joueur précisément au moment où il sort d’un tunnel. Le but est de contrôler autant que possible l’expérience du joueur, dans la perspective classique d’un artiste démiurge et totalement maitre de l’univers fictionnel. Cet idéal devient impossible dans une perspective procédurale, puisque le contenu est largement aléatoire1. Par exemple, on ne peut pas savoir la disposition exacte des arbres et des clairières dans une forêt.

Pourtant, on regagne en facilités de macro-gestion ce qu’on perd en contrôle minutieux. On ne peut pas placer telle espèce d’arbre à tel endroit, mais on peut faire des changements globaux sur la flore simplement en modifiant l’algorithme. Ce nouvel état d’esprit peut se répandre dans tout le processus de conception. Par exemple, puisqu’on ne peut pas planifier précisément l’emplacement d’une rencontre en forêt, on peut laisser le programme s’en occuper en suivant certaines conditions (« dans une clairière à moins d’un kilomètre de la ville »). Ensuite, on peut être tenté de rendre aléatoire la survenue elle-même des évènements. Certains moments clés dans le scénario peuvent restés pré-codés, tandis que d’autres peuvent se faire au hasard (par exemple les rencontres que le joueur ferait dans une ville).

De nouveaux types d’interactions

L’approche procédurale change aussi beaucoup la manière de jouer. Certains jeux promettent en effet une re-jouabilité potentiellement infinie, puisque la cartographie des niveaux, l’emplacement des objets, les objectifs à remplir, etc. sont différents pour chaque nouvelle partie et chaque joueur. La question de la durée de vie d’un jeu doit donc être repensée, puisqu’elle dépend plus de la propension du joueur à se lasser que de l’imagination du développeur. À charge pour ce dernier de créer un programme qui génère des environnements et des aventures intéressantes, le reste se passe entre le jeu et le joueur. C’est à nouveau une perte de contrôle pour le créateur, mais qui se révèle payante, puisqu’elle permet au joueur de mieux s’approprier le jeu et de se faire sa « propre » aventure.

Plus généralement, le centre de gravité se déplace du créateur vers la création elle-même. Dans beaucoup de jeux classiques, le joueur essaye de composer avec ce qu’il devine des intentions du créateur, en essayant de prédire où un piège a été placé, ou quel va être le prochain rebondissement dans l’intrigue. Dans un jeu généré procéduralement, on cherche plutôt la logique qui gouverne la génération de ces structures variées. Passé l’émerveillement initial, on cherche la nécessité derrière la contingence apparente des formes.

L’approche procédurale est ainsi très prometteuse. Il existe même des travaux qui tentent de rendre automatisable la génération des règles elles-mêmes, notamment Angelina, un moteur aléatoire de création de jeux. Toutefois, étant donné les limitations de conception, ne sont envisageables que des méthodes où seul un aspect du jeu est procédural.


  1. Dans les faits, peu de jeux sont générés intégralement de manière procédurale. De plus, on peut techniquement rendre l’environnement identique à chaque génération, puisque le générateur est pseudo-aléatoire : il suffit d’entrer à chaque fois les même paramètres de départ. 

« Cette voiture a été conçue pour quelqu’un avec trois bras et une jambe »

Dans sa thèse magistrale sur l’histoire des IHM, Benjamin Thierry relate l’influence immédiate qu’a eue la sortie du Macintosh sur l’industrie : en 1984, de nombreux vendeurs commencent à proposer des souris et des interfaces graphiques. L’industrie adopte rapidement autour des même conventions.

Et pour les voitures ? Un modèle précis est-il à l’origine de l’agencement moderne des commandes ?

On pourrait penser à la Ford T, puisqu’elle a révolutionné la production et le marché des automobiles. Mais elle était compliquée à opérer et n’a pas eu de grande influence à ce niveau là. L’accélérateur était sous le volant à droite et trois pédales servaient respectivement à l’embrayage, à la marche arrière et au frein. Le levier à gauche servait à basculer entre les modes haute vitesse, neutre et frein d’urgence, en combinaison avec l’embrayge. Cette page vous donnera une idée plus juste de la complexité du bousin.

Extrait du manuel officiel de 1911 de la Ford T
Extrait du manuel officiel de 1911 de la Ford T

La plupart des Ford T avaient aussi une manette à gauche du volant pour ajuster le timing de la combustion. Plus on remonte dans le temps, plus on découvre ce genre de concept étrange, ayant disparu ou été automatisé. Par exemple, la De Dion-Bouton de 1902 avait un décélérateur plutôt qu’un accélérateur et celle de 1904 un frein qui agissait sur la transmission et un autre directement sur le moteur (sur le même principe que la manette de la Ford évoquée plus haut, si je comprend bien).

Bref, les commandes étaient positionnées différemment selon les modèles et n’avaient pas forcément d’équivalent contemporain direct. Il faut attendre la sortie de la Cadillac T53 en 1916 pour faire un grand saut en avant et trouver un agencement familier avec le contact sous le volant, trois pédales dans l’ordre actuel et le frein à main à droite. Cette voiture n’a pas eu un gros succès commercial mais a été imitée par l’Austin 7, qui elle fut très populaire et largement copiée. Il y a surement une leçon d’histoire des techniques à en tirer.

Les présentateurs de Top Gear (S10E08) se sont essayé à démarrer et piloter ces voitures et c’est plutôt fendard. Le titre et une bonne partie des références de ce texte viennent de là.

Cadillac T53 (oui on voit pas grand chose)
Cadillac T53 (oui on voit pas grand chose)

L’architecture de l’information expliquée avec Twitter

Twitter est un terrain d’expérimentations intéressant pour les créateurs d’applications. Non parce que la plateforme permet des travaux révolutionnaires, mais au contraire parce qu’elle est limitée en complexité et encadrée par des règles assez strictes. Chacun fait de son mieux à partir des mêmes données, des mêmes concepts de base, des mêmes interdictions.

C’est aussi une bonne illustration d’une idée simple mais fondamentale en architecture de l’information : il n’y a pas qu’une manière d’organiser le contenu d’un service. Pour commencer, tout le monde n’est pas d’accord sur les concepts de base : rédiger, mentions, message privé, favoris, recherche, listes, abonnements, abonnés, activité, découverte, brouillon…

Seule une poignée de ces concepts est retenu pour figurer dans la navigation globale. Chaque application (y compris les versions officielles) fait des choix différents :

Twittelator
Twittelator pour iPad

Les contraintes de place et les particularités de l’OS entrent aussi en jeu mais n’expliquent pas tout. Par exemple, la refonte de Twitter.com de 2011 a été pas mal critiquée pour avoir relégué l’accès aux messages privés dans un sous-menu et créé un onglet « découverte ». C’était une stratégie consciente pour privilégier les conversations publiques et les suggestions de contenu, pas seulement une question d’alléger l’interface.

Twitter pour Mac Autre exemple : tous les clients officiels choisissent d’enfouir les favoris dans un sous-menu du profil, à trois clics de profondeur. C’est aussi le cas sur Mac, alors que la navigation globale n’est pas vraiment bondée. Le choix se défend mais signale que pour eux, les favoris sont loin d’être une fonction essentielle.

Je n’ai pas encore parlé de la timeline. Tout s’articule autour de cette vue chronologie, mais là aussi on peut l’interpréter de diverses manières. La première version de Twitter mettait au même plan la chronologie publique et celle de l’utilisateur, vu qu’à l’époque le volume global de messages était faible. Quant à Tweetbot pour iPad, il permet de basculer entre la chronologie principale et les listes de l’utilisateur, si bien que, d’une certaine manière, celles-ci deviennent le concept premier. La chronologie n’est plus qu’une liste parmi d’autres.

Twitter en 2006
Twitter en 2006

Citons également toute les expérimentations autour des conversations, qui contribuent à complexifier la timeline et à aller au-delà d’une simple présentation anté-chronologique.