D’une métaphore oubliée : Macintosh et le lent déclin du bureau

Les raisons du succès des interfaces graphiques sont bien connues : des objets visuels simples (fenêtre, icônes, menus et pointeurs), permettant un panel d'actions limitées et explicites, organisés par une métaphore cohérente : des documents rassemblés en dossier, posés sur le bureau pour les affaires courantes et rangés dans des casiers pour le reste.

wooton
Bureau Wooton, station de travail tout-en-un

Un dossier = une fenêtre

il est moins connu que cette métaphore, à son origine, était plus forte et contraignante. Les premières versions du Finder (l'explorateur de fichier de Mac OS) obéissaient à un modèle dit « spatial », lequel a été abandonné à la sortie de Mac OS X (moment d'une refonte complète du système). Cela se traduisait par deux règles :

  1. Cohérence. Chaque dossier était représenté par une seule fenêtre et chaque fenêtre était liée à un seul dossier. L'icône d'un dossier changeait d'apparence pour signifier qu'il était ouvert ou fermé. Cliquer sur l'icône d'un dossier ouvert faisait clignoter sa fenêtre et rien d'autre, puisqu'il ne pouvait être ouvert deux fois. En bref, pour l'utilisateur il n'y avait aucune différence entre un dossier et sa fenêtre.

  2. Stabilité. Les fenêtres mémorisaient la manière dont l'utilisateur les personnalisait. La forme, la position, le mode d'affichage (grille, liste...), la position des icônes en mode grille, etc., tout cela était conservé. Grâce à l'association entre fenêtre et dossier, cette règle était beaucoup plus simple à appliquer qu'aujourd'hui et le comportement des fenêtres d'autant plus prédictible pour l'utilisateur. Si j'ouvre ce dossier, je sais qu'il apparaitra à droite sur toute la hauteur de l'écran ; si j'ouvre cet autre dossier, il apparaitra en petit à gauche et ses fichiers seront en liste. Aujourd'hui, le Finder conserve certains paramètres (taille et position) et d'autres non (mode d'affichage et style), selon des règles de priorité impénétrables (détails ici).

En résumé, le Finder « spatial » tentait de faire fonctionner le bureau comme un ensemble de choses tangibles et fixes, pouvant servir de véritable mémoire externe (l'être humain étant plus doué pour reconnaitre un objet que pour s'en rappeler). Au lieu d'utiliser une abstraction pour en gérer une autre (fenêtre et système de fichier), l'utilisateur manipulait des objets concrets qui ne changeaient pas dans son dos (principe de moindre surprise).

Contraignant mais adapté à son temps

Ce modèle pouvait être assez contraignant. Notamment, ouvrir un dossier faisait forcément apparaître une nouvelle fenêtre (la fenêtre de ce dossier). Pour éviter de se retrouver avec des dizaines ouvertes, il fallait déplier l'arborescence du dossier (comme dans Mac OS X aujourd'hui), ou bien utiliser Alt+click, ce qui fermait la fenêtre d'origine et ouvrait la nouvelle en même temps.

Un dossier dans un dossier dans un… (Mac OS 9)
Un dossier dans un dossier dans un… (Mac OS 9)

Pourtant, d'après ce que j'ai pu lire et tester, ça marchait pas mal. D'abord, ces dossiers superposés dans tous les sens ne faisaient que reproduire le rangement classique d'un bureau, dans ce qu'il peut avoir d'idiosyncrasique et d'apparement chaotique. Ensuite, l'OS était organisé autour de ce modèle. Par exemple, plutôt que de minimiser une fenêtre, on pouvait double-cliquer sur la barre de titre pour ne laisser que celle-ci et cacher tout le reste. Cette fonction de « stores » (shades) suivait, une fois encore, un principe de spatialité : la fenêtre restait à sa place.

Exemple de deux fenêtres réduites à leur barre de titres
Exemple de deux fenêtres réduites à leur barre de titres

Ensuite, la cible d'Apple était moins experte que le public typique de l'époque et n'était probablement pas à l'aise avec l'abstraction d'un système de fichiers arborescent. Enfin, les ordinateurs d'alors avaient peu de mémoire, peu de fichiers et peu d'applications, peu de mémoire et avaient donc moins besoin de manipuler des quantités énormes d'information.

Le lent déclin du bureau façon Macintosh

Aujourd'hui, bien peu d'explorateurs de fichiers utilisent encore un modèle spatial. Les seuls projets actifs que j'ai trouvé sont Haiku OS (héritier de BeOS), Enligthenment (dit-on) et MATE (mais pas par défaut).

A moins que vous n'utilisiez un système exotique, il y a de fortes chances que votre bureau fonctionne différemment. Un simple test : y a-t-il des boutons Précédent et Suivant dans une fenêtre de l'explorateur ? Si oui, c'est qu'il ressemble plus à un navigateur Internet : il permet de parcourir différents dossiers à travers une fenêtre.

Ce modèle a été popularisé par Windows 98 (avec des prémisses dans 95). Dans une optique de convergence avec Internet Explorer, une barre d'adresse et des boutons Précédent et Suivant ont été ajoutés. Ouvrir un dossier a cessé d'ouvrir une nouvelle fenêtre. Ce comportement a été adopté par Mac OS X à sa sortie, créant un Finder bâtard, avec deux types de fenêtres et des réactions imprévisibles. Pour des détails, voyez notamment cet article de Siracusa, et celui-ci de Tog (un des premiers spécialistes en IHM employés par Apple).

Cachez ces fenêtres que je ne saurais voir

Le modèle de Windows est donc devenu la convention dominante -- son ubiquité n'y est sans doute pas étrangère.

A la sortie de Mac OS, Steve Jobs a déclaré qu'un utilisateur ne devrait pas avoir à faire le ménage dans ses fenêtres. Il disait surtout ça pour promouvoir certaines nouveautés plus que pour exposer une quelconque vision du futur des interfaces, mais cela signale à mon avis un changement profond quoique lent de l'OS, dont l'abandon du Finder spatial constitue la première étape.

En gros, tout est fait pour qu'on n'ait plus à déplacer ou redimensionner ses fenêtres. La plupart des fonctions introduites depuis dix ans et dédiées à la navigation vont dans ce sens :

  • Mission Control (anciennement Exposé), une vue éclatée présentant simultanément des vignettes de toutes les fenêtres
  • Launchpad, grille montrant toutes les applications
  • Spaces, permettant de gérer des bureaux virtuels au lieu de fenêtres
  • Le mode plein écran, apparu avec Lion et qui a remplacé la fonction de maximisation
  • Des onglets pour le Finder.

Certains se sont inquiétés de l'importation de certains concepts depuis iOS. Il est vrai qu'aujourd'hui, tout est fait pour qu'on puisse utiliser un Mac comme un iPad, en affichant toutes les applications en plein écran et en naviguant entre elles grâce à un geste du trackpad. Après l'abandon du Finder spatial, faut-il s'attendre un jour à la disparition des fenêtres ?

Pour aller plus loin

Vous n’avez pas le monopole du design

Les rela­tions entre client et pres­ta­taire sont com­pli­quées, presque par défi­ni­tion. Un pro­blème fré­quent pour le pres­ta­taire est de faire recon­naître son exper­tise, notam­ment quand il est dans un rôle de concep­tion. Il est sans doute ten­tant d’apprendre son métier à un concep­teur d’interfaces, à un archi­tecte (de sys­tèmes ou de bâti­ments) ou à un sty­liste auto­mo­bile, plus qu’à un illus­tra­teur, un déve­lop­peur ou tout autre per­sonne qui réa­lise elle-même le résul­tat final.

Face à cette pré­ten­tion, la solu­tion habi­tuelle est d’essayer d’asseoir cette exper­tise : « vous me payez pour ça, faites-moi confiance ». Ça peut mar­cher, mais c’est un joker qui ne marche pas éter­nel­le­ment et qui rem­place l’échange par le bras de fer. Il y a certes bien des manières de convaincre et on peut être péda­gogue avec un client sans l’envoyer bou­ler. Mais si cela se résume à sur­en­ché­rir d’arrogance en vou­lant « édu­quer » le client, j’ai peur que cela n’enterre toute pos­si­bi­li­té d’aborder la racine du pro­blème – et il y en a sou­vent une.

Le design comme symptôme

Prenons un cas auquel j’ai assis­té : un client n’était pas content de pro­po­si­tions de pic­to­grammes. Après quelques échanges, il nous a envoyé des contre-propositions se résu­mant à des cli­parts tirés d’une banque d’images et à des cro­quis faits par eux-même. Clairement, c’était mau­vais, ça ne mar­chait pas. L’épisode nous a éner­vé et don­né l’impression que le client pré­ten­dait faire le tra­vail à notre place. A mon sens, notre très com­pré­hen­sible colère se trom­pait de cible. Le pro­blème n’est pas qu’ils aient osé prendre le feutre et l’initiative, c’est qu’ils l’aient fait dans leur coin.

Il y avait là une situa­tion idéale pour une séance de co-conception, tous ensemble autour d’un tableau. On aurait ain­si pu les gui­der vers de meilleures solu­tions, voire remettre à plat l’iconographie et son uti­li­sa­tion. C’était peu envi­sa­geable parce qu’il n’y avait pas assez de res­pect mutuel. La ques­tion du desi­gn était sur­tout le symp­tôme d’un pro­blème de com­mu­ni­ca­tion et de cadrage. Cette gué­guerre pour savoir si ces pic­tos étaient intel­li­gibles n’était que le der­nier épi­sode d’un pro­jet mal par­ti, le genre où l’on doit jus­ti­fier le moindre détail.

Dans ce contexte, s’arc-bouter sur ses pré­ro­ga­tives n’est au mieux qu’une solu­tion à court-terme. Asséner « c’est moi le desi­gner » ne rem­place pas une vraie argu­men­ta­tion voire, soyons fous, des tests auprès d’utilisateurs. Adopter une approche plus col­la­bo­ra­tive offre bien des avan­tages. Avoir un rôle de conseiller plu­tôt que d’expert tout puis­sant per­met de gagner en confiance ce que l’on perd en contrôle. Mais cela sup­pose dès le départ une rela­tion saine et pro­pice.

Le design comme monopole

Plus fon­da­men­ta­le­ment, cette idée même de pré­ro­ga­tive est contes­table. Chacun a émi­nem­ment le droit de se sen­tir vis­cé­ra­le­ment desi­gner, mais dans le cadre d’un pro­jet ce n’est qu’un un poste attri­bué à quelqu’un. Il y a de nom­breuses manières d’organiser ce qui relève du « desi­gn ». Ça peut être une des cas­quettes de quelqu’un, aus­si bien qu’être décom­po­sé en spé­cia­li­tés : concept, études uti­li­sa­teur, pro­to­ty­page, ani­ma­tions, spé­ci­fi­ca­tion, édi­to­rial, gra­phisme, tests… c’est large.

Enfin, le desi­gn (et par exten­sion le desi­gn UX) peut être vu comme une res­pon­sa­bi­li­té de tout l’équipe, moins une com­pé­tence par­ti­cu­lière qu’un pro­ces­sus plus ou moins for­ma­li­sé et plus ou moins co-extensif à tout le pro­jet. La lit­té­ra­ture en théo­rie du desi­gn et en ges­tion de pro­jet est abon­dante.

Un avis ?

VGE, wink wink
Source

Pour aller plus loin

La génération procédurale dans le jeu vidéo

Je recycle ici un tra­vail étu­diant datant d’il y a trois ou quatre ans. Le texte a été un peu dés­uni­ver­si­ta­ri­sé, à part ça il est tel quel. Le for­mat était volon­tai­re­ment court et limi­té au jeu vidéo.

Les jeux vidéos grand public actuels ont sou­vent une grande valeur ajou­tée en terme de conte­nu : gra­phismes réa­listes, envi­ron­ne­ments vastes et variés, acteurs pro­fes­sion­nels, etc. Même avec un gros bud­get, cette richesse repré­sente un défi de pro­duc­tion. Par exemple, la ville immense et détaillée de GTA4 a été entiè­re­ment créée « à la main » : chaque immeuble a été des­si­né et pla­cé avec soin par des artistes. Il existe une autre approche, qui consiste à par­tir d’éléments de base (ici, un ensemble de bâti­ments) et à les dis­po­ser semi-aléatoirement, avec cer­taines contraintes (lais­ser des vides pour que des rues se forment, ras­sem­bler les immeubles simi­laires pour que chaque quar­tier ait une iden­ti­té, etc.). Cette approche dite pro­cé­du­rale est très géné­rique : avec elle, on peut géné­rer des tex­tures, des ter­rains, des niveaux de jeu, des scé­na­rios, etc.

Un peu de technique

Il y a glo­ba­le­ment deux familles de tech­niques : celles des gram­maires de formes et celles uti­li­sant des fonc­tion de bruit.

[Note 2014 : J’avoue ne plus savoir d’où je sors cette dis­tinc­tion. Il existe des dicho­to­mies plus géné­rales, notam­ment entre algo­rithmes onto­gé­né­tiques et téléo­giques, c’est-à-dire en gros entre les modèles réa­listes seule­ment en appa­rence et ceux qui le sont vrai­ment. Voir cette liste et cet article.]

Les gram­maires de formes sont héri­tées des gram­maires for­melles, qui per­mettent de décrire avec un jeu de règles l’ensemble des phrases cor­rectes d’un lan­gage don­né. On pro­cède en géné­rant toutes les phrases pos­sibles à par­tir d’un alpha­bet et de règles de tran­si­tion. Par, exemple, à par­tir de l’alphabet {a, b} et de la règlea => b, on peut géné­rer le lan­gage {a, ab, abb, abbb…}. Cette idée fut d’abord uti­li­sée pour modé­li­ser des phé­no­mènes de crois­sance natu­relle (feuilles, colo­nies de bac­té­rie), puis éten­due à l’architecture. En pre­nant des formes géo­mé­triques simples comme alpha­bet de base, on peut créer des façades, des bâti­ments, voire des villes entières.

Système L
Système L

Passons aux fonc­tions de bruit. On com­mence par pla­cer des points dont les valeurs sont géné­rées de façon pseudo-aléatoire, puis à effec­tuer une inter­po­la­tion entre eux afin d’obtenir une courbe. Faire la somme de plu­sieurs de ces courbes per­met d’en obte­nir une d’aspect plus frac­tal, com­pli­qué et natu­rel. On peut faire la même chose en deux dimen­sions, ce qui donne alors une tex­ture. Le pas­sage à la troi­sième dimen­sion per­met d’obtenir un ter­rain, ce qui est rela­ti­ve­ment tri­vial : il suf­fit d’interpréter la valeur du niveau de gris comme une hau­teur.

Bruit de Perlin en dimensions 1, 2 et 3
Bruit de Perlin en dimen­sions 1, 2 et 3

Un nouveau processus de conception

Générer du conte­nu pro­cé­du­ra­le­ment au lieu de le créer à la main a de mul­tiples avan­tages :

  • Réduction des coûts de main d’œuvre. Concevoir et para­mé­trer un algo­rithme qui génère une forêt n’est pas tri­vial, mais ce sera tou­jours moins long que de des­si­ner et pla­cer chaque arbre.
  • Diminution des besoins de sto­ckage et de bande pas­sante. Par exemple si l’on veut des tex­tures hau­te­ment réa­listes, il suf­fit de sto­cker l’algorithme qui les génére à la volée, et pas les lourdes images finales. C’est ce qui per­met à cer­tains de créer des démos gra­phiques spec­ta­cu­laires avec un fichier d’origine pesant quelques dizaines de Ko, alors que l’équivalent en vidéo pèse­rait beau­coup plus. Voir par exemple .kkrie­ger.

Cette approche a évi­dem­ment des limites. Générer pro­cé­du­ra­le­ment un objet revient à auto­ma­ti­ser sa créa­tion, ce qui implique dans une cer­taine mesure qu’on le com­prenne. Par exemple, créer des récits vrai­sem­blables sup­pose que l’on sache ce qui fait qu’une his­toire est bonne. Il faut au pire avoir de bonnes intui­tions et heu­ris­tiques à ce sujet, au mieux avoir iso­lé des inva­riants et savoir les com­bi­ner. Cela fait écho à la quête des théo­ri­ciens du récit et des spé­cia­listes des séries télé­vi­sées qui cherchent à trou­ver des arché­types et des méca­nismes pré­sents dans tout récit.

Ces limites sug­gèrent une méthode de concep­tion dif­fé­rente de celle fré­quem­ment en vigueur. Les jeux vidéo pour le grand public sont sou­vent très linéaires, avec une suite d’évènements scrip­tés minu­tieu­se­ment. Par exemple, un avion doit pas­ser au-dessus du joueur pré­ci­sé­ment au moment où il sort d’un tun­nel. Le but est de contrô­ler autant que pos­sible l’expérience du joueur, dans la pers­pec­tive clas­sique d’un artiste démiurge et tota­le­ment maitre de l’univers fic­tion­nel. Cet idéal devient impos­sible dans une pers­pec­tive pro­cé­du­rale, puisque le conte­nu est lar­ge­ment aléa­toire1. Par exemple, on ne peut pas savoir la dis­po­si­tion exacte des arbres et des clai­rières dans une forêt.

Pourtant, on regagne en faci­li­tés de macro-gestion ce qu’on perd en contrôle minu­tieux. On ne peut pas pla­cer telle espèce d’arbre à tel endroit, mais on peut faire des chan­ge­ments glo­baux sur la flore sim­ple­ment en modi­fiant l’algorithme. Ce nou­vel état d’esprit peut se répandre dans tout le pro­ces­sus de concep­tion. Par exemple, puisqu’on ne peut pas pla­ni­fier pré­ci­sé­ment l’emplacement d’une ren­contre en forêt, on peut lais­ser le pro­gramme s’en occu­per en sui­vant cer­taines condi­tions (« dans une clai­rière à moins d’un kilo­mètre de la ville »). Ensuite, on peut être ten­té de rendre aléa­toire la sur­ve­nue elle-même des évè­ne­ments. Certains moments clés dans le scé­na­rio peuvent res­tés pré-codés, tan­dis que d’autres peuvent se faire au hasard (par exemple les ren­contres que le joueur ferait dans une ville).

De nouveaux types d’interactions

L’approche pro­cé­du­rale change aus­si beau­coup la manière de jouer. Certains jeux pro­mettent en effet une re-jouabilité poten­tiel­le­ment infi­nie, puisque la car­to­gra­phie des niveaux, l’emplacement des objets, les objec­tifs à rem­plir, etc. sont dif­fé­rents pour chaque nou­velle par­tie et chaque joueur. La ques­tion de la durée de vie d’un jeu doit donc être repen­sée, puisqu’elle dépend plus de la pro­pen­sion du joueur à se las­ser que de l’imagination du déve­lop­peur. À charge pour ce der­nier de créer un pro­gramme qui génère des envi­ron­ne­ments et des aven­tures inté­res­santes, le reste se passe entre le jeu et le joueur. C’est à nou­veau une perte de contrôle pour le créa­teur, mais qui se révèle payante, puisqu’elle per­met au joueur de mieux s’approprier le jeu et de se faire sa « propre » aven­ture.

Plus géné­ra­le­ment, le centre de gra­vi­té se déplace du créa­teur vers la créa­tion elle-même. Dans beau­coup de jeux clas­siques, le joueur essaye de com­po­ser avec ce qu’il devine des inten­tions du créa­teur, en essayant de pré­dire où un piège a été pla­cé, ou quel va être le pro­chain rebon­dis­se­ment dans l’intrigue. Dans un jeu géné­ré pro­cé­du­ra­le­ment, on cherche plu­tôt la logique qui gou­verne la géné­ra­tion de ces struc­tures variées. Passé l’émerveillement ini­tial, on cherche la néces­si­té der­rière la contin­gence appa­rente des formes.

L’approche pro­cé­du­rale est ain­si très pro­met­teuse. Il existe même des tra­vaux qui tentent de rendre auto­ma­ti­sable la géné­ra­tion des règles elles-mêmes, notam­ment Angelina, un moteur aléa­toire de créa­tion de jeux. Toutefois, étant don­né les limi­ta­tions de concep­tion, ne sont envi­sa­geables que des méthodes où seul un aspect du jeu est pro­cé­du­ral.


  1. Dans les faits, peu de jeux sont géné­rés inté­gra­le­ment de manière pro­cé­du­rale. De plus, on peut tech­ni­que­ment rendre l’environnement iden­tique à chaque géné­ra­tion, puisque le géné­ra­teur est pseudo-aléatoire : il suf­fit d’entrer à chaque fois les même para­mètres de départ. 

Plaidoyer pour l’URL

Résumé : il faut se battre pour l’URL mais il faut aus­si amé­lio­rer la barre d’adresse et en faire une vraie barre de navi­ga­tion et d’action.

Google expé­ri­mente en ce moment une nou­velle fonc­tion­na­li­té pour Chrome : faire dis­pa­raitre l’URL de la barre d’adresse. Il ne sub­sis­te­rait que le nom de domaine dans un cadre, afin de mieux le mettre en avant et lut­ter contre le phi­shing (source). Cela per­met­trait de mieux dis­tin­guer amazon.com de amazon.siteChelou.com. Pour voir l’URL et l’éditer, il fau­drait cli­quer sur le nom de domaine.

Animation emprun­tée à Usability Post

Beaucoup se sont éle­vés contre cette idée (notam­ment), l’URL étant le concept fon­da­teur du web. Grâce à elle, un docu­ment est acces­sible uni­ver­sel­le­ment et sans ambi­guï­té. À cela, on peut répondre que bien des appa­reils fonc­tionnent parce que leur tech­no­lo­gie est invi­sible pour l’utilisateur. Après tout, on ne lui révèle pas l’adresse IP d’un site ou le hea­der d’une requête HTTP, alors que ce sont des pro­to­coles fon­da­men­taux et por­teurs d’information. De plus, les URL sont sou­vent une suite de carac­tères incom­pré­hen­sibles et inuti­li­sables.

Mon avis : cela reste une mau­vaise idée et une réponse très dis­pro­por­tion­née au pro­blème du phi­shing. Rien n’empêche une URL de suivre une syn­taxe claire, il y a même de bonnes rai­sons tech­niques pour cela. De plus, elle peut com­por­ter des infor­ma­tions direc­te­ment per­ti­nentes pour l’utilisateur. Considérez une URL de ce genre :

boutique.com/fr/vêtements/homme/pantalons?items-par-page=30?classement=prix

Elle per­met de situer la page dans l’arborescence du site et de signa­ler com­ment elle est para­mé­trée. C’est un excellent repère de navi­ga­tion, tou­jours pré­sent et tou­jours au même endroit.

On pour­rait aller plus loin et ima­gi­ner que chaque niveau de l’URL soit mani­pu­lable, comme cela se fait dans l’explorateur de fichiers de Windows ou dans cer­tains édi­teurs de code. Par exemple, dans Coda, cli­quer sur un dos­sier du che­min ouvre un menu per­met­tant d’accéder aux autres dos­siers de même niveau. Cliquer sur le fichier ouvert per­met éga­le­ment d’accéder aux dif­fé­rentes fonc­tions que celui-ci inclut, ce qui faci­lite la navi­ga­tion dans le corps du docu­ment. Dans une page web, par exemple, on pour­rait ima­gi­ner que chan­ger de langue se fasse depuis l’URL, par un menu dédié, au lieu de cher­cher déses­pé­ré­ment le lien dans la page (cela m’arrive sou­vent dans des bases docu­men­taires).

interactive path for Coda 2

Plus géné­ra­le­ment, je trouve tou­jours dom­mage qu’on essaye de cacher un sys­tème puis­sant, sous pré­texte qu’il est com­plexe et mal uti­li­sé. Il fau­drait plu­tôt domes­ti­quer cette com­plexi­té et la rendre plus acces­sible aux uti­li­sa­teurs. La barre d’adresse d’un navi­ga­teur est aujourd’hui un des rares endroits où l’on est confron­té au concept d’interface en ligne de com­mande. C’est aus­si une inter­face vers énor­mé­ment de choses : his­to­rique, favo­ris, recherche, etc. Organiser et retrou­ver du conte­nu, opé­rer un ser­vice… Il y a là un gros poten­tiel et une bonne occa­sion de faire pro­gres­ser les inter­faces en ligne de com­mande et d’y habi­tuer les gens.

Je pré­cise que mon pro­pos n’est pas une posi­tion de prin­cipe ou un un appel à sau­ver le web. Un pro­to­cole ne devrait avoir aucune impor­tance, sauf s’il peut avoir du sens pour l’utilisateur, comme ici. Je dis bien « peut » : en l’état, la plu­part des gens se fichent des URL et vu la gueule de bien d’entre elles, on les com­prend. Il y a là un pari : c’est seule­ment en explo­rant leur poten­tiel qu’on fera com­pren­dra leur inté­rêt au plus grand nombre.

C’était l’idéal d’un pro­jet de Mozilla, Ubiquity. Le concept de départ, très ambi­tieux, était de s’abstraire des pages et de pro­po­ser une inter­face en lan­guage natu­rel qui per­mette d’exécuter des actions de haut niveau et de les lier entre elles. Concrètement, on pour­rait entrer « réser­ver un vol vers Sidney pour moi et Machin, envoyer l’itinéraire à Machin et ajou­ter la date à mon calen­drier ». La réa­li­té était plus modeste mais tout de même bien cool. Pour en savoir plus, voir ici et ici.

Bref, il y a tant de choses à faire autour de la barre d’adresse.

Le design thinking et le mythe du designer-magicien

Résumé : le design n’est pas une panacée.

On entend par design thinking le fait de recourir à des designers, en personne ou via des méthodes qu'on leur prête. Cela peut être à des fins de conception, d'innovation, de changement organisationnel, d’amélioration du quotidien, de politique, bref d’un peu tout et n'importe quoi. Bien qu'on croise des dizaines de définitions, le design thinking est supposé principalement être un processus :

  • Itératif
  • Centré sur l'humain
  • Créatif dans la résolution de problèmes

De prime abord, ces critères sont positifs, mais quel rapport avec le design ou les designers ? Tout repose sur l'idée que celui qui fait vœu de design acquiert certaines capacités supérieures ou uniques, qu'il peut appliquer à peu près à tous les domaines. Cette supposée exclusivité me paraît très contestable :

  1. Travailler de manière itérative et incrémentale est depuis longtemps une tarte à la crème dans l'industrie.

  2. Garder à l'esprit les besoins des usagers est quelque chose de présent dans certains milieux, notamment en ergonomie. Les techniques de terrain, quant à elles, viennent largement des sciences humaines et sociales. Comme le dit Peter Merholz, ce n’est pas pour autant qu’on parle de socio thinking ou d’ethno thinking.

  3. La créativité est une notion très floue. On peut la rattacher à l'intuition, mais celle-ci n'est ni une habilité particulière ni quelque chose de propre au designer : c'est seulement la manière dont nous utilisons notre expérience de manière intériorisée et non-réflexive (cf cet article de Raskin pour ce qui est des IHM). On rapproche également la créativité de l'abduction (appelée aussi inférence à la meilleure explication), mais cela revient à dire qu'on est designer dès qu'on fait un diagnostic médical, qu'on résout une enquête criminelle ou qu'on essaye de deviner qui s'est servi dans le frigo la nuit dernière. Enfin, en parlant de créativité, on aime à imaginer le designer comme celui qui sait réfléchir en dehors des sentiers battus et voir à travers les problèmes mal posés. Cela impliquerait qu'on est un peu designer dès qu'on fait preuve d'audace intellectuelle, ce qui est encore une façon pour le design de tout ramener à soi. Steve Jobs était un businessman visionnaire, pas besoin d'en faire un designer.

Bref, ces caractéristiques n'ont rien d'exceptionnel et sont largement répandues.

On peut répondre que ces traits sont présents ici et là mais ont été rarement combinés dans une seule discipline. On peut également rétorquer que le design thinking voit le design comme une disposition latente en chacun et pas comme un don réservé à une caste (cf. par exemple how designers think de Nigel Cross, qui s'ouvre par « tout le monde peut designer, et tout le monde le fait »). Pourtant le mystère reste entier : les designers ont-ils un talent particulier et ce talent est-il généralisable à n'importe quel type de problème ?

Quelque soit la réponse, beaucoup agissent comme si c'était le cas et cela montre que l'on prête un pouvoir démesuré au design. Que l'on mette l'accent sur la discipline ou sur ses praticiens, ce statut messianique existe surtout parce qu'on a une vision très fantasmée du potentiel et de l'influence du design. De la même manière qu'on voit le philosophe comme un sage, on prend le designer pour un magicien, quelqu'un ayant tout compris et pouvant tout faire : il voit dans les tréfonds de l'âme des utilisateurs, il prédit les usages de demain, il guérit les grosses organisations de leurs scléroses, etc. Cette complaisance entretenue a sans doute été utile pour promouvoir et légitimer le design, au point que Don Norman a pu y voir une fiction utile. Mais cela me paraît une mauvaise excuse, même sous l'angle de la communication : les fantasmes, surtout aussi séduisants, parasitent les débats, créent des attentes déplacées et à terme font du mal à tout le monde.

Le design thinking abrite de nombreux bons conseils et a été l'étendard de bien des beaux projets, mais cela reste à mon avis un concept inutile.


Pour aller plus loin, on pourra lire cette critique ainsi que cet article de Lucy Kimbell, intéressant en lui-même et contenant beaucoup de références pour et contre sur le sujet.

Quand le mépris se déguise en empathie

Il est louable de se mettre à la place des gens et de com­prendre qu’ils uti­lisent leurs outils quo­ti­diens de manière prag­ma­tique. Cela parait évident et c’est le point de départ de la concep­tion cen­trée sur l’utilisateur. C’est grâce à ça qu’on conçoit des inter­faces simples, sans jar­gon ni option inutile. Pourtant cette impor­tance de l’empathie est sou­vent cari­ca­tu­rée et trans­for­mée en dédain.

« Les gens nor­maux se moquent de telle ou telle chose » : cette tour­nure est trop sou­vent uti­li­sée à pro­pos de tout et n’importe quoi. C’est un moyen trop facile pour repro­cher à son inter­lo­cu­teur d’être cou­pé des réa­li­tés et d’accorder de l’importance à ce qui n’en a pas aux yeux de ceux qui comptent, les uti­li­sa­teurs finaux. « Les uti­li­sa­teurs lamb­da se fichent de RSS, de HTTP ou de tel détail tech­nique », « le grand public se moque de la neu­tra­li­té du net ou de la pro­tec­tion de la vie pri­vée », « madame Michu ne veut pas savoir quel OS tourne sur son télé­phone ». En rai­son­nant ain­si, on fabrique de toute pièce la fic­tion pares­seuse d’un uti­li­sa­teur for­cé­ment négligent et inculte. Certes, la plu­part des gens ont une uti­li­sa­tion super­fi­cielle de la plu­part des ser­vices et pro­duits qu’ils uti­lisent. Le plus sou­vent, ils se moquent du sou­bas­se­ment tech­nique et des enjeux socio-politico-économiques qu’il peut y avoir der­rière. Mais voir tout au prisme d’une échelle unique « noob abso­lu — nerd ultime » est extrê­me­ment réduc­teur.

Je peux être très au fait des ordi­na­teurs clas­siques mais lar­gué par les smart­phones, ou l’inverse. Je peux avoir fait des méfaits de la publi­ci­té un che­val de bataille per­son­nel tout en me contre­fi­chant de, met­tons, les condi­tions de tra­vail des ouvriers chi­nois. Je peux avoir quinze ans, n’utiliser mon télé­phone que pour tex­ter et être mal­gré tout assez calé en hard­ware, à force de com­pa­rer avec les copains les specs des modèles à la mode. Il y a plein de rai­sons qui font qu’on s’intéresse à quelque chose. Les gens sont com­pli­qués.

Et les gens changent. Si une fonc­tion­na­li­té dont dépend madame Michu existe sur iOS et pas sur Android, elle aura plus faci­le­ment ten­dance à se rap­pe­ler de la dif­fé­rence. La plu­part des gens font peu atten­tion au par­tage des infor­ma­tions per­son­nelles, jusqu’au jour où, sur Facebook, une pho­to devien­dra visible par la mau­vaise per­sonne. Des pro­blèmes abs­traits peuvent vite deve­nir moins loin­tains si on montre aux gens l’influence que cela peut avoir sur leur vie.

L’éternelle querelle du minimalisme

S’il y a une chose dont manquent les débats actuels sur le skeuomorphisme et ce qu’on appelle le flat design, c’est de recul historique.

D’abord, un peu de contexte. Par flat design, on entend un style dépouillé mettant en avant le contenu : des effets graphiques réduits au minimum, pas de recours à des références kitsch. L’ennemi, c’est le skeuomorphe, à savoir un trait autrefois fonctionnel et devenu purement ornemental. Par exemple, la lumière rouge d’une cigarette électronique imite le bout allumé de son équivalent en papier. En IHM, citons l’animation de page qui se tourne dans une application de lecture. Par extension, on utilise aussi le terme pour qualifier une apparence rétro, par exemple la texture de cuir dans iCal. A l’inverse, l’interface épurée de Windows 8 et Windows Phone est vue comme flat. Pour un résumé express de ces débats, voir par exemple ici.

On fait souvent de cette opposition une tendance actuelle, alors que l’histoire des formes récente et moins récente est remplie d’exemples de débauche de kitsch et de réactions rigoristes. Voici quelques exemples, glanés ici et là. J’espère ne pas avoir fait trop de raccourcis historiques.

En 2006, les créateurs de Rogue Amoeba (un éditeur de logiciels pour Mac) plaidaient pour la simplicité et l’intemporalité et raillaient la surenchère d’effets graphiques dans les produits de leurs concurrents. Il y a même une quelques articles sur ces interfaces qu’ils appelèrent, non sans ironie, « délicieuses ». Ils faisaient référence, par exemple, à la fumée se dégageant de la fenêtre du logiciel de gravure Disco – Cf. cette vidéo.

En 2001 sortait Mac OS X, avec ses boutons bleus reluisants et ses animations. Alors que Jobs vantait un graphisme qu’on avait envie de lécher (je cite), on cria au “style over substance”, on reprocha aux designers d’Apple de se faire plaisir et on rappela que l’esthétique pouvait desservir l’utilisabilité. Aujourd’hui, on rappelle que Jony Ive, chantre du design épuré, a commis des coques d’iMac dans ce genre :

iMac kitsch

En 1928, Jan Tschichold publiait The New Typography, ouvrage où il appelle de ses vœux la naissance d’une typographie moderne[1]. Cela signifiait pour lui une « rupture complète avec la typographie ancienne » et impliquait de « se débarrasser de tout concepts décoratifs et de se tourner vers le design fonctionnel » (je cite, p. 64). Il s’oppose particulièrement à la copie servile de styles classiques (par exemple de la part du mouvement Arts & Crafts) et à l’inventivité désordonnée et surchargée de l’Art Nouveau. À la place, il propose la recherche de formes simples, rationnelles et en phase avec leur temps. Il ne faut pas entendre ce modernisme de manière abstraite : il ne s’agit pas de prétexter un « esprit du temps » commode et évanescent, mais d’être en adéquation avec la technique et les besoins de l’époque.

Par exemple, il soutient que l’imprimerie est devenue mature quand sa typographie et sa mise en page ont cessé de s’inspirer du codex (cf. le chapitre « The old typography »). Il crédite notamment Alde l’Ancien pour cette évolution. Le travail de celui-ci sur l’édition du Songe de Poliphile montre une mise en page claire et des illustrations lisibles, une police latine et non plus gothique, ainsi qu’une utilisation moins lourde des ligatures. De même, selon Tschichold, le graphisme du début du XXème siècle avait du mal à s’affranchir de l’héritage du livre et l’appliquait maladroitement à des supports nouveaux (notamment l’affiche qui connut son essor à cette époque).

À noter aussi qu’il revint plus tard sur ses propres idées en les jugeant trop rigides (et même fascisantes : auto-point Godwin), cf. p. 36 de l’introduction.

Ce qui est assez drôle, c’est que le mouvement Arts & Crafts, que j’ai évoqué et que Tschichold trouvait kitsch, est né lui aussi en réaction au mauvais goût de son temps. Mais avec une grosse différence : l’adversaire n’était plus le passéisme mais au contraire la montée du machinisme. En effet, les tenants de ce courant valorisaient la confection manuelle et rejetaient les ornementations artificielles créées par les machines, par exemple la lithographie imitant le rendu de la gravure sur bois. Selon eux, les décorations ne devaient pas trahir le matériau utilisé. Cela fait beaucoup penser aux logiciels qui sont censés « assumer leur nature purement numérique » et ont par conséquent des interfaces flat. Les gens font des logiciels comme ils veulent, mais je trouve que se réclamer d’une prétendue essence du numérique est un mauvais argument.

Il y a en architecture un principe très proche de ce respect des matériaux: « Truth to materials ». Plus généralement, on retrouve dans ce domaine une opposition similaire entre courant fonctionnaliste et courant post-moderne. Ce dernier n’hésite pas à juxtaposer les influences et les formes, par exemple le fronton de la tour Sony à New-York (ex-AT&T Building), dans un maniérisme qui me rappelle le lecteur de cassettes utilisé en fond d’écrans de l’application de podcasts d’iOS. Pour quelque chose de plus bigarré, on peut aller voir la maison faite par Gehry à Venice Beach.

sony_building_by_david_shankbone_crop

(Bâtiment de  Philipp Johnson. Photo de David Shankbone, CC-BY-SA-3.0, via Wikimedia Commons).

Sans vouloir pousser le bouchon trop loin, on pourrait remonter jusqu’à l’opposition entre classique et baroque. Que ce soit dans l’alternance des deux styles en histoire de l’art ou dans le couple de concepts développés a posteriori (notamment par Wölfflin), il y a à mon sens un même mouvement de balancier. Du coté du classique, la recherche de la simplicité, de l’harmonieux et du vraisemblable, de l’autre un goût pour l’excès, la contradiction et l’illusion. Ainsi, de nos jours, le classicisme serait plutôt contre l’utilisation d’ombres incurvées (utilisées pour créer un effet de coin relevé de ce genre), parce que c’est un truc qui ne sert à rien et qui ne fonctionne qu’en trompant le cerveau. Dans cet esprit, une ombre portée habituelle serait plus acceptable : c’est aussi une illusion mais elle a sa cohérence propre (ce n’est pas une forme impossible) et elle permet de distinguer plusieurs plans. Alors que d’un point de vue baroque, bien des effets graphiques sont des illusions (par exemple la perspective forcée), l’important est que l’œil n’y voie que du feu. Par exemple, le relief sous le titre ci-après n’est en fait qu’une ombre portée, en zoomant sur le site d’origine on voit un jeu entre les deux niveaux de couleur. On utilise le médium au-delà de ce qui a été prévu, mais qu’importe.

tumblr_inline_mhbsgyTiG31qz4rgp

Il est évidemment contestable de lire tous ces évènements selon une grille unique, comme s’il y avait une dichotomie intemporelle entre classicisme et baroque qui s’incarnait partout de la même façon. Comme le montre le cas du mouvement Arts & Crafts, on peut lutter contre le kitsch et cinquante ans après être rangé dans le camp du mauvais goût. Il y a pourtant des similarités frappantes : d’un coté une conception fonctionnaliste et minimaliste, de l’autre une approche beaucoup plus permissive, qui refuse de se soumettre à des règles rigides et qui utilise tous les moyens d’expression à sa disposition (y compris, donc, l’ornementation).

Tout cela ne nous dit pas qui a raison. Sans répondre à cette question, un point important est qu’on crée toujours dans un certain contexte. Helvetica a eu un énorme succès en son temps parce que la police répondait à un besoin. On ne peut pas discuter de son caractère « trop neutre » ou « fade » dans l’absolu. De même, il est facile de critiquer certains excès d’Apple au début des années 2000, alors que cela s’inscrivait dans un objectif de rendre l’informatique plus accessible et familière. De plus, le design est une activité, un work in progress : Apple, dans ses recherches de formes nouvelles, a vendu des laptops qui ressemblent à un jouet ou à une palourde. Pourquoi pas. Ils ont essayé, puis sont passé à autre chose

Le propos de cette note était limité : il s’agissait de rappeler que les débats actuels sont l’écho d’anciennes querelles. Sur les pratiques actuelles, je me limiterais à dire « ça dépend » et « c’est comme tout, il ne faut pas en abuser ». Il y a toutefois un aspect intéressant sur lequel je n’ai pas de réponse définitive : les objets utilitaires ou interactifs (une chaise, un logiciel) sont-ils plus foncièrement minimalistes que, mettons, un tableau ? C’est facile d’être baroque quand on est une chapelle et qu’on est un objet de pur adoration.

[1] Il dit « typographie » mais parle en fait du graphisme en général. L’ouvrage est consultable sur Scribd, après inscription.

ADDENDUM : J’ajoute au dossier le livre de Gillo Dorfles Kitsch: The World of Bad Taste, publié en 1968, qui appelle kitsch tout objet prétendant être autre chose que ce qu’il est vraiment, avec tout une rhétorique “authenticité VS production de masse”.