The blog of blog of blogs

Les aventures d'un ethnologue dans le grand monde

IA et deep learning (1): la constitution des datasets 12 avril 2021


.

.

Tout a commencé en 2012 lors d’une compétition informatique, lorsque la méthode de l’apprentissage profond (deep learning) a prouvé qu’elle était meilleure pour identifier visuellement des objets que toutes les méthodes concurrentes. C’est ce qui a permis d’ouvrir de vastes possibilités dans le domaine de l’intelligence artificielle (IA).
Il était désormais possible de trouver non seulement des solutions au problème technique de la reconnaissance d’image (machine vision) mais surtout il était possible de dupliquer la méthode au-delà des seules images. Le deep learning s’est imposé comme une méthodologie standard qui permet aussi d’identifier les sons, le langage manuscrit, etc.

Pour faire court, le deep learning consiste d’abord à coller des étiquettes de texte sur des images, afin de construire de gigantesques jeux de données (datasets) de référence. On est dans un ordre de grandeur au moins mille fois plus grand que votre gigantesque fichier Excel de 1 giga octet, bienvenue dans le Big Data. Dans un second temps, ces jeux de données sont utilisés comme échantillon pour permettre à des algorithmes d’apprendre seuls à répéter la même tâche jusqu’à être capables de répéter cette tâche en dehors du jeu de données de référence qui a servi à les « éduquer ». 

.

La première étape est donc de disposer d’un référentiel de mots bien organisé et ce n’est déjà pas une mince affaire.

La référence du secteur s’appelle WordNet , une base lexicale qui fait autorité depuis les années 1980 (on en avait besoin avant l’ère de l’ordinateur !) et qui compte à ce jour plus de 155000 mots organisés dans une arborescence logique de 175000 sous-ensembles et 200000 paires, du type : carnivore > canidé > chien >  toutou

Ne vous laissez pas avoir par la simplicité de cet exemple… WordNet est géré par l’université de Princeton et si vous voulez ne serait-ce que commencer à comprendre le sujet il est necessaire de s’attaquer à : Fellbaum, Christiane : WordNet and wordnets. In : Brown, Keith et al. : Encyclopedia of Language and Linguistics. 2005

 

.

La deuxième étape consiste à disposer d’une banque d’images. L’une des plus vastes est ImageNet   : 14 millions d’images reroupées en 21000 sous-ensembles logiques. On notera que l’arborescence d’ImageNet réplique celle de WordNet afin de permettre une forte coherence entre les deux, jusqu’à pouvoir les faire fonctionner comme un unique ensemble. Car les images seules ne servent à rien. Ce qui fait la valeur d’ImageNet c’est l’association d’images à des mots du lexique WordNet.

Les plus curieux pourront lire avec intérêt : L. Fei-Fei and J. Deng. ImageNet: Where have we been? Where are we going?, CVPR Beyond ImageNet Large Scale Visual Recognition Challenge workshop, 2017

Il est ainsi possible d’avoir des milliers d’images de petite cuillère, annotées “petite cuillère” afin qu’un algorithme soit capable de reconnaître qu’il y a ou qu’il n’y a pas une petite cuillère le plus souvent possible : seule, au milieu d’autres couverts de table, en pleine lumière, dans la pénombre, tordue, partielle, en train d’être utilisée (en mouvement), photographiée, dessinée, schématisée, en ombre, peinte, peinte en noir, peinte en blanc, brillante, sale, absente, etc.

.

The process of buiding the datasets requires a huge human workforce in order to link images and names, so that cats are identified properly as cats in multiple conditions. Once this phase is done, manually, over Peta-bytes of data, the dataset will be put in use to train algorithms so that Artificial Intelligence softwares perform as expected beyond the range of their initial « educational » dataset.

.

Le processus d’étiquetage est fait en recourant au crowdsourcing : une force de travail humaine de centaines de milliers de volontaires anonymes qui, la plupart du temps, sont inscrits auprès du plus gros acteur dans ce domaine, le Mechanical Turk de l’entreprise Amazon. C’est ouvert à tous, très bien organisé, vous pouvez y participer et vous serez rémunéré pour le faire. Pas beaucoup.

(Une autre manière de mettre au boulot l’humanité est de recourir à l’outil Captcha, qui vous demande d’identifier par exemple des feux de signalisation sur des images, pour s’assurer “que vous n’êtes pas un robot”. Vous l’avez sûrement déjà fait, sans que personne vous dise que vous étiez mis à contribution avec des milliers d’autres personnes pour alimenter un jeu de données d’IA visuelle.)

.

Bien entendu, l’explication qui précède s’applique aux images mais aussi à tout le reste. Les sons, les compositions chimiques, le développement des cellules cancéreuses, les formules de calcul, les gestes de la main, le langage naturel parlé ou écrit, le mouvement des corps célestes ou tout autre domaine qui vous motive dans la vie (le jeu de données MNIST par exemple recense 70000 chiffres manuscrits de 0 à 9).

A partir du moment où vous avez sous la main un (très) grand échantillon sur n’importe quoi, le deep learning peut servir à en automatiser la reconnaissance, d’abord en faisant appel à une armée de contributeurs humains pour associer manuellement à cet échantillon de “choses” des mots permettant de les identifier, puis en faisant travailler un algorithme sur ce jeu de données.

Si votre entreprise ou votre administration fabrique de l’IA il est plus que probable que vous éduquez vos algorithmes en les faisant travailler sur des datasets fabriqués par d’autres, que vous avez achetés ou réutilisés en libre accès, libre de droits comme ImageNet par exemple. Tous sujets confondus, il existe quelques centaines de jeux de données d’importance variable qui servent à l’éducation de 90% des algorithmes d’intelligence artificielle dans le monde.

Et dans tous les cas, retenez bien l’ordre dans lequel ça se passe : d’abord l’étiquetage par des humains pour créer le jeu de données, ensuite l’apprentissage algorithmique en utilisant ledit jeu de données.

.

La méthode du deep learning implique donc ce prérequis tacite : il est absolument nécessaire que l’échantillon de départ soit correctement étiqueté, parce que bien sûr en tant qu’utilisateur de logiciel d’intelligence artificielle, vous ne voulez certes pas que votre produit reconnaisse une pie là où il y a une antilope (photo).

Datasets are the backbone of the whole AI industry
Their integrity is critical for the consequences of AI-led decisions.

 

Toute la complexité consiste ensuite à bien coder l’algorithme, afin qu’il puisse d’une part faire le moins d’erreur possible sur le jeu de données de référence mais aussi qu’il parvienne à extrapoler. Il doit être capable de reconnaître une petite cuillère en bois en suspension dans une station spatiale même s’il n’a jamais vu cette image auparavant.

C’est bien l’objectif d’une IA : qu’elle soit capable de se débrouiller seule dans la vraie vie.

…mais avant de passer à cette étape de mise en œuvre, je m’en vais rester un moment sur la notion de dataset pour souligner, en appuyant très fort, à quel point l’intégrité de ces jeux de données est absolument critique pour préparer tout le reste. La colonne vertébrale de l’IA ce n’est pas l’algorithme, c’est le jeu de données qui a servi à l’éduquer.

Le sujet avait déjà été abordé en 2016 par Alexander Wissner-Gross dans son article Les datasets davantage que les algorithmes. Mais il semble qu’il n’y avait pas beaucoup d’oreilles pour l’entendre.

.

La plupart du temps en effet les mises en œuvre pratiques d’une IA présentent l’étape finale et abordent la viabilité de l’algorithme.

Si l’IA fait une erreur à ce stade, les ingénieurs et les vendeurs de ces logiciels (et les politiciens) vous diront qu’il s’agit d’un problème d’algorithme qui nécessite encore un réglage, ou qu’il faut mieux analyser les données captées par l’IA afin de comprendre où elle s’est trompée afin de pouvoir rapidement corriger un problème. Mais vous aurez beau mettre au travail vos meilleurs mathématiciens et data scientists, il est bien possible qu’il n’arrivent jamais à trouver des solutions au problème parce qu’il ne descendront pas la chaîne de causalité jusqu’à son étape fondamentale, celle où le jeu de données est créé : la phase d’étiquetage, qui a servi de base à la configuration de l’algorithme.

Et bien sûr les fabricants d’IA sont à la recherche de leur pierre de Rosette, ils aimeraient que cela aille plus vite et donc tentent d’accélérer le rythme en retenant un unique dataset (le plus gros fait l’affaire) pour être plus rapidement sur le marché, le plus gros marché possible. Mais à force d’entraîner les algorithmes sur des datasets toujours plus vastes, les intelligences artificielles ne sont-elles pas condamnées à faire de plus en plus d’erreurs ?
C’est une question qui chatouille toute l’industrie du secteur, surtout si on y ajoute l’impact environnemental lié à la consommation d’énergie. …à tel point que Google a licencié les chercheuses de stature internationale qui peuplaient son équipe « IA et éthique » pour avoir publiquement soulevé le problème dans un article au sujet des IA en langage naturel (les dangers des perroquets stochastiques 🦜).

Spéciale dédicace à Margaret Mitchell et Timnit Gebru.

 .

Quel espoir de “bon apprentissage” pouvez-vous avoir, si votre référentiel indique qu’une antilope est une pie ? Votre algorithme ne fonctionnera jamais correctement ou plutôt il affirmera toujours qu’une antilope est une pie, dès qu’il verra une nouvelle antilope.

Les datasets sont perçus comme un truc simple, qui va de soi, sous-estimés dans les catastrophes qu’ils peuvent déclencher dans la vraie vie lorsque les IA prendront des décisions basée sur ce qu’elles y ont appris. Quel résultat obtiendrez-vous si, par défaut, les visages féminins ne reçoivent que des propositions d’emploi d’“infirmière” alors que les visages masculins peuvent postuler pour devenir “médecins” ? Et quel espoir de correction du jeu de données pouvez-vous avoir s’il comporte 200000 éléments et a déjà été traité en phase d’étiquetage par 10000 personnes ? Vous prétendriez pouvoir reprendre un par un chaque élément pour le re-valider ? Surtout qu’en tant que fabricant d’IA vous allez dire que ce n’est pas votre boulot, ce n’est pas votre jeu de données, ce n’est pas votre responsabilité juridique. Il a été conçu par quelqu’un d’autre…

.

Avant que l’IA puisse être généralisée comme technologie courante dans le monde qui nous entoure, il faudra qu’on parvienne à un consensus sur le fait que leurs jeux de données en sont le facteur limitant et que cette limite est liée à la culture, aux contextes sociaux.
Vous n’avez pas besoin de davantage de spécialistes techniques, vous avez besoin de faire travailler ces ingénieurs avec des spécialistes en sciences sociales :
des gens qui ne sont pas impressionnés par la sophistication technologique et qui demandent, encore et encore, quels sont les impacts collectifs, sociaux, humains ?

Là réside le cœur d’un problème que ne savent résoudre ni les directeurs, ni les ingénieurs, ni les crowdsourceurs, ni les docteurs en génie logiciel : le social.
La constitution des jeux de données est un phénomène social, les « données » elles-mêmes sont une construction sociale. Pour le domaine de l’IA qui s’affirme essentiellement « technologique » et donc « objectif », c’est le loup qui entre dans la bergerie… et vous devez cesser de considérer les jeux de données comme des trucs sans valeur ajoutée et socialement neutres, sans quoi le loup va vous manger tout cru.

Je parle des dégâts dans la suite de cet article.

..

The wolf of social beliefs among the innocence of AI datasets… because DATASETS ARE A SOCIAL CONSTRUCT.
Largely overlooked, the datasets, not algorithms, are a key actor of AI (in-)efficiency.
Take them seriously, please, otherwise the wolf will eat you alive.

.

.

.

 

Travailler sur les insights ethnologiques en temps de pandémie 18 mars 2020


[English version – version anglaise : https://www.linkedin.com/pulse/working-ethnographic-insights-times-pandemic-yannick-primel ]  

De nombreux spécialistes en sciences humaines peuvent contribuer utilement, face à la pandémie de covid-19.

Si vous n’avez pas déjà des compétences immédiatement utilisables pour être embarqué(e) dans la gestion officielle de la crise, vous pouvez fournir la sensibilité culturelle pour aider à mieux adapter les politiques publiques aux contextes sociaux.

Il est aussi possible d’informer les décideurs à tous les niveaux en contribuant au débat sur la perception et l’état d’esprit local des populations; ou montrer les limites et les conséquences indésirables de mesures de santé publique qui seraient appliquées sans se préoccuper de leur acceptabilité sociale; voire parler haut et fort contre l’abus des stéréotypes culturels comme une soi-disant explication aux comportements, tout spécialement pour éviter l’ostracisation.

.

Les sciences sociales en général et l’ethnologie en particulier peuvent apporter un ensemble d’expertises uniques afin d’informer les décideurs et renforcer le débat public :

– S’assurer que les interventions de santé publique sont localement pertinentes, du point de vue des populations locales : comment développer l’observance et la confiance envers les mesures officielles ? Cela implique de ne pas demeurer au niveau national mais à descendre vers la granularité du quartier dans une ville ou de l’aile d’un bâtiment dans un hôpital.

– Améliorer ou soulager la sur-réaction médiatique; la peur du geste médical; la peur d’une implication de la police ou de l’Armée; la peur des revers économiques; les conflits entre la représentation mentale médicale ou populaire de la maladie.

– Appliquer une analyse rigoureuse et un esprit critique sur les politiques publiques dans le but de les améliorer, comme retour d’expérience.

Focus sur l’après-crise :

– Conséquences collectives sur les représentations, en lien avec les solidarités ‘horizontales’, la notion de santé familiale, les pratiques d’hygiène quotidienne, les croyances.

– Combattre l’ostracisation et les effets contre-productifs des politiques de ‘reconstruction’ et redressement économique.

-Améliorer la guérison sociale et l’adaptation des politiques publiques vis-à-vis des survivants, des patients encore traités ou des populations autrement affectées (personnes n’ayant pas été malades, familles, voisinages, personnes sans emploi suite à la pandémie).

-Fournir des descriptions épaisses décrivant la manière dont les représentations ont été modifiées (ou pas) suite à la crise. Quel genre de modifications ? Pour quelles conséquences envisageables ?

.

…et maintenant remontez vos manches. Et lavez-vous les mains.

#épidémie #pandémie #coronavirus #covid-19 #crise #santé #ethnologie #gestiondecrise #politiquepublique

.

.

 

La maladie honteuse des données personnelles 19 novembre 2018


Les vols de données personnelles sont devenus communs et on s’étonne à peine de les voir défiler dans la presse.
Chaque semaine, des voleurs entrent dans les réseaux et remplissent leurs poches d’informations sur la vie des gens, parfois par millions.
La plupart du temps les informations dérobées permettent de commettre des fraudes très efficaces.

Le piratage de l’IRS américain en 2015  a ainsi alimenté pour des années le marché de la contrebande des fausses identités et des justificatifs d’impôts tout en pourrissant la vie des personnes volées pour au moins autant de temps.
D’autres motivations peuvent amener les pirates à attaquer une cible particulière, pour des motifs de vengeance ou de chantage.
Enfin, sans intention de nuire, une cause majeure des fuites de données provient des erreurs humaines. Absence de mise à jour d’un système, oubli dans une configuration technique, réutilisation d’un mot de passe corrompu… toutes ces choses qui confirment qu’en matière de sécurité informatique la première faille de sécurité se trouve « entre la chaise et la clavier » : l’utilisateur ou l’opérateur lui-même.

 

A chaque fois, il s’agit d’informations sur nous, de l’information que nous donnons pour pouvoir utiliser un service, comme nos vrais noms, prénoms, numéro de carte bancaire, sécurité sociale, téléphone, date de naissance, empreinte digitale des enfants pour qu’ils puissent déjeuner à la cantine, ou autre.
Et à chaque fois ceux qui réclament ces informations assurent qu’ils les garderont secrètes et inaccessibles au reste du monde.
Et à chaque fois, ils ne le font pas.
De ce point de vue, l’expression « vol de données » est commode car elle est neutre, en termes de responsabilité. Une entreprise ou une administration « victime de vol de données » se fait passer pour la victime… alors qu’elle avait la responsabilité de garder ces choses secrètes et ne l’a pas fait.

.

Les intrusions délictuelles ont connu un pic dans les années 2014-2015, avec par exemple l’entreprise Orange qui fut attaquée deux fois de suite pour un vol qui concernait plus de deux millions de personnes… dont peut-être vous si vous étiez abonné Orange à l’époque.
Depuis, les grandes organisations ont donc largement eu le temps de comprendre que les données personnelles sont fort recherchées et donc que plus elles en hébergent, plus elles sont susceptibles d’être seront attaquées.
Mais depuis, l’épidémie n’a jamais vraiment cessé. Le pic de 2014-2015 est devenu une norme, voire un minimum dans les années fastes.
Car oui, on en a vu d’autres !
Facebook est devenu un gros pourvoyeur de failles de sécurité mais aussi la plupart des opérateurs de réseau, les banques, sans compter toutes les effractions d’entreprises ou d’administrations dont on n’entendra jamais parler pour des raisons plus ou moins avouables.

Le Règlement Général sur la Protection des Données (RGPD)  va probablement provoquer plus de divulgations d’intrusions, puisqu’il oblige légalement à informer le public qu’un vol a eu lieu, au plus tard dans les 72h après qu’il a été constaté. On peut donc s’attendre à en voir encore davantage dans la presse… pas parce qu’il y a davantage d’attaques, mais parce que les organisations sont contraintes de ne plus le passer sous silence.
Inversement, je serais curieux de voir combien retarderont le plus possible la « découverte » d’intrusions pour retarder le moment où il faudra étaler son linge sale sur la place publique…

.

Les fournisseurs d’accès, les réseaux sociaux, les administrations  et beaucoup d’autres (trop !) enregistrent scrupuleusement à qui nous parlons, à qui nous écrivons, ce que nous likons et avec qui nous échangeons des documents. Les vendeurs enregistrent nos habitudes d’achat, les opérateurs enregistrent les lieux et les heures où nous allons et ce que nous regardons sur internet. Ils savent très bien en déduire nos espoirs, nos peurs, nos fantasmes et nos secrets.
La géolocalisation révèle où nous habitons, où nous travaillons, quels sont nos itinéraires habituels.
En associant les données localisées à l’échelle d’une ville, il est possible de prouver avec qui nous étions dans le bus, au supermarché et avec qui nous avons passé la nuit.

.

Parce que différentes organisations se positionnent comme acheteurs et revendeurs de nos informations (les data brokers), tous ceux qui peuvent collecter des données sont susceptibles de gagner de l’argent en les revendant.
Et le secteur est dynamique, c’est le moins qu’on puisse dire.
D’un côté sur le marché légal, une adresse e-mail valide vaut environ 0,5 centimes d’euros. Une « fiche client » provenant des bases de données de Facebook est estimée à 100 euros (ce qui participe à sa valeur en bourse, vu le nombre revendiqué de 2,27 milliards d’utilisateurs actifs).
De l’autre côté, sur le marché noir, le raccourci habituel est de demander 100 dollars pour 100.000 contacts. Donc d’un côté comme de l’autre, plus ils peuvent en avoir, plus ils en demandent.

Mais sur le marché officiel ou clandestin, une chose est sûre : une fois que nous avons donné nos informations elles ne sont plus à nous même si elles parlent de nous.  Les données enregistrées, stockées sont ensuite diffusées on-ne-sait-où, elles sont analysées par on-ne-sait-qui et pour on-ne-sait quel-but, vendues et achetées pour des motifs de marketing ou autre raison de persuasion et d’influence. Et beaucoup de monde gagne beaucoup d’argent avec.

« Tout enregistrer et le stocker indéfiniment » est donc un business model qui fonctionne.
Pour renforcer cette idée, on pourrait même dire que le travail qui consisterait à identifier ce qui ne mérite pas d’être enregistré est si difficile qu’il n’existe pas. D’ailleurs, ce qui semble inutile aujourd’hui pourrait être très utile demain. Du coup si on l’a enregistré aussi, on pourra le monnayer à ce moment-là.
Il suffit d’enregistrer, stocker et attendre.

.

 

La collecte de données personnelles est cependant dangereuse parce que ce sont des données… personnelles.

Enregistrer tout cela est dangereux parce que ça déclenche les convoitises et ça rend difficile une protection efficace.
Entre 2013 et 2014, Yahoo! a reconnu deux ans plus tard s’être fait voler 1,5 milliard de fiches clients.
Enregistrer les données personnelles est dangereux parce que vous savez que vous allez subir des effractions. Des entreprises vont vous attaquer, des pirates, des États ou des employés très en colère et vous ne pourrez pas tous les arrêter, c’est une certitude.
Or si dans le vrai monde le défenseur a toujours un avantage tactique (même relatif), dans le domaine de la cyber sécurité c’est l’attaquant qui a l’avantage.

Enregistrer tout cela est dangereux aussi car les dégâts d’une intrusion réussie sont dévastateurs.
La protection a été percée, la presse va parler du vol, la réputation va souffrir, la valeur boursière va baisser et cela peut dégénérer jusqu’au procès et à une condamnation ferme… et, surtout, de vrais gens vont se retrouver en difficulté à cause de la fuite.

.

.

Mais si les données personnelles sont si dangereuses, pourquoi donc les enregistrer ?

La première raison est que c’est une maladie de compulsion… il n’y a pas de raison particulière, sauf qu’on ne peut pas s’en empêcher.
Par appât du gain, tout le monde enregistre tout, tout le temps. Les organisations ne peuvent plus s’empêcher de tout enregistrer, comme une espèce de trouble compulsif embarrassant mais très répandu.

Des masses de données vont donc demeurer là pendant des années, personne ne se préoccupera de savoir si elles sont encore à jour ou pertinentes. Si quelque part quelqu’un sait que vous avez eu un cancer en 2005, qui se soucie de mettre à jour l’information de votre parfaite guérison ? Quel malus allez-vous subir si votre mutuelle santé établit ses tarifs sur ce genre d’information erronée ? Et qui possède ce commentaire graveleux que vous aviez posté avec vos noms et prénoms dans un obscur forum de discussion il y a 10 ans ?

 

La compulsion à enregistrer des données personnelles est une maladie honteuse, mais puisque tout le monde est contaminé il n’y a pas de raison de changer de comportement.
Cette incapacité collective vient du fait que l’architecture technique est conçue dans cet objectif et elle fonctionne sans aide, en faisant exactement ce qu’on lui demande. S’il vous fallait un exemple que le design ce n’est pas que de la cosmétique, il est là.
Obligation de « Créer un compte », obligation de saisir une adresse postale, obligation de donner son vrai nom et prénom, numéro de carte bancaire sauvegardé automatiquement après un paiement, etc.
La règle par défaut est l’enregistrement à l’échelle industrielle, jusqu’à l’overdose si nécessaire.

La Révolution arrivera le jour où nous serons payés pour enregistrer nos données personnelles  -ou rémunérés d’une manière ou d’une autre. Je suis bien certain que si la data devenait coûteuse à acquérir, on nous en demanderait soudainement beaucoup moins. Car il existe des cas ou, quoi qu’on en pense, la collecte de ces informations est nécessaire. Par exemple laisser sa mutuelle santé lire nos statistiques d’activité physique pour obtenir une ristourne parce qu’on est raisonnablement « sportif ».
Alors, quand c’est nécessaire, votre organisation devrait envoyer du lourd pour protéger ces données qui ne lui appartiennent pas : cryptographie forte, tokens anonymisés, double ou triple pare-feu, blockchain et j’en passe.

It’s the data, stupid ! All hard and software should (and will) allow portability of data, as it is produced in your organization.

 

 

Une seconde raison est la mode du Big Data.
Les entreprises et les gouvernements sont en pleine période d’envoûtement, subjugués par les promesses d’un monde meilleur (et de profits plus gros) grâce à la data.
Bien des travaux sont pourtant publiés sur le fait que plus de data n’est pas nécessaire, à commencer par les ethnologues qui démontrent jour après jour que le quantitatif sans qualitatif est une fumisterie sans nom. Coûteuse et socialement régressive.

 

Une troisième raison est que la plupart beaucoup de soi-disant responsables minimisent encore les risques.
Ils n’ont toujours pas compris à quel point une brèche de sécurité peut les mettre à genoux (sans parler du jour où une intrusion réussie permettra un vol et aussi le vandalisme des bases de données).
L’excès de confiance ici est un péché mortel et il convient d’éviter de croire qu’on est bien protégé. C’est d’ailleurs le premier signe d’une mauvaise sécurité : lorsque vous êtes sûr d’être bien abrité… demandez à Murphy.

La plupart n’ont pas encore compris que la meilleure protection consiste à supprimer les données personnelles.

.

 

Car les effets de mode se périment et les comportements stupides apportent rarement la longévité.
La tendance actuelle du privacy by design prend le contrepied des arguments habituels sur le sujet.

Dans tous les domaines, il est possible de fournir un service de qualité sans nuire à la vie privée des utilisateurs et sans finir par mourir d’obésité informationnelle.

 

De fait, vous n’avez pas besoin d’enregistrer l’adresse postale d’un client ! Qu’il vous la donne en vue de recevoir son colis est une chose, que vous la gardiez au chaud dans vos bases de données pour une durée indéfinie en est une autre.
Des choix techniques, des choix de design peuvent être faits pour éradiquer la maladie honteuse.


L’assistant Snips est un petit nouveau sur le marché en plein essor de l’intelligence artificielle vocale, qui a la particularité de fonctionner sans transmission à distance. Le logiciel est dans l’objet et vos discussions avec l’objet ne finissent pas sur des serveurs en Inde ou en Arizona.  On se demandera d’ailleurs utilement pourquoi les Alexa ou Siri nous imposent de transmettre nos conversations sur internet pour les enregistrer, alors qu’il est possible de ne pas le faire pour une qualité service équivalente.

Des moteurs de recherche comme Qwant ou DuckDuckGo fournissent des résultats comparables à Google mais ils n’analysent pas, eux, quel est l’historique de vos dernières consultations soi-disant « pour vous offrir une meilleure expérience de navigation ».

 

Les pratiques industrielles courantes dans le fonctionnement d’internet ont transformé internet en plateforme de surveillance, ce n’est pas la NSA qui me contredira.

Raisonnablement, on doit reconnaître que certaines données n’ont même pas besoin d’être demandées, d’autres n’ont pas besoin d’être enregistrées et celles qui doivent l’être devraient être stockées dans des bases différentes, verrouillés par plusieurs niveaux d’accréditations, qui rendent la cible « dure » et qui imposent énormément d’efforts à l’attaquant pour réunir des données cohérentes et monnayables sur le marché noir.

 

Mais il semble d’ores et déjà que si les internautes peuvent utiliser à qualité équivalente des outils conçus pour la discrétion (privacy by design), l’argument commercial fera son petit effet.
Parce que les scandales à répétition nous ont appris à nous, les internautes, que les entreprises ne savent pas protéger nos données et même celles qui savent ont une capacité de défense limitée, quoi qu’elles en disent.
Les entreprises qui peuvent nous protéger sont celles qui en demandent le moins possible, voire pas du tout.
Et s’il est vrai que la data est une matière première qui prend de la valeur quand elle a été raffinée, on pourrait aussi bien la considérer comme une matière inflammable qu’il convient de ne pas avoir en trop grandes quantités pour éviter les retours de flamme…

.

.

.

 

Des objets à commander 9 avril 2018


Les modèles de conception appliqués au digital ont permis l’essor de méthodes collaboratives qui nous éloignent toujours un peu plus de la théorie du One best way de Fayol, Taylor et Ford.
Du reste, s’il y a bien une leçon à retenir des travaux de recherche en organisation c’est que le one best way n’existe pas. Il n’y a pas un modèle d’organisation meilleur que tous les autres : il n’y a que des modèles d’organisation adaptés à leur contexte.
.

De ce point de vue, l’ingénieur en chef enfermé dans son Bureau des Études se révèle être de plus en plus une vue de l’esprit. Il n’est pas seul, il ne peut pas travailler seul, il ne peut que négocier ses contraintes avec les contraintes des autres parties-prenantes d’un projet à commencer par les utilisateurs et leur contexte d’usage. L’intérêt des méthodes collaboratives -et en premier lieu du design thinking- est que la prise en compte du contexte fait partie de la méthode. Ce n’est jamais une garantie de succès, mais c’est très certainement la garantie que vous éviterez de faire des erreurs grossières par manque de prise en compte de la réalité dans laquelle votre projet va se déployer.

Les configurations techniques sont désormais assumées comme des constructions collectives . C’est un mouvement qui concerne les ‘artefacts’ au sens large : ça a commencé par les objets matériels mais les services et les décisions politiques sont aussi concernés. Avoir le grade ou le statut n’est plus suffisant pour être légitime à décider, il faut aussi avoir le consensus et ce consensus se crée par la prise en compte du contexte.

Les implications sont vastes et je limiterai ici mon propos au monde matériel, celui de l’interconnexion généralisée dans l’internet des objets (IoT).
Une gamme d’objets étonnamment vaste est maintenant connectée à l’internet, des vêtements aux montres en passant par les éléments de mobilier, les machines-outils, les jouets, les chaînes logistiques ou les voitures… ou même des smart villes. Ces bidules sont de toutes formes et de toutes couleurs –certains n’ont même pas d’écran de commande et c’est bien l’enjeu de l’IoT : ce sont les objets qui communiquent entre eux et qui s’informent les uns les autres de leur état réciproque pour s’adapter à la situation, sans avoir besoin d’un homo sapiens pour interagir en permanence. L’intervention humaine lorsqu’elle se produit est seulement ponctuelle alors que les objets ont une communication permanente.
Le fonctionnement des ‘couches basses’ fait appel à des algorithmes, des liaisons RFID, des capteurs d’usure installés sur les freins des trains ou un lecteur d’empreintes digitales sur la porte de chez vous… à ce stade, l’humain sur son tableau de contrôle ne voit qu’une partie de la réalité du système, un abrégé, la synthèse de multiples étapes qui se déroulent entre machines, hors de vue et hors de portée.

.

Où est le besoin d’une construction collective ici, puisque précisément les objets fonctionnent en autonomie ?

.

Ce fonctionnement automatisé pose une première question pour l’observateur du système (le technicien superviseur par exemple ou le/la chef de famille), comment sait-il si les objets sont en train de se causer dans une usine, ou un domicile ?
Comment puis-je savoir que mon Google Home ou Microsoft Alexa est en train d’écouter les différentes voix qui se parlent dans ma cuisine et transmet quelque chose aux serveurs Google ? Comment savoir que mon compteur de gaz est en train de transmettre des données à mon fournisseur d’énergie, et quelles données ? Comment savoir que le bus n°56 est effectivement en train de transmettre sa position GPS exacte au centre de supervision ?
Il y a un premier besoin de design d’interface au niveau des transmetteurs pour matérialiser la transparence du système technique envers l’environnement humain. Lorsque les machines se parlent, a minima, elles doivent le signaler en temps réel. Sur l’objet connecté lui-même cette fonction se double par l’enregistrement de logs qui stockent l’ensemble des données brutes de ce qui est transmis et reçu -et en provenance et à destination de qui.
A mon humble avis, elles devraient être accessibles au moins en lecture seule par l’utilisateur. Après tout, ce sont ses données à lui.

Car je l’ai déjà dit et je le redirai : la limite ultime d’une technologie réside dans sa capacité à faciliter ou permettre l’existence d’une dictature. Les enjeux de transparence dans l’IoT n’ont rien d’une option cosmétique, ils servent à tracer cette limite.
.

… avec cet argument en tête, je vous invite à relire le rapport du député Vilani Donner un sens à l’intelligence artificielle.
Page 35 :  « L’État doit également organiser l’ouverture au cas par cas de certaines données détenues par des entités privées, et favoriser sans attendre les pratiques de fouille de texte et de données. »
Une phrase comme celle-là devrait tous nous réveiller la nuit, parce qu’elle n’est associée à aucune possibilité de contrôler ce qui est fouillé par l’État et encore moins de débrayer le système ou de refuser d’y participer.
.

Le second besoin en termes d’interface pour l’utilisateur du système est la qualité explicative du système décisionnel : comment l’opérateur peut-il comprendre la logique qui mène à un certain résultat ? Les interfaces spécifiques de l’IoT sont à peu près comparables à des télécommandes, mais évolutives en fonction des situations, grâce aux algorithmes et peut-être un jour grâce à de l’intelligence artificielle.
A partir de quel seuil apparaît par exemple une alerte orange ? Lorsqu’il faut agir immédiatement pour éviter une explosion ou lorsqu’il faut commander une soupape de rechange qui arrivera dans trois jours ?
Quels types d’action sont demandés à l’opérateur humain et pourquoi ?
Le système technique lui-même doit pouvoir s’expliquer et justifier de son fonctionnement : il devient un acteur à part entière du système relationnel… relisez la théorie de l’Acteur-Réseau.

.

Les objets à commander dans l’IoT peuvent être répartis dans le monde entier, par milliers, mais le panneau de supervision est juste là, dans votre smartphone personnel ou sur votre ordinateur professionnel (ou l’inverse)… et bientôt en réalité virtuelle ou augmentée.
L’interaction des humains avec le système technique nécessite à ce titre davantage de prise en compte des utilisateurs puisqu’il faut intégrer dans l’interface l’absence d’objet, l’absence d’indice direct qui permettrait d’interpréter ce qui est affiché.
Les designers vont collaborer avec les ingénieurs et les concepteurs produit pour leur faire comprendre que tout ce qu’ils sont en train de faire devra être utile à l’utilisateur avec une certitude absolue, par exemple pour ouvrir la porte d’entrée de son domicile, ou interpréter correctement le niveau d’usure du système de freinage d’un train.
.
Industry 4.0 concept .Man hand holding tablet with Augmented reaLes applis de supervision de l’IoT ne sont pas soumises aux mêmes objectifs que les applis habituelles pour le grand public. On cherchera à faciliter la prise de décision grâce à quelques écrans qui synthétisent l’état d’un système complexe et ce domaine est plus proche de la maintenance industrielle que du loisir interactif.

Vous pouvez passer des heures sur Instagram en supportant quelques boutons mal faits, mais si vous devez piloter à distance des machines de 500 kilos ou confirmer que le gaz est bien éteint chez vous, le niveau d’exigence dépasse le sens commun… sans parler de l’opérateur d’une escadrille de drones autonomes en opération au-dessus d’une grande métropole.

.

Les critères UI de base restent pourtant bien les mêmes (utilisabilité, simplicité, découvrabilité) que pour n’importe quel design d’interface, mais les conséquences de l’usage pourront être constatées dans le vrai monde avec une porte qui se déverrouille pour laisser entrer les enfants après l’école ou un train qui s’arrête au bon endroit –ou pas.

.

Avec ces conséquences immédiates et très concrètes, la prise en compte de l’utilisateur réel, dans son contexte d’usage devient encore plus cruciale pour éviter les contresens, les erreurs de manipulation et, potentiellement, les catastrophes à grande échelle « simplement » parce qu’une interface ou un algorithme de prise de décision était mal conçu.
Somme toute, si vous êtes déjà dans le domaine du design UX et de la conception système, le travail appliqué à l’IoT est très comparable à ce que vous connaissez déjà…  les aléas, eux, se paieront cash et ne seront pas cantonnés au périmètre du digital (illustration ci-dessous). Dans l’IoT, le mauvais design d’interface et des architectures d’information mal exécutées provoqueront davantage que de la frustration, de l’énervement et des migraines de l’utilisateur. Puisque la prétention de l’IoT est d’activer des liens entre le digital et le monde réel, dans les cas les plus extrêmes une mauvaise conception du côté du digital coutera de vraies vies dans le monde réel.

.

.

.

.

.

.

 

Du test utilisateurs avec 5 personnes 24 janvier 2018


Un fameux article publié par Jakob Nielsen en 2000 affirmait que 5 utilisateurs sont suffisants pour identifier en quantitatif la majorité des problèmes d’utilisabilité sur un objet particulier, réel ou virtuel.
Au-delà de cinq, il n’y a plus besoin d’ajouter des utilisateurs-testeurs encore et encore, « parce que vous retrouverez les mêmes problèmes encore et encore ». L’article explique clairement que lorsque 12 personnes sont impliquées dans un test, vous parviendrez à trouver presque 100% des problèmes d’utilisabilité.

Mais l’objectif des tests utilisateurs n’est pas nécessairement de couvrir 100% des problèmes. Il est aussi possible (et préférable) de limiter le périmètre à tester et se concentrer sur un élément précis, par exemple le processus d’achat en ligne, ou celui de la résiliation ou encore plus concrètement l’utilisation d’un nouveau type d’extincteur, ou la procédure de fixation d’un siège enfant dans une voiture.
Il s’ensuit qu’au lieu d’en recruter 12, on peut se limiter à 5 utilisateurs au minimum dans la mesure où, si ces 5 personnes sont toutes confrontées au même problème, on peut en déduire avec 90% de certitude que c’est un problème qui touche au moins 71% de la population en prenant, en termes statistiques, la limite inférieure de l’intervalle de confiance binominale.
.

Ces chiffres sont valables quelle que soit la taille de la population totale considérée.
Vous pouvez par exemple tester votre process d’achat en demandant à 5 utilisateurs d’aller sur votre site web et d’acheter un nouveau tee-shirt (avec de l’argent que vous leur aurez donné). En termes de proportions et de représentativité de ces cinq personnes, les résultats seront valables aussi bien si vous avez 20 millions de visiteurs mensuels (Amazon France) ou 150 (le-club-de foot-du-quartier).

.

Dans un article non moins fameux publié 12 ans après, Nielsen poursuit son argumentation en s’appuyant notamment sur 83 cas d’études menés par son entreprise où effectivement 5 utilisateurs-tests suffisent en moyenne pour atteindre le meilleur ratio coûts/bénéfices.

Mais… les critiques ne manquent pas… d’abord parce que :

Vous ne savez pas si vous avez identifié au moins 71% de tous les problèmes, ou juste 71% des problèmes les plus évidents (pas forcément les plus graves).

.

La littérature spécialisée a également beaucoup étudié la question et les réponses ne se sont jamais très éloignées des « 5 utilisateurs de Nielsen » comme le standard minimal de l’UI (User Interface).
Jakob Nielsen n’a jamais dit autre chose d’ailleurs, ni jamais affirmé qu’il ne fallait pas recruter 6 ou 12 ou 15 utilisateurs selon le contexte et l’objectif visé par l’étude.
Une chose intéressante à noter est que, souvent, le client qui mandate une campagne de tests, s’il est assez riche pour payer un nombre important d’utilisateurs-tests, ne le fait pas pour augmenter la fiabilité des résultats…mais pour se rassurer. Un peu comme les gens qui achètent un couteau suisse à 18 lames tout en sachant qu’ils en payent 16 de trop puisqu’ils n’en ont réellement besoin que de deux.

.

Au-delà du seuil minimum d’utilisateurs-tests, la vraie question qui émerge du débat critique est : avez-vous un processus itératif qui vous permette de vous améliorer en permanence ?

Alors effectivement, l’hypothèse de départ et l’affirmation de Nielsen peuvent être reformulées : 5 utilisateurs sont un nombre suffisant pour mettre en place un processus de tests pertinent sur la longue durée. A ce stade en effet, il est beaucoup plus efficace de mettre en place une phase de tests régulière avec cinq utilisateurs, plutôt qu’une unique campagne de tests avec quinze personnes (ou 30, ou 50).

.

Mais bien sûr, n’oubliez pas que vous n’êtes en train de faire « que » du test quantitatif. Ça ne vous apportera donc que des réponses liées à l’objet testé et non à l’expérience vécue (UX : User eXperience).
Si vous demandez à 5 utilisateurs d’acheter un ticket de RER pour aller de la gare Massy-TGV à Paris, vous aurez un test qui porte sur l’interface des bornes d’achat qui, techniquement et ergonomiquement fonctionnent très bien.

Vous allez donc rater le problème majeur (en date du début d’année 2018), qui est que 2 uniques bornes RATP sont disponibles en gare, pour accueillir les 1.200 voyageurs qui débarquent d’un TGV Ouigo et qui mettront plus de temps à attendre leur tour dans la file devant la borne qu’à faire leur trajet tout entier. A ce stade ils haïront tous votre interface, vos tarifs, votre marque, vos employés et vos produits mais pas à cause de l’interface, à cause du nombre de bornes…

Et ça les copains, il n’y a que le qualitatif qui pourra vous l’expliquer.

.

.

 

 

La ville d’aujourd’hui, demain 12 janvier 2017


Depuis que les humains ont commencé à grouper leurs habitats au Néolithique, la tendance à l’urbanisation ne s’est jamais démentie et n’a jamais cessé de croître. Dans un passé récent, au XVIIIe siècle 0,4% de la population terrestre résidait en ville et en ce début de XXIe nous sommes plus de 50%. Les projections indiquent 65% de population citadine en 2025.

Sydney city sprawl. Urban life self-organizes around the possibilities of (social) exchange. Badly designed "smart cities" only place a burden on that basic fact.L’existence de la ville a eu une influence sur tous les domaines de la vie humaine dans la mesure où cet objet socio-géographique est rapidement devenu un centre de décision et, au sens propre, un lieu de pouvoir. Le sujet ‘urbain’ recouvre une réalité bien plus vaste que la simple construction d’un habitat dense, à commencer par l’organisation de la vie humaine, j’ai nommé : la politique.

 

.

L’omniprésence du digital aujourd’hui (devenu « pervasif ») se fait sentir dans tous les domaines, comme une confirmation concrète de la quatrième révolution industrielle telle que définie par Klaus Schwab, fondateur du Forum Économique Mondial. Ce concept peut sembler grandiloquent mais il a le mérite de pouvoir envelopper notre époque faite d’automatisation extrême et d’interconnexion généralisée entre les personnes, les systèmes d’infrastructures et les objets.
La construction de l’objet ville est donc, de fait, la construction d’un objet politique au sens d’organisation de la vie collective. Ce n’est pas un hasard si le premier département de recherche en sociologie au monde fut fondé en 1892 à Chicago, spécifiquement pour comprendre la dimension humaine de la vie en ville (et en corolaire aider la prise de décision publique quant au sujet de la planification urbaine).
Certains sujets spécifiquement urbains en effet ne peuvent pas être résolus par de la tuyauterie neuve ou le recours massif aux camions-toupies… comprendre, gérer et si possible maîtriser la criminalité, la cohabitation entre communautés culturelles, la redistribution des richesses, la résilience face aux catastrophes ou encore la prise en charge des nouveaux habitants ne relèvent pas du « bureau du génie civil ».

.

C’est précisément l’écueil qu’il faut éviter aujourd’hui avec la notion de « ville du futur » : les vrais problèmes à résoudre relèvent de la citoyenneté dans la ville et non de tuyauterie neuve.

Toutes les villes ont la même problématique et connaissent les mêmes sujets de réduction de la pollution, d’accès à l’énergie, de modification de la pyramide des âges, de mobilité, de divorce entre valeur foncière de l’immobilier et sa valeur économique locale, etc.
Ce sont des préoccupations mondiales et dans les discours de gestion urbaine, on en est quasiment à l’injonction morale : il faut être smart. Si vous êtes une ville, il vous être une smart city -une ville intelligente. Dans une grande mesure d’ailleurs, reconnaissons que le modèle historique arrive à ses limites et que ce modèle nouveau de ville hyper connectée au réseau de l’internet des objets (IoT) offre un espoir de les dépasser plutôt efficacement.
Certes, mais que recouvre l’injonction à être une smart city, en termes de conséquences ?
La ville du futur est souvent décrite en termes économiques et l’amélioration supposée est hyper rationalisée : rapidité des services rendus, juste dimensionnement et juste localisation.The equivalent of a ghetto would be to deploy "smart" technologies within our cities, without taking into account the real population (not the intended population). Recruit ethnographers, proceed to deep UX field-observations !
Ce type d’urbanisme paternaliste reprend les codes techno-scientifique qui ont donné vie en France aux « grands ensembles » de HLM dans les années 1950. Posture politique qui a encore des effets sociaux et architecturaux largement négatifs 60 ans plus tard.
L’ampleur des financements d’une smart city impose des partenariats public-privé et une infatuation en termes d’approche basée sur les données… Une étude récente par Raphaël Languillon-Aussel, Nicolas Leprêtre et Benoit Granier montre bien comment les grands groupes industriels (Toshiba, Panasonic, IBM en particulier) utilisent les expérimentations grandeur nature pour améliorer leurs technologies, avec des arguments chiffrés qui mesurent l’efficacité de leur matériel pour apporter la preuve de son utilité. Cette vision de l’efficience promue par les fournisseurs ne doit pas abuser les décideurs politiques pour laisser transformer nos villes en chaîne de production robotisée.
Cela nous ramènerait à la conception technocratique d’il y a 50 ans… le risque est donc énorme de voir se reproduire une dégradation non anticipée de la qualité de la vie urbaine collective.
Car pour les habitants, l’intérêt premier est dans les nuances qui n’apparaissent pas sur un tableau Microsoft Excel : transparence des institutions, engagement civique, équité sociale.
La question posée doit explorer les bénéfices technologiques en termes de service rendu et de renforcement des capacités d’action (empowerment) des citadins eux-mêmes, de leur propre point de vue.

.

Certaines villes considérées comme avant-gardistes mettent en place depuis les années 2000 un modèle qu’on appelle la smart city ; la ville intelligente ; ou encore -avec autant de modestie- la ville du futur. La vision qui préside à l’établissement de la ville du futur est faite d’interconnexion des systèmes et d’exploitation intensive de la data afin d’optimiser les services et les infrastructures. L’intérêt d’insérer du digital dans la ville permet de basculer vers une gestion à très court terme, voire au temps réel pour certains aspects de flux (circulation routière, transport public, distribution d’énergie).

Pour une supervision en temps réel des transports, voir l’exemple d’application Big Data ci-dessous qui montre la circulation des taxis à New York du 24 au 31 octobre 2011 :

 

[lien secondaire : https://vimeo.com/88147836 ]
.

Avec le développement rapide du numérique, la smart city est désormais passée de la brochure marketing sexy à la réalité (parfois moins sexy).
La promesse d’efficacité à grande échelle et de précision algorithmique a séduit des métropoles partout dans le monde. Le Japon abrite 4 des principaux projets mondiaux de smart cities, dont celui de Yokohama qui porte non pas sur un unique quartier (300 à 400 foyers) mais sur 10.000 foyers. En dehors des cadres expérimentaux, Singapour s’est révélée exemplaire dans la gestion de la mobilité, Copenhague pour la dimension durable et Boston pour la participation citoyenne.

.

A ce titre, il est d’une importance cruciale de comprendre que le numérique et l’usage intensif de la data doivent avant tout permettre une plus grande interactivité humaine. Mais la data n’est pas la vie… et le quantitatif est incapable de prendre en compte la variété encore plus grande du qualitatif.
Car, je le prédis, ça ne fonctionnera pas si le système porte uniquement sur l’optimisation technique et omet la socialisation.
En oubliant l’être humain dans l’équation de la ville du futur, on s’apprête à un retour de bâton magistral lorsque le « facteur humain » reviendra sans avoir été invité sous la forme de protestations, de vandalisme, de non-respect volontaire des procédures ou d’arrangements parallèles qui passeront outre tout le ‘smart’ qu’on aura bien voulu injecter dans la ‘city’.
L’absence de prise en compte des aspects socio-politiques aboutira à coup sûr à un refus d’adoption des innovations proposées et à un accroissement des inégalités  -si toutefois l’objectif initial était bien de les réduire.

Il serait donc bon de questionner le modèle de design et les méthodes utilisées avant la pose de la première pierre dans un nouveau Digital technologies can bypass classical urban planning problems, yet the design of these projects should not forget the main issue is social not technical. Real-life citizen-centric more than the abstract user-centric archetypes.quartier. Quels profils de population sont pris comme référence pour penser les innovations à venir ? Les décideurs publics pourraient cesser de valoriser systématiquement la population qu’ils souhaiteraient avoir dans la ville, et de prendre en compte sa réalité. (voir mon article sur les Millennials)
A ce titre, une « smart city » si elle veut assumer son rôle d’infrastructure politique doit en premier lieu se préoccuper de la population réelle… ce qui suppose une adaptation des technologies aux différents contextes locaux et non l’implantation de systèmes standardisés.
Pour réussir au-delà du minimum technique requis, les initiatives d’ « urbanisme digital » doivent prendre en compte et soutenir des besoins spécifiques et hautement variables, qui ne correspondent pas la plupart du temps avec les profils-types d’utilisateurs définis en phase initiale : riches, éduqués et dont la vie peut se faire dans 3 km². Les populations pauvres, non connectées sont par contre les grandes ignorées du processus.
Qu’en est-il du parent solo qui doit faire 50mn de transport en commun pour aller au travail et dont l’abonnement lui coûte 10% de son salaire ? Le fait que sa carte de métro soit sur son smartphone ou que son bus soit sans conducteur est bien le moindre de ses soucis.
Qu’en est-il de l’idée de rue, conçue comme un lieu de vie publique et non un lieu qui mène à des actes d’achat ?
Comment sera garanti l’anonymat de nos données ? Et pourquoi envisage-t’on de faire payer les déchets selon le poids de nos poubelles (connectées) alors que les fabricants ne sont pas contraints de produire moins d’emballages ?

Et à quels services publics n’aurons-nous pas droit si l’on ne dispose ni d’un smartphone, ni d’un ordinateur ni d’une carte bancaire ?
Et pour ceux qui ont ces équipements, sera-t’il possible de cliquer sur opt-out ?

Pour ceux qui se préoccupent de renouveller la ville d’aujourd’hui en vue de demain, ça commence au tout début du processus : dans le cerveau des concepteurs, par une collecte qualitative issue du vrai terrain et une approche bottom-up, participative, du test & learn et -soyons fous- une implication directe des citoyens via des ateliers de co-création.
(remettons-en une couche, cria alors l’ethnologue : faites des observations in situ de vraies personnes pour bien calibrer les technologies à leurs utilisateurs… car ne pas le faire produira l’équivalent digital de la cité HLM : exclusion, paupérisation et déliquescence)

.

Nos existences vont donc changer effectivement mais, finalement, il est probable que l’espace public ne changera pas si radicalement.
Le thème de la ville du futur concerne moins les infrastructures que les interactions humaines avec ces infrastructures. Rome à l’époque de César ressemble beaucoup à la Rome de 2017, le système social par contre n’a plus rien à voir et il a même changé plein de fois. En 3017 il y a fort à parier que Rome ressemblera encore beaucoup à la Rome de 2017. Les espaces horizontaux serviront toujours à accueillir les activités et les parois serviront toujours à séparer les espaces horizontaux. Les façades auront toujours pour fonction de protéger de l’extérieur et les fenêtres à voir au-delà des parois.

Mais dans le système social qui se prépare, la smart city sera bavarde. Les bâtiments, les voies de circulation, les véhicules et les objets seront bavards. Certaines de ces choses inanimées auront sans doute même une relative capacité d’auto-régulation, mais les éléments-clés ne seront pas modifiés. Avec un peu de d’organisation, il sera même encore possible de se perdre en se promenant.

What are the political implications of these internet-data-automation stuff ? This is a VERY good question. Such a technical system would ease or make more difficult the birth of a dictatorship ?L’incompréhension fondamentale que nous devons éviter réside dans le fait qu’une ville est un tissu social avant d’être une plateforme technique. L’impact humain de la planification urbaine n’est pas seulement fiscal ou pratique.

.

Pour pousser l’argument encore plus loin, je l’ai déjà dit et je le dirai encore : le critère ultime d’évaluation d’une technologie est sa capacité à ne pas servir une tyrannie.
Le fondement de l’État de droit repose sur la séparation des pouvoirs : comment s’assure t-on que cela descend jusqu’au niveau des bases de données ? Si demain ce sont mes empreintes digitales qui servent de titre de transport, comment pourra-t’on garantir ma liberté de circulation sous le règne d’un gouvernement autoritaire ?

Pensez-y lorsque vous serez en charge de la conception d’un nouveau « quartier connecté ».

.

.

.

 

 

 

L’équipe projet, version 2 9 septembre 2016


La manière habituelle de fabriquer des produits s’avère de plus en plus un facteur limitant. Mais bien sûr en contrepoint, il n’y a pas de nouvelle manière bien établie et faisant l’objet d’un consensus… ce qui explique que le problème est rarement évoqué en public puisque personne n’a la réponse.
Souvent le sujet est effleuré lors de projets, par une interrogation sur la nature des compétences à rassembler pour mettre en place une configuration qui fonctionne, dans le contexte des usages actuels.   (sur ce sujet plus vaste, cf. l’article sur le SI Digital).
En guise de préambule, je voudrais développer ci-dessous cinq points qui me semblent pertinents.

1980-2014_evolution-of-the-desk

Source Best Reviews :        bestreviews.com/electronics#evolution-of-the-desk.

1. Les équipes sont transverses

Pour toutes les fois où une maîtrise d’ouvrage (MOA) et une maîtrise d’oeuvre (MOE) sont impliquées dans un projet (et pas uniquement en informatique), il faut aller voir sur le terrain pour constater que les échanges d’information sont multiples, intensifs et transverses (ha !).
La transversalité se situe à la croisée de trois domaines : Conception, Réalisation et Production.

Ces trois domaines concentrent toutes les compétences pour élucider les questions de design (conception), de faisabilité (réalisation) et de viabilité (production). Le point de blocage vient du fait que dans le processus habituel, ces éléments interviennent l’un après l’autre chronologiquement, et qu’une bonne part du temps passé sur un projet consiste à comprendre ce que les précédents intervenants ont voulu dire dans leur spécifications, pourquoi ils ont adopté tel choix technique et pourquoi ils n’ont pas anticipé telle ou telle procédure. Comme dit l’anecdote du cuisinier sur le Titanic : « Moi, ma vaisselle était propre… »

Composez une équipe projet afin que ces domaines Conception, Réalisation et Production soient abordés en même temps; et n’ayez pas peur d’y ajouter d’autres fonctions si nécessaire. Dans le domaine de la cyberdéfense par exemple, on compte pas moins de sept domaines de compétences minimum.

.

2. Les équipes sont à 100%

Une affectation sur un sujet, sur 100% du temps de travail. Il y a une littérature pléthorique qui prouve l’inefficacité du travail multitâches. Pour une organisation, affecter ses employés à des projets parallèles différents est aussi dangereux que conduire et envoyer un texto en même temps.

Vous devez cesser de croire qu’un ingénieur de tests pourra résoudre cinq anomalies PHP dans la journée et proposer des idées innovantes la même journée. Vous devez cesser de croire qu’un chef de projet peut gérer 5 projets simultanément. Vous devez cesser de croire qu’un designer peut se montrer créatif sur des solutions d’écrans web alors qu’il est affecté à quatre projets différents sur 25% de son temps.

.

Maintenir en bon fonctionnement un système d’information est difficile, mais réussir un projet qui implique des technologies de moins de 10 ans, pour des usages de moins de 5 ans tout en restant compatible avec le SI qui a parfois 30 ans est un tour de force lorsqu’on y est à plein temps.
N’espérez pas y parvenir avec les méthodes qui fonctionnaient bien (en moyenne) il y a quinze ans. Lorsque vos collaborateurs sont affectés à moins de 100% de leur temps à un projet… c’est presque comme si vous vouliez ne pas y arriver.

.

3. Les équipes mangent des données au petit-déj

Personne n’a besoin d’être un expert en données (sauf le data scientist :) ). Mais tout le monde a besoin de prendre en compte les nouvelles données qui donnent des informations sur le travail accompli en vue d’améliorer le travail à faire.  Les équipes (de MOE) n’en peuvent plus de brûler des calories en respectant une liste de fonctionnalités requises (par la MOA), alors que si tout le monde avait travaillé ensemble dès la phase d’études, on aurait pu gagner du temps… C’est la responsabilité du management de constituer des équipes qui rassemblent toutes les compétences dont le projet a besoin et nous commençons bien à comprendre que les procédures habituelles empêchent cette mise à disposition en sacralisant la frontière entre MOA et MOE.

Voilà un autre élément qui légitime le recours à la méthode UX et l’observation directe en itérations successives :

  • votre produit minimum viable (MVP) doit générer des données, sinon ça s’appelle un prototype
  • vous devrez arbitrer entre les aspects quantitatifs (le quoi) et les aspects qualitatifs (le pourquoi)
  • vous devez mesurer des résultats, pas des fichiers de logs de sortie

Vos équipes devraient pouvoir exprimer fortement leurs différents avis, l’encadrement hiérarchique devrait être modéré et chaque décision devrait être argumentée par des faits et des données.
Une équipe de projet aujourd’hui n’est plus responsable de fournir une liste de fonctionnalités mais de justifier comment elle améliore sa contribution aux résultats de l’organisation.

4. Les équipes servent l’utilisateur

La principale amélioration stratégique pour une organisation consiste à mieux connaître ses utilisateurs / clients / usagers et à se rassembler autour d’eux. C’est l’usage qui doit décider de l’organisation interne et non l’inverse. De cette manière, les équipes connaîtront le pourquoi et seront à même de proposer des solutions techniques pertinentes.

Vous devez arrêter de questionner les utilisateurs après leur avoir livré un produit : si vous devez le faire une seule fois, faites-le avant. Une organisation centrée utilisateur observe, questionne et mesure les usages tout le temps.

Les équipes projet dignes de ce nom sont branchées en direct aux (futurs) utilisateurs et sans se limiter aux œillères imposées par un projet particulier. Et je dis bien en direct : sans intermédiaire qui parle « au nom de ». Ce sont des membres de l’équipe qui vont au contact des utilisateurs et qui remontent ces informations de première main. Si vous avez une Direction de l’UX ou un équivalent, elle devrait être capable de fournir de l’intelligence qui mettra en perspective et réutilisera cette collecte directe. La connaissance client / utilisateur / usager ne cesse jamais elle mérite donc d’être portée par une direction autonome et permanente au sein de votre organisation.

C’est ainsi que pourra s’estomper l’épaisseur des forteresses MOA et MOE : à force de partage, de travail en commun et de construction d’une compréhension partagée (et argumentée) des utilisateurs.

5. Les équipes sont diverses et parfois rouges

Quelle est la représentativité de vos équipes en comparaison de la population totale ? La culture de vos employés se reflète et influence le produit final jusqu’à avoir un impact sur la manière dont il sera perçu, une fois livré sur le marché.

Pas besoin d’aller chercher très loin pour trouver des exemples réels dans le monde d’aujourd’hui, dans vos produits, vos services et ceux de tous les autres.

La seule bonne volonté ne suffit pas ici, car il y a par exemple des législation qui empêchent de recruter sur une base de choix culturelle, d’origine géographique ou même religieuse. C’est une excellente chose dans l’absolu bien sûr, mais cela produit un cercle vicieux qui empêche aussi de corriger un manque de représentativité et qui ne fait finalement que protéger un état de fait largement insatisfaisant. C’est un sérieux problème que les directions des Ressources Humaines devraient traiter sérieusement… mais en termes de management, l’absence de réponse RH immédiate n’empêche pas de mettre en place certaines règles claires :red-team_contrarian-anticipation_equipe-rouge_anticipation-contrarienne

  • Permettre un environnement protecteur qui permette l’expression des points vue, y compris (et surtout) divergents. Acceptez aussi une remise en cause par… l’avis des utilisateurs et la réalité de leur contexte tel que les designers UX auront pu le constater.
  • Sur les sujets les plus importants, mandatez trois personnes pour établir précisément (et à 100% du temps alloué !) comment le plan pourrait échouer. On appelle ça une « Équipe Rouge » dont je suis un ardent défenseur. En termes militaires une équipe rouge prend le point de vue de l’ennemi pour trouver les points faibles d’un plan -et c’est nettement mieux d’avoir fait ce travail avant l’exécution du plan…
  • Montrez l’exemple. Acceptez la critique mais n’acceptez que des critiques constructives puisque bien construire est l’objectif. Pas de critique ad hominem, bien entendu.

.

Il y a encore beaucoup à dire… mais en forme de conclusion, j’ajouterai que si tout cela vise bien à améliorer la qualité de ce que vous proposez -produit ou service-, c’est aussi un moyen pour parvenir à une autre fin : renforcer l’organisation elle-même en diminuant l’entropie, la dispersion dans des luttes intestines et l’éloignement progressif de ce qui devrait être la priorité de chacun : le service rendu à l’utilisateur.

.

.

.

 

Lectures du soir 2 septembre 2016


illustration092016

 

L’émergence du SI Digital 8 août 2016


Les équipes qui travaillent sur le domaine digital peuvent-elles fusionner avec l’informatique ‘classique’ qui reste -jusqu’à présent- le noble défenseur de tout l’édifice technologique.
Ou plutôt : cette fusion devrait-elle avoir lieu ?
Mieux encore : quand ces équipes finiront-elles par travailler ensemble sous la même bannière ?

.

Les entreprises qui cherchent à simplifier leur organisation sont inévitablement confrontées à ces questions mais ne cherchent pas toujours une réponse, faute de savoir réellement quoi faire du domaine ‘digital’ et faute de connaître son degré de compatibilité avec le domaine ‘systèmes d’information’ (SI).
Erreur par ignorance -ou excès de prudence-… ce type d’entreprise aura durant des années son équipe d’expérimentation digitale (ou son Lab) qui restera pendouiller à côté de la Direction Informatique, sans lien ni esquisse d’une discussion commune.

Le digital relève bien sûr techniquement du domaine informatique, tout comme le domaine SI, les équipes de direction pressées pourraient avoir tendance à fusionner SI et Digital.
Autre erreur par ignorance -ou excès de confiance-… car s’il y a bien une parenté technique, elle n’est pas toujours convergente et surtout, on est loin d’avoir un esprit de confrérie ou a minima une bonne volonté partagée.
20160218_NZDF_Q1032139_047.jpg.hashed.c7bd329a.desktop.story.inlineSI et Digital sont des cultures métier différentes et c’est ce qui mène la plupart du temps à l’échec des tentatives de fusion de ces équipes.
Et comprenez moi bien : lorsque je parle de ‘culture métier’ je ne parle pas de la couleur habituelle de leurs chemises mais de leurs manières de faire et d’envisager la technologie, au plus profond des compétences qu’ils mettent en œuvre dans leur travail.
Par exemple le SI est concentré sur la stabilité des systèmes et l’absence d’anomalie significative tandis que le Digital est orienté vers la variabilité des usages et l’amélioration progressive.
Mélangez ces différences culturelles, secouez un peu trop fort… et ça vous explosera au visage car vous aurez transformé des différences en incompatibilités.
Et croyez moi, vous ne voulez pas de tirs fratricides en plein milieu d’un projet.

.

Fort heureusement, la réalité est plus nuancée que cette grossière synthèse et laisse donc des possibilités d’avancer doucement vers un rapprochement du SI et du Digital.
Il y a fort à parier cependant que la convergence ne viendra d’aucun des deux, mais d’un élément extérieur, à commencer par la tendance à la conjonction inédite d’usages et de technologies qui élargissent nos possibilités d’interaction avec le monde. Cette tendance est puissante… bon gré mal gré, il faudra que SI et Digital entament des pourparlers diplomatiques car leurs deux domaines de compétences se révèlent avoir finalement une complémentarité précieuse.

Ce premier élément qui pousse au rapprochement peut servir de repoussoir jusqu’à la fin des temps (ou la faillite), ou bien, il peut servir de levier pour lancer un premier projet (et un chef de projet) qui offre assez de souplesse pour que chacun fasse un pas vers l’autre, par petites touches, pour se retrouver à faire preuve d’esprit d’équipe sans s’en être rendu compte. Pour ce projet en particulier, votre objectif sera d’abord de créer de la cohésion (et j’ai tendance à dire que c’est un objectif prioritaire tout le temps, d’ailleurs).

Comme l’écrivait Michel Cozier en 1979, « on ne change pas la société par décret »… et pas davantage vous ne parviendrez à rapprocher les équipes SI et digital par magie (ou en décrétant le rassemblement de tout le monde sous les ordres du même directeur à la prochaine réorganisation).
Les équipes du domaine digital ont assez de compétences pour se tourner vers les projets internes au fonctionnement de l’entreprise et non pas uniquement aux projets orientés vers les clients de l’extérieur. En parallèle, les équipes de l’informatique traditionnelle (le système ‘legacy’) savent très bien que le futur des réseaux réside dans les méthodes autres que le cycle en V, la rigidité du Coût-Délai-Qualité et le cloud, le big data et le design sexy.

.

Personne n’est dupe. Il y a des convergences… toute la question est de savoir de quelle manière l’entreprise va s’y frotter…

.

5015

.

.

.

.

.

.

 

Synthèse sur les wearables : le porté connecté 4 avril 2016


Dans le cadre d’une (petite) recherche je me suis récemment intéressé aux motivations individuelles à utiliser les vêtements connectés; en anglais dans le texte les connected wearables.

 .

Mais il y a un problème de dénomination.
Comme j’en parlais dans un article récent, le mot anglais digital est synonyme de numérique, les deux peuvent être utilisés pour désigner la même réalité. C’est simplement l’habitude qui nous fait préférer l’un des deux vocables.
Ce n’est pas vrai pour le domaine des vêtements connectés par rapport au terme anglais wearables, du verbe to wear : porter sur soi (et non pas emporter avec soi, comme un téléphone). Les wearables constituent donc la catégorie d’objets que l’on porte sur soi mais pas uniquement les vêtements. Ainsi, l’utilisation du mot français ‘vêtement’ connecté est beaucoup trop restrictive pour désigner la globalité d’une pratique anthropologique universelle. La réalité que l’on veut désigner en effet concerne les vêtements mais aussi les montres, les lunettes, les harnais de sécurité, les gilets de sauvetage, les sacs à dos, les bijoux, les casques de moto, les pagnes, les chapeaux, les gilets pare-balles, les combinaisons de surf, les étiquettes d’identification des nourrissons en maternité, les aides auditives, les piercings, etc.
Si le ‘wearable’ concernait uniquement les ‘vêtements’, jamais par exemple nous n’aurions connu le glorieux concours Wearables for Good lancé par l’UNICEF.
Je propose de traduire désormais connected wearables par l’expression porté connecté, qui représente mieux « ce qu’on porte sur soi » au sens large, ce qui inclue les vêtements, sans désigner uniquement cela.

 

Une première chose qui m’a frappé est l’évidente relation du porté connecté avec le concept plus vaste du Digital.

Le porté connecté est un sous-domaine des objets connectés qui sont tous rattachés à l’infrastructure de l’internet des objets (IoT); le Big Data quant à lui est la solution de stockage et d’analyse… et au final, ce sont tous les éléments qui constituent la technologie numérique qui finissent par entrer en écho les uns avec les autres. Techniquement donc, le périmètre du porté connecté c’est le Digital.

 

 

Une seconde chose frappante est le sentiment diffus qu’il existe beaucoup de solutions techniques qui ne répondent à aucun problème… ce qui se traduit d’abord par un décalage entre l’argumentaire des vendeurs de porté connecté et la motivation à utiliser ces mêmes objets. Pour les premiers généralement, l’intérêt du produit réside dans l’étendue de ses capacités techniques… la plupart du temps extrêmement pauvre car limité à la mesure de certaines fonctions corporelles.

Mais les préoccupations des utilisateurs relèvent d’un autre ordre. Pour les objets connectés par exemple il s’agit avant tout d’économiser de l’argent (le compteur électrique). Pour la sous-catégorie des wearables cependant, les utilisateurs ne cherchent pas à s’équiper d’un système technique, mais à atteindre une série d’objectifs personnels relativement précis qui peuvent se résumer ainsi :

Motivations à l’usage du porté connecté :
Économiser de l’argent (pour uniquement les objets connectés et non le porté connecté)
Avoir l’esprit tranquille
Être à deux (plusieurs) endroits en même temps
Améliorer sa sécurité physique / son bien être

Pour ces quatre motivations d’utilisation on trouvera à chaque fois l’idée sous-jacente d’être prévenu avant l’atteinte d’un certain seuil. Ce seuil sera le plus souvent un nombre… reste à définir ce qu’il quantifie et par rapport à quoi : une somme d’argent, une distance, une probabilité, un temps écoulé, un taux de monoxyde de carbone, une densité, une vitre brisée, un nombre de pulsations cardiaques, un temps d’immobilité, le ping d’un autre objet connecté, etc.

iot_objets-connectés_objets-enchantes

Mais la possibilité même de définir un seuil suppose d’avoir une base de référence pour savoir quoi mesurer. L’importance de bien définir ce que l’utilisateur attend vraiment s’avère cruciale pour établir un seuil qui déclenchera les actions utiles. Du point de vue de l’utilisateur, c’est bien là que réside l’intérêt d’un vêtement connecté ou l’articulation de plusieurs objets entre eux :

il s’agit de répondre à la question « A quoi ça me sert ? » davantage que « Qu’est-ce que ça fait ? »

En plus de devoir définir une problématique pertinente pour définir le périmètre des données à mesurer, il faut aussi se demander comment on va le faire en termes de système technique, ce qui permet d’évoquer les composants techniques d’un vêtement connecté, en termes de software et de hardware :

Exigences d’architecture :
Collecte de données
Transmission de données
Analyse, traitement de données
Restitution des données après leur traitement

L’exigence technique de restitution de données nous amène quant à elle sur les domaines de la data vizualisation et du design front-end. Il faudra bien sûr prendre en compte le contexte d’usage, car on ne présentera pas de l’information sous forme de texte à une personne en mouvement, ni sous forme sonore à quelqu’un qui évolue dans un environnement bruyant (c’est bien le minimum qu’on vous demande : connaissez vos utilisateurs !). Pour faire court, ici, les 5 sens sont  potentiellement des vecteurs d’information. A noter que dans bien des cas on peut envisager le téléphone mobile de l’utilisateur comme unité de traitement et de restitution des données.
La question se pose aussi de demander ou non à l’utilisateur une interaction pour obtenir l’information qu’il attend. objet-connectes-wearables_bijou-joaillerie_usages_objets enchantésCela crée une bifurcation majeure dans le design : en effet, en ne demandant pas d’action particulière à l’utilisateur on ouvre la voie à une catégorie d’objets bien particulière dont j’ai déjà parlé ailleurs : les objets enchantés… qui constitueront j’en suis persuadé la catégorie premium de l’internet des objets.

.

En plus des critères mentionnés ci-dessus, j’ajouterais que le potentiel de développement pour l’ensemble du domaine du porté connecté (et donc de l’internet des objets) tient dans notre capacité à créer des produits qui répondent à une triple exigence :

Tendances technologiques :
Miniaturisation
Bas coût
Faible consommation d’énergie

Ces trois éléments permettront de prendre en compte de mieux en mieux les besoins fonctionnels des utilisateurs. Plus la taille des capteurs, leur coût et leur consommation d’énergie diminueront, plus on pourra envisager une inspiration et des spin-off technologiques issus du monde médical, à commencer par le patch connecté jetable comme le BioStamp de la société MC10.
Mais pour les fabricants, il faudra un effort d’imagination pour sortir des applications restreintes au seul suivi d’activité physique et au quantified self. Pour s’ouvrir à d’autres fonctionnalités et élargir le champ des usages, il faudra s’inspirer de la vie quotidienne réelle des personnes réelles pour trouver une inspiration autrement plus vaste, dont les applications seront transposées dans du porté connecté qui ne s’affiche pas comme tel. Car soyons honnêtes, à part dans un cadre professionnel, personne ne veut ressembler à un pervers équipé de Google Glass… la problématique est la même ici que pour les voitures électriques : elles exploseront leurs ventes lorsque leur spécificité sera fondue dans une apparence normale (pour y parvenir, encore une bonne raison de recruter des ethnologues !).

En se laissant aspirer par les objets habituels de la mode et de la bijouterie-joaillerie, le porté connecté gagnera en acceptabilité sociale car il signifiera quelque chose, en termes collectifs, à commencer par un habillage statutaire. Car c’est une chose de porter un bracelet FitBit, mais en termes sociaux il n’existe aucune référence pour faire ‘résonner’ le sujet ou pour se distinguer grâce à ce type d’objet. Il en ira autrement lorsque les fonctionnalités et le siglage auront du sens pour ceux qui sont autour et qui attribuent une symbolique à l’objet… exactement comme on attribue un statut différent à un pantalon Levi’s, Carhartt ou Azzaro. Tout le monde se fiche bien de connaître la composition du tissu en 90% coton et 10% élasthanne ou avec 3 circuits imprimés dans le col.

 

Enfin, en opposition totale avec l’argumentaire des vendeurs, il faut bien admettre que la propagation de la connectivité au monde des objets (vêtements inclus, donc) représente un risque majeur de sécurité, du fait de la menace d’un piratage ou plus prosaïquement d’une interruption accidentelle de la connexion. Les Américains par exemple développent leurs systèmes en se basant sur l’hypothèse d’une liaison permanente, ce qui me paraît hautement optimiste car de fait, le risque d’une perte de liaison n’est pas pris en compte… il y à là une porte grande ouverte pour faire les frais de la Loi de Murphy quelque soit le niveau de sécurité que vous prétendez avoir.

Les exemples ne manquent pas, déjà aujourd’hui alors même que les applications de masse sont tout juste émergentes. Ce risque s’applique parce qu‘il y a une connexion et tout ce qui est connecté est donc à la même enseigne : tee-shirt, voiture, sac à main Vuitton, téléphone, détecteur d’intérieur, chemise, système d’alarme, pince à cravate, moniteur de rythme cardiaque, tableau de contrôle d’une centrale nucléaire ou d’un Airbus, broche Swarovski, etc.

Je suggèrerais donc au ingénieurs, designers et fabricants d’opter pour des objets connectés utiles même hors connexion et avec la déconnexion manuelle comme fonction à part entière.

Critères fonctionnels :
Intégration
Personnalisation
Adaptatif
Anticipatif
Déconnectable

Car ce sont bien les usages et non les critères techniques qui permettent d’énoncer les fonctions du produit dans le vocabulaire de l’utilisateur et en vue de répondre à la seule question qui le préoccupe : A quoi ça me sert ?

Or comme on vient de le voir, il s’avèrera sans doute nécessaire et utile, à diverses occasions, d’utiliser un objet connecté sans sa connexion. C’est à ce moment là que votre réflexion sur le sujet pourra faire l’ultime différence entre un objet qui reste utile même déconnecté -ne serait-ce qu’en style- et un machin aussi fonctionnel qu’un caillou.

.

wearables_anonymous_discreet_casual-look-for-the-office

.

 

.

.

.

 

Le vol agaçant du moustique 23 février 2016


« Les insectes piquent, non par méchanceté, mais parce qu’eux aussi veulent vivre. » 
Friedrich Nietzsche : Opinions et sentences mêlées   § 164.


.
En ce début d’année 2016, l’Amérique du sud est frappée d’un fléau qui semble sorti de nulle part -ce qui favorise en épiphénomène toutes sortes de théories complotistes. La menace est à peine mortelle, elle est à peine visible mais elle ressemble pourtant à un symptôme planétaire, au même titre que l’assèchement des cimes du Kilimandjaro ou l’augmentation des épisodes météo extrêmes.

Quelques mois après la conférence environnementale COP 21, je suis surpris de voir combien peu de personnes font le lien entre les deux sujets : l’émergence du virus Zika et le réchauffement climatique mondial.
Sous l’effet du réchauffement climatique, la littérature scientifique a pourtant bien montré comment les moustiques (et les insectes en général) passent moins de temps à l’état larvaire, atteignent plus vite l’âge adulte et ont donc plus de temps pour élargir leur rayon d’action. Ils peuvent ainsi se répandre plus loin, jusqu’à atteindre les lieux densément peuplés qui regorgent de recoins humides propices à leur épanouissement et à leur reproduction… ce qui permet de reproduire le cycle.220px-Aedes_aegypti_during_blood_meal
Il faut ajouter que l’élévation des températures modifie les zones favorables à l’épanouissement de ces bestioles, ce qui les pousse à modifier leur zones d’implantation, la plupart du temps en les investissant de façon permanente. La répartition de la dengue véhiculée par les mêmes types de moustiques correspond à l’isotherme des 42,2 degrés, une température moyenne que l’on va retrouver à court terme dans d’autres et davantage d’endroits qu’aujourd’hui.
Sur ce sujet, voir : Epstein, P.R. et al. (1998). Biological and physical signs of climate change: focus on mosquito-borne diseases. Bull. Am. Meteorol. Soc.79, 409–417

Le danger sanitaire de Zika concerne en premier lieu les bébés in utero, pour qui le risque de naître avec un handicap mental lourd est réel. Pour l’année 2015 le Brésil a officiellement déclaré 4.180 cas de ces microcéphalies congénitales, contre 147 en 2014, avec une estimation de 1.500.000 cas de personnes ayant contracté la maladie sans gravité (hormis les fœtus, seuls 18% des personnes infectées subissent des symptômes, la plupart du temps bénins).  L’émergence rapide de cas de microcéphalie dans toute la région puis dans d’autres régions du monde a mené l’Organisation Mondiale de la Santé à déclencher début 2016 le processus « urgence de santé publique de portée internationale ». Si des cas ont été rapportés ailleurs dans le monde rapidement après cette alerte, il faudra attendre l’été dans l’hémisphère nord pour comprendre l’ampleur (ou pas) du phénomène. A ce stade, les pays concernés se préoccupent de protéger leur industrie du tourisme davantage que remettre en cause leurs lois anti-avortement ou les pratiques contraceptives (modification culturelle qui ferait date, étant donné la religiosité de l’Amérique du Sud).

.

Inutile de refaire un inventaire des données prouvant l’influence humaine sur le climat    -à ce stade si vous n’êtes pas convaincu vous faites sans doute partie des réfractaires à la science qui remettent aussi en cause le bien fondé des vaccins et/ou militent pour l’exploitation pétrolière en arctique et antarctique.
Pour ceux qui n’en doutent pas (de l’influence humaine sur le climat) il reste néanmoins une discussion sous-jacente : l’influence humaine sur le climat est-elle vraiment négative ? Après tout, qu’il y ait une origine anthropique au réchauffement de l’atmosphère est une chose, mais que les conséquences soient négatives pourraient en être une autre.

Cet argument est nul et irrecevable. Il rejoint le discours des sceptiques au moment où on leur prouve la réalité du réchauffement climatique. Ils encaissent la chose et poursuivent néanmoins dans leur aveuglement et affirmant que, bon, même si ça existe, ça n’est pas grave.
L’émergence du virus Zika pourrait être l’un des phénomènes qui nous fera comprendre -à nous tous- que d’une part les effets d’une planète plus chaude sont réels et d’autre part qu’ils sont une menace.

 

Nous savons depuis belle lurette que le cycle de vie de la plupart des organismes est influencé par les températures et les précipitations. Mais depuis des années de collecte intensive de données, les chercheurs ont pu affiner leurs analyses et leurs conclusions, qui peuvent être synthétisées en quatre grandes catégories :


– la physiologie interne : Les modifications du taux de gaz carbonique dans l’air, de la température et des précipitations affectent le métabolisme et le développement de la faune; la photosynthèse, la respiration, la croissance et la composition des tissus de la flore… c’est à dire que tout le vivant est concerné qu’il vive en l’air, sur terre ou dans l’eau, sous forme animale ou végétale, visible ou non visible à l’œil nu.
– la distribution spatiale : les changements de ‘zone de vie’ correspondent à l’évolution des températures moyennes représentées par les isothermes. En conséquence les espèces migrent vers les latitudes plus élevées en suivant le mouvement de leur température ambiante idéale. On sait par exemple que 63% des papillons en Europe ont déjà déplacé leur zone d’habitat vers le Nord ce qui a un effet sur leur régime alimentaire, sur la pollinisation et sur la chaîne alimentaire dont ils faisaient jusque-là partie plus au sud (voir : Parmesan, C. et al. (1999). Polewards shifts in geographic ranges of butterfly species associated with regional warming. Nature 399, 579–583). La  modification de la distribution des essences de plantes et d’arbres  est également observable et prévisible en fonction d’une équation simple : 1°C d’augmentation de la température moyenne = déplacement des essences de 180km vers le nord. Des modifications identiques s’observent chez les espèces marines notamment pour les espèces d’eau froides qui ne peuvent migrer nulle part car toute l’eau devient plus chaude, partout.
(voir : Holbrook, S.J. et al. (1997). Changes in an assemblage of temperate reef fishes associated with a climate shift. Ecol. Appl. 7, 1299–1310)
– la saisonnalité du mode de vie : les modifications de l’environnement immédiat trop rapides amènent des espèces (flore et faune) à vivre sur le même territoire sans pouvoir établir un équilibre préalable et progressif, par exemple par rapport aux ressources alimentaires disponibles.
– et les capacités adaptatives : des espèces animales ou végétales à très courte durée de vie n’auront pas le temps de migrer en suivant la remontée vers le pôle (Nord ou Sud) de leur isotherme le plus favorable. Restant sur-place, elles vont subir des évolutions brutales pour s’adapter à leur nouvel écosystème -et soit y parviendront avec de nouvelles caractéristiques génétiques, soit… non. Potentiellement, cela signifie des disparitions d’espèces mais aussi l’apparition de nouvelles, mieux adaptées et pas nécessairement super gentilles.

.

Pour le moustique, le réchauffement climatique semble favorable, c’est le moins qu’on puisse dire… en particulier pour le genre Aedes dont on connaît 85 espèces.
Pour remettre le sujet en perspective, souvenons-nous que depuis la fin du dernier âge glaciaire si l’être humain n’a pas réussi à s’implanter massivement au plus profond des forêts tropicales d’Afrique, d’Amérique ou d’Asie, ce n’est pas à cause de la chaleur ou de l’humidité, c’est à cause des moustiques et des maladies qu’ils transmettent.
Environ 500.000 personnes meurent chaque année de la malaria transmise uniquement par la moitié femelle d’un seul genre de moustique et … et cela sous des conditions climatiques considérées comme ‘moyennes’. L’île de Corse en a été débarrassée seulement en 1973 et encore, à grands coups du polluant organique persistant appelé DDT.
Concernant la propagation de Zika, à partir de quelle température moyenne en Europe verra-t’on se multiplier les cas de microencéphalie congénitale chez les nouveaux-nés ? A partir de quand le réchauffement climatique permettra au moustique de ne plus se mettre à hiberner en hiver et donc à avoir un cycle de reproduction permanent dans les zones dites tempérées ?


Si la lutte contre les conséquences du réchauffement climatique semble relever habituellement de l’ingénierie et de l’aménagement public, les solutions proposées jusqu’ici pour stopper ou atténuer les maladies propagées par les moustiques soulèvent davantage de problèmes qu’elles semblent en résoudre, qu’il s’agisse de recherche génétique ou d’éradication chimique.
Et qui garantit que si l’on éradiquait le moustique comme vecteur, une autre espèce ne prendrait pas sa place de façon encore plus efficace ? La nature a horreur du vide, comme disait Aristote… et à ce niveau de débat, pour évoquer un génocide animal, le dicton devrait sonner à nos oreilles comme un avertissement.
Car bien sûr en termes de stratégie, si la menace est un virus, pourquoi s’attaquer à son messager ?

Si on admet donc que l’augmentation des vagues de chaleur ou des ouragans extratropicaux sont des conséquences du réchauffement climatique, peut-on considérer que l’épidémie de Zika, elle aussi, est d’origine humaine ?

 

 .

.

.

 

Les connexions empathiques 2 février 2016


 

Deux des producteurs de la série Sense8 ont aussi fait Matrix et Cloud Atlas : Lana et Andy Wachowski, excusez du peu. Compte tenu de leur maîtrise cinématographique, on pourra d’ailleurs se demander pourquoi les Wachowski sont allés mettre de l’argent dans une série télévisée, qui n’est pas un genre créatif particulièrement estimé. Mais à bien y réfléchir, quand on voit la stérilisation progressive des productions de cinéma, il faut peut-être accepter l’idée qu’aujourd’hui c’est dans le format de la série que l’on peut trouver la liberté de ton, la créativité et la qualité presque littéraire.

D’ailleurs dans ces trois domaines, toutes sortes de choses étranges se produisent au cours de la série Sense8, à commencer par demander un effort au spectateur pour dépasser les trois premiers sense8-characters-_empathie_empathy_wachowskisépisodes, tant ils paraissent confus et lents.
Quelle est la dernière production culturelle qui vous ait demandé de faire un effort ?
Les personnages de la série sont des humains parmi d’autres -ou presque-. Ils ne sont pas auréolés de lumière divine ni dotés d’une technologie toute puissante. Ils sont faibles, vulnérables et sûrement pas supérieurement intelligents… et le démarrage poussif des trois premiers épisodes le montre bien : les personnages eux-mêmes ne comprennent rien à ce qui leur arrive… c’est un pari risqué de mise en scène car ça a dû couter beaucoup de spectateurs potentiels, qui sont partis non pas avant la fin mais avant le début de l’intrigue.

Les spectateurs les plus rigoristes seront aussi exaspérés par le libéralisme moral qui domine l’état d’esprit des protagonistes.
Mais la série Sense8 n’est pas faite pour les esprits fermés.
Le cœur du sujet est même exactement l’inverse : Sense8 nous parle de transhumanisme   –l’idée que dans le futur l’espèce humaine pourrait devenir davantage que ce qu’elle est aujourd’hui sous le nom d’homo sapiens-sapiens. Mais le transhumanisme de Sense8 ne se fait pas à coups de prothèses technologiques ni de modifications du génome par des biopunks en laboratoire plus ou moins stérile. Pour une série classée dans le genre science-fiction, on pourra bien s’en étonner : ça ne parle pas de technologie ou, du moins, la technologie n’est pas l’élément le plus important.

.

L’élément le plus important ce sont les gens et les relations qu’ils entretiennent. Leurs émotions, leur empathie et la complémentarité de leurs compétences   -cette même complémentarité qui souligne l’idée du tout, meilleur que l’addition des parties.

Et contrairement aux récits catastrophistes habituels sur l’émergence d’un nouvel être humain amélioré, le transhumanisme ne semble plus si suspect avec Sense8. La force des protagonistes est de pouvoir établir une connexion émotionnelle. C’est leur capacité à ressentir l’émotion d’autrui qui les fait passer au stade ultérieur de l’évolution d’homo sapiens. Bien sûr, nous sommes à la télé… tout n’est donc pas particulièrement subtil… mais les réalisateurs parviennent à faire passer le message : le moyen pour rendre l’être humain meilleur nous l’avons déjà. C’est l’empathie… et c’est en totale opposition avec les préjugés largement répandus sur le comportement humain, qui serait d’abord motivé par l’intérêt personnel, la soif de pouvoir et la maximisation du profit. sense8_empathie_empathy_wachowskis
Les économistes savent de quoi je parle, c’est eux qui ont inventé ce postulat de l’homo economicus.

.

Les auteurs de science-fiction ne sont pas censés aborder ce genre de sujets, encore moins s’ils ont réalisé la trilogie Matrix. Où sont donc les vaisseaux spatiaux, les robots et les concepts révolutionnaires ?! Où sont les superpouvoirs des X-men ? Où est HAL de 2001 : l’odyssée de l’espace ? Où est le voyage temporel d’Interstellar ? Où est le robot qui rêve et ressent de émotions de i, robot ? Rien de tout cela n’a d’importance si les êtres humains ne font pas preuve d’empathie les uns envers les autres, nous répondent les Wachowski. Leur point de vue se défend bien et ça semble même sexy, enrichissant et concrètement utile.

.

Les récits de science-fiction souffrent généralement de deux faiblesses : le futur est compliqué (pas complexe, mais compliqué), déprimant et ennuyeux ; et son esthétique est théâtrale : soit néofasciste, soit anarcho-biotechnologique. Le message implicite est que l’avenir de l’humanité est inséparable de la souffrance. Les acteurs de Matrix ont l’air très cool dans leurs vestes de cuir et leurs lunettes de soleil, oui –mais ce sont les robots qui ont vaincu ce crétin d’homo sapiens. Le paradoxe ressemble à un sarcasme visuel.

En poursuivant leur analyse dans Sense8, ceux-là mêmes qui ont fait Matrix suivent une bifurcation plus prometteuse. Ils explorent la piste déjà partiellement parcourue par James Cameron dans Avatar : l’être humain devient meilleur s’il peut voir le monde avec les yeux d’autrui. Et les Wachowski jubilent en supprimant même l’intermédiaire technique : Sense8 est plein de joie parce qu’on y voit des individus qui deviennent meilleurs grâce aux autres, sans l’amertume habituelle de la décadence futuriste ou la prédestination du superhéros.

.

Sense8 est donc d’abord une question posée aux auteurs de science-fiction en particulier et à tout les autres en général : faisons-nous une erreur en croyant que c’est le développement technologique qui permet l’amélioration de notre monde ? -question que l’on pourrait inscrire chaque année au fronton du Consumer Electronics Show (le CES de Las Vegas)… ou de n’importe quelle Exposition Universelle depuis 1851-   Car s’ils ne servent pas à cela, à quoi servent donc la pointe de flèche en silex, le Big Data, l’industrie logicielle, les énergies propres, les nanotechnologies, la réalité virtuelle,  l’Internet des Objets, les biotechnologies, le digital, la voiture autonome, les drones, et tous les autres ?

A sa manière souriante et humble mais pas moins déterminée, la série suggère une réponse alternative pour améliorer l’être humain : augmenter la compréhension qu’on a des autres, en utilisant l’émotion comme connecteur principal.

.
.
.
.

 

Le début de quelque chose de nouveau 5 janvier 2016


1_Gwyhr-HRQsnzhmUbXfopFQA la suite de mon article sur le digital, plusieurs pistes de réflexion se sont ouvertes qui ne sont pas sans lien avec l’organisation et l’innovation, à la fois en termes de méthodes et de compétences.
En voici une synthèse que je livre à votre sagacité… tous vos commentaires, retours d’expérience et ajouts sont les bienvenus !

.

    1. Soyez amis avec de bons designers et graphistes. Je parle ici d’UI et non pas d’UX : les personnes qui conçoivent les interfaces et rendent les données visibles, conviviales et compréhensibles. Il y a un gouffre de compétences entre un designer UI et un développeur informatique. Associez-vous à des profils de designers front end qui connaissent la data visualization et capables de dessiner un prototype d’écran sur un coin de nappe de restaurant, en écoutant l’utilisateur qui parle de son activité quotidienne. Les compétences en logiciel de graphisme sont importantes, mais pas moins que l’intuition et la capacité à corriger ses créations en fonction des remarques que renvoient les premiers concernés. Inversement, laissez-le graphiste et les développeurs parler ensemble, afin que le produit fini intègre la machinerie back end et l’interface front end de façon la plus intelligente possible.
    2. Pensez à ce que vous aller faire des données. Avez-vous un réel besoin de toutes ces données que vous collectez ? La tendance du Big Data peut laisser croire que la collecte est nécessaire et que le stockage a des coûts exorbitants l’est aussi… mais en avez vous besoin ? Quel usage pouvez-vous faire des données ? Devriez-vous utiliser du big data moissonné sur le web, ou récolté en interne comme par exemple vos données financières, comptables, ou de production ? Là est la vraie question. Ce n’est pas parce que tout le monde parle du Big Data que tout le monde doit faire comme Facebook.
    3. Trouvez un équilibre pour que les options que vous proposez n’entravent pas l’expérience des utilisateurs. Pensez à observer vos clients en direct (et non pas seulement leur poser des questions)… ce qui implique de vous aventurer sur la voie d’une UX bien faite. Là où on se rend compte qu’il y a de grosses différences entre les actes et les discours.
    4. Ce que les développeurs adorent, c’est l’open source. La plateforme Github permet de se familiariser avec les techniques, de collaborer avec une douzaine de millions d’autres professionnels, de trouver des API’s et de faire tester les vôtres. Vous êtes dans le métier du code, alors bon sang, faites-en du bon ! Vous devriez même offrir publiquement des récompenses à ceux qui vous signalent des failles de sécurité -et rien de tel que la communauté open source pour cela.
    5. L’internet n’existerait pas sans une infrastructure matérielle. Le logiciel est un bonus, mais il est à peine nécessaire pour que l’internet fonctionne. Faites-vous une bonne idée de la manière dont fonctionne le réseau physique, la manière dont les outils sont connectés en termes de câblage, fréquences, déperdition de données, composants d’interconnexion. Avec l’internet des objets, ce sera une compétence précieuse dans très peu de temps, vers un avenir fait d’objets interconnectés ou d’objets ayant leur propre fonction ‘stand alone‘ : le objets enchantés (voir mon post précédent sur le digital).
    6. En corrélation directe avec le point ci-dessus, plus le temps passe et plus il y aura de plateformes techniques. Potentiellement, 1 objet connecté = 1 plateforme. L’échantillon des systèmes d’exploitation aujourd’hui existants ne va faire que s’agrandir : Windows, Windows Mobile, Android, Android Wear, Mac OS, iOS, Apple Watch, Tizen, etc. pour faire fonctionner des PC, Mac, mobile, tablette, tableau de bord de voiture, montre, écran fixe, drone, imprimante 3D, tondeuse à gazon automatique, etc.  Ne vous privez pas d’essayer de nombreux outils de développement multi plateformes pour pouvoir écrire du code une fois et le réutiliser sur n’importe quelle plateforme. Essayez-en plein et conservez ceux qui vous sont vraiment utiles.
    7. Les développeurs mobiles d’aujourd’hui seront les développeurs Internet des Objets de demain. L’expérience de l’utilisateur, un usage minimal de la bande passante, la personnalisation sont (et seront) des qualités critiques pour le code informatique, pour l’ergonomie et pour le design global de l’expérience de bout en bout. Il y aura de plus en plus d’objets comme le bouton rouge de Darty (« appuyez et on vous rappelle ! ») et sur ce principe, tout ce sur quoi on peut installer une API devient de facto une plateforme de développement : voiture, aspirateur automatique, ordinateur portable, tee-shirt, etc.
    8. L’avenir est une question qui attend d’être posée. Il y aura davantage de plateformes et tout sera interconnecté. Pour les professionnels du code, attendez-vous à des innovations dans le domaine de l’écriture de code, par interface vocale par exemple et d’une façon générale par autre chose qu’un clavier, un écran et des connaissances en langage objet ou machine. Avec l’essor du code en langage naturel, c’est la machine qui traduira vos instructions. Il n’est pas impossible que dans un temps pas trop éloigné, les développeurs informatiques connaissent la même obsolescence que les développeurs photo argentique à la fin du XXe siècle. Laissez donc vos développeurs explorer, essayer, parler… et demandez-leur des notes de synthèse sur les sujets porteurs. Rémunérez-les pour poser les questions d’avenir.
    9. Les applis destinées à un usage international doivent prendre en compte la bande passante. Les applis qui fonctionnent bien en Corée du Sud, ne fonctionneront plus si bien aux Etats-Unis ou à Singapour. Comme je disais en 7), prenez en compte un usage minimal de bande passante, dès les premières ébauches en phase de conception. L’élégance du code, c’est aussi de consommer peu.

.

android-voice-figure-1

Entrer une légende

Mobile developpers will become internet of things developpers, merging software with hardware skills, up to the reign of ‘enchanted objects’. Interface designers will be the first recruited at the launch of a new project.
Code will be tested simultaneously and run on multiple platforms… and code will be « written » in new ways (Vocal Coder, Siri ?).   That’s the beginning of something new.

 

.
.
.

 

Qu’est-ce que le ‘digital’, au fait ? 28 décembre 2015


Que vous soyez un sceptique des technologies, un enthousiaste du marketing ou un spectateur amusé, vous n’avez pas pu échapper à l’envolée du « Digital ».
Précisons d’abord qu’en parlant de digital, on parle du terme anglais dont l’étymologie renvoie aux digits : les nombres.
Les 0 et les 1 de l’information numérisée. En langue française correcte, nous devrions parler de numérique et non de digital, mais les choses sont ainsi faites : la fracture digitale aujourd’hui ne concerne pas une fracture des doigts, pas plus que la créativité digitale ne concerne l’habileté à faire de la poterie.

.

digital-society_screen-UXTout le monde doit avoir fait sa transformation digitale, définir sa stratégie digitale en suivant un agenda digital pour pouvoir s’adresser aux digital natives et aux digital passives.
Et les pauvres anciens spécialistes du domaine SI regardent par-dessus leur épaule l’ombre grandissante du Directeur Digital dans sa mission pour effacer le souvenir de tous les Directeurs de Système d’Information qui l’ont précédé.

La plus grande entreprise de taxi dans le monde s’appelle Uber et ne possède aucun véhicule pour assurer sa mission mais des applications pour smartphone. Les commentateurs se sont empressés de souligner l’émergence de telles entreprises en hurlant très fort qu’elles allaient siphonner la clientèle des entreprises « traditionnelles » qui n’ont pas développé de stratégie digitale. Même chose pour les opérateurs télécoms, les banques (ah ! les FinTech !) et… la totalité de tous les secteurs de toute l’économie et des services publics et la vie personnelle de tous les gens. La « disruption » qu’ils appellent ça, que l’on pourrait traduire par Le Grand Chambardement Qui Fait Peur.
 Et donc, -brûlez-vous d’ajouter- quelle différence ça fait dans mon business et pour mon métier à moi ?
Pour comprendre en quoi (et à quel point) vous allez être concerné il est nécessaire de percer la couche de gras marketing pour entrer dans le vif du sujet… ce qui est bien l’objet de ce post.

.

L’expansion croissante de l’internet et l’unification des protocoles de communication font que notre interface avec le monde passe -et passera de plus en plus- par les technologies de l’information. Si vous n’êtes pas en position de socialisation directe pour parler à quelqu’un, vous allez vous tourner d’une manière ou d’une autre vers de l’information au format numérique, aussi bien sous la forme d’un écran, d’un son ou d’une aide apportée par un dispositif du monde réel relié au Réseau des réseaux. Pour des usages toujours plus nombreux, nous utiliserons des technologies qui ont aujourd’hui une marge de progression incalculable -pour le meilleur et aussi le pire.
Mais sans attendre le pire, nous passerons à cette ère de l’internet omniprésent, parce que les possibilités utiles seront disponibles et pertinentes pour la vie que nous voulons mener.

Voilà, nous avons un début de définition. Le ‘digital’ est la conjonction inédite d’usages et de technologies qui élargissent nos possibilités d’interaction avec le monde.

.

Le premier élément clé du digital est donc qu’il recouvre effectivement les aspects habituels du travail sur les systèmes d’information (SI) mais en plus, il faut y ajouter la composante matérielle des technologies de l’information (IT).
FPGA-mobile-iotLa notion de digital renvoie chacun à son cœur de métier : dans mon métier de maintenance industrielle, quels usages d’information me seraient utiles ? Et dans mon métier de comptable ? Et dans mon métier de consultant ? Et dans mon métier de nourrice; chauffeur de bus; installateur d’éoliennes; plombier, etc. Le digital renvoie chacun à son cœur de métier car il s’agit de se poser la question des usages de l’information dans ce métier. Et le client là-dedans est un aspect important du digital, mais pas le plus important. Les employés et leurs outils ont longtemps été le parent pauvre en termes de qualité et il est temps que ça cesse, car c’est la qualité des outils qui permet en grande partie d’innover… et au final d’améliorer le service rendu au client -qui n’est que l’un des bouts de la chaîne de valeur.

Si le monde est en effet plein de digital, il est cependant superflu d’avoir une stratégie digitale, tout comme il est superflu d’avoir un Directeur Digital. Ce dont une entreprise a besoin -comme toujours- c’est d’une stratégie cohérente qui embrasse aussi le domaine du digital.  De ce point de vue, l’invention du grade de Directeur Digital fut sans doute une mauvaise idée car s’il y a bien une chose que l’on sait aujourd’hui, c’est que le digital est transverse par nature. Il ne s’agit pas d’imposer cette notion à tous les corps de métier via la ligne hiérarchique, au contraire, il s’agit de faire émerger des projets d’innovation digitale en provenance des métiers. Si le Directeur Digital peut exister, ce serait au mieux comme coordinateur et fédérateur d’initiatives et de besoins opérationnels.

On aurait pu croire à un déclin des machines face au discours commercial qui nous promettait que tout finirait bientôt dématérialisé et « dans les nuages » : Cloud computing, SaaS et autres SOA. Mais contrairement à la légende du tout-logiciel, les outils reviennent dans le débat sous la forme d’écrans de diverses tailles (l’affichage web ‘liquide’), de connecteurs de machine à machine (l’Internet des Objets), de composants FPGA (l’électronique reprogrammable), de réseaux de machines en architecture HDFS (le Big Data), les imprimantes 3D, la Réalité Augmentée, etc.
Toutefois, il ne s’agit pas de s’intéresser aux moindres caractéristiques techniques des machines, mais d’identifier les possibilités de faire transiter de l’information de l’une à l’autre. De SI à IT : ce changement d’un simple mot élargit d’un coup le champ d’application des traditionnels SI et c’est cela qui est nouveau. En poursuivant cette réflexion, on peut imaginer se passer même des écrans dans la mesure où l’information sera insérée dans l’objet. Cela aboutit nécessairement à la notion développée par David L. Rose : les objets enchantés (enchanted objects). Le champ des possibles nous fait alors sortir du monde des écrans et sur des possibilités tellement inédites que je suis curieux de voir dans combien de temps « digital » sera remplacé par l’expression « web 3.0 ».
Oh no, it's not !C’est cela qui permettra bientôt à votre tee-shirt d’alerter le SAMU s’il détecte un infarctus; c’est cela qui permet de gérer la température de votre chambre à coucher depuis votre téléphone mobile alors que vous êtes dans le train; c’est cela qui permet d’avoir en transparence sur ses lunettes le circuit électrique de l’Airbus dont vous assurez la maintenance et… c’est aussi cela qui permettra de vous identifier nominativement parce que votre visage aura été filmé dans la rue et reconnu par le logiciel de reconnaissance faciale du système TAJ.
(si Facebook est capable de le faire pour vous afficher de la pub, pourquoi le Ministère de l’Intérieur s’en priverait-il, hein ?)
Comme j’en parlais il y a quelques temps, une technologie peut être évaluée en dernier ressort sur sa capacité à engendrer ou soutenir le règne d’une dictature… et malgré tout les arguments rassurants qu’on voudra employer, le digital aura besoin de hackers, de contre-pouvoirs civils, de recherches percutantes comme les travaux sur le digital labor et de luddites réfractaires et déterminés.

.

Le second élément clé du digital permet d’insister à nouveau sur l’importance de se préoccuper en premier lieu des usages qui vont présider à l’emploi d’un outil.
Ce sont bien les usages réels des technologies, dans le vrai monde, qui sont le centre de gravité du processus de conception (il l’ont toujours été du reste, c’est juste que bien souvent jusque-là ils étaient ignorés). Ce premier constat fait surgir tout le domaine de l’UX et l’expérience utilisateur.

Le digital est un domaine qui nous parle de l’utilisabilité des technologies.
Car en plus du fait que les services proposés sont utiles (efficaces), ils sont aussi utilisables :
simples et
satisfaisants.
Ces trois critères résument l’idée de conception centrée utilisateur, par opposition à la manière « précédente » qui était centrée technologie  -quelque soit le truc que vous concevez : appli web, tableau de bord de voiture, poignée de porte, habitacle d’un véhicule de secours et j’en passe.

Il n’est donc pas étonnant que les équipes qui font du digital comportent des nouveaux venus qui étaient jusque là cantonnés aux Directions de la Communication ou au secteur de l’édition : des graphistes, designers, ergonomes IHM, dans la mesure où ce sont leurs compétences qui apportent les deux derniers éléments de l’utilisabilité en tant que point de contact avec l’utilisateur. Il ne s’agit pas de faire du ‘joli’ mais de fournir une expérience utilisateur satisfaisante.

…et restez-bien concentrés car c’est ici que se joue l’articulation entre technologies et usages dont s’enorgueillit le digital.
Il s’agit en effet de s’équiper de technologies performantes (voir ci-dessus) et aussi de méthodes aptes à fournir des outils utilisables (voir ci-dessous).

Ce domaine de l’UX invite à propager une manière de faire inhabituelle -ou sacrilège, selon les méthodes classiques- qui est de commencer par la création de l’interface que l’utilisateur aura à sa disposition, pour, ensuite, en déduire comment organiser l’infrastructure idoine.virtuel-maintenance-industry-augmente
A grand renfort de documentation abondante et quasi religieuse, tout le secteur informatique depuis les premiers ordinateurs a toujours fonctionné en concevant d’abord le système technique pour finir par se demander comment l’utilisateur pourrait bien se dépêtrer avec une interface confuse, ésotérique et souvent parfois juste inutilisable (les cockpits d’avion, un formulaire d’impôt, un Windows 8, la procédure d’inscription à Pôle Emploi).

L’intérêt du digital -pour ceux qui le font vraiment- est précisément de ne pas s’embarrasser de documentation a priori, mais de déduire a posteriori ce qu’il est nécessaire de faire pour que l’usage soit simple et efficace du point de vue de celui qui agit.
C’est limpide, on croirait entendre André Leroi-Gouhan : Milieu et techniques Ed. Albin Michel, 1945 qui écrit « La technologie doit d’abord être vécue, ensuite pensée si le besoin s’en fait sentir  »
A la suite des méthodes de développement informatique Agile, le besoin des entreprise de réduire les délais de livraison a donné naissance au DevOps qui permet aujourd’hui vraiment de créer du résultat plus vite que jamais, tandis que la diffusion des supports mobiles permet de déployer ces résultats partout et à n’importe quel moment.

.

Ces méthodes qui réunissent en une seule équipe les compétences de l’amont (développement du code) et de l’aval (la maintenance du code), ont également bien démontré leur valeur économique tout autant que leur valeur sociale pour ceux œuvrent dans ce genre d’équipes. Il n’est pas inutile de rappeler que la qualité fonctionnelle des logiciels livrés vient en grande partie du fait que le souci de l’utilisateur est constant, puisque la source et la finalité du travail c’est lui. Bref, contrairement à d’habitude, l’utilisateur est satisfait.
Avec ce rapprochement d’équipes qui avaient jusque-là des cultures professionnelles différentes, la qualité du code informatique est devenue un élément à part entière de la qualité d’une marque et pour une large part c’est le domaine de l’UX qui fera évoluer les deux dans la même direction. C’était déjà vrai de la qualité du code dans votre smartphone et votre ordinateur, mais ça l’est aussi désormais pour les cafetières, les voitures ou les trains. C’est ça le digital : il y en a partout.

Il est l’heure de changer d’ère.

digital-native_enchanted-objects

.
.

 

Mobilité à la chinoise 19 octobre 2015


chinesesmartphones-shanghaisubwayEn 2014 les utilisateurs chinois ont effectué 185 milliards de téléchargements d’applications mobiles, soit 59% du total des téléchargements dans le monde. Que ce soit sur smartphone ou tablette, ils (et elles)  installent en moyenne 90 applications par an, la moyenne mondiale étant à 28.

.

Ils sont déjà 500 millions d’utilisateurs… mais ce nombre ne devrait pas cesser d’augmenter dans la mesure où le taux d’équipement est encore relativement bas. J’ai très hâte de voir ce que ça donnera lorsque 1,3 milliard de citoyens Chinois auront atteint le taux d’équipement de 74%, comme le voisin coréen…
Mais si le fabricant de hardware dominant est Samsung talonné par l’ostentatoire iPhone d’Apple, le paysage marketing change lorsqu’on parle de software. Les utilisateurs chinois en effet n’utilisent pas  les boutiques officielles des deux géants, Apple (App store) et Google (Google Play), mais des « app stores » locaux, destinés aux utilisateurs domestiques. Les deux principaux sont Baidu et Xiaomi.
Cette hyperlocalisation s’explique notamment par le strict contrôle des autorités nationales sur les accès internet vers le reste du monde.
Pour un utilisateur chinois, rien ne garantit que demain son site web favori sera encore accessible s’il est hébergé en dehors de Chine. Le site web Google par exemple n’existe pas là-bas car il est bloqué par le grand firewall ( 金盾工程). Lorsqu’on parle d’internet en Chine, il faut bien garder à l’esprit que -quoi qu’on en pense- le maintien de l’ordre civil collectif est politiquement considéré comme plus important que la liberté individuelle.
Ces distributeurs parfaitement inconnus dans le reste du monde sont donc néanmoins des poids-lourds économiques dans le secteur des applis et des smartphones… Si vous voulez développer une appli pour des internautes et smartphon-autes en Chine, vous devez prendre en compte les standards et les contraintes de cet écosystème vraiment très différent. Et bien sûr vous devez comprendre l’expérience utilisateur locale.

Tous ces téléchargements signifient que les utilisateurs Chinois passent énormément de temps à interagir avec leurs applis -et tout spécialement les jeunes. Celles de jeux sont les plus nombreuses, mais celles consacrées au commerce, au streaming vidéo et à la messagerie instantanée prennent le relais en termes de croissance.
Une jeune femme d’environ 30 ans qu’on appellera Ming (明) décrit son quotidien de cette manière :

.

 

Samedi, 06:22   Un bip de mon téléphone me réveille. Ce n’est pas l’alarme mais un message de Sposter Mes achats sont arrivés ! Bon… très bien, je dors encore un peu et je passerai les prendre après.

sposter_delivery-automation_consigne-intelligente

Deux heures plus tard, je descends jusqu’à la consigne Sposter en bas de chez moi, ouvre l’appli et récupère un code que je saisis au clavier de leur installation et… voilà ! La porte d’un des casiers s’ouvre et j’y trouve ma livraison. Grâce à eux, je n’ai pas à attendre le livreur et lui n’a pas besoin de connaître mes disponibilités. J’avais passé cette commande de petits objets déco via le site Jingdong (JD.com) il y a quelques jours. Ils offraient en effet 4500 yuans (620 euros) en bons d’achat pour attirer les clients vers leur service de crédit Baitiao. Tout ce que j’avais à faire c’était de dépenser cet argent et le rembourser en 30 jours à un taux d’intérêt de zéro :)

Je me suis intéressée à leur offre et j’y ai souscrit. Comme pour tous mes documents un peu officiels, j’ai scanné le contrat et ce double numérique est sur un disque dur externe, chez mes parents à la campagne. Maintenant je dépense au maximum 1600 yuans par mois et je rembourse 140 avec un taux d’intérêt de 60. C’est une somme tellement ridicule que je n’utilise plus la carte de paiement de ma banque depuis des semaines. [note de l’éditeur : sur ce sujet de la livraison à domicile en Chine, Zuhe Huang a soutenu sa thèse : Last mile delivery in China  en juillet 2015, à l’université Erasmus de Rotterdam.]

.

09:00   De retour chez moi je confirme la réception des achats et leur bon état sur l’appli Jingdong. En retour ils m’offrent 20% de réduction sur ma prochaine facture. Rien ne presse, je verrai plus tard. C’est comme Amazon en Europe, vous pouvez y acheter tout et n’importe quoi… j’ai même commandé une plante une fois et elle est toujours vigoureuse dans mon salon. Quand croyez-vous qu’Amazon lancera sa filiale bancaire ?

.

Midi:   Un ami m’écrit sur WeChat et demande un coup de main pour son boulot. Il voudrait développer le service Alipay dans notre ville de Chongqing, mais pour cela il a besoin de convaincre des restaurants et des bars de la ville d’accepter ce moyen de paiement.
Chez vous en occident, c’est très comparable à PayPal. J’ai dit à mon ami que ça semble une bonne idée et je me souviens que j’ai déjà vu ça au supermarché. A la caisse, les clients montrent leur écran de smartphone avec un QR code fourni par l’appli Alipay et la caissière le scanne. « Paiement accepté » dit l’automate et Alipay transfère directement l’argent de mon compte vers celui du magasin. Rendez-vous pris, je rencontrerai mon ami dans ce nouveau resto parce que je connais le patron et si les deux font affaire, ils me payeront le déjeuner !

Alors que je me prépare à sortir j’ouvre l’appli Uber pour y trouver un transport.
Chance ! Il y en a un stationné en face.

.

14:00   Vingt minutes plus tard je suis au centre-ville de Chongqing, devant le restaurant. “Bip !” Voilà la facture d’Uber, seulement 7 yuan ! (0,98 euro). C’est teeellement cheap ! Ils m’ont fourni un avoir de 10 yuans la dernière fois parce que je n’avais pas trouvé de véhicule disponible. Normalement, le même voyage en taxi tourne autour de 50 yuans aller-retour, alors que c’est 16 avec Uber en plein tarif soit trois fois moins cher.  Inutile de dire que je n’utilise plus jamais le taxi.  
[note de l’éditeur : Uber en Chine fournit environ 1 million de trajets quotidiens]

.

14:30   Mon ami vient d’arriver et je suis déjà attablée, en discussion avec le patron. Tous les deux s’accordent sur le fait que le paiement mobile va s’étendre au  marché de la restauration. Pour les utilisateurs ce sera un confort supplémentaire car ils n’auront plus besoin de porter du cash. Leur porte-monnaie sera leur smartphone.

Ce déjeuner d’affaires se passe bien. Mon ami a eu ce qu’il était venu chercher et le manager du restaurant a accepté d’installer le système Alipay pour un test de six mois. Mission accomplie ! Je rentre chez moi -avec Uber bien sûr.

.

18:00   L’heure du dîner approche. je prendrais bien un KFC… mais il pleut à torrent dehors. Je reprends mon téléphone. Incroyable : Kentucky Fried Chicken ne livre pas à domicile. Bon peu importe, Taobao m’informe que je peux commander un menu (80 yuans) et le faire livrer chez moi pour 25 de plus. En gros il s’agit d’une entreprise de livraison qui prend votre commande et va la chercher dans le restaurant de votre choix (j’aurais pu commander Mc Do ou un traiteur italien) et ramène le tout chez vous, avec la facture du fournisseur. C’est parfait pour les flemmards qui acceptent de payer le supplément. Trente minutes plus tard j’ai signé le reçu.

.

19:30   Dans la rue pour rejoindre mon club de sport, je m’arrête à l’épicerie. J’attrape une glace Magnum et… mince ! Oublié mes sous ! Je m’approche du caissier et je lui demande si je peux faire un transfert d’argent avec Alipay. Mes yeux de chien battu font leur effet, il accepte. Payé, confirmé, emporté !11820560_1647641528826401_1650673808_n

Devant le club, j’attends que mes amis arrivent. Je sais déjà qui sera là puisque le planning est en ligne et chacun peut indiquer sa présence.
Avec mes gants de boxe, c’est le seul moment de la journée où je ne peux pas utiliser mon téléphone… en tout cas parce que sa commande vocale n’est vraiment pas terrible.
Tout cela me fait penser que la gestion quotidienne de mes activités est vraiment dépendante de ce petit objet. Si un jour je le casse il faudra que j’en reprenne un dans les heures qui suivent. J’irai voir sur Jingdong quels modèles ils proposent en version durcie et résistante à l’eau. Et rose.

.

.
.

 

L’utilisateur : nouvel avantage concurrentiel 1 juin 2015


Depuis environ deux ans, les observateurs attentifs auront noté une tendance des entreprises à racheter des agences de Design, tout autant qu’une vague de fusions et de rachats des agences de Design entre elles.
url Ces agences ont su  mettre l’accent sur la philosophie sous-jacente à leur métier et sur l’activité de design ethnographique, c’est à dire la manière dont les actions de conception (le design, au sens propre) peuvent affecter la société au sens large et les utilisateurs de leurs produits (ou services) en particulier. .

Les agences de design ont su faire la preuve que le design, ce n’est pas du coloriage et des « jolies formes ».
Le design c’est la manière dont les choses fonctionnent.
Ces travaux ont permis d’apporter la preuve qu’un bon -qu’un excellent– travail de conception a un intérêt en termes de visibilité et de crédibilité financière. L’argument est de dire que si un produit ou un service est vraiment bien conçu, il se vendra quasiment tout seul… contrairement à un produit simplement banal qui aura effectivement besoin d’importants budgets de publicité et de mise en scène pour soutenir sa diffusion.
.
On retrouve là le credo de Peter Drucker, qui affirmait que « le but du marketing est de connaitre et de comprendre le client de façon telle que le produit ou service s’adapte et se vende par lui-même. L’objectif est de rendre la vente inutile. » (in Management: Tasks, Responsibilities, Practices Ed. Harper & row, 1973)
Nous en sommes à un point où une « chose » bien conçue a désormais autant d’importance -voire davantage- que la partie technique qui « fait » cette « chose » ou la manière dont on communique à son sujet dans les mass media. Les technologies ne sont plus à elles seules un facteur de qualité différenciant parce que tout le monde s’attend à des produits de bonne qualité et qui fonctionnent bien. Après tout, c’est la moindre des choses n’est-ce pas ? De ce point de vue, tous les acteurs sont sur un pied d’égalité technique et ce n’est pas parce que l’un utilise l’internet à tort et à travers qu’il est meilleur que les autres… puisque tout le monde fait de même.

.

Il y a moins de dix ans, lorsque vous observiez le secteur des technologies, le discours ambiant et la symbolique urlmechperfconcernaient d’abord les poulies et les engrenages : les capacités mémoire, les tuyaux, les baies de serveurs en téraoctets ou les portiques de peinture à soufflage ionisants dans les usines automobiles. Les héros étaient les développeurs, les gens des bureaux d’études et les ingénieurs en tant que principaux acteurs de la différentiation et de l’avantage concurrentiel. Ils étaient ceux qui mettaient en place la plomberie. L’importance du travail de conception et de design pour l’utilisateur était souvent perdue dans les cahiers des charges et les mesures de performance.
.

Mais aujourd’hui, fini de rire. Depuis trois ou quatre ans, la technologie est devenue omniprésente : un élément tellement répandu qu’on en parle seulement comme un prérequis et non plus comme un objectif à atteindre. Il est devenu impossible pour une entreprise d’acquérir une position dominante uniquement grâce à la technologie qu’elle utilise ou propose à ses clients. Une bonne -une excellente– phase de conception est devenue critique en termes de business.

.

C’est pourquoi en 2004 (déjà !) le fabricant de matériel électronique Flextronics se portait acquéreur de Frog Design. Depuis, le mouvement n’a pas cessé de gagner de l’ampleur :
Adobe rachète Behance;
Creston rachète How Splendid;
Capital One rachète le remarquable Adaptive Path (une banque qui rachète une agence de design… voilà qui en dit long sur l’intérêt de l’activité);
Shopify rachète Jet Cooper;
Accenture rachète Fjord;
Google rachète Mike & Maaike;
Facebook rachète Hot Studio;
et tout récemment, le géant du conseil Mc Kinsey s’est porté acquéreur de Lunar.
…tous ces éléments laissent deviner que le concept de design infuse progressivement les métiers historiques des entreprises, quelque soit leur secteur.

.

Les acteurs deviennent rares qui osent lancer des produits mal pensés pour les corriger ensuite lorsque les clients commencent à se plaindre (pensez aux premiers abonnements triple play en France et à votre foutue box internet qui refusait de fonctionner…).
Ce temps là est révolu. urldesign Peter Drucker a été entendu et la ligne de front s’est déplacé de la technique pure vers la simplicité d’usage pour le client réel.
J’en ai déjà parlé ailleurs et j’en reparlerai encore… tout cela tient en deux lettres : UX.
En deux mots : expérience utilisateur.

.

Même les couches techniques les plus basses (la plomberie, comme décrite par Francesca Musiani) font l’objet de réflexions sur la manière dont elles affectent le social en général et le comportement des utilisateurs en particulier . Ce n’est pas pour rien que le fabricant de processeurs Intel et le fabricant de logiciels Microsoft emploient à eux seuls davantage d’ethnologues que le vénérable CNRS en France.

.

Il n’y a plus de raison aujourd’hui pour qu’une création technique ou un service immatériel fonctionne mal (et quand ça arrive, la plupart du temps la technique n’y est pour rien, ce sont des problèmes d’organisation du collectif de travail).
Les connaissances en ingénierie, en méthodes de gestion de projet et en techniques de fabrication sont connues de tout le monde -dans le monde entier.

.C’est là qu’intervient la compréhension de l’utilisateur et, au sens large, le travail de recueil ethnographique. Tout le monde va se mettre à dire qu’il fait du design, de la recherche qualitative et de la ‘user research’. Le consensus actuel dans la presse spécialisée est déjà acquis à ce genre de pratiques… bref, c’est à la mode.

Mais l’ethnographie faite par des designers et des consultants en marketing est au mieux une série de pratiques qui se ressemblent parce qu’elles portent le même label : Design.
Ce n’est pas de l’ethnologie, au sens où il n’y a pas de réflexion critique, ni sur la méthode employée, ni sur le positionnement d’une enquête dans le champ plus vaste de la recherche internationale… un peu comme un consultant en organisation qui essaye de se faire passer pour un intellectuel crédible en utilisant le bouclier théorique de la théorie des besoins d’Abraham Maslow.
La plupart du temps, l’observation contextuelle des utilisateurs apporte juste assez de données pour aider à formuler des hypothèses, mais pas assez pour se plonger dans la description épaisse d’un thème et pour le comprendre (pensez au thick data de Clifford Geertz).
La dernière monographie que j’ai lu relatait un travail de terrain étalé sur six années, là où une recherche utilisateur commandée par une entreprise se déroule au mieux sur un délai de six semaines.
urlbureau
Dans le domaine de l’UX et de le recherche utilisateur, l’intégrité scientifique des projets n’est pas garantie. Ce n’est même pas une contrainte de départ officielle pour l’équipe sur le terrain.

.

La vague de rachats d’agences de design par des entreprises diverses et variées ne doit pas donc faire illusion : il s’agit d’un processus qui apporte d’abord un avantage concurrentiel (c’est-à-dire financier) parce que c’est utile. Ça marche. La manière dont ces gens travaillent produit des résultats tangibles.

Si vous êtes Accenture, vous savez faire de la plomberie et gérer d’énormes projets de plomberie, c’est même votre cœur de métier. Mais vous n’êtes pas seul sur ce marché. Il y a même pléthore de concurrents qui sont aussi bons que vous. Par contre tous ne savent pas concevoir un produit (ou un service) parfaitement adapté à l’utilisateur final. C’est là qu’intervient le rachat par Accenture de l’agence Fjord : intégrer en natif les compétences à concevoir des produits et des services qui tiennent compte du contexte réel d’usage dès les premières phase des projets.

Bien entendu, comme pour toute opération de fusion de collectifs de travail, il ne suffit pas d’acheter pour parvenir à un fonctionnement satisfaisant de la nouvelle entité… il y aura des efforts à faire sur la conduite du changement . (autre thème de recherche en ethnologie :) )

.

malinowski_ethno_user research_1916
Mais du point de vue de la recherche académique crédible, aller voir sur place comment vivent les vrais gens, dans le vrai monde, n’a rien d’une nouveauté. Malinowski faisait ça en 1916…

Certains acteurs économiques en font aujourd’hui une procédure ‘normale’ parce qu’ils se rendent compte que ça leur apporte (et rapporte) beaucoup. Mieux vaut tard que jamais en somme -et c’est tant mieux pour tout le monde.
Pourtant, c’est bien sur la crédibilité scientifique que l’on pourra trier le bon grain des équipes UX, de l’ivraie des amateurs qui travaillent vite et mal (notamment -horreur !- à grands coups de ‘sondages’). Le recours au design et à la recherche qualitative marche pour faire des bidules pertinents du point de vue des utilisateurs.
Les implications théoriques de cette pertinence ne sont abordées que dans les organisations de premier plan qui font l’effort de prendre du recul et de se soucier de la cohérence scientifique de l’ensemble… ce qui renforce leur pratique métier concernant l’UX.

.

Le mouvement indique donc une direction claire : utiliser le design, l’expérience utilisateur (UX), la conception centrée utilisateur et au sens large l’enquête ethnographique en immersion : ces pratiques et ces métiers qui vous donnent la possibilité de vous différencier dans un domaine qui ne peut pas être imité : l’adéquation entre ce que vous fabriquez et l’utilisateur qui va l’avoir entre les mains. Notez bien que cela concerne les utilisateurs à la fois au sens de l’usager d’un service public (hôpital, réfugiés syriens en demande d’asile, transport public, impôts), du client qui achète un objet ou un service, mais aussi à l’intérieur d’une organisation pour un employé qui utilise un produit ou une application dans le cadre de son activité professionnelle.
.

Vos clients ne sont pas ceux que vous croyez

Ainsi, les entreprises et leurs prestataires de services devraient s’accorder à dire que la personne la plus importante dans un projet n’est pas dans l’équipe.
Il est là, dehors, dans le vrai monde :  la personne la plus importante dans un projet c’est l’utilisateur final, au delà de la chaîne de fabrication. .
C’est une vérité nécessaire à dire et à comprendre :  nous travaillons pour l’utilisateur -pas pour le chef de projet, le Directeur, le député-maire ou le donneur d’ordres quel qu’il soit.

Parfois, en termes relationnels et commerciaux c’est impossible. Le chef de projet ou le responsable MOA a trop besoin de ses attributs de pouvoir et il ne peut tout simplement pas accepter que « son » équipe ou « ses » consultants travaillent sans prendre en compte ce que le chef croit être le comportement du client (et donc les fonctionnalités à mettre en œuvre dans le projet). Parfois aussi, l’entreprise ne peut pas accepter la remise en cause. Parce qu’une dose d’UX dans un projet suppose d’aller vérifier sur le terrain comment se comportent les utilisateurs d’un produit ou d’un service au lieu d’écouter le responsable hiérarchique qui parle au nom et à la place des utilisateurs. Ce rapport de domination là, entre l’organisation et ses clients, est important et fait partie des non-dits…
Les travailleurs de l’UX doivent pouvoir vérifier, constater et documenter les usages réels, sur le terrain, puis en déduire un cahier des charges pertinent pour que l’utilisateur finisse par dire « oh bon dieu, ça c’est un truc bien pensé ! »
Les équipes ne sont pas là pour répondre aux besoins du chef de projet mais à ceux des vrais utilisateurs, dans leur contexte réel d’usage. gds_ux_modernisation-service-public_agile

.

Là-dessus, je suis sincèrement persuadé qu’il est plus simple d’aligner les besoins d’une organisation toute entière sur les besoins des utilisateurs réels (la conduite du changement, encore !). Une bonne illustration serait l’administration britannique, qui s’est elle-même révolutionnée depuis 2012 avec la mise en place du Government Digital Service.

.

Mais parfois il est vrai, certaines entreprises ou services publics ont d’abord en tête leurs propres besoins endogènes et nombrilistes et ensuite -s’il reste du temps et de l’énergie- ils envisagent les questions d’efficacité du point de vue de ceux qui utilisent leurs produits. Par rapport à tout ce que je viens de dire, ce type d’organisation va de plus en plus se voir relégué à l’arrière-ban du paysage social et économique.
Vous devez en connaître, moi-même j’ai un exemple précis en tête au moment où j’écris ces lignes. Je vous invite à les suivre dans les quelques années qui viennent pour observer comment elles parviennent à se reconfigurer autour et au profit de leurs utilisateurs -ou non. Une chose est sûre : ces trainards seront de plus en plus distancés quels que soient leurs efforts techniques pour se remettre au goût du jour. A coups de grands projets technologiques, ils tenteront de regagner du terrain -en pure perte d’argent, d’énergie et de temps.
C’est d’ailleurs bien la preuve qu’ils n’ont toujours pas compris la leçon.
Parce que l’avantage concurrentiel n’est plus dans la technologie, il est dans la compréhension des besoins de l’utilisateur.

.
.

experience-client-utilisateur_UX_user-research . . .

 

Le bouton à 300 millions de dollars 2 février 2015


…un article écrit par Jared Spool en anglais et traduit par Yannick en français.

Dans un bel exemple de modestie et de concision, Jared nous présente une mission de conseil qui apparaît comme exceptionnelle dans ses résultats.
Il apparaît -presque paradoxalement- que le facteur majeur d’amélioration ne réside pas dans la mise en œuvre de méthodes obscures complexes comme la théorie de l’innovation de rupture ou d’outils obscurs  hypersophistiqués comme les logiciels de BI, mais dans la démarche volontariste d’aller observer les utilisateurs d’un produit qui existe déjà.
En deux mots : expérience utilisateur (ou UX, pour les connaisseurs). En deux autres mots : design ethnographique.

S’il est vrai que la mission première des managers est d’éviter de perdre de l’argent, alors le directeur qui a acheté la prestation de service de Jared mérite amplement d’être lui aussi cité en exemple.

(cliquez pour afficher en .pdf) Le bouton à 300 millions de dollars.
.
———————————————————
.
[FR :] Cet article est traduit avec la permission de User Interface Engineering. Pour plus d’articles et d’information, merci de visiter leur site uie.com
[EN :] This article is translated with permission by User Interface Engineering. For more articles and information, please visit http://www.uie.com.
.
Note de l’éditeur : grâce à Marco Dini vous pouvez aussi lire cet article en italien.

[Alors que Luke Wroblewski écrivait son livre renommé Web Form Design: Filling in the Blanks, il me demanda si j’avais en tête un exemple où la modification d’une page web avait provoqué une différence remarquable dans un business.
-« Tu veux dire, comme 300 millions de dollars de revenu supplémentaire ? » demandais-je.
-« Oui, un truc comme ça. » répondit Luke.
J’ai donc écrit cet article qu’il a publié dans son livre.]
.

Comment la modification d’un unique bouton a augmenté le revenu annuel d’un site web de 300M$

C’est difficile d’imaginer un formulaire plus simple : deux champs à remplir, deux boutons et un lien hypertexte.
Pourtant, il s’avérait que ce formulaire empêchait les clients d’acheter les produits d’un site majeur de commerce en ligne, à hauteur de 300.000.000 de dollars américains par an.
Pire encore : les concepteurs du site n’avaient même pas idée du problème.

Le formulaire était vraiment simple. Les champs à remplir étaient l’adresse e-mail et le mot de passe. Les boutons étaient Login et S’enregistrer.
Le lien concernait le Mot de passe oublié. C’était la page de connexion pour ce site web, sous une forme que l’on rencontre partout ailleurs sur l’internet. Comment pouvaient-ils avoir un problème avec ça ?

Ce problème n’était pas tant dans la mise en page du formulaire que dans sa mise en œuvre. En effet, les utilisateurs se retrouvaient sur cette page après avoir fait leurs courses et rempli leur ‘panier’, au moment où ils cliquaient sur Payer. Ils se retrouvaient sur cet écran avant même d’avoir fourni leurs informations de paiement.fidelisation-client-vente-perdue
L’équipe de développement voulait ainsi permettre aux clients de s’enregistrer, afin de pouvoir être reconnus pour de futurs achats. Les clients dont c’était la première visite ne seraient pas gênés par ces informations qu’on leur demandait, puisque cela représentait peu d’efforts et faciliterait leurs futures visites. C’était du gagnant-gagnant, pas vrai ?
.

« Je ne suis pas là pour avoir une relation »

Nous avons mené des tests d’utilisabilité (usability testing) avec des clients potentiels et nous leur avons demandé d’apporter une liste de courses. Puis nous leur avons donné de l’argent pour qu’ils puissent finaliser les achats. Tout ce qu’ils avaient à faire était d’acheter les articles qu’ils avaient listés eux-mêmes.

Mais nous-nous étions trompés au sujet des clients dont c’était la première visite. Ils ne voulaient pas s’enregistrer. Ils pensaient que le formulaire d’enregistrement qu’on leur mettait sous les yeux avant de finaliser l’achat était abusif. L’un de ces clients-tests nous confia « Je ne suis pas ici pour avoir une relation. Je veux seulement acheter des trucs. »

Certains ne se souvenaient pas si c’était leur première visite et étaient frustrés de ne pas être reconnus par le système lorsqu’ils essayaient plusieurs combinaisons d’e-mail et de mot de passe. Nous fûmes même surpris de voir à quel point ils résistaient à l’enregistrement que proposait le site web.

Sans même savoir ce qu’impliquait l’enregistrement, tous les utilisateurs qui cliquaient sur le bouton le faisaient avec désespoir. Beaucoup disaient à voix haute que le vendeur en ligne voulait ces informations personnelles uniquement dans le but d’envoyer ensuite des messages commerciaux dont ils ne voulaient pas.   D’autres imaginaient des objectifs cachés clairement néfastes, en lien avec la violation de la vie privée.
(en réalité, le site ne demandait à l’enregistrement rien de plus que ce qui était strictement nécessaire à l’achat : nom, adresse de livraison et informations de paiement)
.

Pas terrible non plus pour les clients fidèles

Les clients réguliers de ce site marchand n’étaient pas plus satisfaits que les autres. Mis à part ceux qui se souvenaient de leurs identifiants de connexion, la plupart trébuchaient sur le formulaire. Ils ne souvenaient plus de l’adresse mail ou du mot de passe qu’ils avaient utilisé. Se souvenir de l’adresse mail était particulièrement problématique – la plupart d’entre nous en possède plusieurs et certains en ont changé complétement au fil du temps.

Lorsqu’un client ne se souvenait pas de son e-mail ou de son mot de passe, il tentait des combinaisons différentes avec aussi peu de succès. Certains cliquaient alors sur Mot de passe oublié mais cette procédure est efficace seulement si vous-vous souvenez de l’adresse mail que vous avez utilisé la première fois…
(plus tard, nous avons mené une analyse de la base de données du vendeur, pour découvrir que 45% de tous les clients étaient enregistrés plusieurs fois, certains jusqu’à 10 fois. Nous avons aussi analysé combien de personnes demandaient la remise à zéro de leur mot de passe, pour découvrir que ça se produisait jusqu’à 160.000 fois par jour. 75% des visiteurs abandonnaient leur achat après avoir franchi cette étape)

Le formulaire, conçu pour être une aide au shopping, était en réalité une aide pour un nombre restreint de clients. Et même ceux-là n’étaient pas vraiment aidés car ils devaient vérifier et remettre à jour leur adresse de livraison ou leur moyen de paiement.
En réalité, ce formulaire bloquait donc les ventes – beaucoup de ventes.
.

Le correctif à 300.000.000$

Les développeurs résolurent le problème très simplement. Ils enlevèrent le bouton S’enregistrer et le remplacèrent par un bouton Continuer avec ce message :
Vous n’avez pas besoin de créer un compte pour faire vos achats. Cliquez sur Continuer pour procéder au paiement.
Pour rendre vos futurs achats plus simples, vous pouvez créer un compte après votre paiement.

Le résultat fut spectaculaire : le nombre de clients qui payaient s’envola de 45%. Les achats supplémentaires furent de 15 millions de dollars le premier mois. La première année le site engrangea 300.000.000 de dollars de revenu supplémentaires.

Sur mon répondeur, il y a toujours le message du Directeur Général de ce site marchand qui pèse 25 milliards de dollars, la première semaine où ils virent le nombre de ventes après la modification du formulaire. C’est un message on ne peut plus clair : « Spoo ! T’es le meilleur ! »
Pas besoin d’un message compliqué. Tout ce que nous avions fait c’était de changer un unique bouton.

Vous pouvez en apprendre plus sur le blog Brain Sparks.

.

– Jared Spool, 14 janvier 2009.
.
.
.

 

En faveur d’un app store d’entreprise 2 janvier 2015


Voilà maintenant 8 ans que le premier iPhone a imposé un modèle d’utilisation des téléphones mobiles radicalement nouveau.
application-mobile-app-store-entreprise_fonctionnel-metier_widget (2)Le slogan d’Apple « Il y a une appli pour ça » a influencé nos comportements, à la fois pour la manière d’utiliser un outil (le téléphone) et aussi pour la manière d’accéder à l’information (des applications à télécharger).
C’était nouveau à l’époque et ça ne l’est plus tellement aujourd’hui, mais c’était tellement radical que tous les fabricants s’y sont mis : Apple a son app store, mais aussi Android ou Microsoft.
Pour les plus habiles d’entre nous, les standards techniques bien définis et largement diffusés permettent même de développer nos propres applis mobiles, téléchargeables, pour répondre à un besoin précis.

L’influence de ce modèle d’usage a même dépassé le domaine des tablettes et smartphones en donnant aux ordinateurs ‘fixes’ leur collection de widgets (l’équivalent des apps sur les PC).

.

Mais pour aussi efficace qu’il soit, ce modèle d’interaction homme-machine est loin d’avoir passé les frontières de l’entreprise. Vous avez besoin d’une information dans le cadre de votre travail ? …et non, il n’y a pas d’appli pour ça ! D’ailleurs, dans la plupart des entreprises, il n’y a pas d’appli ou de widget à caractère interne. Pas du tout.
Ou alors, lorsque c’est le cas, la qualité de l’expérience utilisateur ‘métier’ est réellement médiocre par rapport à l’UX proposée par les applis (ou widgets) ‘client’. Les deux types d’application, métier et client, étant pourtant réalisés par la même entreprise.

.

KISS !

Les équipes informatiques des entreprises gardent l’habitude de développer des outils internes pour un utilisateur équipé un ordinateur -et ensuite elles allègent le code informatique pour qu’il fonctionne sur smartphone. Pour remettre les choses dans le bon ordre, il faudrait basculer les points de vue et -comme pour le développement d’applis mobiles ‘natives’- lancer le travail de conception et de design d’abord pour satisfaire aux contraintes de l’écran le plus petit. En général cela oblige à simplifier les IHM et à travailler les enchaînements de fonctionnalités KISS_simplepour les rendre strictement utiles et pas davantage.
Il y a aussi un acronyme pour ça : KISS. Keep It Simple, Stupid.   Fais plus simple, crétin !
Petit ou grand écran, c’est précisément cela qu’il faut : de l’utilité du point de vue de l’utilisateur ! 

Pour atteindre une qualité similaire aux applis qui sont à disposition des clients, les entreprises devraient utiliser les mêmes principes de conception pour les applis métier… ça ne semble pas complètement aberrant.

Dans une certaine mesure, cela signifie qu’il faut revoir les prétentions à la baisse. Inutile d’espérer devenir L’Outil majeur dans l’entreprise. Ce genre de mégalomanie aboutit souvent à construire un machin énorme, complexe, coûteux…que personne n’utilise à 10% de ses capacités car il ne répond à aucun besoin opérationnel. Inversement, une appli  ou un widget simple et qui répond vraiment à un besoin métier (oui : parfois un seul besoin) offrira une expérience utilisateur extrêmement positive. Pour le dire autrement, le moment est venu de penser à des outils internes à l’entreprise qui ressemblent plus à Clash Of Clans qu’à des monolithes comme les progiciels intégrés et autres ERP.
La plupart des utilisateurs adopteront un widget ou une appli métier s’il permet de réaliser proprement et rapidement une action dans un micro-moment de leur journée de travail (sur Facebook, cela aboutit à des Likes à la pelle !).

parcours-metier_experience_appli-widget-entreprise_UXLes meilleures applications grand public sont spectaculairement efficaces pour permettre aux utilisateurs de faire une seule chose : MaMétéo, MesCoursdeBourse, MesInfosLocales, MaBanque, LaPositionGPSdeMesEnfants, etc.
L’objectif d’un app store d’entreprise devrait être de fournir des micro-programmes, développés pour apporter, du point de vue des utilisateurs, une solution à un problème métier. Du point de vue des managers : plus de productivité, comme l’explique bien cet article de TechTarget.
Il ne s’agit plus de pouvoir ouvrir des documents, les modifier et les sauvegarder; il s’agit de mettre à disposition des données synchronisées, permettre leur modification et… passer à autre chose.

.

Dans la vraie vie il n’y a pas de DSI

Dans la vraie vie il y a une bibliothèque d’applis et un moteur de recherche pour dénicher celle qui nous convient. De là, un clic sur ‘Installer’ et l’outil est prêt à être utilisé (ou désinstallé) sans aucun mode d’emploi tellement il est bien pensé et intuitif. Ça prend environ 15 secondes.

Inversement, les Directeurs de Système d’Information sont confrontés au problème qui consiste à mettre le bon outil entre les mains des employés qui en ont besoin. Avant d’avoir sur votre ordinateur de travail l’outil dont vous avez besoin, il faut demander une autorisation, attendre une validation puis attendre l’installation (et peut-être la formation idoine). Ça peut prendre 15 jours. Ensuite vous-vous rendrez compte que vous n’avez pas de mot de passe.

La mise en œuvre d’un app store d’entreprise permet de centraliser la gestion (donc le contrôle) des applications métier, par exemple avec différents niveaux d’habilitations et un Single Sign-On. Toutes les applis ou widgets n’ont cependant pas besoin d’être à disposition de tout le monde… même si, personnellement, je suis partisan d’une mise à disposition très élargie, a minima en lecture seule.app-metier_entreprise_widget-pro_company-app-store
A ce titre, le recrutement d’une compétence particulière pourrait être utile pour ordonner la liste des applis / widgets et assurer leur bonne « exposition » : un(e) bibliothécaire. Et oui !
L’autre avantage de ces apps / widgets / outils légers et plutôt simples en termes de contenu est qu’ils  engendrent un effet d’émulation, au sens où les utilisateurs sont rapidement capables de pointer du doigt les défauts d’un outil; tout autant que les développeurs peuvent être incités à améliorer l’existant dans la mesure où ça ne prend pas beaucoup de temps.
Bien souvent on trouvera les uns assis auprès des autres pour limiter le travail de codage au plus juste et se concentrer sur l’essentiel : de quoi a besoin l’utilisateur ?

Sur des problématiques particulières, l’entreprise pourra même organiser un hackaton interne sur quelques heures ou jours, afin d’aboutir non pas à L’Outil Le Plus Parfait… mais afin de donner aux utilisateurs un outil qu’eux-même jugent suffisamment efficace.

.

Permis de conduire, le changement

La mise à disposition d’une bibliothèque d’applis ou de widgets métier n’est cependant pas la garantie de jours meilleurs. Ce n’est pas non plus la garantie d’une large et immédiate adoption par les utilisateurs. La conduite du changement n’est pas aussi facile que ça ! Le piège serait de croire qu’il est possible de tout mettre en code informatique, afin que la technologie améliore l’organisation et la qualité du travail réalisé par les équipes.
En effet, dans ce genre de projet on n’est jamais loin de la pensée magique et des pratiques superstitieuses… or ce n’est pas l’infrastructure qui décide de la courbe d’adoption, c’est l’utilité du point de vue de l’utilisateur (le design ethnographique, encore !).
En d’autres termes l’entreprise doit se concentrer sur la cohérence avec les pratiques sociales réelles, sur les flux d’échanges d’information, sur la conception d’une excellente expérience utilisateur et sur le service rendu.
En bref : faites comme avec vos clients externes, si vos méthodes marchent avec eux, répliquez-les vers vos employés dans leurs préoccupations professionnelles. Sur quel workflow vient se greffer une application métier ? Quel est le parcours employé (en lieu et place du parcours client) ?
…et bien sûr, comme dans tout projet UX : faites des utilisateurs le point de départ, le valideur et le point d’arrivée.

cartographie-process-metier_mapping-business-process_UX

.
.

 

L’expérience du GDS : dis-moi ce que tu sais de tes utilisateurs… 19 novembre 2014


Dans le cadre de nos projets IT, nous avons l’habitude de travailler sur des documents de conception (spécifications, cahiers d’exigences ou user stories) qui font le lien entre les « besoins de l’utilisateur » et les exigences fonctionnelles et techniques à mettre en œuvre pour répondre à ces besoins.experience-utilisateur-client-parcours-UX-ethno

C’est le b-a-ba et personne ne remet en cause l’idée qu’il faut penser à l’utilisateur avant de pouvoir lui proposer quoi que ce soit… mais pour les spécialistes de l’expérience utilisateur (en anglais UX, User eXperience), il ne suffit pas de penser aux utilisateurs, il faut les connaître, les connaître vraiment et pas seulement affirmer qu’on les connaît.
Cela passe par des enquêtes opérationnelles et des études qualitatives pour voir le monde avec les yeux des utilisateurs, dans l’objectif de cesser de leur pourrir la vie   améliorer leur expérience au contact d’un produit ou d’un service.
J’en ai parlé ailleurs : il s’agit d’améliorer notre fréquentation du monde.

.

Ce travail commence en amont d’un projet, par des recueils de type ethnologique où l’on observe les vrais gens dans le contexte réel de leur vraie vie quotidienne. Selon les cas, on parle d’entretiens individuels, de ‘workshops’ de quelques heures ou… d’enquêtes en immersion sur une ou plusieurs semaines. C’est une autre version du travail d’ethnologue, il ne s’agit plus de faire l’ethnologie de l’organisation, mais pour l’organisation.
C’est avec ce genre d’enquête de terrain que l’entreprise Intel a pu rester numéro un mondial du microprocesseur en comprenant qu’il fallait adapter ses produits aux appareils mobiles, parce qu’il s’agissait d’une tendance lourde, confirmée dans les pratiques de socialisation, sur le terrain.

.

Un autre exemple concerne les informations présentes sur un site internet. A ce titre, la page web décrivant ce qu’est la TVA sur le site de l’administration britannique est une expérience remarquable pour le domaine de l’UX et de l’observation en direct des usages.

vat-uk-waterfall-development_projectSur l’image ci-contre à gauche, la version initiale montre une collection de liens et de définitions… alors que l’enquête de terrain prouve que l’utilisateur vient d’abord chercher quels sont les taux officiellement en vigueur –et c’est tout. N’ayant pas le temps ni l’envie de fouiller, le taux d’abandon était dramatique et la fréquentation à 1200 vues/jour était médiocre. Autrement dit : cette page ne servait à rien.

La nouvelle page ci-dessous à droite offre donc à l’internaute d’abord ce qu’il vient chercher : les taux de TVA en vigueur (VAT en anglais).   Allez voir par vous-mêmes en cliquant ici : https://www.gov.uk/vat-rates

Entre ces deux versions de la même page web, les développeurs ont utilisé les résultats d’une enquête de terrain, en la complétant par l’analyse des requêtes des internautes sur le site gov.uk  La nouvelle page reçoit 10 fois plus de trafic qu’auparavant avec 12.000 vues par jour en moyenne.

.

Ces exemples sont cohérents avec un constat que l’on peut faire trop souvent : la plupart des projets qui vat-uk-agile-development_project_ethno_ux_conceptionaffirment se baser sur les besoins de l’utilisateur affichent une connaissance supposée des utilisateurs, mais pas une connaissance réelle. Or le rapprochement entre le travail de conception (design) et la réalité des usages passe par une solide démarche d’expérience utilisateur (UX).

 

C’est ici qu’intervient Leisa Reichelt (sur Twitter : @leisa), directrice du département de la Recherche Utilisateur pour l’administration du Royaume-Uni (oui c’est bien ça : le gouvernement du Royaume-Uni possède un direction UX / User eXperience). L’équipe dirigé par Leisa depuis 2012 s’inscrit dans un vaste projet de refonte de l’administration anglaise, en partant du principe que le point de contact majeur avec le citoyen est désormais l’internet.
Il s’agit de transformer profondément la notion même de service public en passant à une version numérique par défaut. C’est seulement lorsque le numérique ne peut plus répondre au besoin du citoyen que l’administration se matérialise dans des bureaux. Par exemple pour le Jobcentre, l’équivalent anglais de notre Pôle Emploi, l’économie estimée d’ici à la fin du projet est de 2 millions de livres Sterling par an.
Notez bien qu’il ne s’agit pas d’une logique exclusivement comptable. Il ne s’agit pas de supprimer complètement des services publics, mais de les basculer vers l’internet en gardant à l’esprit l’idée d’une présence physique, mais seulement dans un second temps.

La Maîtrise d’Ouvrage (MOA) générale est le Government Digital Service (https://gds.blog.gov.uk ) qui mène des missions d’enquête de terrain avant de modifier les pages web en mode agile. Tous les sprints sont menés sur la base d’une nouvelle enquête ethnologique bien ciblée (« Que veut l’utilisateur qui visite la page sur la TVA ? »).

 

D’ici à mars 2015, en transformant les 25 services publics qui génèrent le plus de recherches sur les moteurs comme Google ou Bing, l’objectif du GDS est de répondre à des besoins réels, sans doute autant que d’aller chercher le contribuable là où il se trouve : derrière l’écran.
Les actes administratifs disponibles en ligne ont ainsi généré 2,6 milliards de livres Sterling de paiements en 2013.

Pour mesurer le succès (ou pas) de ces actions, 4 indicateurs-clés (KPIs) sont suivis :

  • Actes administratifs en ligne : combien d’actes sont possibles en ligne ?
  • Coût par acte : combien coute la fourniture d’un acte en ligne (coût unitaire et moyen) ?
  • Satisfaction utilisateur : quelles notes sont attribuées en ligne par l’utilisateur ?
  • Taux d’abandon : combien de personne entament un acte administratif en ligne sans l’achever ?

Ces statistiques sont publiées en accès libre et en open data sur : https://www.gov.uk/performance

 

Pour gérer un projet, les méthodes agiles ont déjà prouvé leur fiabilité par rapport au classique modèle en cascade. Avec une transformation d’une telle ampleur en Grande-Bretagne, les domaines de la recherche ethnographique et de l’UX sont placés au premier plan à leur tour, en démontrant qu’ils apportent une valeur ajoutée aux projets en fournissant des points d’appui fiables au travail de conception.

 

Mais un autre point d’intérêt à souligner est que la nouvelle organisation qui se met en place démontre une grande humilité : plutôt que d’affirmer que tout sera terminé à une date N (démarche classique d’un projet ‘en cascade’), l’accent est mis sur l’amélioration continue.
Est-ce un indice que c’est l’organisation elle-même qui devient plus agile ? Pour une bureaucratie vieille de plus de 300 ans ce ne serait pas le moindre des défis…

.

Pour ceux d’entre vous qui se demandent en quoi ils sont directement concernés et ce que pourrait leur apporter une micro-enquête ethnologique comme base de départ d’un projet, je me suis livré à un petit comparatif sur des sites web bien connus qui sont susceptibles de fournir à l’utilisateur des informations fiables sur de multiples sujets. Nous pourrions commencer par rechercher naïvement quel est le taux de TVA applicable en France, ou quel est le prix d’un timbre poste… voyez le résultat ci-dessous :

la-poste_impots_web-ux-experience-utilisateur_timbre-tva

Dans l’optique d’un utilisateur lambda qui recherche soit le taux de TVA en vigueur, soit le prix d’un timbre, inutile de vous dire que le site web de l’organisation ne répond pas à son besoin.
Pourtant, je parierais gros que l’équipe qui a publié ces pages est persuadée de connaître ses utilisateurs.
Pourtant, ces deux pages sont techniquement parfaites et répondent à toutes les normes de codage informatique, d’ergonomie, d’UI ou de QoS et de QoE.

Ce qui fait défaut ici est le manque de connaissance réelle des besoins de l’utilisateur, un vide que l’on peut combler en deux mots : l’expérience utilisateur. C’est la base première pour  connaître vraiment les utilisateurs et pas seulement affirmer qu’on les connaît. C’est ce que réalise en ce moment l’administration britannique.
…Et si une administration bureaucratique âgée de 300 ans y parvient, n’est-ce pas, quelle organisation pourra prétendre ne pas pouvoir le faire ?

.
.
.

 

Les 5 réponses de l’Agile 30 octobre 2014


 

Les responsables d’entreprises et les responsables de services informatiques n’ont que l’embarras du choix sur les méthodes et les outils qu’ils peuvent utiliser pour mener à bien les projets liés aux systèmes d’information.

CMMI, ITIL, ISO, ISTQB sont autant de références incontournables aujourd’hui et font partie du vocabulaire de base des équipes de management. La contrainte de mise en qualité et la volonté de faire de bons produits permet à chacun de jongler avec ces méthodes et il n’est pas rare de retrouver du CMMI, du ITIL et du ISO dans la même organisation.

 

L’expression « méthodes agiles » perce parfois ce consensus avec un succès variable.

Les acteurs de l’industrie logicielle, grands ou petits, abordent les méthodes agiles avec une certaine confusion, ne sachant pas ce qu’elles sont, ce qu’elles ne sont pas et ce qu’elles recouvrent en termes opérationnels. La simplicité du Manifeste Agile n’aide pas vraiment non plus à situer les enjeux…
Pourtant, le développement logiciel agile n’est pas nouveau et il tient la comparaison d’ancienneté avec les autres méthodes citées précédemment.
L’acte de naissance des méthodes agiles remonte officiellement à 1981, lorsque James Martin a breveté la méthode rapide de développement d’application (Rapid Application Development –RAD). Cette méthode RAD consiste en une suite de développements livrés aux utilisateurs tous les 90 jours en moyenne, qui a évolué ensuite avec les méthodes Dynamic Software Development Method (DSDM), Unified Process (UP) ou encore Scrum.
Avec Scrum, le délai de livraison d’une fonctionnalité aux utilisateurs tombe à 30 jours en moyenne. C’est ce qu’on appelle un ‘sprint’.

 

Pourtant, les craintes liées à l’aspect informel des méthodes agiles freinent leur adoption dans les entreprises malgré la publicité faite autour de celles qui les utilisent avec succès.
Les responsables informatiques sont donc face à un dilemme : agile ou pas agile ? Quels risques prenons-nous avec les méthodes agiles ? En quoi les méthodes agiles sont mieux que le modèle de gestion de projet « en cascade » ? Vais-je faire partir mes meilleurs développeurs si ça ne leur plait pas ?

Il semble de toute façon que, avec ou sans les méthodes agiles, il n’existe toujours pas de solution miracle pour faire réussir un développement ou un projet…

.

Les méthodes agiles soulèvent régulièrement cinq critiques qui sont autant d’épouvantails et d’idées préconçues. Il s’agit davantage de prédictions auto réalisatrices que de critiques argumentées (« ça va pas marcher, ça va pas marcher, ça va pas marcher ! ») et nous allons les passer en revue pour apporter des éléments de réponse plus concrets.

  • Les méthodes agiles, c’est du travail de hacker

Ce reproche fréquent réduit ces méthodes de développement à une anarchie à peine contrôlée, et qui voudrait travailler dans ces conditions ?
La réalité est plus nuancée et heureusement plus structurée.

Les « agilistes » font des plannings, ils rédigent leurs cahiers de tests en fonction des priorités du client et ils vérifient souvent leurs résultats avec les utilisateurs pour valider les livraisons. Certaines équipes particulièrement bien calibrées embarquent même des ethnologues pour rendre compte des pratiques des utilisateurs, afin de concevoir au mieux le produit en même temps qu’il est fabriqué… Ce que les équipes agiles attendent des responsables et du client, c’est qu’ils fournissent les priorités à suivre et qu’ils participent conjointement pour proposer des ajustements.
En d’autres termes, les méthodes agiles ne transforment pas ce qui est fait, elles modifient seulement comment le travail est fait… comme n’importe quelle autre méthode de qualité.
A ce titre, les méthodes agiles ne sont pas du travail de hacker et surtout, le concept même de hacker est contraire à l’esprit d’équipe.

  • Elles ne peuvent pas s’appliquer aux grands projets

L’origine des méthodes agiles remonte en effet à des projets informatiques de taille modeste et encore aujourd’hui, elles sont parfois préconisées pour les charges estimées à moins de 100.000 lignes de code.
Avec le temps cependant, même les grands projets sont devenus sensibles à l’incertitude et aux changements de spécifications en cours de travail.
Les grandes entreprises et les organisations gouvernementales pouvaient se permettre de fonctionner comme l’industrie ‘lourde’ en adoptant des procédures rigides et un avancement en cascade, chaque livraison étant basée sur des besoins exprimés par le client au tout début du projet, soit parfois des mois ou des années avant.

 

Cela n’est plus vrai aujourd’hui : un projet qui dure plusieurs mois est en grand danger s’il ne réactualise pas les besoins du client régulièrement. Le produit fini risque de ne plus être d’aucune utilité ou d’utiliser une technologie déjà obsolète. Je vous renvoie à mon article sur le système embarqué dans le robot Curiosity, qui se balade en ce moment même sur la planète Mars : deux millions de lignes d’instructions développées en code C, avec un taux d’erreur de un pour mille. Tout cela réalisé par des équipes agiles.
Si les projets en eux-mêmes peuvent conserver une gestion basée sur un modèle classique (management, reporting, planification, etc.), leur aspect ‘’développement’’ et ‘’systèmes d’information’’ doit prendre en compte un niveau d’incertitude qui rend propice l’adoption des méthodes agiles.

C’est le dosage et la cohabitation avec les méthodes habituelles qu’il faut apprendre à gérer.

Pour les besoins des logiciels de Défense, les armées ont régulièrement innové pour parvenir à une grande qualité de leurs produits, des produits qui atteignent assez souvent le million de lignes de code ou plus et des équipes comptant jusqu’à 250 développeurs.


Compte tenu des enjeux opérationnels, on comprend aisément qu’un bug inopiné ou des spécifications inadaptées puisse entraîner directement des pertes irréparables en combattants ou en matériel, ou plus radicalement la perte d’une guerre.

Toutes les équipes de développement militaires et leurs sous-traitants utilisent aujourd’hui les méthodes agiles, à divers degrés, ce qui prouve que ces méthodes s’appliquent bien aux grands projets et qu’on peut les utiliser effectivement à divers degrés.
Voir à ce sujet : Paul E. McMahon : “Lessons Learned Using Agile Methods on Large Defense Contracts” in Cross talk, 2008. Magazine d’ingénierie logicielle de la Défense, US Air Force. http://www.stsc.hill.af.mil/crosstalk

Les adaptations peuvent porter notamment sur l’écart entre les livraisons aux utilisateurs, qui peuvent passer à six ou douze mois au lieu de 30 ou 120 jours. Une étude du Jet Propulsion Laboratory présente un projet de 200 années / homme mené par IBM Federal Systems, dont les livraisons se sont faites en 45 itérations, à chaque fois dans les délais et sous le budget fixé.
Voir : W. H. Spuck : Management of Rapid Development Projects. Editions du Jet Propulsion Laboratory, D-8415, A. 1991.

De plus, on remarquera que le CMMI est lui-même issu des préoccupations de l’armée américaine dans les années 1980, qui s’inquiétait de la multitude de sous-traitants et des difficultés à harmoniser leur niveau de qualité.
En pratique, si l’on parle aujourd’hui de l’utilisation des méthodes agiles dans les projets de Défense aux États-Unis, cela implique que ces méthodes sont obligatoirement employées dans un environnement CMMI. Les deux n’ont donc rien d’incompatible.

  • Elles ne fonctionnent pas si les équipes sont géographiquement distantes

Les équipes géographiquement distantes (ou ‘’distribuées’’) peuvent l’être dans différents bâtiments ou continents. Les pratiques de développement offshore font régulièrement travailler ensemble de personnes basées sur différents fuseaux horaires avec -bien sûr- différentes cultures professionnelles.
L’un des enseignements des projets offshore est que, quelle que soit la méthode utilisée pour gérer l’activité, la documentation écrite ne peut pas résoudre tous les problèmes. Plus exactement : la documentation écrite est une source de problèmes. Problèmes d’interprétation, de références, de vocabulaire, de délai de rédaction et de diffusion, etc.
Les interactions plus fréquentes par téléphone, visioconférence, intranet, écrans d’affichage, e-mail et les outils de travail partagés accroissent l’agilité en dépit de la distance, même si l’objectif n’est pas de mettre en place les méthodes agiles.   Voir : R. L. Daft : Organization Theory and Design. Editions West Publishing, 1992.

L’enjeu est alors de créer des mécanismes qui permettent à chacun d’accéder aux sources d’information dont il a besoin, plutôt que de devoir contrôler le flux d’informations émanant de la direction du projet. La communication elle-même doit être un aspect majeur du management, comme un élément à part entière que l’on doit promouvoir et faciliter, dans et au-delà de la ligne hiérarchique.
Les individus ne doivent pas hésiter en particulier à se parler de site à site, parce que la tendance naturelle pour les équipes est de développer un sentiment d’appartenance géographique, un ‘’esprit de clocher’’ qui favorise la rétention d’information et casse la cohésion de l’ensemble. En termes d’organisation c’est bien une équipe entière qu’il faut parvenir à créer et à maintenir et non pas plusieurs équipes distantes étalées sur différents sites.

  • Elles ne permettent pas de gérer les problèmes complexes d’architecture

Le manque de planification et de choix d’architecture au début d’un projet est sans doute le souci le plus sérieux qui peut aboutir à des développements en aveugle. Des problèmes non prévus surgiront dans les cycles ultérieurs, mettront en évidence un mauvais urbanisme et obligeront à une révision coûteuse de l’existant.
Bien entendu, tenter de résoudre toutes les questions d’urbanisme au départ ne garantit en rien qu’il n’y aura pas de soucis à l’avenir ! jl-LeMOIGNE_modelisation-systemes-complexes

Le point fort des méthodes agiles sur ce sujet consiste à considérer avec attention le rapport entre les avantages et les inconvénients d’une architecture planifiée dès le lancement du projet.
La meilleure décision portera sur le point médian -le juste milieu- entre les extrêmes de ‘pas d’architecture du tout’ et l’illusion d’une architecture complète, comme on a pu le voir dans la catastrophe du projet LOUVOIS.

Certaines questions d’urbanisme peuvent être tellement obscures et critiques que vous aurez besoin de toute façon d’investir dans des prototypes jetables pour clarifier la solution à suivre.
Vous pouvez également hiérarchiser les objectifs de vos premières livraisons pour qu’elles éclairent les questions majeures.
Définir quels aspects du projet sont susceptibles d’être stables ou volatils pourra aussi vous aider… pourvu que vous sachiez rester ouvert aux évolutions.

En règle générale, le développement agile favorise les architectures simples et flexibles, qui sont un gage d’adaptabilité en cas de changements ultérieurs.

 

  • Mes clients / mes développeurs ne travailleront jamais comme ça

L’idée préconçue derrière cette affirmation est que les méthodes agiles seraient culturellement incompatibles avec certains projets ; et je serais bien le dernier à affirmer que l’on peut imposer certaines pratiques à des gens qui n’en veulent pas.

Mais à ceux qui se demandent ce qu’ils pourraient perdre, nous demandons plutôt ce qu’ils pourraient gagner. Bien des équipes découvriront qu’elles fonctionnent mieux en utilisant des méthodes agiles et elles pourraient complètement y adhérer… pourvu qu’elles aient pu s’y frotter.
La réussite comptera pour beaucoup dans cette adhésion. L’impression positive qui naît en parvenant à livrer rapidement du code qui fonctionne est un puissant facteur de motivation, pour les clients comme pour les développeurs.
Ironiquement, les développeurs chevronnés ont l’habitude de se plaindre lorsque les managers les poussent à commencer le travail trop tôt, sachant pertinemment que les exigences changeront dans quelques jours ou semaines.
Avec les méthodes agiles, la différence est que le système n’est pas supposé être parfait dès le premier essai (ce qui est vrai à chaque fois, de toute façon !). L’équipe de projet a de multiples itérations devant elle pour affiner son analyse des difficultés, préciser l’estimation des coûts et du planning ou faire émerger de nouvelles exigences.

.

Si on leur en donne la chance, les individus aiment apprendre, en particulier si cet apprentissage leur permet de devenir meilleurs dans leur travail. Après tout, la mise en œuvre de chaque méthode qualité implique ce genre de pari sur l’avenir. Sur ce point non plus, les méthodes agiles ne sont pas différentes des autres.

Ainsi, comme je le disais plus haut, ce préjugé de l’incompatibilité culturelle nous ramène au rôle du management, pour qu’il joue à plein son rôle de pédagogue et de levier pour améliorer les Ressources Humaines. Car dans le domaine informatique comme ailleurs, on remarque une constance des problèmes :

  • Il n’y a pas de solution miracle, il n’y a que des solutions adaptées à un contexte.
  • Le contexte des métiers de l’informatique est propice à l’agilité et le sera de plus en plus.
  • Enfin, le choix d’adopter le développement agile relève d’une décision de management plus que de technique, comme toutes les décisions vraiment importantes.

 

hongkong_agile

A quel point êtes-vous agile…?

.

.

.

 

 

 
%d blogueurs aiment cette page :