The blog of blog of blogs

Les aventures d'un ethnologue dans le grand monde

IA et deep learning (2): comment les datasets vous biaisent 14 avril 2021

Filed under: Ethnologie,IA,organisation,Société,technologie — Yannick @ 11:11

.

Dans l’article précédent j’évoquais les jeux de données (datasets) qui servent à l’apprentissage profond des algorithmes (deep learning) et le fait que cette étape est le point de départ qui permet l’existence des intelligences artificielles. Cette phase d’étiquetage est trop souvent considérée comme de peu de valeur ajoutée. Elle nécessite une main-d’œuvre pléthorique et elle est mal rémunérée, puisqu’après tout il ne s’agit que d’associer des mots à des « choses », n’est-ce pas ?

1_NLnnf_M4Nlm4p1GAWrWUCQ


.
Grave erreur, aux conséquences qui peuvent être sont dévastatrices. Car c’est un préjugé dans le préjugé : croire que les technologies sont socialement neutres, alors qu’elles sont une construction culturelle.  Si vous êtes un décideur politique, relisez cette phrase plusieurs fois. 

La création du jeu de données initial est un phénomène culturel qui a un impact direct sur la confiance qu’on peut accorder aux produits de cette industrie et à toute décision prise par une IA.

Pour ceux qui m’ont déjà entendu le dire, je le redis : l’intelligence de l’artificiel vient de l’intelligence de ses concepteurs
-et pour l’IA, ça commence avec les jeux de données.
(Si vous ne m’aviez jamais entendu le dire, ce n’est pas grave, je le redirai :) )

Au moment de l’étiquetage, ce sont les représentations mentales de milliers de travailleurs anonymes du net qui sont projetées dans la base de données qui servira ensuite de référence pour qu’un algorithme s’y entraîne à interpréter une réalité.

En plus des erreurs factuelles, il y a des idées reçues, des croyances, des approximations et des préjugés de toutes sortes qui sont donc embarqués dans ce qui va servir à “éduquer” les algorithmes, qui ne sauront rien faire d’autre ensuite que reproduire les préjugés qui leur auront été inculqués. Il y a bien entendu du contrôle qualité de la part des fabricants des jeux de données mais essentiellement en ayant recours à une vérification croisée, par les participants eux-mêmes.
Si l’image d’une antilope est étiquetée comme étant une pie, soit c’est une erreur factuelle qui peut être détectée et corrigée (ce qui reste à prouver), soit ce sont les participants qui croient majoritairement et de bonne foi qu’une antilope est une pie, auquel cas ce ne sera même pas considéré comme une anomalie puisque dans leurs représentations culturelles c’est une vérité. 

…ou, confondant corrélation et causalité, ils croient majoritairement que si une main noire tient quelque chose, c’est nécessairement une arme (photo).

googlevision


La question se pose de savoir quelle est la variété des participants humains à une campagne d’étiquetage ? Comment est constitué cet échantillon là ? Est-ce qu’il y a une campagne de recrutement pensée avec soin, ou est-ce qu’on prend les premiers volontaires dont on sait que dans le milieu des technologies ce sera essentiellement des hommes à la peau blanche appartenant à la classe moyenne ?

Mais il serait aussi trop facile de rejeter toute la faute sur la foule qui est sollicitée en crowdsourcing : la question se pose également de savoir quel type de données ont été soumises à l’étiquetage. Quelle est la validité des données, dans le jeu de données lui-même ?

Le jeu de données MNIST qui regroupe 70000 chiffres manuscrits de 0 à 9 a été constitué en recueillant les papiers d’employés du Bureau du Recensement américain. Un algorithme qui s’entraîne sur cet échantillon saura plutôt bien reconnaître l’écriture d’une certaine tranche de population : adultes, nord-américains, employés de bureau. Donnez au même algorithme des chiffres écrits à la main par des enfants, ou par des personnes peu scolarisées, ou par des européens qui mettent une barre au chiffre 7 et le taux d’erreur va exploser. Dans un autre contexte, mais pour la même raison d’échantillon trop homogène, lors des premiers tests de voitures autonomes configurées en Europe, les IA n’ont pas su identifier les kangourous qui traversaient les routes australiennes puisque le jeu de données pensé et conçu en Europe avait peu de raison d’inclure les marsupiaux. Les datasets asiatiques sont connus pour mal reconnaître les visages non-asiatiques, toujours pour la même raison.

.

deep learning error dataset_black women_oprah-winfrey
Technologies are not « socially neutral » and even less with AI : its victims are usualy the groups already vulnerable in society at large and very especially the black women.

Les exemples sont abondants et très bien documentés dans tous les domaines : c’est d’abord le manque de variété dans les datasets de l’intelligence artificielle qui génère des conséquences nocives, dont les victimes sont régulièrement les populations déjà vulnérables dans le paysage social.

Si votre jeu de données contient essentiellement des images de visages de personnes à la peau blanche, pas étonnant que les IA qui s’entraîneront dessus ne sauront pas identifier les visages de vraies personnes qui n’ont pas cette couleur de peau. Les femmes noires sont particulièrement (mais pas exclusivement) victimes de ce travers (et, non, ce n’est pas qu’une question d’éclairage ambiant).

.

Cette ostracisation récurrente n’implique pas que les datasets ou les algorithmes sont volontairement configurés pour être racistes, ou anti-pauvres, ou anti-kangourou, ou anti-ce-que-vous-voulez. Mais les conséquences entretiennent et amplifient les disparités existantes, y compris dans leurs inégalités, injustices ou même tout simplement leurs absurdités. 

.

Pour ceux qui ont recours aux IA c’est un point d’attention qui doit être vraiment, vraiment pris au sérieux : il est de votre devoir de demander aux vendeurs de ces logiciels quelles preuves ils ont que leur machin n’a pas de conséquences perverses. Quel genre de tests de recevabilité éthique sont mis en œuvre ? Où sont les résultats ? Les créateurs de datasets devraient être dans l’obligation de prouver une variété suffisante de leur jeu de données ainsi que dans le recrutement des humain(e)s qui ont procédé à l’étiquetage et, légalement, je ne suis pas loin de penser qu’un jeu de données utilisé pour le deep learning devrait être dans le domaine public, ouvert et sûrement pas protégé par un quelconque et opaque secret industriel ou licence « propriétaire » ou brevet de propriété intellectuelle.

Les jeux de données du deep learning doivent faire partie de l’open data. Tous. Y compris pour le secteur de la Défense, maintien de l’ordre ou antiterrorisme, d’autant que cette technologie pour notre malheur à tous est de plus en plus comprise comme un élément de l’infrastructure de surveillance globale, sinon de répression, c’est donc l’ensemble de la population qui est susceptible d’en être victime.

Et une technologie de surveillance qui fait des erreurs, c’est le règne de l’arbitraire, où tous les décideurs se cacheront derrière la complexité technologique pour ne pas être tenus responsables.
A ce stade, je me retiens d’aborder le sujet des smart cities

.

.

Ainsi donc, avant même la phase d’étiquetage, les « choses » qui sont mises dans les jeux de données s’avèrent être aussi la résultante de choix, de jugements de valeurs, de positionnements en termes de vie collective, avec ses propres biais et idées reçues. 

Si votre IA voit une image d’antilope et l’appelle une pie, c’est presque comique (cf. mon article précédent : ici). Sauf si le logiciel est déployé dans un parc naturel en vue d’empêcher le braconnage. Et comment le logiciel appelle-t’il une image de pie ? Et l’étiquette « antilope » est apposée sur l’image de quoi ?
Et si une IA pour véhicule autonome n’a pas assez appris à reconnaître l’image d’une poussette, comment pourra-t’elle déclencher un freinage d’urgence lorsqu’il y en aura une devant elle dans la rue ? Elle ne la verra même pas et la traversera sans ralentir.

Il est trop simple d’affirmer qu’on peut « corriger l’erreur » car vous corrigerez cette erreur-là, ponctuellement, mais pas toutes les fois suivantes puisque l’algorithme a appris à faire cela. Il ne sait pas faire autre chose et il reproduira l’erreur qui, de son point de vue de machine, n’en est pas une.
(une machine, rappelons-le, c’est con comme un balai)
Et bien sûr, en attendant, « cette erreur-là » aura été commise :
-une poussette a été percutée,
-une main noire portant un téléphone portable a déclenché une intervention de police pour un « individu armé »,
-vous êtes sous surveillance de la DGSI parce qu’une caméra-micro dans la rue vous a enregistré en train de mentionner « demain » « pose » « bombe », alors que la phrase complète était « demain je pose mon nouveau parquet, ça va être de la bombe ». 

Nous ne sommes pas censés attendre que ce genre d’erreur soit commis : nous voulons, nous avons besoin de certitudes préalables.

Quelles sont les probabilités que, dans un avenir pas trop lointain, un pays, une administration, une grande entreprise de la tech se mette à réfléchir sérieusement aux conséquences non-intentionnelles des IA, avant de les balancer dans les pattes de centaines de millions de gens qui n’ont rien demandé à personne ?

.

Au début de l’année 2021, une étude est venue renforcer le doute quant à la fiabilité du deep learning : Curtis G. Northcutt, Anish Athalye, Jonas Mueller : Pervasive Label Errors in Test Sets Destabilize Machine Learning Benchmarks. 2021
En analysant les dix principaux datasets mondiaux (dont ImageNet), les chercheurs ont identifié un taux d’erreur de 6% en moyenne dans l’étiquetage.

Et ça les copains, c’est 6% d’anomalies absolument critiques, parce que tous les programmes d’IA apprennent à partir de ces jeux de données qui ont en moyenne 6% d’erreurs. Ces erreurs se propagent donc dans les logiciels partout dans le monde en reproduisant les mêmes conséquences déplaisantes. C’est encore plus vrai dans les systèmes dits « prédictifs » qui servent par exemple à évaluer sur la base de critères (biaisés) les probabilités (fantasmées) de futur comportement criminel d’une personne. La justice à ce stade devient une injustice algorithmique institutionalisée et c’est une démonstration d’ignorance de la part de tous ceux qui ont validé le fait que l’idée avait l’air bonne.
Dans ce cas le drame est triple : il y a des innocents en prison, des malfaisants en liberté et des naïfs pour croire que si c’est une machine qui l’a dit c’est que c’est forcément objectif.

Il y a là une abondance d’arguments qui relèvent de la superstition technologique : croire que la décision automatisée est exempte de biais, de défaut ou d’erreur, alors qu’elle a été créée par des gens, nécessairement faillibles. Parce que non, il n’y a pas une étape secrète dans le code informatique qui supprime toutes les « erreurs » faites par les humains et rétablit miraculeusement la justice. Il n’y a pas d’algorithme de ce qui est « juste ».

Et ces logiciels d’automatisation des décisions servent à vous évaluer pour vous accorder (ou pas) un crédit immobilier, un emploi ou un licenciement, un examen universitaire, le droit à des allocations familiales ou a un contrôle fiscal…

.

The failures of any « predictive » software would be laughable, if it was not for their dramatic impact on real lives.
That is algorithmic injustice. On what kind of biased dataset was this AI trained ?
Beforehand, what kind of proof of viability could / should publish the editors of AI software ?

.

Et on peut aussi parler de la « reconnaissance des émotions » qui est une gigantesque arnaque intellectuelle, en plus d’avoir des conséquences humaines dignes d’un accident industriel. Répétez après moi : la reconnaissance des émotions est une fumisterie, une tromperie, ça ne fonctionne pas, ça ne peut pas fonctionner, c’est une impossibilité anthropologique. Si vous êtes un décideur politique, relisez cette phrase plusieurs fois. 

.

Consciente de cet empilement de défauts qui commence à devenir très gênant aux entournures, en avril 2021 l’entreprise Facebook a publié un jeu de données visant à établir un standard dans la variété qu’on est en droit d’attendre pour éduquer des IA de reconnaissance faciale. Ce dataset en libre accès est appelé Casual conversations et il est remarquable parce que ses concepteurs ont bien compris que c’était un élément clé dans le process de fabrication de l’intelligence artificielle. Il a donc été bien fait, preuve que c’est tout à fait possible. Comment votre IA se comporte si elle tourne sur cet échantillon ?

Spéciale dédicace à Yann Le Cun.

.

Ainsi, comme toute technologie, l’IA est ambivalente et les conséquences de son déploiement seront hétérogènes. Son potentiel est certes époustouflant… mais on évalue une technologie d’abord sur la réalité de sa mise en œuvre, de la manière dont elle est fabriquée jusqu’à la manière dont elle est utilisée… et sur ces deux points force est d’admettre qu’on peut mieux faire.
(sauf pour la reconnaissance des émotions… laissez tomber. N’insistez pas, je vous assure…)


Le gentil robot inoffensif qui sert de compagnon aux personnes âgées en reconnaissant leur visage, leurs gestes et en leur faisant la conversation est mu par du code informatique qui pourra resservir dans un drone-chien d’attaque qui vous cassera les deux jambes lors d’une prochaine manifestation sur la voie publique. A moins que le gentil robot ait fait trébucher la personne âgée dans l’escalier en voulant lui faire un câlin, parce que c’est ce comportement qu’il aura appris dans un dataset animalier.
Techniquement il est donc possible de rendre ces outils plus performants.

Socialement, la question reste posée de l’utilisation qui en sera faite. Veut-on en faire des machines qui atténuent et éventuellement corrigent les discriminations et les injustices, ou choisit-on de laisser faire et donc d’amplifier les discriminations et les injustices ? Car en matière de conception informatique -de design– il n’y a pas de demi-mesure. Soit c’est excellent, soit c’est un piège profond. Les doctrines d’emploi de ce genre de logiciels seront directement issues de choix politiques, qui s’élaborent dans le débat citoyen, dans nos assemblées nationales ou instances internationales. Un acte de construction sociale, là encore.
C’est toujours de cela dont je parle quand je répète (encore) que l’intelligence de l’artificiel vient de l’intelligence de ses concepteurs.

.
Du début à la fin, de la sélection de la data qui entre dans un dataset, en passant par les preuves de fiabilité de l’étiquetage jusqu’aux choix (ou non choix) politiques qui régulent son usage, l’intelligence artificielle est une construction sociale. 

.

.

.

The "intelligence" of the "arificial" comes from the intelligence of its designers.
From beginning to end, from the choice of data in the datasets, to the labeling of this data, up to the political choices made (or not made) to regulate its use : Artificial Intelligence is a human, social construct.

.

.

 

IA et deep learning (1): la constitution des datasets 12 avril 2021


.

.

Tout a commencé en 2012 lors d’une compétition informatique, lorsque la méthode de l’apprentissage profond (deep learning) a prouvé qu’elle était meilleure pour identifier visuellement des objets que toutes les méthodes concurrentes. C’est ce qui a permis d’ouvrir de vastes possibilités dans le domaine de l’intelligence artificielle (IA).
Il était désormais possible de trouver non seulement des solutions au problème technique de la reconnaissance d’image (machine vision) mais surtout il était possible de dupliquer la méthode au-delà des seules images. Le deep learning s’est imposé comme une méthodologie standard qui permet aussi d’identifier les sons, le langage manuscrit, etc.

Pour faire court, le deep learning consiste d’abord à coller des étiquettes de texte sur des images, afin de construire de gigantesques jeux de données (datasets) de référence. On est dans un ordre de grandeur au moins mille fois plus grand que votre gigantesque fichier Excel de 1 giga octet, bienvenue dans le Big Data. Dans un second temps, ces jeux de données sont utilisés comme échantillon pour permettre à des algorithmes d’apprendre seuls à répéter la même tâche jusqu’à être capables de répéter cette tâche en dehors du jeu de données de référence qui a servi à les « éduquer ». 

.

La première étape est donc de disposer d’un référentiel de mots bien organisé et ce n’est déjà pas une mince affaire.

La référence du secteur s’appelle WordNet , une base lexicale qui fait autorité depuis les années 1980 (on en avait besoin avant l’ère de l’ordinateur !) et qui compte à ce jour plus de 155000 mots organisés dans une arborescence logique de 175000 sous-ensembles et 200000 paires, du type : carnivore > canidé > chien >  toutou

Ne vous laissez pas avoir par la simplicité de cet exemple… WordNet est géré par l’université de Princeton et si vous voulez ne serait-ce que commencer à comprendre le sujet il est necessaire de s’attaquer à : Fellbaum, Christiane : WordNet and wordnets. In : Brown, Keith et al. : Encyclopedia of Language and Linguistics. 2005

 

.

La deuxième étape consiste à disposer d’une banque d’images. L’une des plus vastes est ImageNet   : 14 millions d’images reroupées en 21000 sous-ensembles logiques. On notera que l’arborescence d’ImageNet réplique celle de WordNet afin de permettre une forte coherence entre les deux, jusqu’à pouvoir les faire fonctionner comme un unique ensemble. Car les images seules ne servent à rien. Ce qui fait la valeur d’ImageNet c’est l’association d’images à des mots du lexique WordNet.

Les plus curieux pourront lire avec intérêt : L. Fei-Fei and J. Deng. ImageNet: Where have we been? Where are we going?, CVPR Beyond ImageNet Large Scale Visual Recognition Challenge workshop, 2017

Il est ainsi possible d’avoir des milliers d’images de petite cuillère, annotées “petite cuillère” afin qu’un algorithme soit capable de reconnaître qu’il y a ou qu’il n’y a pas une petite cuillère le plus souvent possible : seule, au milieu d’autres couverts de table, en pleine lumière, dans la pénombre, tordue, partielle, en train d’être utilisée (en mouvement), photographiée, dessinée, schématisée, en ombre, peinte, peinte en noir, peinte en blanc, brillante, sale, absente, etc.

.

The process of buiding the datasets requires a huge human workforce in order to link images and names, so that cats are identified properly as cats in multiple conditions. Once this phase is done, manually, over Peta-bytes of data, the dataset will be put in use to train algorithms so that Artificial Intelligence softwares perform as expected beyond the range of their initial « educational » dataset.

.

Le processus d’étiquetage est fait en recourant au crowdsourcing : une force de travail humaine de centaines de milliers de volontaires anonymes qui, la plupart du temps, sont inscrits auprès du plus gros acteur dans ce domaine, le Mechanical Turk de l’entreprise Amazon. C’est ouvert à tous, très bien organisé, vous pouvez y participer et vous serez rémunéré pour le faire. Pas beaucoup.

(Une autre manière de mettre au boulot l’humanité est de recourir à l’outil Captcha, qui vous demande d’identifier par exemple des feux de signalisation sur des images, pour s’assurer “que vous n’êtes pas un robot”. Vous l’avez sûrement déjà fait, sans que personne vous dise que vous étiez mis à contribution avec des milliers d’autres personnes pour alimenter un jeu de données d’IA visuelle.)

.

Bien entendu, l’explication qui précède s’applique aux images mais aussi à tout le reste. Les sons, les compositions chimiques, le développement des cellules cancéreuses, les formules de calcul, les gestes de la main, le langage naturel parlé ou écrit, le mouvement des corps célestes ou tout autre domaine qui vous motive dans la vie (le jeu de données MNIST par exemple recense 70000 chiffres manuscrits de 0 à 9).

A partir du moment où vous avez sous la main un (très) grand échantillon sur n’importe quoi, le deep learning peut servir à en automatiser la reconnaissance, d’abord en faisant appel à une armée de contributeurs humains pour associer manuellement à cet échantillon de “choses” des mots permettant de les identifier, puis en faisant travailler un algorithme sur ce jeu de données.

Si votre entreprise ou votre administration fabrique de l’IA il est plus que probable que vous éduquez vos algorithmes en les faisant travailler sur des datasets fabriqués par d’autres, que vous avez achetés ou réutilisés en libre accès, libre de droits comme ImageNet par exemple. Tous sujets confondus, il existe quelques centaines de jeux de données d’importance variable qui servent à l’éducation de 90% des algorithmes d’intelligence artificielle dans le monde.

Et dans tous les cas, retenez bien l’ordre dans lequel ça se passe : d’abord l’étiquetage par des humains pour créer le jeu de données, ensuite l’apprentissage algorithmique en utilisant ledit jeu de données.

.

La méthode du deep learning implique donc ce prérequis tacite : il est absolument nécessaire que l’échantillon de départ soit correctement étiqueté, parce que bien sûr en tant qu’utilisateur de logiciel d’intelligence artificielle, vous ne voulez certes pas que votre produit reconnaisse une pie là où il y a une antilope (photo).

Datasets are the backbone of the whole AI industry
Their integrity is critical for the consequences of AI-led decisions.

 

Toute la complexité consiste ensuite à bien coder l’algorithme, afin qu’il puisse d’une part faire le moins d’erreur possible sur le jeu de données de référence mais aussi qu’il parvienne à extrapoler. Il doit être capable de reconnaître une petite cuillère en bois en suspension dans une station spatiale même s’il n’a jamais vu cette image auparavant.

C’est bien l’objectif d’une IA : qu’elle soit capable de se débrouiller seule dans la vraie vie.

…mais avant de passer à cette étape de mise en œuvre, je m’en vais rester un moment sur la notion de dataset pour souligner, en appuyant très fort, à quel point l’intégrité de ces jeux de données est absolument critique pour préparer tout le reste. La colonne vertébrale de l’IA ce n’est pas l’algorithme, c’est le jeu de données qui a servi à l’éduquer.

Le sujet avait déjà été abordé en 2016 par Alexander Wissner-Gross dans son article Les datasets davantage que les algorithmes. Mais il semble qu’il n’y avait pas beaucoup d’oreilles pour l’entendre.

.

La plupart du temps en effet les mises en œuvre pratiques d’une IA présentent l’étape finale et abordent la viabilité de l’algorithme.

Si l’IA fait une erreur à ce stade, les ingénieurs et les vendeurs de ces logiciels (et les politiciens) vous diront qu’il s’agit d’un problème d’algorithme qui nécessite encore un réglage, ou qu’il faut mieux analyser les données captées par l’IA afin de comprendre où elle s’est trompée afin de pouvoir rapidement corriger un problème. Mais vous aurez beau mettre au travail vos meilleurs mathématiciens et data scientists, il est bien possible qu’il n’arrivent jamais à trouver des solutions au problème parce qu’il ne descendront pas la chaîne de causalité jusqu’à son étape fondamentale, celle où le jeu de données est créé : la phase d’étiquetage, qui a servi de base à la configuration de l’algorithme.

Et bien sûr les fabricants d’IA sont à la recherche de leur pierre de Rosette, ils aimeraient que cela aille plus vite et donc tentent d’accélérer le rythme en retenant un unique dataset (le plus gros fait l’affaire) pour être plus rapidement sur le marché, le plus gros marché possible. Mais à force d’entraîner les algorithmes sur des datasets toujours plus vastes, les intelligences artificielles ne sont-elles pas condamnées à faire de plus en plus d’erreurs ?
C’est une question qui chatouille toute l’industrie du secteur, surtout si on y ajoute l’impact environnemental lié à la consommation d’énergie. …à tel point que Google a licencié les chercheuses de stature internationale qui peuplaient son équipe « IA et éthique » pour avoir publiquement soulevé le problème dans un article au sujet des IA en langage naturel (les dangers des perroquets stochastiques 🦜).

Spéciale dédicace à Margaret Mitchell et Timnit Gebru.

 .

Quel espoir de “bon apprentissage” pouvez-vous avoir, si votre référentiel indique qu’une antilope est une pie ? Votre algorithme ne fonctionnera jamais correctement ou plutôt il affirmera toujours qu’une antilope est une pie, dès qu’il verra une nouvelle antilope.

Les datasets sont perçus comme un truc simple, qui va de soi, sous-estimés dans les catastrophes qu’ils peuvent déclencher dans la vraie vie lorsque les IA prendront des décisions basée sur ce qu’elles y ont appris. Quel résultat obtiendrez-vous si, par défaut, les visages féminins ne reçoivent que des propositions d’emploi d’“infirmière” alors que les visages masculins peuvent postuler pour devenir “médecins” ? Et quel espoir de correction du jeu de données pouvez-vous avoir s’il comporte 200000 éléments et a déjà été traité en phase d’étiquetage par 10000 personnes ? Vous prétendriez pouvoir reprendre un par un chaque élément pour le re-valider ? Surtout qu’en tant que fabricant d’IA vous allez dire que ce n’est pas votre boulot, ce n’est pas votre jeu de données, ce n’est pas votre responsabilité juridique. Il a été conçu par quelqu’un d’autre…

.

Avant que l’IA puisse être généralisée comme technologie courante dans le monde qui nous entoure, il faudra qu’on parvienne à un consensus sur le fait que leurs jeux de données en sont le facteur limitant et que cette limite est liée à la culture, aux contextes sociaux.
Vous n’avez pas besoin de davantage de spécialistes techniques, vous avez besoin de faire travailler ces ingénieurs avec des spécialistes en sciences sociales :
des gens qui ne sont pas impressionnés par la sophistication technologique et qui demandent, encore et encore, quels sont les impacts collectifs, sociaux, humains ?

Là réside le cœur d’un problème que ne savent résoudre ni les directeurs, ni les ingénieurs, ni les crowdsourceurs, ni les docteurs en génie logiciel : le social.
La constitution des jeux de données est un phénomène social, les « données » elles-mêmes sont une construction sociale. Pour le domaine de l’IA qui s’affirme essentiellement « technologique » et donc « objectif », c’est le loup qui entre dans la bergerie… et vous devez cesser de considérer les jeux de données comme des trucs sans valeur ajoutée et socialement neutres, sans quoi le loup va vous manger tout cru.

Je parle des dégâts dans la suite de cet article.

..

The wolf of social beliefs among the innocence of AI datasets… because DATASETS ARE A SOCIAL CONSTRUCT.
Largely overlooked, the datasets, not algorithms, are a key actor of AI (in-)efficiency.
Take them seriously, please, otherwise the wolf will eat you alive.

.

.

.

 

La naissance du masque 21 avril 2020


Dans la continuité de la pandémie de covid-19 et ses effets inattendus, ouvrons le chapitre « comment naissent les styles ». C’est une nouvelle branche de l’industrie textile qui apparaît en temps réel : Le Masque.

.
Si nous avions eu une réelle politique de santé préventive, les capacités de test du covid-19 auraient été suffisantes pour identifier et tester tous les malades puis les isoler un par un et nous n’aurions pas connu d’épisode de confinement général.
-répétons ici que le confinement général n’est pas et n’a jamais été une solution sanitaire, c’est une solution politique qui démontre une absence de recours sanitaire-

Si le volume de masques sanitaires avait été suffisant, par milliards à l’échelle d’un pays comme la France, nous en aurions tous été systématiquement équipés et son port aurait été rendu systématique dans l’espace public, notamment en milieu intérieur.
Mais même cela, nous n’en étions pas suffisamment équipés au printemps 2020. Le masque standard (jetable) s’avéra être une denrée rare et les stocks disponibles furent légitimement réquisitionnés en premier lieu au profit des travailleurs de la santé ou plus généralement vers les métiers en contact avec le public.

Pour le reste de la population, restait le recours à l’improvisation pour se faire son masque à base de tissu (réutilisable) déjà présent chez soi. L’activité devint presque un hobby en matière de détournement d’usage, certains retaillant des écharpes, d’autres des soutien-gorges, d’autres des foulards ou des manches de pull.
-et on se se serait bien moqué de celui qui nous aurait dit qu’il y aurait bientôt des gens qui porteraient en public des bonnets de soutien-gorge sur le visage pour se protéger d’un virus-

.

La tendance s’associe à celle du Do It Yourself.
Avec plus ou moins de succès, les avant-gardistes du DIY s’investirent donc pour créer leur masque personnel artisanal dont les effets sanitaires ne sont pas parfaitement garantis c’est le moins qu’on puisse dire… mais pour lequel on peut convenir qu’il vaut sans doute mieux quelque chose plutôt que rien. De fait, le virus est assez petit pour passer les mailles du tissu mais il n’en reste pas moins que le tissu peut stopper les micro-projections qui portent le virus.
Car, redisons-le, un virus ne « circule » pas, ce sont les gens qui le transportent avec eux et contaminent autrui. Porter un masque sert donc d’abord à protéger les autres de tout ce qui peut sortir de notre bouche ou de notre nez. Avec ça et des mains propres, la contamination chute drastiquement et c’est tout ce qui importe.

Mais l’individualisation a d’autres qualités. Elle permet de domestiquer un objet qui est habituellement associé à un environnement dangereux. On ne fait pas que décorer un bout de tissu, on le rend familier. On diminue la charge symbolique d’un artefact qui signale des conditions d’existence inquiétantes pour une durée qui reste inconnue, dans un monde bien incertain.
L’individualisation esthétique des couvre-visages permet un processus mental prophylactique. Réfléchir à la couleur ou à la matière ou à la manière dont on va vivre avec permet de se projeter dans ce nouveau monde,  avec des attributs culturels qui nous appartiennent.

.

En renfort à ce besoin profond de familiarisation, les professionnels de l’industrie vestimentaire  permettent d’ajouter une vraie qualité de coupe, de logotypage, d’inserts pour filtre FFP2 ou 3 et autres élastiques tressés ou indéchirables.
Si une large part de la population reste encore dubitative, lorsque la pression sociale sera assez forte pour vous faire sentir mal à l’aise sans cet artifice en public, vous y viendrez aussi (sans compter l’amende pécuniaire lorsque c’est réglementairement obligatoire). Et les marchands vous fourniront alors de quoi vous équiper avec un foisonnement de personnalisations possibles, exactement comme nos tee-shirts ou nos chaussettes.

Progressivement donc, Le Masque devient un effet personnel à part entière. Seul l’avenir pourra dire si un vaccin fera disparaître cette tendance vestimentaire en même temps que la menace.

Et c’est très, très horripilant de se dire qu’il faudra attendre un vaccin pour mettre un terme à la menace de reconfinement local puisque nous n’avons pas de solution intermédiaire satisfaisante.
Il faut qu’un « cluster » soit identifié pour lancer un campagne de tests massive sans possibilité d’agir de manière plus diffuse, avant que le mal ne soit installé quelque part.
Pourquoi la médecine du travail n’est-elle pas équipée abondamment de tests de dépistage du Covid-19, ou la médecine scolaire, ou les pharmaciens, les cabinets médicaux et d’infirmiers ?
Quand aurons-nous une politique de santé préventive ?
Mais d’ici-là…

.

Would we have had sufficient numbers of individual tests the general lockdowns wouldn’t even exist. Would we have had enough facemasks to protect whole populations against covid-19, we would all carry them without thinking twice. But there aren’t. The social pressure will constraint everyone to carry « something » akin to a sanitary mask. But a mask is not just a neutral artefact, it’s a personal symbol, it needs to be familiarized because we need to lower its threatening charge, as it represents a new and somewhat hostile environnement. The Mask is becoming a new branch of the garment industry, maybe even to outlast the delivery of a vaccine.
Because it seems that we will never have sufficient numbers of individual tests either.

.

.

.

 

L’ethnographie rapide 5 septembre 2019


Design ethnographique, ethnographic design.

Cette expression a émergé depuis quelques années et j’en avais déjà parlé ici, après une discussion avec une collègue sise en Nouvelle-Zélande.

Le « design ethnographique » n’existe pas en tant que métier ou méthode. Il ressemble à un archétype, une de ces choses non définies qui donnent à voir une réalité sinon impossible à appréhender. Tout ce qu’on sait à ce jour c’est que le design ethnographique signifie quelque chose.

.

Et finalement, c’est peut être aussi bien ainsi. Nommons d’abord la chose, pour souligner le fait que la tectonique des plaques professionnelles a rapproché deux continents : le design et l’ethnologie -et plus largement les sciences sociales-.

Dans une large mesure, le rapprochement est d’ailleurs encore en train de se faire. Le nouveau territoire n’est pas prêt d’être correctement cartographié puisqu’il sera en mouvement (et donc instable) pendant longtemps. Cette instabilité se remarque lorsqu’en réunion vous-vous rendez compte que le spécialiste des sciences sociales aborde les mêmes thématiques que les designers, mais avec un vocabulaire différent. Le rapprochement se fait d’abord par un effort de traduction.

Mais une chose est sûre : le design est bénéfique à l’ethnologie au même titre que l’ethnologie est bénéfique au design. Le design apporte en particulier une dimension opérationnelle, collective, horizontale, dans un processus créatif qui oblige à prendre en compte l’avis des indigènes, j’ai nommé : les utilisateurs.
Réciproquement, l’ethnologie apporte sa rigueur méthodologique qui oblige à la « revue de littérature » et à la discussion argumentée pour aller débusquer en profondeur les idées reçues et les stéréotypes.
Car je l’ai déjà dit et je le redirai : les stéréotypes, c’est mal.
Le design et l’ethnologie sont salvateurs l’un pour l’autre, l’un(e) apportant à l’autre une consolidation au niveau structurel.

.

L’une des mises en garde majeures que les sciences sociales adressent aux équipes de conception réside dans le biais pro-innovation. Tout le monde se pense autorisé à « livrer » à tort et à travers sans avoir abordé la notion de conséquence. L’empressement à respecter des délais mène trop souvent à oublier qu’on n’est pas autorisés à jouer avec les vrais gens, comme s’ils n’existaient que pour s’extasier devant nos machins et nos bidules.

Cessez de penser que les vrais gens sont « vos » utilisateurs. Ils ne sont pas à vous.
Pas du tout. Ce sont de vrais gens et vous devez respecter le principe de non interférence.

Ne . Pas . Interférer.

Car depuis l’époque où les travaux des ethnologues étaient détournés pour coloniser et soi-disant civiliser les barbares, la profession a appris à se méfier des projets d’innovation.
L’innovation n’est pas forcément bénéfique, non, non.
Qui plus est, une innovation ne se diffuse jamais de façon linéaire dans la population. Certaines catégories de personnes applaudiront tandis que d’autres vous maudiront parce que vous avez dégradé leur existence.

L’appropriation d’une innovation est toujours hétérogène et l’intérêt d’y réfléchir en phase amont permet de limiter les catastrophes, même involontaires, sur une partie de la population, même minime.
Les questionnements éthiques font désormais partie de la méthode et ne sont pas optionnels. A ce titre, ça fait aussi partie de la méthode de discuter des éventuelles conséquences sociales négatives.

.

Inversement, la pratique du design impose aux ethnologues de se concentrer sur l’aspect opérationnel de leur contribution. Eux aussi doivent s’investir pour apporter des éléments qui puissent être actionnés afin de répondre à la question : « Comment faire ? »
Il y a un gros travail à mener pour améliorer la rapidité avec laquelle une observation de terrain peut faire ressortir des éléments qualitatifs pertinents. Dans le monde académique, une enquête ethnographique se mesure en mois ou en années… une temporalité illusoire dans un projet de design. Comment aller plus vite ? Comment avoir mieux recours à l’arsenal des méthodes de l’ethnologue pour être efficace dans un horizon de temps qui se mesure en jours ou en semaines ? Et comment le valider avec la même rigueur scientifique ?
Le champ de l’ethnographie rapide (rapid ethnography) a vocation à répondre à ces questionnements.
Il s’agit de s’éloigner du format de la monographie exhaustive classique pour inventer un format hybride qui vise à fournir une connaissance raisonnablement suffisante d’une population.
Cela se fait en particulier en s’abreuvant au corpus des recherches déjà publiées, en ayant davantage recours aux interviews semi-directifs et en limitant la durée d’une observation aux moments-clés qui permettent de zoomer sur un contexte précis.

 Pour le dire autrement l’ethnographie rapide n’implique pas de laisser de côté la délibération théorique. C’est même ce qui fait la valeur ajoutée de l’ethnologue : il connaît les classiques. Il sait placer à bon escient Les Nuer d’Evans-Pritchard ou It’s complicated de Danah Boyd-@zephoria

Le corpus des sciences sociales est vaste et, sauf erreur, il n’y a pas d’autre discipline qui soit aujourd’hui capable d’argumenter avec rigueur sur l’expérience utilisateur des objets connectés, ou les usages de l’IA, ou sur l’influence des structures de parenté sur les motivations d’achat individuelles. L’erreur serait colossale de penser qu’une ethnographie rapide doit abandonner la réflexion théorique pour se concentrer sur les outils.
.

Vos équipes qui font de la recherche utilisateur (user research) ont donc pour objectif de revenir de leur exploration de terrain avec des sujets d’innovation, sur des thématiques qui vont servir à rendre le monde plus habitable du point de vue des utilisateurs.

C’est là où le duo de compétences designer-ethnologue s’avère d’une redoutable efficacité et où chacun se félicite d’avoir fait au moins cinq ans d’études dans sa spécialité pour se retrouver à faire des étincelles avec quelqu’un dont le métier lui était parfaitement étranger jusqu’à très récemment.

Vous êtes recruteur(euse) ? Ne cherchez pas des profils design/ethno. Ne répétez pas l’erreur que vous avez commise avec les UX/UI. Relisez cette phrase plusieurs fois.

.

Il y a un consensus à atteindre entre les deux métiers, en particulier dans la phase initiale d’accès au terrain (et non d’intervention sur). C’est pendant cette phase d’immersion que les professionnels vont conjointement observer, débattre et identifier ce qui peut faire l’objet d’une intervention. C’est dans cette période relativement brève de la recherche que va se révéler l’efficacité de l’équipe multi-disciplinaire. Les designers et ethnologues parlent-ils la même langue ?
Leurs continents professionnels sont-ils suffisamment rapprochés ?

.

.

.

 

 

 

 

 

Un plan vert brillant 21 février 2019


Ce document est la traduction de la proposition de loi Green New Deal émise au Congrès américain par la députée Alexandria Ocasio-Cortez
L’original est disponible ici   (GreenNewDeal_FAQ.pdf)

Le Green New Deal (Nouveau Contrat Écologique) n’est pas une idée particulièrement neuve. Sa première mention remonte à 2007 sous la plume de l’économiste Thomas Friedman dans le New York Times.
Depuis, nombreux ont été ses soutiens, entres autres Ban Ki-Moon ou Paul Krugman qui ne sont pas des plaisantins idéologiques.
Plus d’information en anglais  ici
On notera avec intérêt (et affliction) qu’une page Wikipédia en français sur ce sujet n’existe même pas.

Certains aménagements ont été faits pour permettre de transposer le texte original au contexte français et européen. Du point de vue de notre vieux continent, ce programme aussi vaste qu’il soit, paraît moins radical et révolutionnaire que du point de vue américain. Notre histoire et notre système social ont déjà posé les bases qui permettent d’envisager une mise en œuvre crédible.

.

Le PDF de ce texte est ici : Green New Deal_FR_2019

Le lecteur assidu à ce blog reconnaîtra un thème déjà abordé en 2011 dans cet article sur le Vert Brillant. La proximité des deux articles est frappante et montre une tendance de fond.

.

– – –
Lancement le jeudi 7 février 2019 à 8h30.

Panorama

Nous commencerons le travail dès maintenant pour préparer le projet de loi du Green New Deal. Il s’agit d’abord de valider l’architecture de base du projet (afin que personne d’autre ne se l’approprie).
Il s’agit d’une transformation massive de notre société avec des objectifs et une chronologie clairs.

Le projet de loi du Nouveau Contrat Écologique est un plan sur 10 ans qui mobilise tous les aspects de la société française à un niveau jamais atteint depuis la seconde guerre mondiale. Il s’agit d’atteindre un niveau zéro d’émissions de gaz à effet de serre et de créer les conditions d’une prospérité économique pour tous. Le Nouveau Contrat permettra de :

• Faire fonctionner la France avec 100% d’énergie propre et renouvelable, incluant le développement de l’autonomie énergétique des bâtiments
• Créer des centaines de milliers d’emploi stables en France et des millions à l’échelle européenne, rémunérés par des salaires dignes
• Permettre une juste transition pour les travailleurs afin d’assurer la sécurité économique des populations qui ont jusqu’à présent dépendu largement des industries fossiles
• S’inspirer de la Seconde Déclaration des Droits de Franklin Delano Roosvelt en 1944, pour garantir :

– Un emploi stable et un salaire digne, une assurance maladie individuelle et familiale, des congés et des droits à une retraite digne.
– Une éducation de grande qualité, universelle et gratuite y compris dans son aspect de formation tout au long de la vie.
– Un air propre, une eau potable et l’accès à la nature
– Une nourriture saine et non contaminée
– Des soins de santé de premier plan
– Un logement sûr, accessible financièrement et résilient face aux futurs aléas météorologiques que l’on peut déjà anticiper
– Un environnement économique libre de monopoles
– Un environnement politique libre de l’influence des intérêts privés capitalistiques.
– Une sécurité économique pour toutes celles et ceux dans l’incapacité ou l’absence de volonté de travailler contre rémunération

Il n’y a pas de temps à perdre
Les plus récentes études du GIEC affirment que les émissions de gaz à effet de serre doivent être réduites de 40 à 60% d’ici 2030.
Nous devons atteindre le 0 en 2030 et nous montrerons ainsi au monde qu’un Nouveau Contrat Écologique est possible, d’une part, et bénéfique socialement d’autre part.

Impossible n’est pas français… et in varietate concordia
Lorsque le président américain John Ford Kennedy affirma en 1962 que l’être humain irait sur la Lune en 10 ans, nombreux furent ceux qui ont pensé que c’était impossible. Aujourd’hui nous avons des robots sur Mars.
Lorsque Franklin Delano Roosvelt demanda la construction de 185.000 avions pour combattre durant la deuxième guerre mondiale, chaque directeur d’entreprise et chaque général se mit à rire. A cette époque, les Etats-Unis produisaient 3.000 avions par an. A la fin de la guerre, ils en avaient produit 300.000.
C’est ce dont nous sommes capables lorsque nous sommes bien dirigés.
L’Europe a su se reconstruire après la deuxième guerre mondiale, pour devenir aujourd’hui une puissante force de stabilité dans le monde.
L’Allemagne de l’Ouest a su intégrer l’ancienne RDA en une année après la chute du Mur de Berlin.
Le produit intérieur brut français est neuf fois plus élevé qu’en 1890.
En termes de niveau d’éducation, de niveau de revenu et de longévité nous sommes parmi les premiers au monde.

Il s’agit d’un investissement massif dans notre économie et dans notre société. Ce n’est pas une dépense
Chaque euro d’investissement public permet une création de richesse estimée à 2,5 euros.
Avec le Nouveau Contrat Écologique, l’investissement public pourra se porter sur des domaines précis. Il ne s’agit pas d’une modernisation mais d’une remise à jour, pour préparer notre avenir à tous. Les secteurs des transports, du logement résidentiel et de la production industrielle seront les premiers concernés en France. L’investissement public permettra l’émergence d’une économie que « le marché » aujourd’hui est incapable ou refuse de mettre en mouvement.
Il s’agit aussi d’un investissement massif dans le capital humain, qui prendra en compte la vie quotidienne des citoyens comme point de départ pour en déduire quels projets mettre en œuvre, à commencer par la résolution de problèmes plutôt que l’ajout de nouvelles contraintes.
La France dispose d’instituts de recherche en sciences sociales de niveau mondial, ils seront sollicités.

Le Nouveau Contrat est déjà en mouvement
Face au changement climatique, nous savons que l’inaction coûtera plus cher et sera plus dévastatrice que l’action.
L’immense majorité des Français et des Européens a conscience du risque et de la nécessité d’agir. Face à l’inertie des acteurs privés et des gouvernements, en ce début d’année 2019 même les enfants font la grève de l’école pour demander de l’action concrète.
Les acteurs publics les plus engagés en faveur du climat sont les villes et les régions.
Il est temps que les États prennent leurs responsabilités à commencer par les Assemblées Nationales en étroite coordination les citoyens et avec le Parlement Européen.
Unis dans la diversité.

.

Foire Aux Questions

Pourquoi un élan vers des énergies 100% propres et renouvelables, et pas seulement du 100% renouvelable ? Vous dites qu’on continuera d’utiliser les énergies fossiles ?

Nous appelons à une transition complète pour se libérer des énergies fossiles et ne plus émettre du tout de gaz à effet de serre.
Quiconque a lu le projet de loi a pu voir que cela passera par une mobilisation de chaque secteur de l’économie, chaque entreprise, chaque acteur public et chaque groupe syndical.
Mais bannir immédiatement et abruptement les combustibles fossiles serait une très mauvaise idée puisque nous n’avons rien pour les remplacer à ce jour.
Nous le ferons en créant à partir de presque rien une économie de l’énergie renouvelable aussi vite que possible. C’est la ligne directrice du Nouveau Contrat Écologique.
Ainsi nous fixons un objectif net d’émission à 0 dans 10 ans, car personne ne peut garantir que nous saurons atteindre les zéro émissions dans l’absolu. Ça supposerait de pouvoir éliminer les émissions de gaz à effet de serre provenant du transport aérien ou des pets de l’élevage animal.
Mais nous pensons pouvoir faire grandement monter en puissance l’industrie manufacturière et l’industrie de l’énergie, ainsi que rénover chaque bâtiment en France, construire une smart grid, mettre à jour les transports et l’agro-alimentaire, l’agriculture ainsi que planter des millions d’arbres pour atteindre l’objectif net de zéro émission de gaz à effet de serre.

Le nucléaire en fait partie ?
Le Nouveau Contrat Écologique est un investissement massif dans la production d’énergies propres et renouvelables et n’implique pas de construire de nouvelles centrales nucléaires.
Le nucléaire d’ailleurs n’est ni une énergie renouvelable, ni une énergie propre. Ses déchets sont des polluants radioactifs mortels qui ont une durée de vie qui se mesure en centaines d’années.
Cependant nous n’avons aucune certitude de pouvoir décommissionner toutes les centrales existantes en seulement dix ans.
Mais notre objectif est clair : nous voulons du 100% propre et renouvelable. Le pétrole, le charbon, le gaz et le nucléaire n’en font pas partie.

Est-ce que ça implique une taxe carbone ?
On ne peut pas simplement taxer le carburant ou le gaz et s’attendre à ce que les citoyens trouvent tous seuls un autre moyen d’aller au travail ; sauf quand nous leur proposerons une autre alternative plus saine et aussi pratique au quotidien.
Donc nous n’excluons pas la taxe carbone, mais elle fournirait seulement une petite partie des financements nécessaires. Le projet gigantesque qui consiste à remettre à jour l’économie suppose qu’on ait d’abord des alternatives à proposer, techniquement et socialement, pour s’assurer que ce soit indolore pour les citoyens, les familles et les communautés.

Est-ce que ça implique du cap and trade (bourse d’échange de « droits à polluer ») ?
Le Nouveau Contrat Écologique créera une nouvelle économie de l’énergie par des investissements massifs dans la société et la technologie. Les bourses d’échanges de droits à polluer supposent que le marché tel qu’il existe résoudra les problèmes de lui-même. Ce n’est pas vrai.
Le cap and trade pourrait être à la marge un moyen d’associer les acteurs au Nouveau Contrat, mais il faut reconnaître que la législation actuelle des bourses d’échanges est une forme de subvention qui permet l’existence de zones éparses de pollution intense qui exposent sévèrement les populations locales. On doit d’abord s’assurer que les populations locales, leur santé et leur bien-être, sont la première priorité de tout le monde.

Est-ce que ça implique l’interdiction de toute nouvelle construction liée aux énergies fossiles ou de centrale nucléaire ?
L’une des conséquences du Nouveau Contrat Écologique sera de rendre inutiles les nouvelles constructions liées aux énergies de l’ancien monde, fossile ou nucléaire. Nous voulons ne plus en avoir besoin.
Nos investissements seront donc orientés massivement dans les énergies du nouveau monde, pas dans les autres. Vouloir faire les deux serait une tromperie et une hypocrisie qui maintiendrait le statu quo.

Êtes-vous favorables au stockage du CO2 ?
(CCUS : Carbon Capture, Utilization, and Storage)
La bonne manière de capturer le CO2 est de planter des arbres et restaurer les écosystèmes naturels.
A ce jour les technologies de capture des gaz à effet de serre dans l’atmosphère n’ont pas prouvé leur efficacité.

Comment allons-nous payer pour tout ça ?
De la même manière que les États-Unis ont payé leur New Deal dans les années 1930 ou comme les banques centrales ont résolu la crise bancaire en 2008 avec le quantitative easing (rachat de dettes).
De la même manière que nous avons payé la deuxième guerre mondiale et toutes nos guerres actuelles.
La Banque Centrale Européenne peut étendre ses lignes de crédit pour propulser le Nouveau Contrat Écologique vers les sommets. Il y aussi de la place pour des participations publiques, en vue de futurs dividendes ou retours sur investissement.
Au bout du compte, cet investissement dans l’économie nouvelle fera croître la richesse de la nation. La question n’est pas de savoir comment nous payerons, mais que ferons-nous de notre nouvelle prospérité.

Pourquoi doit-il y avoir un si vaste programme public ? Pourquoi ne pas se contenter de l’incitation par les taxes et des réglementations qui orienteraient les investissements du secteur privé ?
– Le niveau d’investissement doit être massif. Même si les milliardaires et les entreprises se donnaient la main pour déverser leur richesse dans la transition écologique, on ne parviendrait qu’à une modeste fraction de ce qui est nécessaire.
– La vitesse d’investissement devra être massive elle aussi. Même si les milliardaires et les entreprises se donnaient la main pour déverser leur richesse dans la transition écologique ils n’auraient pas la capacité de coordination suffisante pour un agenda si serré.
– Les investisseurs privés sont également hésitants à investir dans des domaines où personne n’a encore gagné d’argent. Les gouvernements par contre peuvent agir dans un temps long et peuvent patiemment investir dans les nouvelles technologies et la recherche, sans avoir en tête une application commerciale précise au moment où se fait la dépense d’argent.
Un exemple majeur d’investissement public à succès s’appelle l’internet.
– Pour résumer, nous ne devons pas seulement cesser de faire comme nous avons toujours fait (comme brûler du carburant pour nos besoins en énergie), nous avons aussi besoin de faire du neuf (comme remanier des secteurs d’activité entiers ou rénover tous nos bâtiments). Commencer à faire de nouvelles choses nécessite des investissements immédiats. Un pays qui essaye de changer le fonctionnement de son économie a besoin de gros investissements immédiats, pour lancer et développer ses premiers projets.
– Fournir des incitations au secteur privé ne fonctionne pas. Les subventions en faveur du solaire ou de l’éolien ont certes produit des résultats positifs, mais bien insuffisants par rapport à un objectif de neutralité carbone comme le promeut le Nouveau Contrat Écologique.
– Il y a bien une place pour le secteur privé mais l’investisseur principal ne peut être que la puissance publique. Il est normal que lui revienne aussi le rôle de coordinateur et pilote de l’ensemble du projet.

.

Résumé du projet de loi

Créé en consultation avec de multiples groupes de la société civile, syndicats et défenseurs de l’environnement.

5 objectifs à 10 ans
14 projets pour mobiliser l’économie
15 exigences de justice sociale et de sécurité

5 objectifs à 10 ans :
– Émissions nettes de gaz à effet de serre à zéro, grâce à une transition écologique juste pour toutes les communautés et les travailleurs.
– Création de centaines de milliers d’emplois stables ; assurer la prospérité et la sécurité économique pour tous.
– Investissement dans les méthodes, les infrastructures et l’industrie pour les mettre durablement au niveau des défis du XXIe siècle
– Air propre et eau potable. Résilience climatique au niveau local. Nourriture non contaminée. Accès universel à la nature et à un environnement non dégradé.
– Promotion de la justice et de l’équité en prenant soin des communautés les plus vulnérables.

14 projets majeurs pour mobiliser l’économie :
– Construction d’infrastructures permettant la résilience face aux catastrophes naturelles. Valoriser les bâtiments autonomes en énergie.
– Réparation et rénovation des infrastructures existantes
– Répondre à 100% des besoins énergétiques nationaux en recourant aux énergies propres et renouvelables. Pouvoir se passer du fossile et du nucléaire.
– Construction d’un réseau de distribution de l’énergie économe (smart grid) et garantir un accès universel minimum à l’énergie.
– Rénover tous les bâtiments pour les mettre à niveau d’une société économe en énergie
– Étendre le recours standard à l’industrie propre et non polluante (agro-alimentaire, fabrication, installation et maintenance de panneaux solaires, éoliennes, batteries et stockage énergétique, techniques de dépollution, processus industriels circulaires, « chimie verte », etc.)
– Travailler avec les agriculteurs pour créer des circuits alimentaires durables, permettant l’accès universel à une alimentation de première qualité tout en permettant aux travailleurs de vivre de leur production.
– Remanier le secteur du transport en augmentant massivement la production de véhicules électriques fiables et leur réseau de recharge. Rénover et densifier les transports publics urbains, interurbains et hors zone urbaine. Interconnecter les différents modes de transport à toutes les échelles du pays.
– Atténuer les impacts sanitaires du changement climatique et de la pollution terrestre, aérienne ou marine.
– Reforester massivement pour permettre l’absorption du carbone dans l’atmosphère
– Restaurer les écosystèmes dégradés, notamment en rapport avec la biodiversité du règne animal et végétal.
– Recherche et développement pour des produits de substitution ou des méthodes de remplacement permettant de supprimer les principaux polluants utilisés dans chaque secteur d’activité
– Partage de notre expertise, de nos technologies et méthodes avec nos voisins européens et avec les pays limitrophes de nos territoires d’Outre-Mer.

15 exigences de justice sociale et de sécurité :
– Des investissements massifs et l’assistance aux organisations, associations et entreprises qui s’engagent dans le Nouveau Contrat et s’assurant que la nation y trouve son retour sur investissement.
– Garantir que les coûts sociaux et environnementaux sont intégrés aux études d’impacts, aux estimations de retour sur investissement.
– Fournir une formation professionnelle continue universelle. Protéger les travailleurs plutôt que l’emploi
– Investir dans la Recherche et Développement (R&D) de nouvelles technologies énergétiques
– Mener des investissements directs pour les communautés en première ligne du réchauffement climatique ainsi que pour les communautés directement liées aux industries carbonées qui seraient sinon frappées de plein fouet par la transition en cours. Prioriser les retours sur investissement à leur profit.
– Utiliser comme méthode par défaut la concertation et le processus participatif avec les utilisateurs directs et les communautés locales.
– S’assurer que les emplois créés par le Nouveau Contrat Écologique sont des emplois dignes, stables et inclusifs.
– Protéger le droit des travailleurs à se syndiquer et à être représentés à tous les niveaux de décision.
– Renforcer et élargir la notion de santé et sécurité au travail aux domaines de l’inclusion, et de la non-discrimination, que l’activité soit salariée, indépendante ou bénévole.
– Renforcer les règles commerciales pour mettre un terme au dumping social, à l’export de pollution et accroitre l’industrie nationale.
– Garantir que le domaine public urbain ou naturel est protégé
– Préalablement au démarrage d’un projet sur leur territoire ou pouvant impacter leur territoire, obtenir le consentement éclairé des communautés locales, en métropole ou territoires d’Outre-Mer.
– Garantir un environnement libre de monopoles et de compétition abusive.
– Fournir des soins de santé curatifs de haute qualité, tout en déployant un système de santé orienté vers la prévention, en particulier pour les pathologies considérées comme évitables.
– – –

.
[Note du traducteur]
SOURCES (février 2019) :

https://www.documentcloud.org/documents/5731869-Green-New-Deal-FAQ.html (GreenNewDeal_FAQ.pdf)

Cliquer pour accéder à ENG4%20REPERES%202010%20ENG-Partie%204.pdf

http://www.globalcarbonatlas.org/en/CO2-emissions

Summary for Policymakers of IPCC Special Report on Global Warming of 1.5°C approved by governments

https://report.ipcc.ch/sr15/index.html

http://www.globalcarbonatlas.org/en/CO2-emissions

https://www.lemonde.fr/idees/article/2016/11/04/l-investissement-public-est-la-cle-de-la-reprise-economique_5025661_3232.html

http://www.lefigaro.fr/conjoncture/2016/05/28/20002-20160528ARTFIG00115-pour-jean-tirole-il-faut-proteger-le-salarie-plutot-que-l-emploi.php

.

 

La maladie honteuse des données personnelles 19 novembre 2018


Les vols de données personnelles sont devenus communs et on s’étonne à peine de les voir défiler dans la presse.
Chaque semaine, des voleurs entrent dans les réseaux et remplissent leurs poches d’informations sur la vie des gens, parfois par millions.
La plupart du temps les informations dérobées permettent de commettre des fraudes très efficaces.

Le piratage de l’IRS américain en 2015  a ainsi alimenté pour des années le marché de la contrebande des fausses identités et des justificatifs d’impôts tout en pourrissant la vie des personnes volées pour au moins autant de temps.
D’autres motivations peuvent amener les pirates à attaquer une cible particulière, pour des motifs de vengeance ou de chantage.
Enfin, sans intention de nuire, une cause majeure des fuites de données provient des erreurs humaines. Absence de mise à jour d’un système, oubli dans une configuration technique, réutilisation d’un mot de passe corrompu… toutes ces choses qui confirment qu’en matière de sécurité informatique la première faille de sécurité se trouve « entre la chaise et la clavier » : l’utilisateur ou l’opérateur lui-même.

 

A chaque fois, il s’agit d’informations sur nous, de l’information que nous donnons pour pouvoir utiliser un service, comme nos vrais noms, prénoms, numéro de carte bancaire, sécurité sociale, téléphone, date de naissance, empreinte digitale des enfants pour qu’ils puissent déjeuner à la cantine, ou autre.
Et à chaque fois ceux qui réclament ces informations assurent qu’ils les garderont secrètes et inaccessibles au reste du monde.
Et à chaque fois, ils ne le font pas.
De ce point de vue, l’expression « vol de données » est commode car elle est neutre, en termes de responsabilité. Une entreprise ou une administration « victime de vol de données » se fait passer pour la victime… alors qu’elle avait la responsabilité de garder ces choses secrètes et ne l’a pas fait.

.

Les intrusions délictuelles ont connu un pic dans les années 2014-2015, avec par exemple l’entreprise Orange qui fut attaquée deux fois de suite pour un vol qui concernait plus de deux millions de personnes… dont peut-être vous si vous étiez abonné Orange à l’époque.
Depuis, les grandes organisations ont donc largement eu le temps de comprendre que les données personnelles sont fort recherchées et donc que plus elles en hébergent, plus elles sont susceptibles d’être seront attaquées.
Mais depuis, l’épidémie n’a jamais vraiment cessé. Le pic de 2014-2015 est devenu une norme, voire un minimum dans les années fastes.
Car oui, on en a vu d’autres !
Facebook est devenu un gros pourvoyeur de failles de sécurité mais aussi la plupart des opérateurs de réseau, les banques, sans compter toutes les effractions d’entreprises ou d’administrations dont on n’entendra jamais parler pour des raisons plus ou moins avouables.

Le Règlement Général sur la Protection des Données (RGPD)  va probablement provoquer plus de divulgations d’intrusions, puisqu’il oblige légalement à informer le public qu’un vol a eu lieu, au plus tard dans les 72h après qu’il a été constaté. On peut donc s’attendre à en voir encore davantage dans la presse… pas parce qu’il y a davantage d’attaques, mais parce que les organisations sont contraintes de ne plus le passer sous silence.
Inversement, je serais curieux de voir combien retarderont le plus possible la « découverte » d’intrusions pour retarder le moment où il faudra étaler son linge sale sur la place publique…

.

Les fournisseurs d’accès, les réseaux sociaux, les administrations  et beaucoup d’autres (trop !) enregistrent scrupuleusement à qui nous parlons, à qui nous écrivons, ce que nous likons et avec qui nous échangeons des documents. Les vendeurs enregistrent nos habitudes d’achat, les opérateurs enregistrent les lieux et les heures où nous allons et ce que nous regardons sur internet. Ils savent très bien en déduire nos espoirs, nos peurs, nos fantasmes et nos secrets.
La géolocalisation révèle où nous habitons, où nous travaillons, quels sont nos itinéraires habituels.
En associant les données localisées à l’échelle d’une ville, il est possible de prouver avec qui nous étions dans le bus, au supermarché et avec qui nous avons passé la nuit.

.

Parce que différentes organisations se positionnent comme acheteurs et revendeurs de nos informations (les data brokers), tous ceux qui peuvent collecter des données sont susceptibles de gagner de l’argent en les revendant.
Et le secteur est dynamique, c’est le moins qu’on puisse dire.
D’un côté sur le marché légal, une adresse e-mail valide vaut environ 0,5 centimes d’euros. Une « fiche client » provenant des bases de données de Facebook est estimée à 100 euros (ce qui participe à sa valeur en bourse, vu le nombre revendiqué de 2,27 milliards d’utilisateurs actifs).
De l’autre côté, sur le marché noir, le raccourci habituel est de demander 100 dollars pour 100.000 contacts. Donc d’un côté comme de l’autre, plus ils peuvent en avoir, plus ils en demandent.

Mais sur le marché officiel ou clandestin, une chose est sûre : une fois que nous avons donné nos informations elles ne sont plus à nous même si elles parlent de nous.  Les données enregistrées, stockées sont ensuite diffusées on-ne-sait-où, elles sont analysées par on-ne-sait-qui et pour on-ne-sait quel-but, vendues et achetées pour des motifs de marketing ou autre raison de persuasion et d’influence. Et beaucoup de monde gagne beaucoup d’argent avec.

« Tout enregistrer et le stocker indéfiniment » est donc un business model qui fonctionne.
Pour renforcer cette idée, on pourrait même dire que le travail qui consisterait à identifier ce qui ne mérite pas d’être enregistré est si difficile qu’il n’existe pas. D’ailleurs, ce qui semble inutile aujourd’hui pourrait être très utile demain. Du coup si on l’a enregistré aussi, on pourra le monnayer à ce moment-là.
Il suffit d’enregistrer, stocker et attendre.

.

 

La collecte de données personnelles est cependant dangereuse parce que ce sont des données… personnelles.

Enregistrer tout cela est dangereux parce que ça déclenche les convoitises et ça rend difficile une protection efficace.
Entre 2013 et 2014, Yahoo! a reconnu deux ans plus tard s’être fait voler 1,5 milliard de fiches clients.
Enregistrer les données personnelles est dangereux parce que vous savez que vous allez subir des effractions. Des entreprises vont vous attaquer, des pirates, des États ou des employés très en colère et vous ne pourrez pas tous les arrêter, c’est une certitude.
Or si dans le vrai monde le défenseur a toujours un avantage tactique (même relatif), dans le domaine de la cyber sécurité c’est l’attaquant qui a l’avantage.

Enregistrer tout cela est dangereux aussi car les dégâts d’une intrusion réussie sont dévastateurs.
La protection a été percée, la presse va parler du vol, la réputation va souffrir, la valeur boursière va baisser et cela peut dégénérer jusqu’au procès et à une condamnation ferme… et, surtout, de vrais gens vont se retrouver en difficulté à cause de la fuite.

.

.

Mais si les données personnelles sont si dangereuses, pourquoi donc les enregistrer ?

La première raison est que c’est une maladie de compulsion… il n’y a pas de raison particulière, sauf qu’on ne peut pas s’en empêcher.
Par appât du gain, tout le monde enregistre tout, tout le temps. Les organisations ne peuvent plus s’empêcher de tout enregistrer, comme une espèce de trouble compulsif embarrassant mais très répandu.

Des masses de données vont donc demeurer là pendant des années, personne ne se préoccupera de savoir si elles sont encore à jour ou pertinentes. Si quelque part quelqu’un sait que vous avez eu un cancer en 2005, qui se soucie de mettre à jour l’information de votre parfaite guérison ? Quel malus allez-vous subir si votre mutuelle santé établit ses tarifs sur ce genre d’information erronée ? Et qui possède ce commentaire graveleux que vous aviez posté avec vos noms et prénoms dans un obscur forum de discussion il y a 10 ans ?

 

La compulsion à enregistrer des données personnelles est une maladie honteuse, mais puisque tout le monde est contaminé il n’y a pas de raison de changer de comportement.
Cette incapacité collective vient du fait que l’architecture technique est conçue dans cet objectif et elle fonctionne sans aide, en faisant exactement ce qu’on lui demande. S’il vous fallait un exemple que le design ce n’est pas que de la cosmétique, il est là.
Obligation de « Créer un compte », obligation de saisir une adresse postale, obligation de donner son vrai nom et prénom, numéro de carte bancaire sauvegardé automatiquement après un paiement, etc.
La règle par défaut est l’enregistrement à l’échelle industrielle, jusqu’à l’overdose si nécessaire.

La Révolution arrivera le jour où nous serons payés pour enregistrer nos données personnelles  -ou rémunérés d’une manière ou d’une autre. Je suis bien certain que si la data devenait coûteuse à acquérir, on nous en demanderait soudainement beaucoup moins. Car il existe des cas ou, quoi qu’on en pense, la collecte de ces informations est nécessaire. Par exemple laisser sa mutuelle santé lire nos statistiques d’activité physique pour obtenir une ristourne parce qu’on est raisonnablement « sportif ».
Alors, quand c’est nécessaire, votre organisation devrait envoyer du lourd pour protéger ces données qui ne lui appartiennent pas : cryptographie forte, tokens anonymisés, double ou triple pare-feu, blockchain et j’en passe.

It’s the data, stupid ! All hard and software should (and will) allow portability of data, as it is produced in your organization.

 

 

Une seconde raison est la mode du Big Data.
Les entreprises et les gouvernements sont en pleine période d’envoûtement, subjugués par les promesses d’un monde meilleur (et de profits plus gros) grâce à la data.
Bien des travaux sont pourtant publiés sur le fait que plus de data n’est pas nécessaire, à commencer par les ethnologues qui démontrent jour après jour que le quantitatif sans qualitatif est une fumisterie sans nom. Coûteuse et socialement régressive.

 

Une troisième raison est que la plupart beaucoup de soi-disant responsables minimisent encore les risques.
Ils n’ont toujours pas compris à quel point une brèche de sécurité peut les mettre à genoux (sans parler du jour où une intrusion réussie permettra un vol et aussi le vandalisme des bases de données).
L’excès de confiance ici est un péché mortel et il convient d’éviter de croire qu’on est bien protégé. C’est d’ailleurs le premier signe d’une mauvaise sécurité : lorsque vous êtes sûr d’être bien abrité… demandez à Murphy.

La plupart n’ont pas encore compris que la meilleure protection consiste à supprimer les données personnelles.

.

 

Car les effets de mode se périment et les comportements stupides apportent rarement la longévité.
La tendance actuelle du privacy by design prend le contrepied des arguments habituels sur le sujet.

Dans tous les domaines, il est possible de fournir un service de qualité sans nuire à la vie privée des utilisateurs et sans finir par mourir d’obésité informationnelle.

 

De fait, vous n’avez pas besoin d’enregistrer l’adresse postale d’un client ! Qu’il vous la donne en vue de recevoir son colis est une chose, que vous la gardiez au chaud dans vos bases de données pour une durée indéfinie en est une autre.
Des choix techniques, des choix de design peuvent être faits pour éradiquer la maladie honteuse.


L’assistant Snips est un petit nouveau sur le marché en plein essor de l’intelligence artificielle vocale, qui a la particularité de fonctionner sans transmission à distance. Le logiciel est dans l’objet et vos discussions avec l’objet ne finissent pas sur des serveurs en Inde ou en Arizona.  On se demandera d’ailleurs utilement pourquoi les Alexa ou Siri nous imposent de transmettre nos conversations sur internet pour les enregistrer, alors qu’il est possible de ne pas le faire pour une qualité service équivalente.

Des moteurs de recherche comme Qwant ou DuckDuckGo fournissent des résultats comparables à Google mais ils n’analysent pas, eux, quel est l’historique de vos dernières consultations soi-disant « pour vous offrir une meilleure expérience de navigation ».

 

Les pratiques industrielles courantes dans le fonctionnement d’internet ont transformé internet en plateforme de surveillance, ce n’est pas la NSA qui me contredira.

Raisonnablement, on doit reconnaître que certaines données n’ont même pas besoin d’être demandées, d’autres n’ont pas besoin d’être enregistrées et celles qui doivent l’être devraient être stockées dans des bases différentes, verrouillés par plusieurs niveaux d’accréditations, qui rendent la cible « dure » et qui imposent énormément d’efforts à l’attaquant pour réunir des données cohérentes et monnayables sur le marché noir.

 

Mais il semble d’ores et déjà que si les internautes peuvent utiliser à qualité équivalente des outils conçus pour la discrétion (privacy by design), l’argument commercial fera son petit effet.
Parce que les scandales à répétition nous ont appris à nous, les internautes, que les entreprises ne savent pas protéger nos données et même celles qui savent ont une capacité de défense limitée, quoi qu’elles en disent.
Les entreprises qui peuvent nous protéger sont celles qui en demandent le moins possible, voire pas du tout.
Et s’il est vrai que la data est une matière première qui prend de la valeur quand elle a été raffinée, on pourrait aussi bien la considérer comme une matière inflammable qu’il convient de ne pas avoir en trop grandes quantités pour éviter les retours de flamme…

.

.

.

 

Uzbin et l’évaluation du risque 8 août 2018


Il y a 10 ans, le lundi 18 août 2008, l’armée française perdait 10 hommes et 21 autres étaient blessés dans une embuscade tendue dans la vallée d’Uzbin (Uzbeen), en Afghanistan.
C’étaient les plus grosses pertes au combat depuis la guerre d’Algérie, sans compter l’attentat de 1983 au Liban contre le poste Drakkar.

Comme pour l’attaque du pont de Verbanja, combien de Français civils s’en souviennent ?
Dix ans après l’embuscade d’Uzbin, on observera donc avec attention comment le sujet sera traité dans la presse française. S’il l’est.

.

uzbeen_embuscade_2008

Dans l’esclandre le débat national qui s’en est suivi, en 2008, les décideurs politiques ont eu beau jeu de critiquer l’absence de tolérance des familles et du Peuple pour la mort de soldats.
Lorsque votre tenue de travail comporte une arme et ses munitions en effet, une hypothèse crédible est qu’on puisse ne pas revenir sain et sauf le soir. Certes. Mais c’est aller un peu vite en besogne. Encore faut-il que les décideurs politiques aient permis aux soldats de faire correctement leur travail, à commencer par leurs décisions relatives aux budgets des armées.
Ainsi, dans l’embuscade d’Uzbin, la critique pourrait aussi être inversée et, s’agissant de vies humaines, on peut même utiliser le présent pour poser une question qui reste d’actualité : l’institution militaire et ses responsables civils peuvent-ils garantir que les moyens sont disponibles pour que, si malheureusement des soldats tombent au combat, au moins ils ont pu en mettre plein les dents à l’ennemi avant de tomber ?
En termes moins crus, quels moyens sont mis en œuvre pour retarder et minimiser les pertes d’une section d’infanterie, tout en augmentant les dégâts qu’elle peut infliger à l’ennemi dans un rapport, mettons, de 1 pour 15 ?
Quelles leçons ont été tirées d’Uzbin ?

.
Ici, dans cette région d’Afghanistan en 2008 il n’y avait pas de reconnaissance aérienne préalable, une dotation minimale en munitions, pas d’appui aérien disponible, pas de plan de secours. Au VIe siècle avant Jésus Christ, le général chinois Sun Tzu (孫子) nous avait pourtant prévenus dans son ouvrage L’art de la guerre : « Tout le succès d’une opération réside dans sa préparation ».
Ces seuls éléments laissent à penser que la patrouille d’Uzbin a été programmée par des responsables qui pensaient que la région était calme et que tout irait bien. Du reste, c’était ce que confirmaient les Italiens qui opéraient jusque là à cet endroit et que les Français étaient venus remplacer. Il n’y avait aucune raison de s’alarmer, même pour une patrouille dans un pays en guerre depuis trente ans.
Ça tombait bien, ça allait coûter moins cher.

L’évaluation du risque a été faite en fonction des probabilités d’échauffourées et sur la base des comptes-rendus italiens qui indiquaient que tout était paisible.
Or on n’évalue pas un risque en fonction des probabilités mais en fonction des conséquences.
« Prévoir le pire et espérer le meilleur » , comme dit l’adage. Et non pas l’inverse.
En l’occurrence, penser aux conséquences aurait permis une toute autre configuration de la patrouille à commencer par des munitions supplémentaires et des renforts sur le qui-vive.
Le risque d’une chute de météorite était improbable, mais celui d’une attaque par un ennemi supérieur en nombre n’est jamais improbable dans un contexte de guerre. Selon la qualité du renseignement, c’est même une hypothèse qui peut être vérifiée avant l’opération. Si on a les équipements. Bref.
C’était une hypothèse à envisager spontanément et non pas comme un cas marginal et peu rationnel. Ça l’est tout le temps d’ailleurs, dans tous les endroits où des soldats patrouillent en armes : au Mali, à Djibouti ou à Lyon ou Paris.

…bien plus tard, il s’est avéré que les Italiens distribuaient de l’argent aux populations locales pour qu’elles se tiennent tranquilles.
Plus tard encore, traumatisé par l’événement, le pouvoir politique national retira notre armée d’Afghanistan -une dernière insulte à nos soldats tués dans ce pays.
Donc au début du XXIe siècle, quand la France faisait la guerre l’ennemi pouvait gagner en tuant dix de ses combattants.

.

La prochaine fois que vous devrez évaluer un risque, pensez à Uzbin. Pensez aux conséquences et non aux probabilités.
Et pour pouvoir pallier réellement aux conséquences, si vous devez prendre une décision d’investissement, allez-donc étudier les besoins de votre personnel en première ligne en étant avec eux sur le terrain : équipe de vente, guichetiers, équipe projet ou… section d’infanterie.
Tout le reste de l’édifice devrait être orienté vers la réponse à leurs besoins.
C’est l’intérêt d’une organisation centrée utilisateur (user centric) : ce type de management mène à se doter d’équipements (enfin) performants et d’une organisation conforme aux objectifs qu’on se fixe (qui ne sont, avant ça, que des prétentions).

Ne le faites pas et ne vous plaignez pas alors que vos équipes en soient réduites à appliquer la procédure PBM alors que les balles sifflent.
De ce point de vue, quelles leçons ont été tirées d’Uzbin ?

.

Voir aussi :   https://fr.wikipedia.org/wiki/Embuscade_d’Uzbin

.
.
.

 

Millennials, digital natives (et autres foutaises) 7 juin 2018


.La puissance des préjugés et des idées reçues est souvent largement sous-estimée.

Il existe ainsi de nombreuses catégories qui nous permettent de ‘lire’ le monde alentour mais qui, après examen, s’avèrent totalement infondées. Ainsi, certains croient que la Terre est plate, d’autres que les Millennials existent pour de vrai.

.

De nombreuses publications ont popularisé cette manière de qualifier les différentes générations par des traits de caractère typiques, afin de diffuser des messages commerciaux censés les attirer vers tel ou tel produit.
En suivant cette logique erronée (comme toute théorie à usage marketing), si vous êtes né le 31 décembre 1979 vous faites partie de la Génération X et vous-vous démarquez par un comportement généralement sceptique, pragmatique et démotivé. Si vous êtes né un jour plus tard, le 1er janvier 1980 on vous assigne à la catégorie des Millennials (ou Génération Y), ce qui est censé faire de vous quelqu’un de narcissique, technophile et optimiste.
En tenant compte de ces traits de caractère il serait alors possible de concocter des messages à destination de ces populations …messages qui tomberont systématiquement à plat en termes d’âge.

Car ce n’est pas le calendrier qui commande notre familiarité avec une technologie ou les valeurs auxquelles on adhère, c’est l’environnement familial, l’histoire personnelle, l’éducation et notre position dans l’échelle sociale.
Quelqu’un né en 2001 dans le XVIIe arrondissement de Paris fait bien partie de la même génération que quelqu’un d’autre né la même année dans la cité des Izards à Toulouse, mais ce n’est sûrement pas la date de naissance qui permet de trouver leurs points communs en termes de comportement ou de préférences.

Émettre des théories et proposer des plans d’action sur le seul critère des différences générationnelles, c’est créer des stéréotypes. Et les stéréotypes, c’est mal.

.

Ces stéréotypes pour fallacieux qu’ils soient, n’en ont pas moins un effet réel parce que les décideurs ont l’illusion de connaître « le marché ». Des décisions sont prises en se référant à une réalité qui n’existe pas. Des produits et des sites web sont créés sur la base de ces catégories imaginaires  (demandez à  Joon), ainsi que des politiques publiques ou même des stratégies d’innovation tout entières.
Mais l’innovation ne se base pas sur des croyances et aucune étude sérieuse ne corrobore l’idée que le critère générationnel est pertinent pour déduire des caractéristiques culturelles.
Si vous voulez connaître vos clients il faut cesser de croire et aller constater en direct, sur le terrain. Bienvenue dans le monde merveilleux de l’expérience utilisateur.
Là, des spécialistes (des vrais) pourront démontrer que non, l’âge n’est pas un critère valide pour identifier les préférences des utilisateurs d’iPhone rose, d’Instagram ou de chaussures New Balance vertes. Parce que effectivement, un utilisateur technophile aujourd’hui a de fortes attentes quant à la qualité de ce qu’on lui propose -et ce qu’on lui propose est branché à l’internet. Les digital natives le sont parce que l’état des technologies à leur époque ne leur laisse de toute manière pas le choix, pas plus qu’aux autres classes d’âge. Si nous avions été en 1986, cette description aurait très bien convenu à un utilisateur chevronné du magnétoscope ou du lecteur CD. L’aisance qu’on a avec un outil n’est pas liée à l’âge, elle est liée à…l’aisance qu’on a avec l’outil.
Car 12, 22, 52 ou 72 ans… quelle importance ?

On ne construit pas une stratégie d’innovation, ni des profils d’utilisateurs, sur une base générationnelle.
Et les valeurs communes entre une marque et ses utilisateurs n’ont rien à voir avec une unique tranche d’âge.
.

.

Bien sûr les « générations » existent. En démographie on appelle ça une cohorte de naissance : un groupe d’individus ayant la même année de naissance. Notez bien que c’est le seul point commun de tous ces gens : l’année de naissance.
Mais il n’y a là rien qui fasse d’une génération un ensemble homogène en termes de valeurs, de préférences ou de pratiques. Les communications qui s’adressent aux 15-25 ans, finalement, cachent assez mal l’idée que la cible réelle est la population des jeunes riches : c’est la population que les entreprises souhaiteraient avoir dans leur fichier client.

Les généralisations abusives et le simplisme ne sont pas vos amis, pas plus que le recours aux boules de cristal ou la divination par les os de poulet. Nous devrions être hautement suspicieux de ce genre de platitudes démographiques.
Et pour ceux/celles d’entre vous qui tentent malgré tout d’y voir clair en identifiant qui, quoi, comment, pourquoi se produisent les différences générationnelles; je vous invite à prononcer la formule magique : quelles sont les preuves ?

.

En réponse à cette question… vous constaterez que l’édifice s’effondre, comme c’est le cas en général pour les foutaises du management.

.

.

.

.

.

 

Des objets à commander 9 avril 2018


Les modèles de conception appliqués au digital ont permis l’essor de méthodes collaboratives qui nous éloignent toujours un peu plus de la théorie du One best way de Fayol, Taylor et Ford.
Du reste, s’il y a bien une leçon à retenir des travaux de recherche en organisation c’est que le one best way n’existe pas. Il n’y a pas un modèle d’organisation meilleur que tous les autres : il n’y a que des modèles d’organisation adaptés à leur contexte.
.

De ce point de vue, l’ingénieur en chef enfermé dans son Bureau des Études se révèle être de plus en plus une vue de l’esprit. Il n’est pas seul, il ne peut pas travailler seul, il ne peut que négocier ses contraintes avec les contraintes des autres parties-prenantes d’un projet à commencer par les utilisateurs et leur contexte d’usage. L’intérêt des méthodes collaboratives -et en premier lieu du design thinking- est que la prise en compte du contexte fait partie de la méthode. Ce n’est jamais une garantie de succès, mais c’est très certainement la garantie que vous éviterez de faire des erreurs grossières par manque de prise en compte de la réalité dans laquelle votre projet va se déployer.

Les configurations techniques sont désormais assumées comme des constructions collectives . C’est un mouvement qui concerne les ‘artefacts’ au sens large : ça a commencé par les objets matériels mais les services et les décisions politiques sont aussi concernés. Avoir le grade ou le statut n’est plus suffisant pour être légitime à décider, il faut aussi avoir le consensus et ce consensus se crée par la prise en compte du contexte.

Les implications sont vastes et je limiterai ici mon propos au monde matériel, celui de l’interconnexion généralisée dans l’internet des objets (IoT).
Une gamme d’objets étonnamment vaste est maintenant connectée à l’internet, des vêtements aux montres en passant par les éléments de mobilier, les machines-outils, les jouets, les chaînes logistiques ou les voitures… ou même des smart villes. Ces bidules sont de toutes formes et de toutes couleurs –certains n’ont même pas d’écran de commande et c’est bien l’enjeu de l’IoT : ce sont les objets qui communiquent entre eux et qui s’informent les uns les autres de leur état réciproque pour s’adapter à la situation, sans avoir besoin d’un homo sapiens pour interagir en permanence. L’intervention humaine lorsqu’elle se produit est seulement ponctuelle alors que les objets ont une communication permanente.
Le fonctionnement des ‘couches basses’ fait appel à des algorithmes, des liaisons RFID, des capteurs d’usure installés sur les freins des trains ou un lecteur d’empreintes digitales sur la porte de chez vous… à ce stade, l’humain sur son tableau de contrôle ne voit qu’une partie de la réalité du système, un abrégé, la synthèse de multiples étapes qui se déroulent entre machines, hors de vue et hors de portée.

.

Où est le besoin d’une construction collective ici, puisque précisément les objets fonctionnent en autonomie ?

.

Ce fonctionnement automatisé pose une première question pour l’observateur du système (le technicien superviseur par exemple ou le/la chef de famille), comment sait-il si les objets sont en train de se causer dans une usine, ou un domicile ?
Comment puis-je savoir que mon Google Home ou Microsoft Alexa est en train d’écouter les différentes voix qui se parlent dans ma cuisine et transmet quelque chose aux serveurs Google ? Comment savoir que mon compteur de gaz est en train de transmettre des données à mon fournisseur d’énergie, et quelles données ? Comment savoir que le bus n°56 est effectivement en train de transmettre sa position GPS exacte au centre de supervision ?
Il y a un premier besoin de design d’interface au niveau des transmetteurs pour matérialiser la transparence du système technique envers l’environnement humain. Lorsque les machines se parlent, a minima, elles doivent le signaler en temps réel. Sur l’objet connecté lui-même cette fonction se double par l’enregistrement de logs qui stockent l’ensemble des données brutes de ce qui est transmis et reçu -et en provenance et à destination de qui.
A mon humble avis, elles devraient être accessibles au moins en lecture seule par l’utilisateur. Après tout, ce sont ses données à lui.

Car je l’ai déjà dit et je le redirai : la limite ultime d’une technologie réside dans sa capacité à faciliter ou permettre l’existence d’une dictature. Les enjeux de transparence dans l’IoT n’ont rien d’une option cosmétique, ils servent à tracer cette limite.
.

… avec cet argument en tête, je vous invite à relire le rapport du député Vilani Donner un sens à l’intelligence artificielle.
Page 35 :  « L’État doit également organiser l’ouverture au cas par cas de certaines données détenues par des entités privées, et favoriser sans attendre les pratiques de fouille de texte et de données. »
Une phrase comme celle-là devrait tous nous réveiller la nuit, parce qu’elle n’est associée à aucune possibilité de contrôler ce qui est fouillé par l’État et encore moins de débrayer le système ou de refuser d’y participer.
.

Le second besoin en termes d’interface pour l’utilisateur du système est la qualité explicative du système décisionnel : comment l’opérateur peut-il comprendre la logique qui mène à un certain résultat ? Les interfaces spécifiques de l’IoT sont à peu près comparables à des télécommandes, mais évolutives en fonction des situations, grâce aux algorithmes et peut-être un jour grâce à de l’intelligence artificielle.
A partir de quel seuil apparaît par exemple une alerte orange ? Lorsqu’il faut agir immédiatement pour éviter une explosion ou lorsqu’il faut commander une soupape de rechange qui arrivera dans trois jours ?
Quels types d’action sont demandés à l’opérateur humain et pourquoi ?
Le système technique lui-même doit pouvoir s’expliquer et justifier de son fonctionnement : il devient un acteur à part entière du système relationnel… relisez la théorie de l’Acteur-Réseau.

.

Les objets à commander dans l’IoT peuvent être répartis dans le monde entier, par milliers, mais le panneau de supervision est juste là, dans votre smartphone personnel ou sur votre ordinateur professionnel (ou l’inverse)… et bientôt en réalité virtuelle ou augmentée.
L’interaction des humains avec le système technique nécessite à ce titre davantage de prise en compte des utilisateurs puisqu’il faut intégrer dans l’interface l’absence d’objet, l’absence d’indice direct qui permettrait d’interpréter ce qui est affiché.
Les designers vont collaborer avec les ingénieurs et les concepteurs produit pour leur faire comprendre que tout ce qu’ils sont en train de faire devra être utile à l’utilisateur avec une certitude absolue, par exemple pour ouvrir la porte d’entrée de son domicile, ou interpréter correctement le niveau d’usure du système de freinage d’un train.
.
Industry 4.0 concept .Man hand holding tablet with Augmented reaLes applis de supervision de l’IoT ne sont pas soumises aux mêmes objectifs que les applis habituelles pour le grand public. On cherchera à faciliter la prise de décision grâce à quelques écrans qui synthétisent l’état d’un système complexe et ce domaine est plus proche de la maintenance industrielle que du loisir interactif.

Vous pouvez passer des heures sur Instagram en supportant quelques boutons mal faits, mais si vous devez piloter à distance des machines de 500 kilos ou confirmer que le gaz est bien éteint chez vous, le niveau d’exigence dépasse le sens commun… sans parler de l’opérateur d’une escadrille de drones autonomes en opération au-dessus d’une grande métropole.

.

Les critères UI de base restent pourtant bien les mêmes (utilisabilité, simplicité, découvrabilité) que pour n’importe quel design d’interface, mais les conséquences de l’usage pourront être constatées dans le vrai monde avec une porte qui se déverrouille pour laisser entrer les enfants après l’école ou un train qui s’arrête au bon endroit –ou pas.

.

Avec ces conséquences immédiates et très concrètes, la prise en compte de l’utilisateur réel, dans son contexte d’usage devient encore plus cruciale pour éviter les contresens, les erreurs de manipulation et, potentiellement, les catastrophes à grande échelle « simplement » parce qu’une interface ou un algorithme de prise de décision était mal conçu.
Somme toute, si vous êtes déjà dans le domaine du design UX et de la conception système, le travail appliqué à l’IoT est très comparable à ce que vous connaissez déjà…  les aléas, eux, se paieront cash et ne seront pas cantonnés au périmètre du digital (illustration ci-dessous). Dans l’IoT, le mauvais design d’interface et des architectures d’information mal exécutées provoqueront davantage que de la frustration, de l’énervement et des migraines de l’utilisateur. Puisque la prétention de l’IoT est d’activer des liens entre le digital et le monde réel, dans les cas les plus extrêmes une mauvaise conception du côté du digital coutera de vraies vies dans le monde réel.

.

.

.

.

.

.

 

Du test utilisateurs avec 5 personnes 24 janvier 2018


Un fameux article publié par Jakob Nielsen en 2000 affirmait que 5 utilisateurs sont suffisants pour identifier en quantitatif la majorité des problèmes d’utilisabilité sur un objet particulier, réel ou virtuel.
Au-delà de cinq, il n’y a plus besoin d’ajouter des utilisateurs-testeurs encore et encore, « parce que vous retrouverez les mêmes problèmes encore et encore ». L’article explique clairement que lorsque 12 personnes sont impliquées dans un test, vous parviendrez à trouver presque 100% des problèmes d’utilisabilité.

Mais l’objectif des tests utilisateurs n’est pas nécessairement de couvrir 100% des problèmes. Il est aussi possible (et préférable) de limiter le périmètre à tester et se concentrer sur un élément précis, par exemple le processus d’achat en ligne, ou celui de la résiliation ou encore plus concrètement l’utilisation d’un nouveau type d’extincteur, ou la procédure de fixation d’un siège enfant dans une voiture.
Il s’ensuit qu’au lieu d’en recruter 12, on peut se limiter à 5 utilisateurs au minimum dans la mesure où, si ces 5 personnes sont toutes confrontées au même problème, on peut en déduire avec 90% de certitude que c’est un problème qui touche au moins 71% de la population en prenant, en termes statistiques, la limite inférieure de l’intervalle de confiance binominale.
.

Ces chiffres sont valables quelle que soit la taille de la population totale considérée.
Vous pouvez par exemple tester votre process d’achat en demandant à 5 utilisateurs d’aller sur votre site web et d’acheter un nouveau tee-shirt (avec de l’argent que vous leur aurez donné). En termes de proportions et de représentativité de ces cinq personnes, les résultats seront valables aussi bien si vous avez 20 millions de visiteurs mensuels (Amazon France) ou 150 (le-club-de foot-du-quartier).

.

Dans un article non moins fameux publié 12 ans après, Nielsen poursuit son argumentation en s’appuyant notamment sur 83 cas d’études menés par son entreprise où effectivement 5 utilisateurs-tests suffisent en moyenne pour atteindre le meilleur ratio coûts/bénéfices.

Mais… les critiques ne manquent pas… d’abord parce que :

Vous ne savez pas si vous avez identifié au moins 71% de tous les problèmes, ou juste 71% des problèmes les plus évidents (pas forcément les plus graves).

.

La littérature spécialisée a également beaucoup étudié la question et les réponses ne se sont jamais très éloignées des « 5 utilisateurs de Nielsen » comme le standard minimal de l’UI (User Interface).
Jakob Nielsen n’a jamais dit autre chose d’ailleurs, ni jamais affirmé qu’il ne fallait pas recruter 6 ou 12 ou 15 utilisateurs selon le contexte et l’objectif visé par l’étude.
Une chose intéressante à noter est que, souvent, le client qui mandate une campagne de tests, s’il est assez riche pour payer un nombre important d’utilisateurs-tests, ne le fait pas pour augmenter la fiabilité des résultats…mais pour se rassurer. Un peu comme les gens qui achètent un couteau suisse à 18 lames tout en sachant qu’ils en payent 16 de trop puisqu’ils n’en ont réellement besoin que de deux.

.

Au-delà du seuil minimum d’utilisateurs-tests, la vraie question qui émerge du débat critique est : avez-vous un processus itératif qui vous permette de vous améliorer en permanence ?

Alors effectivement, l’hypothèse de départ et l’affirmation de Nielsen peuvent être reformulées : 5 utilisateurs sont un nombre suffisant pour mettre en place un processus de tests pertinent sur la longue durée. A ce stade en effet, il est beaucoup plus efficace de mettre en place une phase de tests régulière avec cinq utilisateurs, plutôt qu’une unique campagne de tests avec quinze personnes (ou 30, ou 50).

.

Mais bien sûr, n’oubliez pas que vous n’êtes en train de faire « que » du test quantitatif. Ça ne vous apportera donc que des réponses liées à l’objet testé et non à l’expérience vécue (UX : User eXperience).
Si vous demandez à 5 utilisateurs d’acheter un ticket de RER pour aller de la gare Massy-TGV à Paris, vous aurez un test qui porte sur l’interface des bornes d’achat qui, techniquement et ergonomiquement fonctionnent très bien.

Vous allez donc rater le problème majeur (en date du début d’année 2018), qui est que 2 uniques bornes RATP sont disponibles en gare, pour accueillir les 1.200 voyageurs qui débarquent d’un TGV Ouigo et qui mettront plus de temps à attendre leur tour dans la file devant la borne qu’à faire leur trajet tout entier. A ce stade ils haïront tous votre interface, vos tarifs, votre marque, vos employés et vos produits mais pas à cause de l’interface, à cause du nombre de bornes…

Et ça les copains, il n’y a que le qualitatif qui pourra vous l’expliquer.

.

.

 

 

Le chef de projet automatique 27 juin 2017


Dans un article récent, l’anthropologue australienne Genevieve Bell énonçait que face à l’essor de l’intelligence artificielle (IA), la plus grande peur de l’humanité est de devenir sans importance, supplantée par des machines et des lignes de code informatique qui réaliseraient les tâches quotidiennes mieux et plus vite.
Ce n’est pas une mince affirmation pour quelqu’un qui a travaillé comme ethnologue pour l’entreprise Intel durant 18 ans et qui y a achevé sa carrière comme vice-présidente (encore une preuve que l’ethnologie sert à quelque chose : documentez-vous sur les réalisations de son équipe).

.

Contrairement aux propos d’autres chercheurs comme Stephen Hawking qui craignent que l’IA nous projette vers l’autodestruction, l’idée de Bell est qu’avec des intelligences artificielles omniprésentes, il se passe… rien.
L’être humain se retrouverait les bras ballants, les yeux dans le vague, attendant de répondre à la question « Et maintenant, on fait quoi ? »

Dans ce scénario de prospective, l’être humain se retrouve contraint de penser différemment son rapport au travail, à la productivité et au sens qu’il donne à son existence… à commencer par le fait que travailler pour toucher un salaire n’est peut-être pas le plus grand des accomplissements, puisqu’un automate est capable de faire ça mieux et sans demander de rémunération.
A quoi donc occuperions-nous nos journées si n’étions pas contraints de gagner un salaire ?
Le problème fondamental qui se posera alors sera d’ordre politique, au sens où il faudra trouver des occupations pour les masses humaines afin de les garder en bonne forme et contentes. Le mot « chômage » n’aura plus de sens dans la mesure où il ne s’agira plus d’un manque d’emplois, mais d’une absence totale d’utilité à travailler parce que nous ne serons plus contraints d’être productifs. Pour une large part de l’humanité, ceux qui travailleront seront les robots, les logiciels et, au sens large, les IA.  La question sous-jacente est celle non pas de qui produit, mais qui profite de la richesse ainsi produite.

Et effectivement l’intelligence artificielle a déjà commencé à supplanter l’être humain dans des domaines aisément automatisables. Malheureusement nous sommes encore trop immatures sur ce sujet pour avoir même pensé à redistribuer cette richesse. Peu à peu, à force d’affinages et de perfectionnements, ce sont d’autres domaines qui vont être touchés.  Si nous n’apportons toujours pas de réponse au problème il y en aura des gros, des problèmes.

.

Vous me direz alors que l’essor des IA sera limité et que de nombreux domaines sont à l’abri d’une automatisation radicale.
Cette phrase est assez ironique car elle est généralement prononcée par des gens qui se considèrent à l’abri d’une telle humiliation à se voir remplacer par un robot.
C’est bien le cœur du sujet : on est humilié d’être remplacé par un robot lorsqu’on en déduit que désormais, on est inutile.
L’hypothèse de Genevieve Bell semble prendre le pas sur celle de Stephen Hawking.
Entre l’ethnologue et le physicien, nous aurions finalement le choix entre deux avenirs qui ont déjà été envisagés par la science-fiction. D’un côté il y aurait un scénario post-pénurie que nous décrit La Culture de Ian M. Banks et de l’autre il y aurait l’apocalyptique Terminator de James Cameron.

.

Les chauffeurs de taxi se sont mis en colère en voyant Uber piétiner leur monopole… ce n’est rien à côté de ce qui arrivera avec les véhicules doté d’une autonomie de niveau 4, c’est à dire qui se conduisent totalement seuls, sans même avoir besoin d’être construits avec un volant et un frein pour Homo Sapiens.
Dans un domaine connexe, en France, les chauffeurs-livreurs sont plus de 300.000 (3,5 millions aux Etats-Unis).
De ce point de vue, les entreprises concernées (dont les auto-écoles) feraient bien de se préparer au jour où le « pilotage » manuel d’un véhicule à moteur sera légalement restreint aux pistes fermées. Dans la mesure où 90% des accidents de la route sont dus à une erreur humaine il ne faudra pas longtemps avant que la décision réglementaire soit prise… dès que le parc automobile sera prêt.
Il est arrivé la même chose aux actuaires du secteur de l’assurance -sans bruit et sans fracas- dans les années 1995-2000, au fur et à mesure qu’ils étaient remplacés par des logiciels qui rendaient inutile l’emploi d’un humain diplômé d’actuariat. Ce n’est donc pas un emploi dans un bureau avec clim et épaisse moquette du secteur tertiaire qui nous protège, ni parce qu’on a le sentiment de faire un travail hyper complexe.

.

Dans le monde de l’entreprise, on a tendance aujourd’hui à considérer que l’élévation hiérarchique est proportionnelle au niveau de protection face à l’automatisation des métiers. Plus vous êtes haut en grade, plus vous seriez à l’abri.
Peu ou prou, j’y vois comme une forme de déni qui empêche d’analyser le sujet sérieusement.

.

L’un des postes les plus exposés me semble être -contre toute évidence- celui de chef de projet.
Le chef de projet (le « CdP ») est celui qui coordonne les différents acteurs d’un projet en vue de livrer un produit qui ait la meilleure qualité possible. C’est la version essentielle et synthétique : le chef de projet est un chef d’orchestre.

Une autre définition plus pointilleuse de ce métier fait du CdP celui qui rassemble les informations utiles pour piloter un projet afin d’assurer le respect du fameux triptyque Coût-Délai-Qualité.
Il est alors censé empêcher les dépassements de budget, garantir l’absence de défaut à la livraison et assurer que cette livraison sera faite à l’heure.
Disons-le tout de suite, c’est généralement illusoire et pourtant c’est la définition la plus répandue.
Peut-être parce que c’est celle qui permet aux étages supérieurs de la hiérarchie de se dédouaner d’une mauvaise évaluation initiale en faisant porter le chapeau au seul responsable, le chef de projet.
En effet, sachant que la plupart des coûts sont systématiquement sous-évalués de 20 ou 30 %, il est assez facile ensuite de faire sauter le fusible chef de projet en lui reprochant d’avoir dépassé le budget prévu de 35%.
C’est la raison pour laquelle on sait de manière certaine que 80% des projets dans le secteur informatique dépassent le budget, sont livrés en retard et connaissent des défauts qu’il faut corriger par la suite.
Relisez cet article pour comprendre à quel point ça peut réellement partir en vrille.
(…de ce point de vue une destruction à la Terminator est envisageable… mais plutôt comme conséquence d’un accident industriel lié à un défaut de conception des IA plutôt qu’à leur perfection intrinsèque)

Bien sûr le chef de projet ne travaille pas seul, mais à ce stade ce noble métier est réduit au niveau du contremaître d’usine dont la contribution majeure consiste à vérifier que les différents contributeurs n’ont pas dépassé le temps prévu pour l’une des activités du projet. Sa valeur ajoutée n’est pas celle d’un chef, il est affecté à des tâches routinières de reporting et de projection budgétaire et calendaire.
Dans les organisations qui appliquent cette définition étriquée du chef de projet, la valeur de chacun est comparable aux rouages d’une bureaucratie normée, régulée et réduite au fétichisme des Jours/Homme.

.

Or il se trouve que les logiciels de « pilotage » sont  abondants et qu’ils enregistrent toutes les données relatives au projet. L’un concerne les « imputations » du temps de travail, l’autre recense les défauts ou anomalies et un autre encore pourra regrouper la dimension qualitative du produit en construction sous la forme d’ « exigences ».
Toutes les données sont donc présentes et c’est bien tout ce dont l’automate a besoin pour se mettre à fonctionner.

Au moment où les concepteurs d’algorithmes et d’IA parviennent à des niveaux de fiabilité inconnus jusque-là (voyez ClickUp ou Polydone par exemple), il ne se passera pas beaucoup de temps avant qu’une IA soit infusée dans un logiciel de pilotage de projet, de manière à automatiser le métier de chef de projet… c’est à dire à rendre inutile le chef de projet humain en tant que gestionnaire et comptable du Coût-Délai-Qualité.
Les premières entreprises qui adopteront ces IA de gestion de projet pourront dupliquer une compétence automatisée et si elle est aussi efficace que les voitures autonomes, on réduira les taux de (retards + dépassements budgétaires + anomalies) de 90%.
Le contrecoup sera que dès le départ, l’IA mettra en évidence la sous-estimation initiale faite par les responsables hiérarchiques (Comités d’investissements et autres Comités de direction) et qu’il n’y aura plus personne pour servir de dérivation à la responsabilité.

.

En termes de culture organisationnelle et de culture métier, l’absorption de la fonction de chef de projet par les IA laissera bien des spécialistes compétents en état de choc.
Le chef de projet est l’archétype du métier qui ne peut pas être automatisé !
Les actuaires disaient la même chose aux alentours des années 2000. Je le sais, j’y étais.
C’était avant de constater qu’effectivement les Modèles Linéaires Généralisés (en anglais GLM) faisaient le boulot, mieux, moins cher et avec une qualité constante autrement plus fiable qu’un humain qui a besoin de réfléchir à ce qu’il fait.

La fonction de chef de projet au sens de contremaître est donc vouée à disparaître pour cause d’obsolescence.
Resteront ceux qui se seront reconvertis en experts en logiciels de gestion de projet et ceux qui excellent dans ce qui est réellement non automatisable dans ce métier : la coordination des acteurs, la prise de décision relative au contenu du produit fini, la diplomatie entre les différents métiers affectés à un projet.
Bref : l’entregent, l’orchestration des équipes par la connaissance fine de leurs membres.
La seule compétence qui reste quand les machines s’occupent suffisamment bien de tout le reste. La dernière qui reste pour empêcher que tous les intervenants à leur tour finissent par être considérés comme des rouages de la machine.

.

L’irruption de l’IA dans la gestion de projet fera l’effet d’une attaque surprise et ça ne sera pas la faute de l’IA, elle sera du fait de notre manque d’anticipation. Skynet a verrouillé sa cible.

.

Il est temps d’envisager pour tout le monde l’avènement des IA comme les balbutiements d’un âge post-pénurie et donc de nous poser collectivement la question : qu’est-ce qui nous rend utiles ?

.

.
.
.

 

Plus loin, plus ancien 21 juin 2017


Depuis le numéro du magazine Nature daté du 8 juin 2017, nous avons vieilli collectivement de 100.000 ans -au bas mot.
Si vous-vous souvenez bien en effet, depuis vos années de collège, vous avez appris qu’Homo Sapiens (nous !) est âgé d’environ 200.000 ans, tels que des restes de squelettes ont permis de l’attester dans la zone du grand rift d’Afrique de l’Est.
Il s’agit bien de nous et je ne parle pas par métaphore, car n’importe quel enfant de 3 ans depuis cette époque aurait été capable d’être scolarisé dans l’une de nos écoles maternelles sans qu’on puisse le distinguer des autres (moyennant un apprentissage de la langue).
Vous ne pourriez pas distinguer ses parents si vous les croisiez dans la rue.
Pour résumer, depuis qu’Homo Sapiens existe, aucun de ses membres n’est différent des 7 milliards d’humains qui peuplent aujourd’hui la surface de la terre, ni physiquement, ni en termes de diversité culturelle ou de capacités mentales.

C’est toujours vrai depuis le numéro de juin 2017 du magazine Nature… sauf que c’est vrai sur 100.0000 ans de plus et sur une zone d’origine qui n’est plus l’Afrique de l’Est mais le continent africain tout entier.

.

Jusque-là en effet, le matériau scientifique laissait penser que nous (Homo Sapiens) étions nés à l’Est du continent africain, dans la savane alors qu’à l’Ouest, les singes avaient perduré dans les forêts denses.
De cette régions du Rift, l’être humain avait alors cheminé jusqu’à sortir d’Afrique pour peupler le reste de la planète. En Europe, nous avions côtoyé Neandertal, un autre genre d’Homo.
L’histoire du genre humain était linéaire à la fois en temps et en géographie. Pas d’hésitation, pas de détour, ni de chemin de traverse.
Cette histoire là on l’apprend à l’école (jusqu’à la prochaine révision des manuels).

Sauf que…
Sauf qu’au Maroc à Jebel Irhoud, une recherche archéologique a exhumé en 2004 des squelettes qui ont été étudiés pendant 10 ans et dont l’analyse remet en cause la linéarité du peuplement humain et son ancienneté.
La présence d’être humains à l’Est de l’Afrique il y a 200.000 ans n’est pas remise en cause : ils étaient effectivement là.
Mais 100.000 ans avant, il y en avait déjà à l’extrême Ouest du continent à 9.500 km de là.

.

La théorie admise selon laquelle les humains actuels descendent d’une population unique qui vivait dans l’unique région éthiopienne reste pertinente (la théorie « East side story »).
Mais avant la grande migration qui a poussé Sapiens à sortir d’Afrique (la théorie « Out of Africa »), il y avait donc déjà eu une migration propre au continent africain pendant au moins 150.000 ans.
Nous étions bien là, dans l’actuelle Éthiopie, mais aussi près de l’Atlantique et -très probablement- dans beaucoup d’autres endroits d’Afrique dont Florisbad dans l’actuelle Afrique du Sud où un crâne de Sapiens a été daté à 265.000 ans.
Et nous avons du prendre l’habitude -très probablement- de côtoyer sporadiquement d’autres Homo qui n’étaient pas Sapiens.
A la même période par exemple notre ancêtre à tous Homo Erectus, une lignée vieille de presque deux millions d’années, circulait aussi sur les mêmes sols.
Nalédi, Neandertal, Erectus, Florensis… toutes ces « branches minoritaires » du genre Homo sont désormais éteintes, mais au moment où Sapiens s’éparpillait gaiement de par le monde, il a forcément croisé ses cousins et, non, ils ne se pas toujours fait la guerre.
Avec une population d’humains estimée à 800.000 individus dans toute l’Afrique et 10.000 Néandertal en Europe, il est probable (hypothèse) qu’ils ne se considéraient pas comme des concurrents ou des ennemis a priori.
Les ressources étaient abondantes et le premier risque n’était pas incarné par un camarade bipède, loin de là.
Pour preuve qu’il y a eu des échanges intimes (et fructueux) : la population européenne actuelle possède 2% de gènes Neandertal.

.

Les humains d’il y a 300.000 ans avaient les ressources matérielles et psychologiques pour vivre côte à côte avec des humains qui n’étaient pas Homo Sapiens.
Il y a 300.000 ans d’ailleurs, il n’était pas certain que ce soit Sapiens qui finisse par être le seul survivant. D’autre conditions naturelles auraient pu faire de Neandertal la lignée persistante.

evolution-homo_humain_anthropologie-ethnologie

L’histoire de l’être humain s’avère donc plus complexe et plus dense que prévu.
Cette augmentation du niveau de complexité est souvent le signe d’un gain qualitatif en science, car les explications qui rendent la réalité plus simple sont en général extrêmement suspectes.

.

En termes de théorie anthropologique, la découverte de Jebel Irhoud n’est pas une révolution (toutes proportions gardées et mis à part tout ce qui vient d’être dit sur son importance).
Cette découverte renforce par contre un positionnement déjà existant, qui voit l’existence humaine se déployer dans le temps long et dans des configurations culturelles multiples dont aucune ne peut se prévaloir d’être meilleure que les autres.
A l’échelle de l’espèce humaine, cette variété des configurations sociales est porteuse de vitalité.
C’est aussi une plus grande probabilité de survie.

 

leroi-gourhan_le fil du temps_ethnologie-prehistoire

L’ethnologue, qui étudie les variances culturelles du genre humain, se retrouve contraint à émettre des hypothèses invérifiables quant au mode de vie de ces lignées disparues.
Sujet de thèse : à quoi et comment pensait Homo Erectus ?
Le seul matériau de l’ethnologue, c’est Homo Sapiens.

L’intérêt de la découverte de Jebel Irhoud réside aussi dans les questions que l’ethnologue peut se poser à lui-même.
A quoi ressemble une théorie en sciences humaines quand on la mesure l’aune de François Rabelais et son fameux « Science sans conscience n’est que ruine de l’âme » ?
Quelle est en effet la conséquence du savoir anthropologique ? Que peut-on en faire et quel objectif le chercheur peut-il se donner ?

.

D’ailleurs il ne s’agit pas de comprendre et d’expliquer une culture. « Une » culture ça n’existe pas. La bonne perspective est d’envisager les liens, les échanges entre cultures.
Répétons-le : la mondialisation est aussi ancienne que l’apparition de l’humain sur Terre.
A cet égard, emprunts, dons et bricolages symboliques permettent les traductions d’un groupe à l’autre et c’est par ces échanges que nous, Sapiens, avons pu perdurer et croître en tant qu’espèce depuis presque un demi-million d’années.
Le fait que tous les groupes soient enclins à se considérer comme plus digne que les autres pour représenter l’humanité (théorie de l’ethnocentrisme) est un réflexe spontané qui n’étonnera personne… comment reprocher aux membres d’une culture d’y être viscéralement attachés ?
Cette autoprotection nécessite pourtant d’être fermement bridée pour ne pas engendrer de rejet irraisonné; c’est la condition pour qu’elle soit positivement utile en servant de sas ou de tampon dont la fonction première n’est pas de rejeter la différence d’autres groupes mais de se donner le temps de bricoler un mode d’échange culturel collectivement acceptable.

.

C’est donc là qu’intervient l’anthropologue américaine Ruth Benedict :
« The purpose of anthropology is to make the world safe for human differences. »
L’objectif de l’anthropologie est de rendre le monde sûr pour les différences humaines.

.

sans-titre

.

.

.

 

 

La ville d’aujourd’hui, demain 12 janvier 2017


Depuis que les humains ont commencé à grouper leurs habitats au Néolithique, la tendance à l’urbanisation ne s’est jamais démentie et n’a jamais cessé de croître. Dans un passé récent, au XVIIIe siècle 0,4% de la population terrestre résidait en ville et en ce début de XXIe nous sommes plus de 50%. Les projections indiquent 65% de population citadine en 2025.

Sydney city sprawl. Urban life self-organizes around the possibilities of (social) exchange. Badly designed "smart cities" only place a burden on that basic fact.L’existence de la ville a eu une influence sur tous les domaines de la vie humaine dans la mesure où cet objet socio-géographique est rapidement devenu un centre de décision et, au sens propre, un lieu de pouvoir. Le sujet ‘urbain’ recouvre une réalité bien plus vaste que la simple construction d’un habitat dense, à commencer par l’organisation de la vie humaine, j’ai nommé : la politique.

 

.

L’omniprésence du digital aujourd’hui (devenu « pervasif ») se fait sentir dans tous les domaines, comme une confirmation concrète de la quatrième révolution industrielle telle que définie par Klaus Schwab, fondateur du Forum Économique Mondial. Ce concept peut sembler grandiloquent mais il a le mérite de pouvoir envelopper notre époque faite d’automatisation extrême et d’interconnexion généralisée entre les personnes, les systèmes d’infrastructures et les objets.
La construction de l’objet ville est donc, de fait, la construction d’un objet politique au sens d’organisation de la vie collective. Ce n’est pas un hasard si le premier département de recherche en sociologie au monde fut fondé en 1892 à Chicago, spécifiquement pour comprendre la dimension humaine de la vie en ville (et en corolaire aider la prise de décision publique quant au sujet de la planification urbaine).
Certains sujets spécifiquement urbains en effet ne peuvent pas être résolus par de la tuyauterie neuve ou le recours massif aux camions-toupies… comprendre, gérer et si possible maîtriser la criminalité, la cohabitation entre communautés culturelles, la redistribution des richesses, la résilience face aux catastrophes ou encore la prise en charge des nouveaux habitants ne relèvent pas du « bureau du génie civil ».

.

C’est précisément l’écueil qu’il faut éviter aujourd’hui avec la notion de « ville du futur » : les vrais problèmes à résoudre relèvent de la citoyenneté dans la ville et non de tuyauterie neuve.

Toutes les villes ont la même problématique et connaissent les mêmes sujets de réduction de la pollution, d’accès à l’énergie, de modification de la pyramide des âges, de mobilité, de divorce entre valeur foncière de l’immobilier et sa valeur économique locale, etc.
Ce sont des préoccupations mondiales et dans les discours de gestion urbaine, on en est quasiment à l’injonction morale : il faut être smart. Si vous êtes une ville, il vous être une smart city -une ville intelligente. Dans une grande mesure d’ailleurs, reconnaissons que le modèle historique arrive à ses limites et que ce modèle nouveau de ville hyper connectée au réseau de l’internet des objets (IoT) offre un espoir de les dépasser plutôt efficacement.
Certes, mais que recouvre l’injonction à être une smart city, en termes de conséquences ?
La ville du futur est souvent décrite en termes économiques et l’amélioration supposée est hyper rationalisée : rapidité des services rendus, juste dimensionnement et juste localisation.The equivalent of a ghetto would be to deploy "smart" technologies within our cities, without taking into account the real population (not the intended population). Recruit ethnographers, proceed to deep UX field-observations !
Ce type d’urbanisme paternaliste reprend les codes techno-scientifique qui ont donné vie en France aux « grands ensembles » de HLM dans les années 1950. Posture politique qui a encore des effets sociaux et architecturaux largement négatifs 60 ans plus tard.
L’ampleur des financements d’une smart city impose des partenariats public-privé et une infatuation en termes d’approche basée sur les données… Une étude récente par Raphaël Languillon-Aussel, Nicolas Leprêtre et Benoit Granier montre bien comment les grands groupes industriels (Toshiba, Panasonic, IBM en particulier) utilisent les expérimentations grandeur nature pour améliorer leurs technologies, avec des arguments chiffrés qui mesurent l’efficacité de leur matériel pour apporter la preuve de son utilité. Cette vision de l’efficience promue par les fournisseurs ne doit pas abuser les décideurs politiques pour laisser transformer nos villes en chaîne de production robotisée.
Cela nous ramènerait à la conception technocratique d’il y a 50 ans… le risque est donc énorme de voir se reproduire une dégradation non anticipée de la qualité de la vie urbaine collective.
Car pour les habitants, l’intérêt premier est dans les nuances qui n’apparaissent pas sur un tableau Microsoft Excel : transparence des institutions, engagement civique, équité sociale.
La question posée doit explorer les bénéfices technologiques en termes de service rendu et de renforcement des capacités d’action (empowerment) des citadins eux-mêmes, de leur propre point de vue.

.

Certaines villes considérées comme avant-gardistes mettent en place depuis les années 2000 un modèle qu’on appelle la smart city ; la ville intelligente ; ou encore -avec autant de modestie- la ville du futur. La vision qui préside à l’établissement de la ville du futur est faite d’interconnexion des systèmes et d’exploitation intensive de la data afin d’optimiser les services et les infrastructures. L’intérêt d’insérer du digital dans la ville permet de basculer vers une gestion à très court terme, voire au temps réel pour certains aspects de flux (circulation routière, transport public, distribution d’énergie).

Pour une supervision en temps réel des transports, voir l’exemple d’application Big Data ci-dessous qui montre la circulation des taxis à New York du 24 au 31 octobre 2011 :

 

[lien secondaire : https://vimeo.com/88147836 ]
.

Avec le développement rapide du numérique, la smart city est désormais passée de la brochure marketing sexy à la réalité (parfois moins sexy).
La promesse d’efficacité à grande échelle et de précision algorithmique a séduit des métropoles partout dans le monde. Le Japon abrite 4 des principaux projets mondiaux de smart cities, dont celui de Yokohama qui porte non pas sur un unique quartier (300 à 400 foyers) mais sur 10.000 foyers. En dehors des cadres expérimentaux, Singapour s’est révélée exemplaire dans la gestion de la mobilité, Copenhague pour la dimension durable et Boston pour la participation citoyenne.

.

A ce titre, il est d’une importance cruciale de comprendre que le numérique et l’usage intensif de la data doivent avant tout permettre une plus grande interactivité humaine. Mais la data n’est pas la vie… et le quantitatif est incapable de prendre en compte la variété encore plus grande du qualitatif.
Car, je le prédis, ça ne fonctionnera pas si le système porte uniquement sur l’optimisation technique et omet la socialisation.
En oubliant l’être humain dans l’équation de la ville du futur, on s’apprête à un retour de bâton magistral lorsque le « facteur humain » reviendra sans avoir été invité sous la forme de protestations, de vandalisme, de non-respect volontaire des procédures ou d’arrangements parallèles qui passeront outre tout le ‘smart’ qu’on aura bien voulu injecter dans la ‘city’.
L’absence de prise en compte des aspects socio-politiques aboutira à coup sûr à un refus d’adoption des innovations proposées et à un accroissement des inégalités  -si toutefois l’objectif initial était bien de les réduire.

Il serait donc bon de questionner le modèle de design et les méthodes utilisées avant la pose de la première pierre dans un nouveau Digital technologies can bypass classical urban planning problems, yet the design of these projects should not forget the main issue is social not technical. Real-life citizen-centric more than the abstract user-centric archetypes.quartier. Quels profils de population sont pris comme référence pour penser les innovations à venir ? Les décideurs publics pourraient cesser de valoriser systématiquement la population qu’ils souhaiteraient avoir dans la ville, et de prendre en compte sa réalité. (voir mon article sur les Millennials)
A ce titre, une « smart city » si elle veut assumer son rôle d’infrastructure politique doit en premier lieu se préoccuper de la population réelle… ce qui suppose une adaptation des technologies aux différents contextes locaux et non l’implantation de systèmes standardisés.
Pour réussir au-delà du minimum technique requis, les initiatives d’ « urbanisme digital » doivent prendre en compte et soutenir des besoins spécifiques et hautement variables, qui ne correspondent pas la plupart du temps avec les profils-types d’utilisateurs définis en phase initiale : riches, éduqués et dont la vie peut se faire dans 3 km². Les populations pauvres, non connectées sont par contre les grandes ignorées du processus.
Qu’en est-il du parent solo qui doit faire 50mn de transport en commun pour aller au travail et dont l’abonnement lui coûte 10% de son salaire ? Le fait que sa carte de métro soit sur son smartphone ou que son bus soit sans conducteur est bien le moindre de ses soucis.
Qu’en est-il de l’idée de rue, conçue comme un lieu de vie publique et non un lieu qui mène à des actes d’achat ?
Comment sera garanti l’anonymat de nos données ? Et pourquoi envisage-t’on de faire payer les déchets selon le poids de nos poubelles (connectées) alors que les fabricants ne sont pas contraints de produire moins d’emballages ?

Et à quels services publics n’aurons-nous pas droit si l’on ne dispose ni d’un smartphone, ni d’un ordinateur ni d’une carte bancaire ?
Et pour ceux qui ont ces équipements, sera-t’il possible de cliquer sur opt-out ?

Pour ceux qui se préoccupent de renouveller la ville d’aujourd’hui en vue de demain, ça commence au tout début du processus : dans le cerveau des concepteurs, par une collecte qualitative issue du vrai terrain et une approche bottom-up, participative, du test & learn et -soyons fous- une implication directe des citoyens via des ateliers de co-création.
(remettons-en une couche, cria alors l’ethnologue : faites des observations in situ de vraies personnes pour bien calibrer les technologies à leurs utilisateurs… car ne pas le faire produira l’équivalent digital de la cité HLM : exclusion, paupérisation et déliquescence)

.

Nos existences vont donc changer effectivement mais, finalement, il est probable que l’espace public ne changera pas si radicalement.
Le thème de la ville du futur concerne moins les infrastructures que les interactions humaines avec ces infrastructures. Rome à l’époque de César ressemble beaucoup à la Rome de 2017, le système social par contre n’a plus rien à voir et il a même changé plein de fois. En 3017 il y a fort à parier que Rome ressemblera encore beaucoup à la Rome de 2017. Les espaces horizontaux serviront toujours à accueillir les activités et les parois serviront toujours à séparer les espaces horizontaux. Les façades auront toujours pour fonction de protéger de l’extérieur et les fenêtres à voir au-delà des parois.

Mais dans le système social qui se prépare, la smart city sera bavarde. Les bâtiments, les voies de circulation, les véhicules et les objets seront bavards. Certaines de ces choses inanimées auront sans doute même une relative capacité d’auto-régulation, mais les éléments-clés ne seront pas modifiés. Avec un peu de d’organisation, il sera même encore possible de se perdre en se promenant.

What are the political implications of these internet-data-automation stuff ? This is a VERY good question. Such a technical system would ease or make more difficult the birth of a dictatorship ?L’incompréhension fondamentale que nous devons éviter réside dans le fait qu’une ville est un tissu social avant d’être une plateforme technique. L’impact humain de la planification urbaine n’est pas seulement fiscal ou pratique.

.

Pour pousser l’argument encore plus loin, je l’ai déjà dit et je le dirai encore : le critère ultime d’évaluation d’une technologie est sa capacité à ne pas servir une tyrannie.
Le fondement de l’État de droit repose sur la séparation des pouvoirs : comment s’assure t-on que cela descend jusqu’au niveau des bases de données ? Si demain ce sont mes empreintes digitales qui servent de titre de transport, comment pourra-t’on garantir ma liberté de circulation sous le règne d’un gouvernement autoritaire ?

Pensez-y lorsque vous serez en charge de la conception d’un nouveau « quartier connecté ».

.

.

.

 

 

 

par-delà MOE et MOA 15 septembre 2016


Ainsi que je l’écrivais dans mes articles précédents sur la nécessité de revoir ce qui constitue une équipe projet performante, il y a un fort besoin de renouvellement du cadre intellectuel, pour permettre de modifier les façons de faire, sans perdre en qualité ni en fiabilité du processus de fabrication tout entier.

La vie quotidienne dans les organisations soulève des difficultés qui sont le plus souvent identifiées par la dichotomie SI traditionnel /vs Digital et méthodes habituelles vs/ méthodes innovantes. Les solutions sont donc à la fois définies par ce cadre de pensée, mais aussi limitées par lui.
Car si cet objectif semble louable, il y a une étape à laquelle votre organisation n’échappera pas si la réflexion est poussée jusqu’au bout : reconnaître que la distinction traditionnelle entre Maîtrise d’Ouvrage (MOA) et Maîtrise d’Oeuvre (MOE) est devenue un frein.

.

Si, depuis longtemps, la MOA représente les utilisateurs et donne les ordres à la MOE qui représente les équipes de fabrication, il a fallu un peu de temps pour se rendre compte que ces grands domaines de compétences engendrent un système peu coopératif où les équipes MOA ont des objectifs MOA et les équipes MOE ont des objectifs MOE.
Ces objectifs clairement distincts sont la norme et même lorsque les projets ne se passent pas trop mal, l’existence de cette divergence est une démonstration que le collectif social travaille finalement rarement avec l’objectif commun de servir l’utilisateur.
Vous pourrez me répondre que c’est un moindre mal puisque quand même, en moyenne, ça fonctionne quand même pas si mal… et je suis un peu d’accord, sauf à dire que cette concurrence (hostilité ?) larvée ne facilite pas l’adaptation à un environnement en rapide évolution, techniquement et en termes d’usages.

Il y a de plus deux nuances à apporter :
Si votre qualité est moyenne en général, cela signifie que vous avez souvent des productions mauvaises.
Si votre qualité est excellente en général, cela signifie que vous avez souvent des productions moyennes mais rarement mauvaises.
…voilà qui remet les choses en perspective, pour toutes les fois où votre Direction Marketing affirme servir au mieux vos clients. Si votre objectif est donc de fournir des produits (ou des services) de qualité moyenne, vous pouvez cesser de me lire. Ne faites rien, ne touchez pas aux frontières.

.

Mais le fait est que la bataille de frontières entre MOA et MOE est l’élément déclencheur de bien des soucis.
Les premiers ont une fâcheuse tendance à se considérer comme les donneurs d’ordres, nobles représentants des ‘métiers’ tandis que les seconds tentent de défendre la légitimité de leur propre métier tout en faisant (parfois) l’impossible pour sortir un produit qui ne connaît pas trop de défaillances. Et si la MOE en particulier (mais pas uniquement) est un entreprise sous-traitante, il faut ajouter dans l’équation l’existence d’un contrat commercial qui exclue les arrangements informels, alors que c’est précisément la coopération informelle, les petits coups de main et les arrangements inter personnels qui permettent de régler un problème imprévu.

 

En moyenne, quand un territoire est dirigé par deux rois dans leurs châteaux forts, il y a rarement la guerre si l’équilibre des forces est bien réparti (et dans ce cas les problèmes sont tus, mais pas résolus).
Mais l’histoire nous apprend que si les châteaux forts sont ‘forts’, c’est précisément parce qu’il y avait souvent la guerre… et parfois, un seuil est franchi lorsque l’un des deux protagonistes choisit de miser sur l’asymétrie d’information au détriment de l’autre.
On ne parlera plus alors de problèmes techniques de fabrication mais de problème d’organisation et cette élévation du niveau de risque est le signe quasi infaillible que la situation va très sévèrement dégénérer…
Si vous voulez vous faire peur, vous pouvez lire l’histoire lamentable du projet LOUVOIS, le procès entre l’assureur MACIF et son prestataire IGA, ou la question posée à la chambre haute du Parlement français sur les dysfonctionnement du RSI.

.

Peut-être serait-il temps de renouveler le cadre intellectuel en appliquant l’idée de méthodes innovantes à la structure d’organisation ?
Mmmmh, attendez… et pourquoi pas construire un point de vue commun aux différents intervenants et au bénéfice des utilisateurs ?
C’est dans ce cadre que les équipes pourront penser des configurations techniques non seulement qui fonctionnent, mais aussi qui sont réellement utiles.
Voilà… vous êtes sur la voie pour rassembler vos anciennes MOE et MOA en une unique structure.

Et tant que vous y êtes, pourquoi ne pas renforcer sa compétence et l’appeler « Direction de l’UX » ?…

.

Nous avons là le début d’un réel chantier d’organisation, dont l’objectif clair est l’amélioration de la performance collective avec, en bout de chaîne, une amélioration de la qualité du produit ou service.

Change management : what brings "resistance" to change ?Ce n’est pas en trois phrases cependant qu’on peut résumer la marche à suivre. Un ‘vrai’ chantier d’organisation est aussi un vrai risque d’échec. C’est là où l’implication du top management doit faire ses preuves, justement parce qu’il y a un risque. Contrairement aux réorganisations habituelles dont les améliorations restent finalement peu évidentes et encore moins mesurables (sauf en termes de désorganisation pour les employés de première ligne), une remise à plat de la distinction MOA-MOE est le genre de projet majeur qui va remuer profondément les valeurs du collectif de travail, les habitudes de travail, les procédures et -surtout ?- la répartition des pouvoirs dans l’organisation.

Ce ne serait pas la première fois qu’une Direction refuse un projet extrêmement prometteur parce que l’une des conséquences est de remettre en cause l’ordre établi (ce que ne font pas les réorganisations habituelles dont je parlais plus haut). Ce type de refus est donc d’abord motivé par la peur, à commencer par la peur de l’échec. Une idée intéressante à ce niveau est d’adosser ce genre de « réorg » à quelques projets pilotes qui démontrent par améliorations successives que l’objectif visé est pertinent en termes de fonctionnement opérationnel et aussi qu’on peut l’atteindre en termes de modification structurelle.

Une fois de plus, on en revient à la question : quel est votre modèle de management ?

.

.

.

.

.

.

.

 

L’équipe projet, version 2 9 septembre 2016


La manière habituelle de fabriquer des produits s’avère de plus en plus un facteur limitant. Mais bien sûr en contrepoint, il n’y a pas de nouvelle manière bien établie et faisant l’objet d’un consensus… ce qui explique que le problème est rarement évoqué en public puisque personne n’a la réponse.
Souvent le sujet est effleuré lors de projets, par une interrogation sur la nature des compétences à rassembler pour mettre en place une configuration qui fonctionne, dans le contexte des usages actuels.   (sur ce sujet plus vaste, cf. l’article sur le SI Digital).
En guise de préambule, je voudrais développer ci-dessous cinq points qui me semblent pertinents.

1980-2014_evolution-of-the-desk

Source Best Reviews :        bestreviews.com/electronics#evolution-of-the-desk.

1. Les équipes sont transverses

Pour toutes les fois où une maîtrise d’ouvrage (MOA) et une maîtrise d’oeuvre (MOE) sont impliquées dans un projet (et pas uniquement en informatique), il faut aller voir sur le terrain pour constater que les échanges d’information sont multiples, intensifs et transverses (ha !).
La transversalité se situe à la croisée de trois domaines : Conception, Réalisation et Production.

Ces trois domaines concentrent toutes les compétences pour élucider les questions de design (conception), de faisabilité (réalisation) et de viabilité (production). Le point de blocage vient du fait que dans le processus habituel, ces éléments interviennent l’un après l’autre chronologiquement, et qu’une bonne part du temps passé sur un projet consiste à comprendre ce que les précédents intervenants ont voulu dire dans leur spécifications, pourquoi ils ont adopté tel choix technique et pourquoi ils n’ont pas anticipé telle ou telle procédure. Comme dit l’anecdote du cuisinier sur le Titanic : « Moi, ma vaisselle était propre… »

Composez une équipe projet afin que ces domaines Conception, Réalisation et Production soient abordés en même temps; et n’ayez pas peur d’y ajouter d’autres fonctions si nécessaire. Dans le domaine de la cyberdéfense par exemple, on compte pas moins de sept domaines de compétences minimum.

.

2. Les équipes sont à 100%

Une affectation sur un sujet, sur 100% du temps de travail. Il y a une littérature pléthorique qui prouve l’inefficacité du travail multitâches. Pour une organisation, affecter ses employés à des projets parallèles différents est aussi dangereux que conduire et envoyer un texto en même temps.

Vous devez cesser de croire qu’un ingénieur de tests pourra résoudre cinq anomalies PHP dans la journée et proposer des idées innovantes la même journée. Vous devez cesser de croire qu’un chef de projet peut gérer 5 projets simultanément. Vous devez cesser de croire qu’un designer peut se montrer créatif sur des solutions d’écrans web alors qu’il est affecté à quatre projets différents sur 25% de son temps.

.

Maintenir en bon fonctionnement un système d’information est difficile, mais réussir un projet qui implique des technologies de moins de 10 ans, pour des usages de moins de 5 ans tout en restant compatible avec le SI qui a parfois 30 ans est un tour de force lorsqu’on y est à plein temps.
N’espérez pas y parvenir avec les méthodes qui fonctionnaient bien (en moyenne) il y a quinze ans. Lorsque vos collaborateurs sont affectés à moins de 100% de leur temps à un projet… c’est presque comme si vous vouliez ne pas y arriver.

.

3. Les équipes mangent des données au petit-déj

Personne n’a besoin d’être un expert en données (sauf le data scientist :) ). Mais tout le monde a besoin de prendre en compte les nouvelles données qui donnent des informations sur le travail accompli en vue d’améliorer le travail à faire.  Les équipes (de MOE) n’en peuvent plus de brûler des calories en respectant une liste de fonctionnalités requises (par la MOA), alors que si tout le monde avait travaillé ensemble dès la phase d’études, on aurait pu gagner du temps… C’est la responsabilité du management de constituer des équipes qui rassemblent toutes les compétences dont le projet a besoin et nous commençons bien à comprendre que les procédures habituelles empêchent cette mise à disposition en sacralisant la frontière entre MOA et MOE.

Voilà un autre élément qui légitime le recours à la méthode UX et l’observation directe en itérations successives :

  • votre produit minimum viable (MVP) doit générer des données, sinon ça s’appelle un prototype
  • vous devrez arbitrer entre les aspects quantitatifs (le quoi) et les aspects qualitatifs (le pourquoi)
  • vous devez mesurer des résultats, pas des fichiers de logs de sortie

Vos équipes devraient pouvoir exprimer fortement leurs différents avis, l’encadrement hiérarchique devrait être modéré et chaque décision devrait être argumentée par des faits et des données.
Une équipe de projet aujourd’hui n’est plus responsable de fournir une liste de fonctionnalités mais de justifier comment elle améliore sa contribution aux résultats de l’organisation.

4. Les équipes servent l’utilisateur

La principale amélioration stratégique pour une organisation consiste à mieux connaître ses utilisateurs / clients / usagers et à se rassembler autour d’eux. C’est l’usage qui doit décider de l’organisation interne et non l’inverse. De cette manière, les équipes connaîtront le pourquoi et seront à même de proposer des solutions techniques pertinentes.

Vous devez arrêter de questionner les utilisateurs après leur avoir livré un produit : si vous devez le faire une seule fois, faites-le avant. Une organisation centrée utilisateur observe, questionne et mesure les usages tout le temps.

Les équipes projet dignes de ce nom sont branchées en direct aux (futurs) utilisateurs et sans se limiter aux œillères imposées par un projet particulier. Et je dis bien en direct : sans intermédiaire qui parle « au nom de ». Ce sont des membres de l’équipe qui vont au contact des utilisateurs et qui remontent ces informations de première main. Si vous avez une Direction de l’UX ou un équivalent, elle devrait être capable de fournir de l’intelligence qui mettra en perspective et réutilisera cette collecte directe. La connaissance client / utilisateur / usager ne cesse jamais elle mérite donc d’être portée par une direction autonome et permanente au sein de votre organisation.

C’est ainsi que pourra s’estomper l’épaisseur des forteresses MOA et MOE : à force de partage, de travail en commun et de construction d’une compréhension partagée (et argumentée) des utilisateurs.

5. Les équipes sont diverses et parfois rouges

Quelle est la représentativité de vos équipes en comparaison de la population totale ? La culture de vos employés se reflète et influence le produit final jusqu’à avoir un impact sur la manière dont il sera perçu, une fois livré sur le marché.

Pas besoin d’aller chercher très loin pour trouver des exemples réels dans le monde d’aujourd’hui, dans vos produits, vos services et ceux de tous les autres.

La seule bonne volonté ne suffit pas ici, car il y a par exemple des législation qui empêchent de recruter sur une base de choix culturelle, d’origine géographique ou même religieuse. C’est une excellente chose dans l’absolu bien sûr, mais cela produit un cercle vicieux qui empêche aussi de corriger un manque de représentativité et qui ne fait finalement que protéger un état de fait largement insatisfaisant. C’est un sérieux problème que les directions des Ressources Humaines devraient traiter sérieusement… mais en termes de management, l’absence de réponse RH immédiate n’empêche pas de mettre en place certaines règles claires :red-team_contrarian-anticipation_equipe-rouge_anticipation-contrarienne

  • Permettre un environnement protecteur qui permette l’expression des points vue, y compris (et surtout) divergents. Acceptez aussi une remise en cause par… l’avis des utilisateurs et la réalité de leur contexte tel que les designers UX auront pu le constater.
  • Sur les sujets les plus importants, mandatez trois personnes pour établir précisément (et à 100% du temps alloué !) comment le plan pourrait échouer. On appelle ça une « Équipe Rouge » dont je suis un ardent défenseur. En termes militaires une équipe rouge prend le point de vue de l’ennemi pour trouver les points faibles d’un plan -et c’est nettement mieux d’avoir fait ce travail avant l’exécution du plan…
  • Montrez l’exemple. Acceptez la critique mais n’acceptez que des critiques constructives puisque bien construire est l’objectif. Pas de critique ad hominem, bien entendu.

.

Il y a encore beaucoup à dire… mais en forme de conclusion, j’ajouterai que si tout cela vise bien à améliorer la qualité de ce que vous proposez -produit ou service-, c’est aussi un moyen pour parvenir à une autre fin : renforcer l’organisation elle-même en diminuant l’entropie, la dispersion dans des luttes intestines et l’éloignement progressif de ce qui devrait être la priorité de chacun : le service rendu à l’utilisateur.

.

.

.

 

L’émergence du SI Digital 8 août 2016


Les équipes qui travaillent sur le domaine digital peuvent-elles fusionner avec l’informatique ‘classique’ qui reste -jusqu’à présent- le noble défenseur de tout l’édifice technologique.
Ou plutôt : cette fusion devrait-elle avoir lieu ?
Mieux encore : quand ces équipes finiront-elles par travailler ensemble sous la même bannière ?

.

Les entreprises qui cherchent à simplifier leur organisation sont inévitablement confrontées à ces questions mais ne cherchent pas toujours une réponse, faute de savoir réellement quoi faire du domaine ‘digital’ et faute de connaître son degré de compatibilité avec le domaine ‘systèmes d’information’ (SI).
Erreur par ignorance -ou excès de prudence-… ce type d’entreprise aura durant des années son équipe d’expérimentation digitale (ou son Lab) qui restera pendouiller à côté de la Direction Informatique, sans lien ni esquisse d’une discussion commune.

Le digital relève bien sûr techniquement du domaine informatique, tout comme le domaine SI, les équipes de direction pressées pourraient avoir tendance à fusionner SI et Digital.
Autre erreur par ignorance -ou excès de confiance-… car s’il y a bien une parenté technique, elle n’est pas toujours convergente et surtout, on est loin d’avoir un esprit de confrérie ou a minima une bonne volonté partagée.
20160218_NZDF_Q1032139_047.jpg.hashed.c7bd329a.desktop.story.inlineSI et Digital sont des cultures métier différentes et c’est ce qui mène la plupart du temps à l’échec des tentatives de fusion de ces équipes.
Et comprenez moi bien : lorsque je parle de ‘culture métier’ je ne parle pas de la couleur habituelle de leurs chemises mais de leurs manières de faire et d’envisager la technologie, au plus profond des compétences qu’ils mettent en œuvre dans leur travail.
Par exemple le SI est concentré sur la stabilité des systèmes et l’absence d’anomalie significative tandis que le Digital est orienté vers la variabilité des usages et l’amélioration progressive.
Mélangez ces différences culturelles, secouez un peu trop fort… et ça vous explosera au visage car vous aurez transformé des différences en incompatibilités.
Et croyez moi, vous ne voulez pas de tirs fratricides en plein milieu d’un projet.

.

Fort heureusement, la réalité est plus nuancée que cette grossière synthèse et laisse donc des possibilités d’avancer doucement vers un rapprochement du SI et du Digital.
Il y a fort à parier cependant que la convergence ne viendra d’aucun des deux, mais d’un élément extérieur, à commencer par la tendance à la conjonction inédite d’usages et de technologies qui élargissent nos possibilités d’interaction avec le monde. Cette tendance est puissante… bon gré mal gré, il faudra que SI et Digital entament des pourparlers diplomatiques car leurs deux domaines de compétences se révèlent avoir finalement une complémentarité précieuse.

Ce premier élément qui pousse au rapprochement peut servir de repoussoir jusqu’à la fin des temps (ou la faillite), ou bien, il peut servir de levier pour lancer un premier projet (et un chef de projet) qui offre assez de souplesse pour que chacun fasse un pas vers l’autre, par petites touches, pour se retrouver à faire preuve d’esprit d’équipe sans s’en être rendu compte. Pour ce projet en particulier, votre objectif sera d’abord de créer de la cohésion (et j’ai tendance à dire que c’est un objectif prioritaire tout le temps, d’ailleurs).

Comme l’écrivait Michel Cozier en 1979, « on ne change pas la société par décret »… et pas davantage vous ne parviendrez à rapprocher les équipes SI et digital par magie (ou en décrétant le rassemblement de tout le monde sous les ordres du même directeur à la prochaine réorganisation).
Les équipes du domaine digital ont assez de compétences pour se tourner vers les projets internes au fonctionnement de l’entreprise et non pas uniquement aux projets orientés vers les clients de l’extérieur. En parallèle, les équipes de l’informatique traditionnelle (le système ‘legacy’) savent très bien que le futur des réseaux réside dans les méthodes autres que le cycle en V, la rigidité du Coût-Délai-Qualité et le cloud, le big data et le design sexy.

.

Personne n’est dupe. Il y a des convergences… toute la question est de savoir de quelle manière l’entreprise va s’y frotter…

.

5015

.

.

.

.

.

.

 

Le syndrome de La Femme en Rouge : un usage social des objets connectés 14 juin 2016


Ainsi que j’en parlais dans mon post sur le porté connecté, l’une des possibilités socialement intéressantes de cette technologie est de pouvoir (potentiellement) permettre d’entrer en relation avec une ou plusieurs personnes qui nous sont totalement étrangères via les objets.

Cette potentialité offerte par la technologie répond à une attente d’interaction.

En référence à Fiona Johnson dans la trilogie Matrix, je nomme cette attente d’interaction le syndrome de La Femme en Rouge et précisément le fait qu’une personne est toute proche de nous mais que les conventions sociales ne légitiment d’aucune manière le fait qu’on s’adresse à elle sans passer pour un(e) tocard(e). Il manque un prétexte, une bonne raison, une justification même floue et ambiguë.
[A l’attention de mes lectrices : pour équilibrer cette illustration et ne pas sombrer dans le sexisme, si vous avez en tête l’équivalent masculin de La Femme en Rouge je suis très preneur de vos références]

femme-en-rouge_objets-connectes_usages-UX

.

Stanley Milgram a démontré dès 1967 que nous ne sommes pas si éloignés les uns des autres que de nous pourrions croire et qu’en moyenne seulement 6 niveaux de distance nous séparent de n’importe qui. J’aurais par exemple seulement besoin de 6 personnes pour pouvoir entrer en relation directe avec le président des États-Unis (ou n’importe qui d’autre). A force de répéter cette hypothèse d’ailleurs, un jour, il faudra que je me lance…

Cette théorie du petit monde a été reproduite plus récemment au sein du réseau Facebook, où il s’avère que chacun est séparé de chacun seulement par trois niveaux et demi. Au sein d’un réseau social dense et clos comme l’est Facebook (ou Linkedin, ou Tumblr), il devient encore plus simple de joindre un(e) inconnu(e) par relations interposées. Mais le simple fait d’avoir ouvert un profil sur ces réseaux sociaux fournit le prétexte à une mise en relation : parce que vous êtes inscrits sur ces réseaux, vous attendez des sollicitations (et pas toujours graveleuses, merci).

 

Joindre un inconnu sur un réseau social rend donc la prise de contact moins incongrue, dans la mesure où les deux font déjà partie du même réseau. Qu’en est-il si l’inconnu(e) est juste à proximité, sans rien ni personne pour jouer le rôle de connecteur ? Que se passe-t’il si la Femme en Rouge boit son café à la table voisine de la vôtre ? Dans ce contexte il ne s’agit plus de célébrer la relation qu’on a avec autrui même en son absence (via internet); il s’agit de célébrer exactement l’inverse : la présence d’autrui, avec qui on n’est pas encore en relation.intel_presence_syndrome-femme-en-rouge

Les recherches menées chez Intel avec des objets à double écran défrichent partiellement cette problématique, en permettant de s’adresser directement à un(e) inconnu(e) en utilisant la technologie comme entremetteur… en utilisant un prétexte non personnel pour adresser la parole, comme une image diffusée sur un écran, une ligne de texte ou autre. Cela met les deux personnes à l’abri d’une relation qui démarrerait immédiatement sur le plan personnel.

Bien sûr, si vous faites partie des gens qui peuvent lancer une conversation avec (presque) n’importe qui dans n’importe quelle situation, vous pourrez hausser les épaules devant l’idée qu’un objet puisse servir de déclencheur à la prise de contact. J’en conviens. Et si mon allégorie de La Femme en Rouge oriente le débat vers une relation interpersonnelle de séduction, ce serait une erreur de limiter le sujet à ce domaine particulier.
Que se passe-t’il si la Femme en Rouge est directrice des ressources humaines de l’entreprise où vous voulez travailler et qu’elle boit son café à la table voisine de la vôtre ?
Du reste, si vous craignez l’invention prochaine d’une machine à harceler vous pouvez être rassuré, puisque ce sont les objets qui gèreront le premier niveau d’interaction pour ne laisser émerger que les demandes appropriées telles que définies par vos soins. L’expérience de Milgram en 1967 a surtout montré que ce n’est pas l’outil qui permet la mise en relation, c’est la bienveillance de celui ou celle qui reçoit la sollicitation. Les « six degrés de séparation » sont seulement une moyenne et sur presque 270 lettres envoyées pour vérifier l’hypothèse de l’équipe de recherche, moins de 70 parvinrent à destination. La Femme en rouge ou l’Homme en Bleu (?) auront toujours la possibilité de vous ignorer superbement, et réciproquement.
En fin de compte d’ailleurs, dans le film Matrix, personne n’entre en contact avec la Femme en Rouge.

 

assistant_entremetteur_hologramme

Il y a cependant là une nouvelle possibilité d’usage pour les objets connectés, socialement bien plus utile qu’un podomètre ou un stupide compteur électrique soi-disant intelligent.  Je parie que celui qui trouvera un moyen technologique de favoriser la relation avec autrui dans le monde concret aura au moins autant de succès que Mark Zuckerberg et son bouton Like.
Sous quelle forme apparaîtra cette innovation reste sujet à débat : il est probable que nous ne pourrions que nous tromper en lançant des hypothèses sur la base d’exemples existants. Smartphone, montre, bague… tout ce qui entre dans le domaine du ‘porté connecté’ semble pertinent. L’essentiel de toute façon n’est pas l’objet en lui-même mais les protocoles et autres liaisons à courte distance.
Peut-être que la catégorie des objets enchantés pourrait nous orienter vers une voie prometteuse, par exemple avec l’aide des assistants virtuels en hologrammes ?

La force de cette innovation résiderait dans le fait qu’on n’est plus dans le virtuel mais dans la vraie vie.
Un Like bien placé sert de déclencheur de conversation, ou simplement le fait de savoir qui a consulté votre profil sur internet vous rend légitime à adresser la parole à cette personne… mais dans la vraie vie, dans un salon professionnel, au centre commercial ou dans la rue, on ne peut pas utiliser d’intermédiaire : entre soi et autrui, soit on adresse la parole, soit une opportunité est manquée.
C’est ce vide que pourrait combler la technologie connectée dans la mesure où elle servirait à générer du lien social là où, juste avant, il n’y avait qu’une espérance d’interaction.

Célébrons la présence !
.
.
.

 

 

Synthèse sur les wearables : le porté connecté 4 avril 2016


Dans le cadre d’une (petite) recherche je me suis récemment intéressé aux motivations individuelles à utiliser les vêtements connectés; en anglais dans le texte les connected wearables.

 .

Mais il y a un problème de dénomination.
Comme j’en parlais dans un article récent, le mot anglais digital est synonyme de numérique, les deux peuvent être utilisés pour désigner la même réalité. C’est simplement l’habitude qui nous fait préférer l’un des deux vocables.
Ce n’est pas vrai pour le domaine des vêtements connectés par rapport au terme anglais wearables, du verbe to wear : porter sur soi (et non pas emporter avec soi, comme un téléphone). Les wearables constituent donc la catégorie d’objets que l’on porte sur soi mais pas uniquement les vêtements. Ainsi, l’utilisation du mot français ‘vêtement’ connecté est beaucoup trop restrictive pour désigner la globalité d’une pratique anthropologique universelle. La réalité que l’on veut désigner en effet concerne les vêtements mais aussi les montres, les lunettes, les harnais de sécurité, les gilets de sauvetage, les sacs à dos, les bijoux, les casques de moto, les pagnes, les chapeaux, les gilets pare-balles, les combinaisons de surf, les étiquettes d’identification des nourrissons en maternité, les aides auditives, les piercings, etc.
Si le ‘wearable’ concernait uniquement les ‘vêtements’, jamais par exemple nous n’aurions connu le glorieux concours Wearables for Good lancé par l’UNICEF.
Je propose de traduire désormais connected wearables par l’expression porté connecté, qui représente mieux « ce qu’on porte sur soi » au sens large, ce qui inclue les vêtements, sans désigner uniquement cela.

 

Une première chose qui m’a frappé est l’évidente relation du porté connecté avec le concept plus vaste du Digital.

Le porté connecté est un sous-domaine des objets connectés qui sont tous rattachés à l’infrastructure de l’internet des objets (IoT); le Big Data quant à lui est la solution de stockage et d’analyse… et au final, ce sont tous les éléments qui constituent la technologie numérique qui finissent par entrer en écho les uns avec les autres. Techniquement donc, le périmètre du porté connecté c’est le Digital.

 

 

Une seconde chose frappante est le sentiment diffus qu’il existe beaucoup de solutions techniques qui ne répondent à aucun problème… ce qui se traduit d’abord par un décalage entre l’argumentaire des vendeurs de porté connecté et la motivation à utiliser ces mêmes objets. Pour les premiers généralement, l’intérêt du produit réside dans l’étendue de ses capacités techniques… la plupart du temps extrêmement pauvre car limité à la mesure de certaines fonctions corporelles.

Mais les préoccupations des utilisateurs relèvent d’un autre ordre. Pour les objets connectés par exemple il s’agit avant tout d’économiser de l’argent (le compteur électrique). Pour la sous-catégorie des wearables cependant, les utilisateurs ne cherchent pas à s’équiper d’un système technique, mais à atteindre une série d’objectifs personnels relativement précis qui peuvent se résumer ainsi :

Motivations à l’usage du porté connecté :
Économiser de l’argent (pour uniquement les objets connectés et non le porté connecté)
Avoir l’esprit tranquille
Être à deux (plusieurs) endroits en même temps
Améliorer sa sécurité physique / son bien être

Pour ces quatre motivations d’utilisation on trouvera à chaque fois l’idée sous-jacente d’être prévenu avant l’atteinte d’un certain seuil. Ce seuil sera le plus souvent un nombre… reste à définir ce qu’il quantifie et par rapport à quoi : une somme d’argent, une distance, une probabilité, un temps écoulé, un taux de monoxyde de carbone, une densité, une vitre brisée, un nombre de pulsations cardiaques, un temps d’immobilité, le ping d’un autre objet connecté, etc.

iot_objets-connectés_objets-enchantes

Mais la possibilité même de définir un seuil suppose d’avoir une base de référence pour savoir quoi mesurer. L’importance de bien définir ce que l’utilisateur attend vraiment s’avère cruciale pour établir un seuil qui déclenchera les actions utiles. Du point de vue de l’utilisateur, c’est bien là que réside l’intérêt d’un vêtement connecté ou l’articulation de plusieurs objets entre eux :

il s’agit de répondre à la question « A quoi ça me sert ? » davantage que « Qu’est-ce que ça fait ? »

En plus de devoir définir une problématique pertinente pour définir le périmètre des données à mesurer, il faut aussi se demander comment on va le faire en termes de système technique, ce qui permet d’évoquer les composants techniques d’un vêtement connecté, en termes de software et de hardware :

Exigences d’architecture :
Collecte de données
Transmission de données
Analyse, traitement de données
Restitution des données après leur traitement

L’exigence technique de restitution de données nous amène quant à elle sur les domaines de la data vizualisation et du design front-end. Il faudra bien sûr prendre en compte le contexte d’usage, car on ne présentera pas de l’information sous forme de texte à une personne en mouvement, ni sous forme sonore à quelqu’un qui évolue dans un environnement bruyant (c’est bien le minimum qu’on vous demande : connaissez vos utilisateurs !). Pour faire court, ici, les 5 sens sont  potentiellement des vecteurs d’information. A noter que dans bien des cas on peut envisager le téléphone mobile de l’utilisateur comme unité de traitement et de restitution des données.
La question se pose aussi de demander ou non à l’utilisateur une interaction pour obtenir l’information qu’il attend. objet-connectes-wearables_bijou-joaillerie_usages_objets enchantésCela crée une bifurcation majeure dans le design : en effet, en ne demandant pas d’action particulière à l’utilisateur on ouvre la voie à une catégorie d’objets bien particulière dont j’ai déjà parlé ailleurs : les objets enchantés… qui constitueront j’en suis persuadé la catégorie premium de l’internet des objets.

.

En plus des critères mentionnés ci-dessus, j’ajouterais que le potentiel de développement pour l’ensemble du domaine du porté connecté (et donc de l’internet des objets) tient dans notre capacité à créer des produits qui répondent à une triple exigence :

Tendances technologiques :
Miniaturisation
Bas coût
Faible consommation d’énergie

Ces trois éléments permettront de prendre en compte de mieux en mieux les besoins fonctionnels des utilisateurs. Plus la taille des capteurs, leur coût et leur consommation d’énergie diminueront, plus on pourra envisager une inspiration et des spin-off technologiques issus du monde médical, à commencer par le patch connecté jetable comme le BioStamp de la société MC10.
Mais pour les fabricants, il faudra un effort d’imagination pour sortir des applications restreintes au seul suivi d’activité physique et au quantified self. Pour s’ouvrir à d’autres fonctionnalités et élargir le champ des usages, il faudra s’inspirer de la vie quotidienne réelle des personnes réelles pour trouver une inspiration autrement plus vaste, dont les applications seront transposées dans du porté connecté qui ne s’affiche pas comme tel. Car soyons honnêtes, à part dans un cadre professionnel, personne ne veut ressembler à un pervers équipé de Google Glass… la problématique est la même ici que pour les voitures électriques : elles exploseront leurs ventes lorsque leur spécificité sera fondue dans une apparence normale (pour y parvenir, encore une bonne raison de recruter des ethnologues !).

En se laissant aspirer par les objets habituels de la mode et de la bijouterie-joaillerie, le porté connecté gagnera en acceptabilité sociale car il signifiera quelque chose, en termes collectifs, à commencer par un habillage statutaire. Car c’est une chose de porter un bracelet FitBit, mais en termes sociaux il n’existe aucune référence pour faire ‘résonner’ le sujet ou pour se distinguer grâce à ce type d’objet. Il en ira autrement lorsque les fonctionnalités et le siglage auront du sens pour ceux qui sont autour et qui attribuent une symbolique à l’objet… exactement comme on attribue un statut différent à un pantalon Levi’s, Carhartt ou Azzaro. Tout le monde se fiche bien de connaître la composition du tissu en 90% coton et 10% élasthanne ou avec 3 circuits imprimés dans le col.

 

Enfin, en opposition totale avec l’argumentaire des vendeurs, il faut bien admettre que la propagation de la connectivité au monde des objets (vêtements inclus, donc) représente un risque majeur de sécurité, du fait de la menace d’un piratage ou plus prosaïquement d’une interruption accidentelle de la connexion. Les Américains par exemple développent leurs systèmes en se basant sur l’hypothèse d’une liaison permanente, ce qui me paraît hautement optimiste car de fait, le risque d’une perte de liaison n’est pas pris en compte… il y à là une porte grande ouverte pour faire les frais de la Loi de Murphy quelque soit le niveau de sécurité que vous prétendez avoir.

Les exemples ne manquent pas, déjà aujourd’hui alors même que les applications de masse sont tout juste émergentes. Ce risque s’applique parce qu‘il y a une connexion et tout ce qui est connecté est donc à la même enseigne : tee-shirt, voiture, sac à main Vuitton, téléphone, détecteur d’intérieur, chemise, système d’alarme, pince à cravate, moniteur de rythme cardiaque, tableau de contrôle d’une centrale nucléaire ou d’un Airbus, broche Swarovski, etc.

Je suggèrerais donc au ingénieurs, designers et fabricants d’opter pour des objets connectés utiles même hors connexion et avec la déconnexion manuelle comme fonction à part entière.

Critères fonctionnels :
Intégration
Personnalisation
Adaptatif
Anticipatif
Déconnectable

Car ce sont bien les usages et non les critères techniques qui permettent d’énoncer les fonctions du produit dans le vocabulaire de l’utilisateur et en vue de répondre à la seule question qui le préoccupe : A quoi ça me sert ?

Or comme on vient de le voir, il s’avèrera sans doute nécessaire et utile, à diverses occasions, d’utiliser un objet connecté sans sa connexion. C’est à ce moment là que votre réflexion sur le sujet pourra faire l’ultime différence entre un objet qui reste utile même déconnecté -ne serait-ce qu’en style- et un machin aussi fonctionnel qu’un caillou.

.

wearables_anonymous_discreet_casual-look-for-the-office

.

 

.

.

.

 

Les connexions empathiques 2 février 2016


 

Deux des producteurs de la série Sense8 ont aussi fait Matrix et Cloud Atlas : Lana et Andy Wachowski, excusez du peu. Compte tenu de leur maîtrise cinématographique, on pourra d’ailleurs se demander pourquoi les Wachowski sont allés mettre de l’argent dans une série télévisée, qui n’est pas un genre créatif particulièrement estimé. Mais à bien y réfléchir, quand on voit la stérilisation progressive des productions de cinéma, il faut peut-être accepter l’idée qu’aujourd’hui c’est dans le format de la série que l’on peut trouver la liberté de ton, la créativité et la qualité presque littéraire.

D’ailleurs dans ces trois domaines, toutes sortes de choses étranges se produisent au cours de la série Sense8, à commencer par demander un effort au spectateur pour dépasser les trois premiers sense8-characters-_empathie_empathy_wachowskisépisodes, tant ils paraissent confus et lents.
Quelle est la dernière production culturelle qui vous ait demandé de faire un effort ?
Les personnages de la série sont des humains parmi d’autres -ou presque-. Ils ne sont pas auréolés de lumière divine ni dotés d’une technologie toute puissante. Ils sont faibles, vulnérables et sûrement pas supérieurement intelligents… et le démarrage poussif des trois premiers épisodes le montre bien : les personnages eux-mêmes ne comprennent rien à ce qui leur arrive… c’est un pari risqué de mise en scène car ça a dû couter beaucoup de spectateurs potentiels, qui sont partis non pas avant la fin mais avant le début de l’intrigue.

Les spectateurs les plus rigoristes seront aussi exaspérés par le libéralisme moral qui domine l’état d’esprit des protagonistes.
Mais la série Sense8 n’est pas faite pour les esprits fermés.
Le cœur du sujet est même exactement l’inverse : Sense8 nous parle de transhumanisme   –l’idée que dans le futur l’espèce humaine pourrait devenir davantage que ce qu’elle est aujourd’hui sous le nom d’homo sapiens-sapiens. Mais le transhumanisme de Sense8 ne se fait pas à coups de prothèses technologiques ni de modifications du génome par des biopunks en laboratoire plus ou moins stérile. Pour une série classée dans le genre science-fiction, on pourra bien s’en étonner : ça ne parle pas de technologie ou, du moins, la technologie n’est pas l’élément le plus important.

.

L’élément le plus important ce sont les gens et les relations qu’ils entretiennent. Leurs émotions, leur empathie et la complémentarité de leurs compétences   -cette même complémentarité qui souligne l’idée du tout, meilleur que l’addition des parties.

Et contrairement aux récits catastrophistes habituels sur l’émergence d’un nouvel être humain amélioré, le transhumanisme ne semble plus si suspect avec Sense8. La force des protagonistes est de pouvoir établir une connexion émotionnelle. C’est leur capacité à ressentir l’émotion d’autrui qui les fait passer au stade ultérieur de l’évolution d’homo sapiens. Bien sûr, nous sommes à la télé… tout n’est donc pas particulièrement subtil… mais les réalisateurs parviennent à faire passer le message : le moyen pour rendre l’être humain meilleur nous l’avons déjà. C’est l’empathie… et c’est en totale opposition avec les préjugés largement répandus sur le comportement humain, qui serait d’abord motivé par l’intérêt personnel, la soif de pouvoir et la maximisation du profit. sense8_empathie_empathy_wachowskis
Les économistes savent de quoi je parle, c’est eux qui ont inventé ce postulat de l’homo economicus.

.

Les auteurs de science-fiction ne sont pas censés aborder ce genre de sujets, encore moins s’ils ont réalisé la trilogie Matrix. Où sont donc les vaisseaux spatiaux, les robots et les concepts révolutionnaires ?! Où sont les superpouvoirs des X-men ? Où est HAL de 2001 : l’odyssée de l’espace ? Où est le voyage temporel d’Interstellar ? Où est le robot qui rêve et ressent de émotions de i, robot ? Rien de tout cela n’a d’importance si les êtres humains ne font pas preuve d’empathie les uns envers les autres, nous répondent les Wachowski. Leur point de vue se défend bien et ça semble même sexy, enrichissant et concrètement utile.

.

Les récits de science-fiction souffrent généralement de deux faiblesses : le futur est compliqué (pas complexe, mais compliqué), déprimant et ennuyeux ; et son esthétique est théâtrale : soit néofasciste, soit anarcho-biotechnologique. Le message implicite est que l’avenir de l’humanité est inséparable de la souffrance. Les acteurs de Matrix ont l’air très cool dans leurs vestes de cuir et leurs lunettes de soleil, oui –mais ce sont les robots qui ont vaincu ce crétin d’homo sapiens. Le paradoxe ressemble à un sarcasme visuel.

En poursuivant leur analyse dans Sense8, ceux-là mêmes qui ont fait Matrix suivent une bifurcation plus prometteuse. Ils explorent la piste déjà partiellement parcourue par James Cameron dans Avatar : l’être humain devient meilleur s’il peut voir le monde avec les yeux d’autrui. Et les Wachowski jubilent en supprimant même l’intermédiaire technique : Sense8 est plein de joie parce qu’on y voit des individus qui deviennent meilleurs grâce aux autres, sans l’amertume habituelle de la décadence futuriste ou la prédestination du superhéros.

.

Sense8 est donc d’abord une question posée aux auteurs de science-fiction en particulier et à tout les autres en général : faisons-nous une erreur en croyant que c’est le développement technologique qui permet l’amélioration de notre monde ? -question que l’on pourrait inscrire chaque année au fronton du Consumer Electronics Show (le CES de Las Vegas)… ou de n’importe quelle Exposition Universelle depuis 1851-   Car s’ils ne servent pas à cela, à quoi servent donc la pointe de flèche en silex, le Big Data, l’industrie logicielle, les énergies propres, les nanotechnologies, la réalité virtuelle,  l’Internet des Objets, les biotechnologies, le digital, la voiture autonome, les drones, et tous les autres ?

A sa manière souriante et humble mais pas moins déterminée, la série suggère une réponse alternative pour améliorer l’être humain : augmenter la compréhension qu’on a des autres, en utilisant l’émotion comme connecteur principal.

.
.
.
.

 

Le début de quelque chose de nouveau 5 janvier 2016


1_Gwyhr-HRQsnzhmUbXfopFQA la suite de mon article sur le digital, plusieurs pistes de réflexion se sont ouvertes qui ne sont pas sans lien avec l’organisation et l’innovation, à la fois en termes de méthodes et de compétences.
En voici une synthèse que je livre à votre sagacité… tous vos commentaires, retours d’expérience et ajouts sont les bienvenus !

.

    1. Soyez amis avec de bons designers et graphistes. Je parle ici d’UI et non pas d’UX : les personnes qui conçoivent les interfaces et rendent les données visibles, conviviales et compréhensibles. Il y a un gouffre de compétences entre un designer UI et un développeur informatique. Associez-vous à des profils de designers front end qui connaissent la data visualization et capables de dessiner un prototype d’écran sur un coin de nappe de restaurant, en écoutant l’utilisateur qui parle de son activité quotidienne. Les compétences en logiciel de graphisme sont importantes, mais pas moins que l’intuition et la capacité à corriger ses créations en fonction des remarques que renvoient les premiers concernés. Inversement, laissez-le graphiste et les développeurs parler ensemble, afin que le produit fini intègre la machinerie back end et l’interface front end de façon la plus intelligente possible.
    2. Pensez à ce que vous aller faire des données. Avez-vous un réel besoin de toutes ces données que vous collectez ? La tendance du Big Data peut laisser croire que la collecte est nécessaire et que le stockage a des coûts exorbitants l’est aussi… mais en avez vous besoin ? Quel usage pouvez-vous faire des données ? Devriez-vous utiliser du big data moissonné sur le web, ou récolté en interne comme par exemple vos données financières, comptables, ou de production ? Là est la vraie question. Ce n’est pas parce que tout le monde parle du Big Data que tout le monde doit faire comme Facebook.
    3. Trouvez un équilibre pour que les options que vous proposez n’entravent pas l’expérience des utilisateurs. Pensez à observer vos clients en direct (et non pas seulement leur poser des questions)… ce qui implique de vous aventurer sur la voie d’une UX bien faite. Là où on se rend compte qu’il y a de grosses différences entre les actes et les discours.
    4. Ce que les développeurs adorent, c’est l’open source. La plateforme Github permet de se familiariser avec les techniques, de collaborer avec une douzaine de millions d’autres professionnels, de trouver des API’s et de faire tester les vôtres. Vous êtes dans le métier du code, alors bon sang, faites-en du bon ! Vous devriez même offrir publiquement des récompenses à ceux qui vous signalent des failles de sécurité -et rien de tel que la communauté open source pour cela.
    5. L’internet n’existerait pas sans une infrastructure matérielle. Le logiciel est un bonus, mais il est à peine nécessaire pour que l’internet fonctionne. Faites-vous une bonne idée de la manière dont fonctionne le réseau physique, la manière dont les outils sont connectés en termes de câblage, fréquences, déperdition de données, composants d’interconnexion. Avec l’internet des objets, ce sera une compétence précieuse dans très peu de temps, vers un avenir fait d’objets interconnectés ou d’objets ayant leur propre fonction ‘stand alone‘ : le objets enchantés (voir mon post précédent sur le digital).
    6. En corrélation directe avec le point ci-dessus, plus le temps passe et plus il y aura de plateformes techniques. Potentiellement, 1 objet connecté = 1 plateforme. L’échantillon des systèmes d’exploitation aujourd’hui existants ne va faire que s’agrandir : Windows, Windows Mobile, Android, Android Wear, Mac OS, iOS, Apple Watch, Tizen, etc. pour faire fonctionner des PC, Mac, mobile, tablette, tableau de bord de voiture, montre, écran fixe, drone, imprimante 3D, tondeuse à gazon automatique, etc.  Ne vous privez pas d’essayer de nombreux outils de développement multi plateformes pour pouvoir écrire du code une fois et le réutiliser sur n’importe quelle plateforme. Essayez-en plein et conservez ceux qui vous sont vraiment utiles.
    7. Les développeurs mobiles d’aujourd’hui seront les développeurs Internet des Objets de demain. L’expérience de l’utilisateur, un usage minimal de la bande passante, la personnalisation sont (et seront) des qualités critiques pour le code informatique, pour l’ergonomie et pour le design global de l’expérience de bout en bout. Il y aura de plus en plus d’objets comme le bouton rouge de Darty (« appuyez et on vous rappelle ! ») et sur ce principe, tout ce sur quoi on peut installer une API devient de facto une plateforme de développement : voiture, aspirateur automatique, ordinateur portable, tee-shirt, etc.
    8. L’avenir est une question qui attend d’être posée. Il y aura davantage de plateformes et tout sera interconnecté. Pour les professionnels du code, attendez-vous à des innovations dans le domaine de l’écriture de code, par interface vocale par exemple et d’une façon générale par autre chose qu’un clavier, un écran et des connaissances en langage objet ou machine. Avec l’essor du code en langage naturel, c’est la machine qui traduira vos instructions. Il n’est pas impossible que dans un temps pas trop éloigné, les développeurs informatiques connaissent la même obsolescence que les développeurs photo argentique à la fin du XXe siècle. Laissez donc vos développeurs explorer, essayer, parler… et demandez-leur des notes de synthèse sur les sujets porteurs. Rémunérez-les pour poser les questions d’avenir.
    9. Les applis destinées à un usage international doivent prendre en compte la bande passante. Les applis qui fonctionnent bien en Corée du Sud, ne fonctionneront plus si bien aux Etats-Unis ou à Singapour. Comme je disais en 7), prenez en compte un usage minimal de bande passante, dès les premières ébauches en phase de conception. L’élégance du code, c’est aussi de consommer peu.

.

android-voice-figure-1

Entrer une légende

Mobile developpers will become internet of things developpers, merging software with hardware skills, up to the reign of ‘enchanted objects’. Interface designers will be the first recruited at the launch of a new project.
Code will be tested simultaneously and run on multiple platforms… and code will be « written » in new ways (Vocal Coder, Siri ?).   That’s the beginning of something new.

 

.
.
.

 

 
%d blogueurs aiment cette page :