The blog of blog of blogs

Les aventures d'un ethnologue dans le grand monde

Millennials, digital natives (et autres foutaises) 7 juin 2018


.La puissance des préjugés et des idées reçues est souvent largement sous-estimée.

Il existe ainsi de nombreuses catégories qui nous permettent de ‘lire’ le monde alentour mais qui, après examen, s’avèrent totalement infondées. Ainsi, certains croient que la Terre est plate, d’autres que les Millennials existent pour de vrai.

.

De nombreuses publications ont popularisé cette manière de qualifier les différentes générations par des traits de caractère typiques, afin de diffuser des messages commerciaux censés les attirer vers tel ou tel produit.
En suivant cette logique erronée (comme toute théorie à usage marketing), si vous êtes né le 31 décembre 1979 vous faites partie de la Génération X et vous-vous démarquez par un comportement généralement sceptique, pragmatique et démotivé. Si vous êtes né un jour plus tard, le 1er janvier 1980 on vous assigne à la catégorie des Millennials (ou Génération Y), ce qui est censé faire de vous quelqu’un de narcissique, technophile et optimiste.
En tenant compte de ces traits de caractère il serait alors possible de concocter des messages à destination de ces populations …messages qui tomberont systématiquement à plat en termes d’âge.

 

Car ce n’est pas le calendrier qui commande notre familiarité avec une technologie ou les valeurs auxquelles on adhère, c’est l’environnement familial, l’histoire personnelle, l’éducation et notre position dans l’échelle sociale.
Un adolescent né en 2001 dans le XVIIe arrondissement de Paris fait bien partie de la même génération qu’un autre adolescent né la même année dans la cité des Izards à Toulouse, mais ce n’est sûrement pas la date de naissance qui permet de trouver leurs points communs en termes de comportement ou de préférences.

Émettre des théories et proposer des plans d’action sur le seul critère des différences générationnelles, c’est créer des stéréotypes.

.

Ces stéréotypes pour fallacieux qu’ils soient, n’en ont pas moins un effet réel parce que les décideurs ont l’illusion de connaître « le marché ». Des décisions sont prises en se référant à une réalité qui n’existe pas. Des produits et des sites web sont créés sur la base de ces catégories imaginaires  (demandez à  Joon), ainsi que des politiques publiques ou même des stratégies d’innovation tout entières.
Mais l’innovation ne se base pas sur des croyances et aucune étude sérieuse ne corrobore l’idée que le critère générationnel est pertinent pour déduire des caractéristiques culturelles.
Si vous voulez connaître vos clients il faut cesser de croire et aller constater en direct, sur le terrain. Bienvenue dans le monde merveilleux de l’expérience utilisateur.
Là, des spécialistes (des vrais) pourront démontrer que non, l’âge n’est pas un critère valide pour identifier les préférences des utilisateurs d’iPhone rose, d’Instagram ou de chaussures New Balance vertes. Parce que effectivement, un utilisateur technophile aujourd’hui a de fortes attentes quant à la qualité de ce qu’on lui propose -et ce qu’on lui propose est branché à l’internet. Les digital natives le sont parce que l’état des technologies à leur époque ne leur laisse de toute manière pas le choix, pas plus qu’aux autres classes d’âge. Si nous avions été en 1986, cette description aurait très bien convenu à un utilisateur chevronné du magnétoscope ou du lecteur CD. L’aisance qu’on a avec un outil n’est pas liée à l’âge, elle est liée à…l’aisance qu’on a avec l’outil.
Car 12, 22, 52 ou 72 ans… quelle importance ?

On ne construit pas une stratégie d’innovation, ni des profils d’utilisateurs, sur une base générationnelle.
Et les valeurs communes entre une marque et ses utilisateurs n’ont rien à voir avec une unique tranche d’âge.
.

.

Bien sûr les « générations » existent. En démographie on appelle ça une cohorte de naissance : un groupe d’individus ayant la même année de naissance. Notez bien que c’est le seul point commun de tous ces gens : l’année de naissance.
Mais il n’y a là rien qui fasse d’une génération un ensemble homogène en termes de valeurs, de préférences ou de pratiques. Les communications qui s’adressent aux Millennials, finalement, cachent assez mal l’idée que la cible réelle est la population des jeunes riches : c’est la population que les entreprises souhaiteraient avoir dans leur fichier client.

Les généralisations abusives et le simplisme ne sont pas vos amis, pas plus que le recours aux boules de cristal ou la divination par les os de poulet. Nous devrions être hautement suspicieux de ce genre de platitudes démographiques.
Et pour ceux/celles d’entre vous qui tentent malgré tout d’y voir clair en identifiant qui, quoi, comment, pourquoi se produisent les différences générationnelles; je vous invite à prononcer la formule magique : quelles sont les preuves ?

.

En réponse à cette question… vous constaterez que l’édifice s’effondre, comme c’est le cas en général pour les foutaises du management.

.

.

.

.

 

 

.

 

Publicités
 

Des objets à commander 9 avril 2018


Les modèles de conception appliqués au digital ont permis l’essor de méthodes collaboratives qui nous éloignent toujours un peu plus de la théorie du One best way de Fayol, Taylor et Ford.
Du reste, s’il y a bien une leçon à retenir des travaux de recherche en organisation c’est que le one best way n’existe pas. Il n’y a pas un modèle d’organisation meilleur que tous les autres : il n’y a que des modèles d’organisation adaptés à leur contexte.
.

De ce point de vue, l’ingénieur en chef enfermé dans son Bureau des Études se révèle être de plus en plus une vue de l’esprit. Il n’est pas seul, il ne peut pas travailler seul, il ne peut que négocier ses contraintes avec les contraintes des autres parties-prenantes d’un projet à commencer par les utilisateurs et leur contexte d’usage. L’intérêt des méthodes collaboratives -et en premier lieu du design thinking- est que la prise en compte du contexte fait partie de la méthode. Ce n’est jamais une garantie de succès, mais c’est très certainement la garantie que vous éviterez de faire des erreurs grossières par manque de prise en compte de la réalité dans laquelle votre projet va se déployer.

Les configurations techniques sont désormais assumées comme des constructions collectives . C’est un mouvement qui concerne les ‘artefacts’ au sens large : ça a commencé par les objets matériels mais les services et les décisions politiques sont aussi concernés. Avoir le grade ou le statut n’est plus suffisant pour être légitime à décider, il faut aussi avoir le consensus et ce consensus se crée par la prise en compte du contexte.

Les implications sont vastes et je limiterai ici mon propos au monde matériel, celui de l’interconnexion généralisée dans l’internet des objets (IoT).
Une gamme d’objets étonnamment vaste est maintenant connectée à l’internet, des vêtements aux montres en passant par les éléments de mobilier, les machines-outils, les jouets, les chaînes logistiques ou les voitures… ou même des smart villes. Ces bidules sont de toutes formes et de toutes couleurs –certains n’ont même pas d’écran de commande et c’est bien l’enjeu de l’IoT : ce sont les objets qui communiquent entre eux et qui s’informent les uns les autres de leur état réciproque pour s’adapter à la situation, sans avoir besoin d’un homo sapiens pour interagir en permanence. L’intervention humaine lorsqu’elle se produit est seulement ponctuelle alors que les objets ont une communication permanente.
Le fonctionnement des ‘couches basses’ fait appel à des algorithmes, des liaisons RFID, des capteurs d’usure installés sur les freins des trains ou un lecteur d’empreintes digitales sur la porte de chez vous… à ce stade, l’humain sur son tableau de contrôle ne voit qu’une partie de la réalité du système, un abrégé, la synthèse de multiples étapes qui se déroulent entre machines, hors de vue et hors de portée.

.

Où est le besoin d’une construction collective ici, puisque précisément les objets fonctionnent en autonomie ?

.

Ce fonctionnement automatisé pose une première question pour l’observateur du système (le technicien superviseur par exemple ou le/la chef de famille), comment sait-il si les objets sont en train de se causer dans une usine, ou un domicile ?
Comment puis-je savoir que mon Google Home ou Microsoft Alexa est en train d’écouter les différentes voix qui se parlent dans ma cuisine et transmet quelque chose aux serveurs Google ? Comment savoir que mon compteur de gaz est en train de transmettre des données à mon fournisseur d’énergie, et quelles données ? Comment savoir que le bus n°56 est effectivement en train de transmettre sa position GPS exacte au centre de supervision ?
Il y a un premier besoin de design d’interface au niveau des transmetteurs pour matérialiser la transparence du système technique envers l’environnement humain. Lorsque les machines se parlent, a minima, elles doivent le signaler en temps réel. Sur l’objet connecté lui-même cette fonction se double par l’enregistrement de logs qui stockent l’ensemble des données brutes de ce qui est transmis et reçu -et en provenance et à destination de qui.
A mon humble avis, elles devraient être accessibles au moins en lecture seule par l’utilisateur. Après tout, ce sont ses données à lui.

Car je l’ai déjà dit et je le redirai : la limite ultime d’une technologie réside dans sa capacité à faciliter ou permettre l’existence d’une dictature. Les enjeux de transparence dans l’IoT n’ont rien d’une option cosmétique, ils servent à tracer cette limite.
.

… avec cet argument en tête, je vous invite à relire le rapport du député Vilani Donner un sens à l’intelligence artificielle.
Page 35 :  « L’État doit également organiser l’ouverture au cas par cas de certaines données détenues par des entités privées, et favoriser sans attendre les pratiques de fouille de texte et de données. »
Une phrase comme celle-là devrait tous nous réveiller la nuit, parce qu’elle n’est associée à aucune possibilité de contrôler ce qui est fouillé par l’État et encore moins de débrayer le système ou de refuser d’y participer.
.

Le second besoin en termes d’interface pour l’utilisateur du système est la qualité explicative du système décisionnel : comment l’opérateur peut-il comprendre la logique qui mène à un certain résultat ? Les interfaces spécifiques de l’IoT sont à peu près comparables à des télécommandes, mais évolutives en fonction des situations, grâce aux algorithmes et peut-être un jour grâce à de l’intelligence artificielle.
A partir de quel seuil apparaît par exemple une alerte orange ? Lorsqu’il faut agir immédiatement pour éviter une explosion ou lorsqu’il faut commander une soupape de rechange qui arrivera dans trois jours ?
Quels types d’action sont demandés à l’opérateur humain et pourquoi ?
Le système technique lui-même doit pouvoir s’expliquer et justifier de son fonctionnement : il devient un acteur à part entière du système relationnel… relisez la théorie de l’Acteur-Réseau.

.

Les objets à commander dans l’IoT peuvent être répartis dans le monde entier, par milliers, mais le panneau de supervision est juste là, dans votre smartphone personnel ou sur votre ordinateur professionnel (ou l’inverse)… et bientôt en réalité virtuelle ou augmentée.
L’interaction des humains avec le système technique nécessite à ce titre davantage de prise en compte des utilisateurs puisqu’il faut intégrer dans l’interface l’absence d’objet, l’absence d’indice direct qui permettrait d’interpréter ce qui est affiché.
Les designers vont collaborer avec les ingénieurs et les concepteurs produit pour leur faire comprendre que tout ce qu’ils sont en train de faire devra être utile à l’utilisateur avec une certitude absolue, par exemple pour ouvrir la porte d’entrée de son domicile, ou interpréter correctement le niveau d’usure du système de freinage d’un train.
.
Industry 4.0 concept .Man hand holding tablet with Augmented reaLes applis de supervision de l’IoT ne sont pas soumises aux mêmes objectifs que les applis habituelles pour le grand public. On cherchera à faciliter la prise de décision grâce à quelques écrans qui synthétisent l’état d’un système complexe et ce domaine est plus proche de la maintenance industrielle que du loisir interactif.

Vous pouvez passer des heures sur Instagram en supportant quelques boutons mal faits, mais si vous devez piloter à distance des machines de 500 kilos ou confirmer que le gaz est bien éteint chez vous, le niveau d’exigence dépasse le sens commun… sans parler de l’opérateur d’une escadrille de drones autonomes en opération au-dessus d’une grande métropole.

.

Les critères UI de base restent pourtant bien les mêmes (utilisabilité, simplicité, découvrabilité) que pour n’importe quel design d’interface, mais les conséquences de l’usage pourront être constatées dans le vrai monde avec une porte qui se déverrouille pour laisser entrer les enfants après l’école ou un train qui s’arrête au bon endroit –ou pas.

.

Avec ces conséquences immédiates et très concrètes, la prise en compte de l’utilisateur réel, dans son contexte d’usage devient encore plus cruciale pour éviter les contresens, les erreurs de manipulation et, potentiellement, les catastrophes à grande échelle « simplement » parce qu’une interface ou un algorithme de prise de décision était mal conçu.
Somme toute, si vous êtes déjà dans le domaine du design UX et de la conception système, le travail appliqué à l’IoT est très comparable à ce que vous connaissez déjà…  les aléas, eux, se paieront cash et ne seront pas cantonnés au périmètre du digital (illustration ci-dessous). Dans l’IoT, le mauvais design d’interface et des architectures d’information mal exécutées provoqueront davantage que de la frustration, de l’énervement et des migraines de l’utilisateur. Puisque la prétention de l’IoT est d’activer des liens entre le digital et le monde réel, dans les cas les plus extrêmes une mauvaise conception du côté du digital coutera de vraies vies dans le monde réel.

.

.

.

.

.

.

 

188 reasons why 8 mars 2018


 

So  you want to « fight bias » ? Which one exactly ?

.

[click here to enlarge this infographic of 188 biases as they are listed in Wikipedia Encyclopedia]

188_cognitive-bias

.

.

.

 

interview à l’École de design de Nantes 4 décembre 2017


Dans le cadre de la mise en place d’une nouvelle formation « Observation des usages » j’ai été reçu à l’École de design de Nantes pour une interview sur ce sujet d’études étrange et iconoclaste…
Profitons-en pour signaler que ce module de formation continue est désormais en fonctionnement et les réservations vous sont ouvertes :

.

Propos recueillis le 14 novembre 2017.
Après l’ère du tout technologique, de plus en plus d’entreprises et de collectivités reviennent aujourd’hui au début de tout produit/services : leur utilisateur. Pour cela, il convient de bien l’observer pour analyser son comportement, ses prises de décisions et actions. Pour accompagner ce changement, L’École de design met en place un nouveau module de formation continue « Mieux observer ses usagers ».
Description de cette formation avec son animateur, Yannick Primel, ethnologue et expert UX.

.

Pourquoi ce retour à l’observation des usages ?

Yannick Primel :
Beaucoup de projets s’attachent à livrer un produit fini qui fonctionne parfaitement, en laissant les utilisateurs se dépêtrer avec les contraintes techniques ou les incohérences de procédure.
On constate cependant aujourd’hui que la valeur ajoutée n’est plus dans la technologie mais dans la prise en compte de l’usage, dans la manière dont on configure un produit pour faciliter son emploi. Que le produit fonctionne techniquement, c’est la moindre des choses. Mais correspond-il vraiment à l’usage précis que j’en fais, là où je l’utilise habituellement ? Pour répondre à cela, il faut revenir au fondamental : l’utilisateur. L’observer, analyser son pourquoi et son comment dans la vraie vie, c’est de là que vient l’expérience utilisateur (User eXperience).
Quelque part, c’est une forme de respect qui s’était perdue envers le client ou le citoyen.

Une manière courante de concevoir un produit ou un service est de faire appel à des représentants ou des experts qui vont parler au nom des utilisateurs, c’est ainsi qu’on croit les connaître.

Mais qui a réellement été voir l’utilisateur ? L’observation UX vise à combler ce fossé entre la croyance et la connaissance avérée.

Il faut accepter que ce qu’on va observer ne va pas forcément correspondre aux représentations qu’on avait jusque-là. Accepter de changer ce qu’on fait parfois depuis des années pour mieux coller à la réalité est un point fondamental de l’UX.
Ainsi, c’est le besoin pratique qui dicte la configuration technique à adopter et non plus l’inverse.

 .

.

Qui doit observer ses usagers ?

Yannick Primel :
Celui qui va sur le terrain !

Entreprises privées ou collectivités, les décisionnaires (dirigeants, chefs produits, responsable innovation, directeur de services…) vont influencer la stratégie globale de la structure en acceptant que l’observation devienne un prérequis indispensable.
Avec l’UX on arrête de supposer, on va vérifier.
Cet élan vers le design de services et l’UX peut être illustré notamment par les banques. Certaines ont même racheté des agences de design pour évoluer. Elles ont accepté de revoir leurs produits dans la perspective de profits durables, si j’ose dire, en tout cas fondés sur une réalité pérenne (le groupe BPCE et ING Direct par exemple). Moins figées dans leur contrat que les assurances par exemple, elles ont commencé à se questionner sur la pertinence de leurs produits par rapport à un client-type imaginaire.
Pour le service public, deux extrêmes me viennent à l’esprit : la transformation particulièrement efficace du Ministère des Finances et au contraire le drame du RSI, qui a connu une forme de suicide par l’absence totale de prise en compte des besoins utilisateurs.
L’observation directe est donc la 1ère étape de la démarche de Design Thinking. Elle constitue la phase de découverte, la pointe de son double diamant. L’observateur est celui qui va percer la réalité de ce qu’on cherche à comprendre.
C’est le pied à l’étrier pour la structure prête à opérer son changement grâce au Design Thinking.

.

Comment se fait cette observation ? Quel est le terrain d’observation ?

Yannick Primel :
Sur la journée de formation, on va consacrer 1 heure à observer un lieu proche.
Le but : voir comment il est utilisé et par qui. Comment vit-on dans l’endroit ? Quelle est la symbolique projetée par ceux qui le fréquentent ? Quels sont les points de friction ?
La méthode de terrain est fiable car les critères sont rigoureux. Les ethnologues parcourent le monde depuis au moins 150 ans.

 

La collecte en particulier doit être reproductible : quelqu’un d’autre sur le même terrain rapportera des faits comparables, c’est donc loin d’être « subjectif ».

 

De manière générale, les données collectées sont d’abord qualitatives et directes parce qu’on est là pour ça. Prise de notes, photos, vidéos, tous les supports sont bons à prendre.
Si elles sont disponibles, viennent ensuite les données indirectes comme les métadonnées, statistiques de fréquentation, journal de bord des utilisateurs…
Enfin vient la phase de « raffinage » où l’on met en forme cette matière brute. Des projets différents peuvent puiser dans une même observation UX parce qu’on s’attache à décrire un contexte d’utilisation et ses permanences, ses rituels sociaux qui dictent quel objet on utilise ou à quel service on va faire appel et pourquoi ceux-là et pas d’autres.
Des adolescents observés dans leur lycée sont une source d’inspiration infinie pour les fabricants de vêtements, de chaussures comme de téléphones mobiles… et bien sûr aussi pour l’Éducation nationale.

On obtient toujours énormément d’informations. De manière générale, on trouve même toujours plus que ce qu’on est venu chercher. C’est l’expérience de la sérendipité, le « don de faire des trouvailles ».

On peut préparer ensuite les phases suivantes du Design Thinking, en constituant un parcours utilisateur et des personas solides (une personne fictive qui va représenter un groupe cible) qui sont incarnées à partir des vraies personnes dans leur vraie vie et non plus « à dire d’expert ». On constitue également une empathy map. Il s’agit de décrire les ressentis (froid, chaud, peur, nombre de décibels dans un lieu, importance du toucher, perception du temps perdu …).
Ces données émotionnelles et physiques, permettent de faire comprendre à l’équipe projet le ressenti physique d’une personne et aussi de comprendre ce qu’on va faire ressentir à quelqu’un avec la nouveauté qu’on en train de fabriquer.

.

Une base pour un changement de stratégie de l’organisation ?

Yannick Primel :
Une fois sensibilisées à l’observation des usages, les entreprises/collectivités peuvent mettre en place des procédures et parcours internes pour faire évoluer les compétences et gagner un avantage concurrentiel à l’échelle opérationnelle. Cela va clairement de pair avec la méthode de Design Thinking.
Rien ne devrait être conçu, testé ou livré sans avoir été confirmé sur le terrain.
Bien sûr ce n’est pas magique ni une garantie de succès… mais c’est en revanche la garantie qu’on va éviter de faire des erreurs grossières. D’abord on évite l’effet Beurk, ensuite éventuellement on suscite l’effet Wow !

Mais partir à la rencontre des usagers n’est qu’une première étape.

Pour donner son plein potentiel, cette démarche peut être généralisée et intégrée à l’orientation stratégique de l’entreprise. On passera alors de l’UX à l’échelle d’un projet, à de l’UX « exploratoire » (l’UX Research) qui permet d’orienter les efforts d’innovation sur la base d’un constat empirique. C’est mieux que d’avancer en aveugle…
En tant que méthode, l’UX est d’ailleurs née d’un projet du fabricant de microprocesseurs Intel qui avait envoyé l’anthropologue Genevieve Bell explorer ce que les gens faisaient dans leurs cuisines en Europe, Afrique du Nord et aux États-Unis. Un bref exemple encore sur l’UX Research : après le choc du Brexit, l’entreprise Ogilvy&Mather s’est rendue compte que sa compréhension de la vie quotidienne au Royaume-Uni était largement faussée par sa propre implantation londonienne. Ogilvy a donc développé un programme pour envoyer ses chefs de projets en observations régulières dans tout le pays, afin de ne plus laisser diverger leurs croyances et la réalité du terrain.

Pour eux, cela revient à modifier radicalement leurs produits parce qu’ils acquièrent une vraie connaissance de leur public, qu’ils n’avaient pas auparavant.

.

 

.

.

.

 

Les bonnes manières, dans ta face 17 octobre 2017


On n’est pas loin de la schizophrénie culturelle.

Le déferlement récent de témoignages d’agressions sexuelles situent souvent l’action dans la zone grise qui permet à l’auteur de nier car il pourrait peut exister un doute raisonnable sur sa culpabilité (en tout cas la première fois)… souvent dans le cadre du travail, qui est pourtant l’un des environnements les plus codifiés, réglementés et contrôlés. La situation actuelle démontre qu’il existe une tolérance pour des actes qui ne relèvent pas directement du pénal. Le problème étant que « dans le doute » on en arrive à laisser advenir des comportements dont la non-dénonciation profite au coupable sans que jamais il ne soit mis devant ses responsabilités.

.
Des briques de base semblent manquer dans la construction des collectifs de travail : si en effet on sait qu’il existe des agresseurs dans nos bureaux et nos usines, qui blâmer de leur impunité ?
Les Directions des Ressources Humaines peuvent bien se regarder le nombril en parlant de management libéré et de bonheur au travail, on aurait préféré qu’elles traitent le problème à la racine depuis bien longtemps, alliées aux Directions Générales et Directions Juridiques.
Par exemple, j’ai eu beau chercher avant de publier cet article, je n’ai rien trouvé chez l’ANDRH.
Pas une déclaration officielle, pas une recommandation, pas de conseil pour transposer la règle de 3 du management, pas un mot, que dalle, nada.
Pourtant, l’article 4121-1 du code du travail n’est pas fait pour les chiens, si j’ose dire.

Entre le « bonheur au travail », les Chief Happiness Officers; #MeToo et #balanceTonPorc peut-être faut-il reprendre les choses dans le bon ordre.

.

Cher(e)s collègues, homme ou femme, blanc, noir ou bleu turquoise
-j’assimile sexisme et racisme, pour bien situer mon propos-
on se fréquente en entreprise pour bosser ensemble, mais parfois le fait d’être collègues ne permet pas d’aller très loin dans la confidence. Après tout, on n’est « que » collègues.
Oui… mais non. Le soutien mutuel quand ça part en vrille est le fondement de notre relation, en tant qu’êtres humains. Commencez par ne plus vous taire. Commencez par compter sur mon soutien.
Je fais partie des personnes qui peuvent vous servir d’oreille attentive. Pour commencer.
Les collègues finalement, ça sert aussi à ça.
Parlez, gueulez ou chuchotez, mais allez-y, crachez le morceau.
L’enfoiré(e) c’est l’autre et c’est l’autre qui a quelque chose à se reprocher, même ou surtout si ça s’est produit sans témoin.
Pour défendre une de ses copines, l’actrice Carrie Fisher avait déposé elle-même un paquet sur le bureau d’un type qui se sentait autorisé à coller ses collègues de près.
« Si tu touches encore une femme, je ferai un paquet plus petit avec quelque chose à toi dedans. » Le paquet de Carrie contenait une langue de bœuf. Dans un autre registre, comme dit l’éminente Françoise Héritier : « la mise à bas de la domination masculine commence par refuser le service du café. »

Rien ne justifie l’agression, la brimade ou l’insinuation à caractère sexuel ou raciste. Rien n’implique de ne pas riposter si on vous l’inflige. Rien n’implique de ne pas demander du renfort pour riposter.
Ce n’est plus open bar. Fini. Terminé.
Si besoin vous aurez ma protection physique.

.

Inversement… si on se fréquente et que tu es dans le camp des enfoiré(e)s, quelque soit ton nom ou ton rang, lorsque je le saurai n’attends de moi aucune indulgence, aucune pitié ni aucune discrétion.

.

.

.

 

Uzbin et l’évaluation du risque 18 août 2017


Il y a tout juste 9 ans, le lundi 18 août 2008, l’armée française perdait 10 hommes et 21 autres étaient blessés dans une embuscade tendue dans la vallée d’Uzbin, en Afghanistan.
C’étaient les plus grosses pertes au combat depuis la guerre d’Algérie (et sans compter l’attentat de 1983 au Liban contre le poste Drakkar).

Comme pour l’attaque du pont de Verbanja, combien de Français civils s’en souviennent, hormis lors des rétrospectives télévisées qui ont pour premier mérite de ne pas poser les questions qui fâchent ?
Avec un an avance, on peut déjà se demander comment le sujet sera traité dans la presse française en 2018, dix ans après. S’il l’est.

.

Dans l’esclandre le débat national qui s’en est suivi, en 2008, les décideurs politiques ont eu beau jeu de critiquer l’absence de tolérance des familles et du Peuple pour la mort de soldats.
Lorsque votre tenue de travail comporte une arme et ses munitions en effet, une hypothèse crédible est qu’on puisse ne pas revenir sain et sauf le soir. Certes. Mais c’est aller un peu vite en besogne.
Dans l’embuscade d’Uzbin, la critique pourrait aussi être inversée et, s’agissant de vies humaines, on peut même utiliser le présent pour poser une question qui reste d’actualité : l’institution militaire et ses responsables civils peuvent-ils garantir que les moyens sont disponibles pour que, si malheureusement des soldats tombent au combat, au moins ils ont pu en mettre plein dents à l’ennemi avant de tomber ?
En termes moins crus, quels moyens sont mis en œuvre pour retarder et minimiser les pertes, tout en augmentant les dégâts infligés à l’ennemi ?
Ici, pas de reconnaissance aérienne préalable, une dotation minimale en munitions, pas d’appui aérien disponible, pas de plan de secours tactique.
Ces seuls éléments laissent à penser que la patrouille a été programmée par des responsables qui pensaient que la région était calme et que tout irait bien. Du reste, c’était ce que confirmaient les Italiens qui opéraient jusque là à cet endroit et que les Français étaient venus remplacer. Il n’y avait aucune raison de s’alarmer, même pour une patrouille dans un pays en guerre depuis trente ans.

L’évaluation du risque a été faite en fonction des probabilités d’échauffourées et sur la base des comptes-rendus italiens qui indiquaient que tout était paisible.
Or on n’évalue pas un risque en fonction des probabilités mais en fonction des conséquences.
« Prévoir le pire et espérer le meilleur » , comme dit l’adage. Et non pas l’inverse.
En l’occurrence, penser aux conséquences aurait permis une toute autre configuration de la patrouille à commencer par des munitions en plus. Le risque, même peu probable, aurait été pris en compte.
…bien plus tard, il s’est avéré que les Italiens distribuaient de l’argent aux populations locales pour qu’elles se tiennent tranquilles.

.

La prochaine fois que vous devrez évaluer un risque, pensez à Uzbin. Pensez aux conséquences et non aux probabilités.
Et pour pouvoir pallier réellement aux conséquences, si vous devez prendre une décision d’investissement, allez-donc étudier les besoins de votre personnel en première ligne en étant avec eux sur le terrain : équipe de vente, guichetiers, équipe projet ou… section d’infanterie.
Tout le reste de l’édifice devrait être orienté vers la réponse à leurs besoins.
C’est l’intérêt d’une organisation centrée utilisateur (user centric) : ce type de management mène à s’équiper d’équipements qui ne sont pas que de la poudre aux yeux.

Ne le faites pas et ne vous plaignez pas alors que vos équipes en soient réduites à appliquer la procédure PBM alors que les balles sifflent autour d’eux.

.

Voir aussi :   https://fr.wikipedia.org/wiki/Embuscade_d’Uzbin

.
.
.

 

Le chef de projet automatique 27 juin 2017


Dans un article récent, l’anthropologue australienne Genevieve Bell énonçait que face à l’essor de l’intelligence artificielle (IA), la plus grande peur de l’humanité est de devenir sans importance, supplantée par des machines et des lignes de code informatique qui réaliseraient les tâches quotidiennes mieux et plus vite.
Ce n’est pas une mince affirmation pour quelqu’un qui a travaillé comme ethnologue pour l’entreprise Intel durant 18 ans et qui y a achevé sa carrière comme vice-présidente (encore une preuve que l’ethnologie sert à quelque chose : documentez-vous sur les réalisations de son équipe).

.

Contrairement aux propos d’autres chercheurs comme Stephen Hawking qui craignent que l’IA nous projette vers l’autodestruction, l’idée de Bell est qu’avec des intelligences artificielles omniprésentes, il se passe… rien.
L’être humain se retrouverait les bras ballants, les yeux dans le vague, attendant de répondre à la question « Et maintenant, on fait quoi ? »

Dans ce scénario de prospective, l’être humain se retrouve contraint de penser différemment son rapport au travail, à la productivité et au sens qu’il donne à son existence… à commencer par le fait que travailler pour toucher un salaire n’est peut-être pas le plus grand des accomplissements, puisqu’un automate est capable de faire ça mieux et sans demander de rémunération.
A quoi donc occuperions-nous nos journées si n’étions pas contraints de gagner un salaire ?
Le problème fondamental qui se posera alors sera d’ordre politique, au sens où il faudra trouver des occupations pour les masses humaines afin de les garder en bonne forme et contentes. Le mot « chômage » n’aura plus de sens dans la mesure où il ne s’agira plus d’un manque d’emplois, mais d’une absence totale d’utilité à travailler parce que nous ne serons plus contraints d’être productifs. Pour une large part de l’humanité, ceux qui travailleront seront les robots, les logiciels et, au sens large, les IA.  La question sous-jacente est celle non pas de qui produit, mais qui profite de la richesse ainsi produite.

Et effectivement l’intelligence artificielle a déjà commencé à supplanter l’être humain dans des domaines aisément automatisables. Malheureusement nous sommes encore trop immatures sur ce sujet pour avoir même pensé à redistribuer cette richesse. Peu à peu, à force d’affinages et de perfectionnements, ce sont d’autres domaines qui vont être touchés.  Si nous n’apportons toujours pas de réponse au problème il y en aura des gros, des problèmes.

.

Vous me direz alors que l’essor des IA sera limité et que de nombreux domaines sont à l’abri d’une automatisation radicale.
Cette phrase est assez ironique car elle est généralement prononcée par des gens qui se considèrent à l’abri d’une telle humiliation à se voir remplacer par un robot.
C’est bien le cœur du sujet : on est humilié d’être remplacé par un robot lorsqu’on en déduit que désormais, on est inutile.
L’hypothèse de Genevieve Bell semble prendre le pas sur celle de Stephen Hawking.
Entre l’ethnologue et le physicien, nous aurions finalement le choix entre deux avenirs qui ont déjà été envisagés par la science-fiction. D’un côté il y aurait un scénario post-pénurie que nous décrit La Culture de Ian M. Banks et de l’autre il y aurait l’apocalyptique Terminator de James Cameron.

.

Les chauffeurs de taxi se sont mis en colère en voyant Uber piétiner leur monopole… ce n’est rien à côté de ce qui arrivera avec les véhicules doté d’une autonomie de niveau 4, c’est à dire qui se conduisent totalement seuls, sans même avoir besoin d’être construits avec un volant et un frein pour Homo Sapiens.
Dans un domaine connexe, en France, les chauffeurs-livreurs sont plus de 300.000 (3,5 millions aux Etats-Unis).
De ce point de vue, les entreprises concernées (dont les auto-écoles) feraient bien de se préparer au jour où le « pilotage » manuel d’un véhicule à moteur sera légalement restreint aux pistes fermées. Dans la mesure où 90% des accidents de la route sont dus à une erreur humaine il ne faudra pas longtemps avant que la décision réglementaire soit prise… dès que le parc automobile sera prêt.
Il est arrivé la même chose aux actuaires du secteur de l’assurance -sans bruit et sans fracas- dans les années 1995-2000, au fur et à mesure qu’ils étaient remplacés par des logiciels qui rendaient inutile l’emploi d’un humain diplômé d’actuariat. Ce n’est donc pas un emploi dans un bureau avec clim et épaisse moquette du secteur tertiaire qui nous protège, ni parce qu’on a le sentiment de faire un travail hyper complexe.

.

Dans le monde de l’entreprise, on a tendance aujourd’hui à considérer que l’élévation hiérarchique est proportionnelle au niveau de protection face à l’automatisation des métiers. Plus vous êtes haut en grade, plus vous seriez à l’abri.
Peu ou prou, j’y vois comme une forme de déni qui empêche d’analyser le sujet sérieusement.

.

L’un des postes les plus exposés me semble être -contre toute évidence- celui de chef de projet.
Le chef de projet (le « CdP ») est celui qui coordonne les différents acteurs d’un projet en vue de livrer un produit qui ait la meilleure qualité possible. C’est la version essentielle et synthétique : le chef de projet est un chef d’orchestre.

Une autre définition plus pointilleuse de ce métier fait du CdP celui qui rassemble les informations utiles pour piloter un projet afin d’assurer le respect du fameux triptyque Coût-Délai-Qualité.
Il est alors censé empêcher les dépassements de budget, garantir l’absence de défaut à la livraison et assurer que cette livraison sera faite à l’heure.
Disons-le tout de suite, c’est généralement illusoire et pourtant c’est la définition la plus répandue.
Peut-être parce que c’est celle qui permet aux étages supérieurs de la hiérarchie de se dédouaner d’une mauvaise évaluation initiale en faisant porter le chapeau au seul responsable, le chef de projet.
En effet, sachant que la plupart des coûts sont systématiquement sous-évalués de 20 ou 30 %, il est assez facile ensuite de faire sauter le fusible chef de projet en lui reprochant d’avoir dépassé le budget prévu de 35%.
C’est la raison pour laquelle on sait de manière certaine que 80% des projets dans le secteur informatique dépassent le budget, sont livrés en retard et connaissent des défauts qu’il faut corriger par la suite.
Relisez cet article pour comprendre à quel point ça peut réellement partir en vrille.
(…de ce point de vue une destruction à la Terminator est envisageable… mais plutôt comme conséquence d’un accident industriel lié à un défaut de conception des IA plutôt qu’à leur perfection intrinsèque)

Bien sûr le chef de projet ne travaille pas seul, mais à ce stade ce noble métier est réduit au niveau du contremaître d’usine dont la contribution majeure consiste à vérifier que les différents contributeurs n’ont pas dépassé le temps prévu pour l’une des activités du projet. Sa valeur ajoutée n’est pas celle d’un chef, il est affecté à des tâches routinières de reporting et de projection budgétaire et calendaire.
Dans les organisations qui appliquent cette définition étriquée du chef de projet, la valeur de chacun est comparable aux rouages d’une bureaucratie normée, régulée et réduite au fétichisme des Jours/Homme.

.

Or il se trouve que les logiciels de « pilotage » sont  abondants et qu’ils enregistrent toutes les données relatives au projet. L’un concerne les « imputations » du temps de travail, l’autre recense les défauts ou anomalies et un autre encore pourra regrouper la dimension qualitative du produit en construction sous la forme d’ « exigences ».
Toutes les données sont donc présentes et c’est bien tout ce dont l’automate a besoin pour se mettre à fonctionner.

Au moment où les concepteurs d’algorithmes et d’IA parviennent à des niveaux de fiabilité inconnus jusque-là (voyez ClickUp ou Polydone par exemple), il ne se passera pas beaucoup de temps avant qu’une IA soit infusée dans un logiciel de pilotage de projet, de manière à automatiser le métier de chef de projet… c’est à dire à rendre inutile le chef de projet humain en tant que gestionnaire et comptable du Coût-Délai-Qualité.
Les premières entreprises qui adopteront ces IA de gestion de projet pourront dupliquer une compétence automatisée et si elle est aussi efficace que les voitures autonomes, on réduira les taux de (retards + dépassements budgétaires + anomalies) de 90%.
Le contrecoup sera que dès le départ, l’IA mettra en évidence la sous-estimation initiale faite par les responsables hiérarchiques (Comités d’investissements et autres Comités de direction) et qu’il n’y aura plus personne pour servir de dérivation à la responsabilité.

.

En termes de culture organisationnelle et de culture métier, l’absorption de la fonction de chef de projet par les IA laissera bien des spécialistes compétents en état de choc.
Le chef de projet est l’archétype du métier qui ne peut pas être automatisé !
Les actuaires disaient la même chose aux alentours des années 2000. Je le sais, j’y étais.
C’était avant de constater qu’effectivement les Modèles Linéaires Généralisés (en anglais GLM) faisaient le boulot, mieux, moins cher et avec une qualité constante autrement plus fiable qu’un humain qui a besoin de réfléchir à ce qu’il fait.

La fonction de chef de projet au sens de contremaître est donc vouée à disparaître pour cause d’obsolescence.
Resteront ceux qui se seront reconvertis en experts en logiciels de gestion de projet et ceux qui excellent dans ce qui est réellement non automatisable dans ce métier : la coordination des acteurs, la prise de décision relative au contenu du produit fini, la diplomatie entre les différents métiers affectés à un projet.
Bref : l’entregent, l’orchestration des équipes par la connaissance fine de leurs membres.
La seule compétence qui reste quand les machines s’occupent suffisamment bien de tout le reste. La dernière qui reste pour empêcher que tous les intervenants à leur tour finissent par être considérés comme des rouages de la machine.

.

L’irruption de l’IA dans la gestion de projet fera l’effet d’une attaque surprise et ça ne sera pas la faute de l’IA, elle sera du fait de notre manque d’anticipation. Skynet a verrouillé sa cible.

.

Il est temps d’envisager pour tout le monde l’avènement des IA comme les balbutiements d’un âge post-pénurie et donc de nous poser collectivement la question : qu’est-ce qui nous rend utiles ?

.

.
.
.

 

 
%d blogueurs aiment cette page :