The blog of blog of blogs

Les aventures d'un ethnologue dans le grand monde

Citation (24) : en tuer 11 novembre 2018


 » (…) Dans vos poitrines, battent des cœurs braves et forts d’hommes libres.

Personne ne regardera en arrière, personne ne reculera d’un pas.

Chacun n’aura qu’une pensée : en tuer, en tuer beaucoup, jusqu’à ce qu’ils en aient assez.

Et c’est pourquoi votre général vous dit : cet assaut, vous le briserez et ce sera un beau jour. (…) »

.

Général Henri Gouraud commandant la IVe Armée française et la Ie Armée américaine avant la seconde bataille de la Marne, qui bloqua l’avancée de l’ennemi puis aboutit à l’armistice cinq mois plus tard, le 11/11/1918.
Après son décès en 1946, il fut enterré conformément à ses dernières volontés dans l’Ossuaire national de Navarin, parmi ses hommes tombés au combat.

.


.
.
.

Publicités
 

La recherche UX chez Hippocrate 4 septembre 2018


Le domaine de la recherche UX est rarement aussi glorieux que lorsqu’il donne l’espoir de faire réellement œuvre utile. Aussi une étude sur la prise en charge des patients dans le monde médical semblait plus qu’appropriée.

Le sujet comporte un premier piège qui serait de mener une observation au niveau individuel. Le domaine du ‘soin’ est une construction collective, qui commence avec la relation du binôme soignant-soigné, à laquelle s’ajoutent les « aidants » dont la présence peut se faire sentir avec plus ou moins d’insistance.
La relation n’est cependant pas directement interpersonnelle car entre le soigné (le patient) et le soignant (médecin ou autre), il y a un hôpital, un cabinet ou autre institution médicale.
Ajoutons un troisième élément de contexte, qui est l’élément de langage, qui est fait de mots bien-sûr, mais aussi de signes et de symboles non verbaux. Cette dimension on le verra est loin d’être neutre pour la suite de mon propos.

.

Quels signes, quel symbolisme ?

La relation du binôme soignant-soigné est faite de micro-ajustements qui permettent d’établir une certaine connivence, même au cœur d’une situation dramatique. Le milieu du secours d’urgence permet de voir dans son intensité et sa fulgurance tout ce qui est en jeu :  la connivence est attendue en quelques secondes, dès les premiers mots ou parfois dès le premier regard. A ce moment le binôme soignant-soigné commence à exister. Ou pas.
En complément, la prise en charge de pathologies sur une plus longue durée permet une observation des binômes dans le prolongement de la prise de contact initiale.

Au cœur de la relation on trouve la crainte qu’éprouve le soigné. Crainte de mourir, de souffrir, de voir sa condition s’aggraver, de perdre son emploi, de causer du tracas aux êtres chers et aux aidants dont je parlais plus haut…ou toute autre raison peu importe laquelle, qui appelle une réponse de réassurance.
De son côté, le soignant attend des signes de confirmation de sa compétence, à commencer par le fait que sa simple présence serait déjà rassurante.  Mais si le patient ne se calme pas ou n’exprime pas la confirmation que le soignant attend de lui,  la connivence ne peut pas se mettre en place et la confiance ne peut pas s’établir.
La relation s’engage alors vers une très mauvaise voie : si la confiance ne s’établit pas en effet, elle est possiblement remplacée par de la défiance.

Ainsi se créent les catégories officieuses du « bon malade » et du « mauvais malade ». Celui qui renvoie les signes attendus par le soignant et celui qui ne le fait pas. Ce sont les deux archétypes de base que nous prenons comme point de départ. Si j’ose dire, ils ont poussé tous seuls au fur et à mesure de la pratique. C’est la réponse spontanée des soignants pour catégoriser les soignés, aussi approximative qu’elle puisse paraître. Je les prends néanmoins en compte parce que directement utilisés au niveau opérationnel. On peut les expliquer et les décrire selon des critères stables et reproductibles : les craintes et les comportements du patient et les réponses du soignant.
De plus, du point de vue des soignants, ces archétypes permettent de classer tous les soignés, ce qui renforce leur usage en dépit de leurs sérieuses lacunes.

.

Le bon malade, combien de divisions ?

L’archétype du « mauvais malade » mène à un délaissement médical qui est aussi souvent une forme d’évitement de la singularité du patient, trop marquée et pour laquelle on n’a pas de réponse appropriée parce que l’institution n’est jamais descendue à ce niveau de détail pour apporter son soutien méthodologique. La culture de l’institution médicale en effet est d’abord basée sur la technicité, la verticalité des injonctions et sur la certitude d’omniscience, ce qui ne favorise pas l’établissement de solutions essentiellement d’ordre relationnel (ni de reconnaître que ce type de solution peut convenir).
Il n’y a pourtant pas de « mauvais malade ». Il y a des personnes plus difficiles à gérer que d’autres, très certainement… et c’est aussi vrai pour les soignés que pour les soignants. A ce titre, les personas à connotation médicale devraient d’abord faciliter le fonctionnement du binôme en rassurant le patient.

Sans intervention de l’institution à ce stade, tout est perdu, car il est désormais question de consignes managériales et d’organisation du collectif de travail. Et ce n’est certes pas la situation déplorable du service public médical en France qui laissera du temps au personnel pour réorganiser ses pratiques de manière autonome.
Le domaine de l’UX rejoint ici le domaine du management avec une tonalité nettement collaborative… comme c’est souvent le cas dans les sujets les plus importants.
Car -c’est mon hypothèse et ma proposition- les deux figures du bon et du mauvais malade pourraient être remplacées par d’autres archétypes. Des personas bien pensées, bien conçues, qui viennent renforcer des objectifs à haute valeur ajoutée pour le meilleur fonctionnement possible du binôme soignant-soigné.

Le bon et le mauvais malade sont des stéréotypes commodes sans doute, mais surtout injustes envers ceux qui se retrouvent dans la mauvaise catégorie. D’autres catégories, d’autres profils-types permettraient de placer l’empathie au centre de la construction relationnelle et pourraient permettre d’atteindre ces objectifs en couvrant plus finement  l’éventail des comportements des patients et en y apportant des réponses appropriées par les soignants.
J’en aurais 4 à suggérer, adaptés de ceux que la clinique ophtalmologique de Rotterdam a mis en place depuis déjà 10 ans (!) :

> Cliquez dans l’image pour le fichier .PDF

Si vous êtes un cadre médical qui pense d’abord aux chiffres retenez ceux-ci : l’utilisation de ces 4 profils-types (et la formation à les utiliser pour le personnel) a permis un accroissement de 47% de la fréquentation de cette clinique en 5 ans et la note qualité est en moyenne de 8,6/10, sur le critère que les patients n’ont plus (ou bien moins) peur, avant, pendant et après.

Là se dessine un autre programme de réjouissances : un programme de management pour instaurer une nouvelle manière de « lire » les patients et d’interagir avec eux.

.

Le syndrome qui n’existait pas

[à ne pas confondre avec la pathologie réelle appelée fièvre méditerranéenne familiale, FMF]

L’angle d’approche de cette étude a dérivé assez rapidement vers le soi-disant « syndrome méditerranéen » qui nous ramène peut-être au pire des cas du « mauvais malade » et du stéréotype toxique qui se développe si on ne lui met pas d’entraves. La plupart de ceux qui en parlent savent que c’est un prisme erroné, mais puisque c’est le seul qui donne des éléments de réponse opérationnelle il ne continue pas moins d’être utilisé… Là aussi, faute de soutien méthodologique par l’institution, la pratique quotidienne a établi des manières de faire qui s’avèrent être des bricolages discutables.

.

Disons-le de suite : cette expression ne désigne pas un syndrome et il n’est pas non plus méditerranéen.
Ajoutons aussi que je n’accuse personne de rien et qu’aucun chiffre ne permet d’affirmer que beaucoup de professionnels médicaux y ont recours. Il est cependant suffisamment bien documenté comme norme tacite pour qu’on s’attaque à lui sans faire semblant.
Ce syndrome se définit par  le comportement d’exagération des symptômes de la part d’un(e) patient(e) , du fait de ses origines et de sa culture. Et l’on retrouverait ce syndrome particulièrement chez les populations du pourtour méditerranéen (comprendre en particulier Afrique du nord et plus au sud). Le personnel soignant occidental attribue donc ce syndrome à un patient selon la manière qu’il/elle a d’exprimer sa douleur et son désarroi. Mais bien sûr comme je l’ai déjà dit… les stéréotypes, c’est mal.

C’est d’autant plus mal que si on les laisse dériver et grossir, les stéréotypes finissent par devenir des préjugés qui ont valeur de procédure standard et engendrent des actions qui peuvent se révéler contraires au principe qu’on tente de mettre en œuvre, à commencer par la règle vieille de 2420 ans Primum non nocere : D’abord, ne pas nuire.

Car si ce stéréotype incrimine les personnes de culture méditerranéenne, ce sont en vrai les personnes non-blanches qui seront toutes visées. Parce que bien sûr la « culture » d’une personne n’est pas marquée sur son front. Ce qui est marqué sur notre front en revanche c’est la couleur de notre peau.
En conséquence, les certains soignants sont enclins à adapter leur prise en charge et minimiser la réalité de la détresse du patient en fonction de la couleur de sa peau.
La gravité médicale se loge là : dans le fait qu’en conséquence d’un préjugé erroné certains diagnostics ne seront pas faits et certains traitements ne seront pas administrés. C’est ce qui explique par exemple que les patients non blancs, malgré leurs demandes, reçoivent moins d’antidouleurs après une appendicite que les patients blancs ayant subi la même opération.
 Mc Donald, D.: « Gender and ethnic stereotyping and narcotic analgesic administration »  Researches in Nursing and Health 1994  (voir bibliographie en bas de page)

.

Le syndrome méditerranéen devient alors un élément de classification des patients « en raison de leur lieu d’origine, de leur ethnie ou absence d’ethnie, de la nationalité ou d’une religion spécifique ».
En un mot : du racisme au plein sens du terme, tel qu’il est interdit par la loi en France depuis juillet 1881, article 32.

A ce stade, on pourra bien s’insulter les uns les autres et s’accuser tous de racisme, le problème ne sera pas réglé, en particulier parce que « les races » ça n’existe pas. Ce n’est pas un angle d’approche pertinent, ni pour l’analyse, ni pour la solution. Il s’avère en tout cas que faute de mieux, c’est un préjugé qui a valeur de procédure informelle chez certains quelques praticiens, pour gérer certains quelques cas.

.

Des sensibilisations culturelles inefficaces

Certains établissements hospitaliers peuvent mettre en place des sessions de formation ou de sensibilisation culturelle qui s’avèrent d’une efficacité relative, voire qui renforcent les préjugés dans la mesure où si le personnel se rend effectivement compte de la variété des réactions à la douleur, il n’en reste pas moins qu’on peut toujours respectueusement faire le constat que « certains en font trop » puisque d’autres sont capables d’en faire moins.

La relation soignant-soigné se base sur des critères techniques d’évaluation, un suivi des constantes et l’évolution de de la symptomatologie comme noter de 1 à 10 la douleur qu’on éprouve.  Si un patient s’estime à 4 et l’autre à 10, chacun devrait recevoir la dose d’antalgique appropriée mais à cause du préjugé de chochoterie, celui qui a la mauvaise couleur de peau et qui exprime une douleur maximale ne recevra pas le traitement adapté, justement parce qu’on croit qu’il exprime exagérément la douleur : c’était même dit par le formateur, dans la formation à la différence culturelle.

.

Le design du soin : quelle intention ?

Face à ce constat, je réitère l’idée que le domaine du soin ne se résume pas au geste technique et surtout pas à la technologie. Le soin est d’abord un rapport à autrui et c’est la dimension empathique qui doit être soutenue et améliorée.  Et c’est bien à l’institution de prendre en charge la modification des perceptions des soignés par les soignants. En dernier ressort en effet, c’est bien la clinique, l’hôpital, l’EHPAD ou le poste médical qui est responsable des dysfonctionnements chroniques ou des succès répétés du collectif de travail. C’est aussi à ce niveau hiérarchique que se manifeste l’intention envers les personnes dont on a la charge, employés comme usagers.
Il s’avère en effet que plus la différence culturelle est grande entre le soignant et le soigné, plus l’institution doit s’impliquer pour soutenir et renforcer une relation à la fois professionnelle et sereine pour tout binôme soignant-soigné   -condition sine qua non à un geste technique adapté. Les références individuelles d’un professionnel du soin peuvent en effet n’être pas suffisantes pour établir une relation qualitative avec un soigné. Il n’y a aucun « défaut » à cela, on y est tous confrontés un jour ou l’autre. L’intention réelle de l’institution peut alors se mesurer si elle a su mettre en place un protocole, des renforts méthodologiques qui permettent de prévenir les risques d’une dissonance dans la relation. Ou pas.
Accessoirement, on bloquera ainsi le recours à des stéréotypes médicalement inefficaces et socialement inacceptables, ce qui ne sera pas le dernier des bénéfices.

Ma proposition à ce stade consiste à remodeler les réponses des soignants par un programme managérial qui prenne en compte le type de persona auquel on peut rattacher le patient, selon les quatre archétypes décrits ci-dessus.

.

.


.

Bibliographie :

Bihault A.-G.: Les mots du corps : une ethnographie des émotions des soignants en cancérologie Revue Ethnographiques n°14, 2007
Boula, J.-G.: Nécessité du détour anthropologique dans les soins médicaux  Ed. Fondation Genevoise pour la Formation et la Recherche Médicales, 2017
Cuvelier, M. : « Relation soignant-soigné en contexte multiculturel » Revue Cultures & Santé Bruxelles 2011
Faizang, S. : La relation médecins-malades : information et mensonge Éditions PUF, 2015
Durieux, S.: « Du syndrome méditerranéen à la balkanisation des diagnostics : l’art difficile de la neutralité en médecine » Revue Médicale Suisse n°2601 2007
Fassin D., Carde E., Ferré N. et al.: Un traitement inégal. Les discriminations dans l’accès aux soins : Bobigny  Rapport n°5 CRESP 2009
Greenwood, B. Carnahan, S. Huang, S. : « Patient-phyisician gender concordance and increased mortality among female heart attack patients »   Proceedings of the National Academy of Sciences of the United States of America, 2018
Rohrbach-Viadas C.:  « Soins et anthropologie. Une démarche réflexive » Revue Recherche en soins infirmiers n°90, 2007
Jaffré, Y. , Olivier de Sardan, J.-P. : Une médecine inhospitalière. Les difficiles relations entre soignants et soignés dans cinq capitales d’Afrique Ed. Karthala, 2003
Kavanagh C.: « Invisibility and selective avoidance: Gender and ethnicity »  Culture, Medicine and Psychiatry, 1991
Kirkham, S.: « The politics of belonging and intercultural health care » Western Journal of Nursing Research n°25, 2003
Leininger, M.: Ethical and moral dimensions of care  Wayne State University Press, 1990
Mc Donald, D.: « Gender and ethnic stereotyping and narcotic analgesic administration »  Researches in Nursing and Health 1994
Véga A.: Une ethnologue à l’hôpital. L’ambiguïté du quotidien infirmier Ed. Archives contemporaines, 2000
Véga A.: Soignants-soignés, approche anthropologique des soins Ed. De Boeck, 2001
Vindelingum, V.:  « Nurses experiences of caring for South Asian ethnic patients in a general hospital in England » Nursing inquiry n°13, 2003
Spitzer, D.L.: « In visible bodies.  Minority women, nurses, time and the new economy of care » Medical Anthropology Quarterly, 2004

.

.

.

 

Uzbin et l’évaluation du risque 8 août 2018


Il y a 10 ans, le lundi 18 août 2008, l’armée française perdait 10 hommes et 21 autres étaient blessés dans une embuscade tendue dans la vallée d’Uzbin (Uzbeen), en Afghanistan.
C’étaient les plus grosses pertes au combat depuis la guerre d’Algérie, sans compter l’attentat de 1983 au Liban contre le poste Drakkar.

Comme pour l’attaque du pont de Verbanja, combien de Français civils s’en souviennent ?
Dix ans après l’embuscade d’Uzbin, on observera donc avec attention comment le sujet sera traité dans la presse française. S’il l’est.

.

uzbeen_embuscade_2008

Dans l’esclandre le débat national qui s’en est suivi, en 2008, les décideurs politiques ont eu beau jeu de critiquer l’absence de tolérance des familles et du Peuple pour la mort de soldats.
Lorsque votre tenue de travail comporte une arme et ses munitions en effet, une hypothèse crédible est qu’on puisse ne pas revenir sain et sauf le soir. Certes. Mais c’est aller un peu vite en besogne. Encore faut-il que les décideurs politiques aient permis aux soldats de faire correctement leur travail, à commencer par leurs décisions relatives aux budgets des armées.
Ainsi, dans l’embuscade d’Uzbin, la critique pourrait aussi être inversée et, s’agissant de vies humaines, on peut même utiliser le présent pour poser une question qui reste d’actualité : l’institution militaire et ses responsables civils peuvent-ils garantir que les moyens sont disponibles pour que, si malheureusement des soldats tombent au combat, au moins ils ont pu en mettre plein les dents à l’ennemi avant de tomber ?
En termes moins crus, quels moyens sont mis en œuvre pour retarder et minimiser les pertes d’une section d’infanterie, tout en augmentant les dégâts qu’elle peut infliger à l’ennemi dans un rapport, mettons, de 1 pour 15 ?
Quelles leçons ont été tirées d’Uzbin ?

.
Ici, dans cette région d’Afghanistan en 2008 il n’y avait pas de reconnaissance aérienne préalable, une dotation minimale en munitions, pas d’appui aérien disponible, pas de plan de secours. Au VIe siècle avant Jésus Christ, le général chinois Sun Tzu (孫子) nous avait pourtant prévenus dans son ouvrage L’art de la guerre : « Tout le succès d’une opération réside dans sa préparation ».
Ces seuls éléments laissent à penser que la patrouille d’Uzbin a été programmée par des responsables qui pensaient que la région était calme et que tout irait bien. Du reste, c’était ce que confirmaient les Italiens qui opéraient jusque là à cet endroit et que les Français étaient venus remplacer. Il n’y avait aucune raison de s’alarmer, même pour une patrouille dans un pays en guerre depuis trente ans.
Ça tombait bien, ça allait coûter moins cher.

L’évaluation du risque a été faite en fonction des probabilités d’échauffourées et sur la base des comptes-rendus italiens qui indiquaient que tout était paisible.
Or on n’évalue pas un risque en fonction des probabilités mais en fonction des conséquences.
« Prévoir le pire et espérer le meilleur » , comme dit l’adage. Et non pas l’inverse.
En l’occurrence, penser aux conséquences aurait permis une toute autre configuration de la patrouille à commencer par des munitions supplémentaires et des renforts sur le qui-vive.
Le risque d’une chute de météorite était improbable, mais celui d’une attaque par un ennemi supérieur en nombre n’est jamais improbable dans un contexte de guerre. Selon la qualité du renseignement, c’est même une hypothèse qui peut être vérifiée avant l’opération. Si on a les équipements. Bref.
C’était une hypothèse à envisager spontanément et non pas comme un cas marginal et peu rationnel. Ça l’est tout le temps d’ailleurs, dans tous les endroits où des soldats patrouillent en armes : au Mali, à Djibouti ou à Lyon ou Paris.

…bien plus tard, il s’est avéré que les Italiens distribuaient de l’argent aux populations locales pour qu’elles se tiennent tranquilles.
Plus tard encore, traumatisé par l’événement, le pouvoir politique national retira notre armée d’Afghanistan -une dernière insulte à nos soldats tués dans ce pays.
Donc au début du XXIe siècle, quand la France faisait la guerre l’ennemi pouvait gagner en tuant dix de ses combattants.

.

La prochaine fois que vous devrez évaluer un risque, pensez à Uzbin. Pensez aux conséquences et non aux probabilités.
Et pour pouvoir pallier réellement aux conséquences, si vous devez prendre une décision d’investissement, allez-donc étudier les besoins de votre personnel en première ligne en étant avec eux sur le terrain : équipe de vente, guichetiers, équipe projet ou… section d’infanterie.
Tout le reste de l’édifice devrait être orienté vers la réponse à leurs besoins.
C’est l’intérêt d’une organisation centrée utilisateur (user centric) : ce type de management mène à se doter d’équipements (enfin) performants et d’une organisation conforme aux objectifs qu’on se fixe (qui ne sont, avant ça, que des prétentions).

Ne le faites pas et ne vous plaignez pas alors que vos équipes en soient réduites à appliquer la procédure PBM alors que les balles sifflent.
De ce point de vue, quelles leçons ont été tirées d’Uzbin ?

.

Voir aussi :   https://fr.wikipedia.org/wiki/Embuscade_d’Uzbin

.
.
.

 

Millennials, digital natives (et autres foutaises) 7 juin 2018


.La puissance des préjugés et des idées reçues est souvent largement sous-estimée.

Il existe ainsi de nombreuses catégories qui nous permettent de ‘lire’ le monde alentour mais qui, après examen, s’avèrent totalement infondées. Ainsi, certains croient que la Terre est plate, d’autres que les Millennials existent pour de vrai.

.

De nombreuses publications ont popularisé cette manière de qualifier les différentes générations par des traits de caractère typiques, afin de diffuser des messages commerciaux censés les attirer vers tel ou tel produit.
En suivant cette logique erronée (comme toute théorie à usage marketing), si vous êtes né le 31 décembre 1979 vous faites partie de la Génération X et vous-vous démarquez par un comportement généralement sceptique, pragmatique et démotivé. Si vous êtes né un jour plus tard, le 1er janvier 1980 on vous assigne à la catégorie des Millennials (ou Génération Y), ce qui est censé faire de vous quelqu’un de narcissique, technophile et optimiste.
En tenant compte de ces traits de caractère il serait alors possible de concocter des messages à destination de ces populations …messages qui tomberont systématiquement à plat en termes d’âge.

 

Car ce n’est pas le calendrier qui commande notre familiarité avec une technologie ou les valeurs auxquelles on adhère, c’est l’environnement familial, l’histoire personnelle, l’éducation et notre position dans l’échelle sociale.
Un adolescent né en 2001 dans le XVIIe arrondissement de Paris fait bien partie de la même génération qu’un autre adolescent né la même année dans la cité des Izards à Toulouse, mais ce n’est sûrement pas la date de naissance qui permet de trouver leurs points communs en termes de comportement ou de préférences.

Émettre des théories et proposer des plans d’action sur le seul critère des différences générationnelles, c’est créer des stéréotypes.

.

Ces stéréotypes pour fallacieux qu’ils soient, n’en ont pas moins un effet réel parce que les décideurs ont l’illusion de connaître « le marché ». Des décisions sont prises en se référant à une réalité qui n’existe pas. Des produits et des sites web sont créés sur la base de ces catégories imaginaires  (demandez à  Joon), ainsi que des politiques publiques ou même des stratégies d’innovation tout entières.
Mais l’innovation ne se base pas sur des croyances et aucune étude sérieuse ne corrobore l’idée que le critère générationnel est pertinent pour déduire des caractéristiques culturelles.
Si vous voulez connaître vos clients il faut cesser de croire et aller constater en direct, sur le terrain. Bienvenue dans le monde merveilleux de l’expérience utilisateur.
Là, des spécialistes (des vrais) pourront démontrer que non, l’âge n’est pas un critère valide pour identifier les préférences des utilisateurs d’iPhone rose, d’Instagram ou de chaussures New Balance vertes. Parce que effectivement, un utilisateur technophile aujourd’hui a de fortes attentes quant à la qualité de ce qu’on lui propose -et ce qu’on lui propose est branché à l’internet. Les digital natives le sont parce que l’état des technologies à leur époque ne leur laisse de toute manière pas le choix, pas plus qu’aux autres classes d’âge. Si nous avions été en 1986, cette description aurait très bien convenu à un utilisateur chevronné du magnétoscope ou du lecteur CD. L’aisance qu’on a avec un outil n’est pas liée à l’âge, elle est liée à…l’aisance qu’on a avec l’outil.
Car 12, 22, 52 ou 72 ans… quelle importance ?

On ne construit pas une stratégie d’innovation, ni des profils d’utilisateurs, sur une base générationnelle.
Et les valeurs communes entre une marque et ses utilisateurs n’ont rien à voir avec une unique tranche d’âge.
.

.

Bien sûr les « générations » existent. En démographie on appelle ça une cohorte de naissance : un groupe d’individus ayant la même année de naissance. Notez bien que c’est le seul point commun de tous ces gens : l’année de naissance.
Mais il n’y a là rien qui fasse d’une génération un ensemble homogène en termes de valeurs, de préférences ou de pratiques. Les communications qui s’adressent aux Millennials, finalement, cachent assez mal l’idée que la cible réelle est la population des jeunes riches : c’est la population que les entreprises souhaiteraient avoir dans leur fichier client.

Les généralisations abusives et le simplisme ne sont pas vos amis, pas plus que le recours aux boules de cristal ou la divination par les os de poulet. Nous devrions être hautement suspicieux de ce genre de platitudes démographiques.
Et pour ceux/celles d’entre vous qui tentent malgré tout d’y voir clair en identifiant qui, quoi, comment, pourquoi se produisent les différences générationnelles; je vous invite à prononcer la formule magique : quelles sont les preuves ?

.

En réponse à cette question… vous constaterez que l’édifice s’effondre, comme c’est le cas en général pour les foutaises du management.

.

.

.

.

 

 

.

 

 

Des objets à commander 9 avril 2018


Les modèles de conception appliqués au digital ont permis l’essor de méthodes collaboratives qui nous éloignent toujours un peu plus de la théorie du One best way de Fayol, Taylor et Ford.
Du reste, s’il y a bien une leçon à retenir des travaux de recherche en organisation c’est que le one best way n’existe pas. Il n’y a pas un modèle d’organisation meilleur que tous les autres : il n’y a que des modèles d’organisation adaptés à leur contexte.
.

De ce point de vue, l’ingénieur en chef enfermé dans son Bureau des Études se révèle être de plus en plus une vue de l’esprit. Il n’est pas seul, il ne peut pas travailler seul, il ne peut que négocier ses contraintes avec les contraintes des autres parties-prenantes d’un projet à commencer par les utilisateurs et leur contexte d’usage. L’intérêt des méthodes collaboratives -et en premier lieu du design thinking- est que la prise en compte du contexte fait partie de la méthode. Ce n’est jamais une garantie de succès, mais c’est très certainement la garantie que vous éviterez de faire des erreurs grossières par manque de prise en compte de la réalité dans laquelle votre projet va se déployer.

Les configurations techniques sont désormais assumées comme des constructions collectives . C’est un mouvement qui concerne les ‘artefacts’ au sens large : ça a commencé par les objets matériels mais les services et les décisions politiques sont aussi concernés. Avoir le grade ou le statut n’est plus suffisant pour être légitime à décider, il faut aussi avoir le consensus et ce consensus se crée par la prise en compte du contexte.

Les implications sont vastes et je limiterai ici mon propos au monde matériel, celui de l’interconnexion généralisée dans l’internet des objets (IoT).
Une gamme d’objets étonnamment vaste est maintenant connectée à l’internet, des vêtements aux montres en passant par les éléments de mobilier, les machines-outils, les jouets, les chaînes logistiques ou les voitures… ou même des smart villes. Ces bidules sont de toutes formes et de toutes couleurs –certains n’ont même pas d’écran de commande et c’est bien l’enjeu de l’IoT : ce sont les objets qui communiquent entre eux et qui s’informent les uns les autres de leur état réciproque pour s’adapter à la situation, sans avoir besoin d’un homo sapiens pour interagir en permanence. L’intervention humaine lorsqu’elle se produit est seulement ponctuelle alors que les objets ont une communication permanente.
Le fonctionnement des ‘couches basses’ fait appel à des algorithmes, des liaisons RFID, des capteurs d’usure installés sur les freins des trains ou un lecteur d’empreintes digitales sur la porte de chez vous… à ce stade, l’humain sur son tableau de contrôle ne voit qu’une partie de la réalité du système, un abrégé, la synthèse de multiples étapes qui se déroulent entre machines, hors de vue et hors de portée.

.

Où est le besoin d’une construction collective ici, puisque précisément les objets fonctionnent en autonomie ?

.

Ce fonctionnement automatisé pose une première question pour l’observateur du système (le technicien superviseur par exemple ou le/la chef de famille), comment sait-il si les objets sont en train de se causer dans une usine, ou un domicile ?
Comment puis-je savoir que mon Google Home ou Microsoft Alexa est en train d’écouter les différentes voix qui se parlent dans ma cuisine et transmet quelque chose aux serveurs Google ? Comment savoir que mon compteur de gaz est en train de transmettre des données à mon fournisseur d’énergie, et quelles données ? Comment savoir que le bus n°56 est effectivement en train de transmettre sa position GPS exacte au centre de supervision ?
Il y a un premier besoin de design d’interface au niveau des transmetteurs pour matérialiser la transparence du système technique envers l’environnement humain. Lorsque les machines se parlent, a minima, elles doivent le signaler en temps réel. Sur l’objet connecté lui-même cette fonction se double par l’enregistrement de logs qui stockent l’ensemble des données brutes de ce qui est transmis et reçu -et en provenance et à destination de qui.
A mon humble avis, elles devraient être accessibles au moins en lecture seule par l’utilisateur. Après tout, ce sont ses données à lui.

Car je l’ai déjà dit et je le redirai : la limite ultime d’une technologie réside dans sa capacité à faciliter ou permettre l’existence d’une dictature. Les enjeux de transparence dans l’IoT n’ont rien d’une option cosmétique, ils servent à tracer cette limite.
.

… avec cet argument en tête, je vous invite à relire le rapport du député Vilani Donner un sens à l’intelligence artificielle.
Page 35 :  « L’État doit également organiser l’ouverture au cas par cas de certaines données détenues par des entités privées, et favoriser sans attendre les pratiques de fouille de texte et de données. »
Une phrase comme celle-là devrait tous nous réveiller la nuit, parce qu’elle n’est associée à aucune possibilité de contrôler ce qui est fouillé par l’État et encore moins de débrayer le système ou de refuser d’y participer.
.

Le second besoin en termes d’interface pour l’utilisateur du système est la qualité explicative du système décisionnel : comment l’opérateur peut-il comprendre la logique qui mène à un certain résultat ? Les interfaces spécifiques de l’IoT sont à peu près comparables à des télécommandes, mais évolutives en fonction des situations, grâce aux algorithmes et peut-être un jour grâce à de l’intelligence artificielle.
A partir de quel seuil apparaît par exemple une alerte orange ? Lorsqu’il faut agir immédiatement pour éviter une explosion ou lorsqu’il faut commander une soupape de rechange qui arrivera dans trois jours ?
Quels types d’action sont demandés à l’opérateur humain et pourquoi ?
Le système technique lui-même doit pouvoir s’expliquer et justifier de son fonctionnement : il devient un acteur à part entière du système relationnel… relisez la théorie de l’Acteur-Réseau.

.

Les objets à commander dans l’IoT peuvent être répartis dans le monde entier, par milliers, mais le panneau de supervision est juste là, dans votre smartphone personnel ou sur votre ordinateur professionnel (ou l’inverse)… et bientôt en réalité virtuelle ou augmentée.
L’interaction des humains avec le système technique nécessite à ce titre davantage de prise en compte des utilisateurs puisqu’il faut intégrer dans l’interface l’absence d’objet, l’absence d’indice direct qui permettrait d’interpréter ce qui est affiché.
Les designers vont collaborer avec les ingénieurs et les concepteurs produit pour leur faire comprendre que tout ce qu’ils sont en train de faire devra être utile à l’utilisateur avec une certitude absolue, par exemple pour ouvrir la porte d’entrée de son domicile, ou interpréter correctement le niveau d’usure du système de freinage d’un train.
.
Industry 4.0 concept .Man hand holding tablet with Augmented reaLes applis de supervision de l’IoT ne sont pas soumises aux mêmes objectifs que les applis habituelles pour le grand public. On cherchera à faciliter la prise de décision grâce à quelques écrans qui synthétisent l’état d’un système complexe et ce domaine est plus proche de la maintenance industrielle que du loisir interactif.

Vous pouvez passer des heures sur Instagram en supportant quelques boutons mal faits, mais si vous devez piloter à distance des machines de 500 kilos ou confirmer que le gaz est bien éteint chez vous, le niveau d’exigence dépasse le sens commun… sans parler de l’opérateur d’une escadrille de drones autonomes en opération au-dessus d’une grande métropole.

.

Les critères UI de base restent pourtant bien les mêmes (utilisabilité, simplicité, découvrabilité) que pour n’importe quel design d’interface, mais les conséquences de l’usage pourront être constatées dans le vrai monde avec une porte qui se déverrouille pour laisser entrer les enfants après l’école ou un train qui s’arrête au bon endroit –ou pas.

.

Avec ces conséquences immédiates et très concrètes, la prise en compte de l’utilisateur réel, dans son contexte d’usage devient encore plus cruciale pour éviter les contresens, les erreurs de manipulation et, potentiellement, les catastrophes à grande échelle « simplement » parce qu’une interface ou un algorithme de prise de décision était mal conçu.
Somme toute, si vous êtes déjà dans le domaine du design UX et de la conception système, le travail appliqué à l’IoT est très comparable à ce que vous connaissez déjà…  les aléas, eux, se paieront cash et ne seront pas cantonnés au périmètre du digital (illustration ci-dessous). Dans l’IoT, le mauvais design d’interface et des architectures d’information mal exécutées provoqueront davantage que de la frustration, de l’énervement et des migraines de l’utilisateur. Puisque la prétention de l’IoT est d’activer des liens entre le digital et le monde réel, dans les cas les plus extrêmes une mauvaise conception du côté du digital coutera de vraies vies dans le monde réel.

.

.

.

.

.

.

 

188 reasons why 8 mars 2018


 

So  you want to « fight bias » ? Which one exactly ?

.

[click here to enlarge this infographic of 188 biases as they are listed in Wikipedia Encyclopedia]

188_cognitive-bias

.

.

.

 

Du test utilisateurs avec 5 personnes 24 janvier 2018


Un fameux article publié par Jakob Nielsen en 2000 affirmait que 5 utilisateurs sont suffisants pour identifier en quantitatif la majorité des problèmes d’utilisabilité sur un objet particulier, réel ou virtuel.
Au-delà de cinq, il n’y a plus besoin d’ajouter des utilisateurs-testeurs encore et encore, « parce que vous retrouverez les mêmes problèmes encore et encore ». L’article explique clairement que lorsque 12 personnes sont impliquées dans un test, vous parviendrez à trouver presque 100% des problèmes d’utilisabilité.

Mais l’objectif des tests utilisateurs n’est pas nécessairement de couvrir 100% des problèmes. Il est aussi possible (et préférable) de limiter le périmètre à tester et se concentrer sur un élément précis, par exemple le processus d’achat en ligne, ou celui de la résiliation ou encore plus concrètement l’utilisation d’un nouveau type d’extincteur, ou la procédure de fixation d’un siège enfant dans une voiture.
Il s’ensuit qu’au lieu d’en recruter 12, on peut se limiter à 5 utilisateurs au minimum dans la mesure où, si ces 5 personnes sont toutes confrontées au même problème, on peut en déduire avec 90% de certitude que c’est un problème qui touche au moins 71% de la population en prenant, en termes statistiques, la limite inférieure de l’intervalle de confiance binominale.
.

Ces chiffres sont valables quelle que soit la taille de la population totale considérée.
Vous pouvez par exemple tester votre process d’achat en demandant à 5 utilisateurs d’aller sur votre site web et d’acheter un nouveau tee-shirt (avec de l’argent que vous leur aurez donné). En termes de proportions et de représentativité de ces cinq personnes, les résultats seront valables aussi bien si vous avez 20 millions de visiteurs mensuels (Amazon France) ou 150 (le-club-de foot-du-quartier).

.

Dans un article non moins fameux publié 12 ans après, Nielsen poursuit son argumentation en s’appuyant notamment sur 83 cas d’études menés par son entreprise où effectivement 5 utilisateurs-tests suffisent en moyenne pour atteindre le meilleur ratio coûts/bénéfices.

Mais… les critiques ne manquent pas… d’abord parce que :

Vous ne savez pas si vous avez identifié au moins 71% de tous les problèmes, ou juste 71% des problèmes les plus évidents (pas forcément les plus graves).

.

La littérature spécialisée a également beaucoup étudié la question et les réponses ne se sont jamais très éloignées des « 5 utilisateurs de Nielsen » comme le standard minimal de l’UI (User Interface).
Jakob Nielsen n’a jamais dit autre chose d’ailleurs, ni jamais affirmé qu’il ne fallait pas recruter 6 ou 12 ou 15 utilisateurs selon le contexte et l’objectif visé par l’étude.
Une chose intéressante à noter est que, souvent, le client qui mandate une campagne de tests, s’il est assez riche pour payer un nombre important d’utilisateurs-tests, ne le fait pas pour augmenter la fiabilité des résultats…mais pour se rassurer. Un peu comme les gens qui achètent un couteau suisse à 18 lames tout en sachant qu’ils en payent 16 de trop puisqu’ils n’en ont réellement besoin que de deux.

.

Au-delà du seuil minimum d’utilisateurs-tests, la vraie question qui émerge du débat critique est : avez-vous un processus itératif qui vous permette de vous améliorer en permanence ?

Alors effectivement, l’hypothèse de départ et l’affirmation de Nielsen peuvent être reformulées : 5 utilisateurs sont un nombre suffisant pour mettre en place un processus de tests pertinent sur la longue durée. A ce stade en effet, il est beaucoup plus efficace de mettre en place une phase de tests régulière avec cinq utilisateurs, plutôt qu’une unique campagne de tests avec quinze personnes (ou 30, ou 50).

.

Mais bien sûr, n’oubliez pas que vous n’êtes en train de faire « que » du test quantitatif. Ça ne vous apportera donc que des réponses liées à l’objet testé et non à l’expérience vécue (UX : User eXperience).
Si vous demandez à 5 utilisateurs d’acheter un ticket de RER pour aller de la gare Massy-TGV à Paris, vous aurez un test qui porte sur l’interface des bornes d’achat. Vous risquez de rater une bonne partie du problème (en date du début d’année 2018), qui est que 2 uniques bornes RATP sont disponibles en gare, pour accueillir les 1.200 voyageurs qui débarquent d’un TGV Ouigo et qui mettront plus de temps à attendre leur tour dans la file devant la borne qu’à faire leur trajet tout entier. A ce stade ils haïront tous votre interface, vos tarifs, votre marque, vos employés et vos produits mais pas à cause de l’interface, à cause du nombre de bornes…

Et ça les copains, il n’y a que le qualitatif qui pourra vous l’expliquer.

.

.

 

 

 
%d blogueurs aiment cette page :