The blog of blog of blogs

Les aventures d'un ethnologue dans le grand monde

Un plan vert brillant 21 février 2019


Ce document est la traduction de la proposition de loi Green New Deal émise au Congrès américain par la députée Alexandria Ocasio-Cortez
L’original est disponible ici   (GreenNewDeal_FAQ.pdf)

Le Green New Deal (Nouveau Contrat Écologique) n’est pas une idée particulièrement neuve. Sa première mention remonte à 2007 sous la plume de l’économiste Thomas Friedman dans le New York Times.
Depuis, nombreux ont été ses soutiens, entres autres Ban Ki-Moon ou Paul Krugman qui ne sont pas des plaisantins idéologiques.
Plus d’information en anglais  ici
On notera avec intérêt (et affliction) qu’une page Wikipédia en français sur ce sujet n’existe même pas.

Certains aménagements ont été faits pour permettre de transposer le texte original au contexte français et européen. Du point de vue de notre vieux continent, ce programme aussi vaste qu’il soit, paraît moins radical et révolutionnaire que du point de vue américain. Notre histoire et notre système social ont déjà posé les bases qui permettent d’envisager une mise en œuvre crédible.

.

Le PDF de ce texte est ici : Green New Deal_FR_2019

Le lecteur assidu à ce blog reconnaîtra un thème déjà abordé en 2011 dans cet article sur le Vert Brillant. La proximité des deux articles est frappante et montre une tendance de fond.

.

– – –
Lancement le jeudi 7 février 2019 à 8h30.

Panorama

Nous commencerons le travail dès maintenant pour préparer le projet de loi du Green New Deal. Il s’agit d’abord de valider l’architecture de base du projet (afin que personne d’autre ne se l’approprie).
Il s’agit d’une transformation massive de notre société avec des objectifs et une chronologie clairs.

Le projet de loi du Nouveau Contrat Écologique est un plan sur 10 ans qui mobilise tous les aspects de la société française à un niveau jamais atteint depuis la seconde guerre mondiale. Il s’agit d’atteindre un niveau zéro d’émissions de gaz à effet de serre et de créer les conditions d’une prospérité économique pour tous. Le Nouveau Contrat permettra de :

• Faire fonctionner la France avec 100% d’énergie propre et renouvelable, incluant le développement de l’autonomie énergétique des bâtiments
• Créer des centaines de milliers d’emploi stables en France et des millions à l’échelle européenne, rémunérés par des salaires dignes
• Permettre une juste transition pour les travailleurs afin d’assurer la sécurité économique des populations qui ont jusqu’à présent dépendu largement des industries fossiles
• S’inspirer de la Seconde Déclaration des Droits de Franklin Delano Roosvelt en 1944, pour garantir :

– Un emploi stable et un salaire digne, une assurance maladie individuelle et familiale, des congés et des droits à une retraite digne.
– Une éducation de grande qualité, universelle et gratuite y compris dans son aspect de formation tout au long de la vie.
– Un air propre, une eau potable et l’accès à la nature
– Une nourriture saine et non contaminée
– Des soins de santé de premier plan
– Un logement sûr, accessible financièrement et résilient face aux futurs aléas météorologiques que l’on peut déjà anticiper
– Un environnement économique libre de monopoles
– Un environnement politique libre de l’influence des intérêts privés capitalistiques.
– Une sécurité économique pour toutes celles et ceux dans l’incapacité ou l’absence de volonté de travailler contre rémunération

Il n’y a pas de temps à perdre
Les plus récentes études du GIEC affirment que les émissions de gaz à effet de serre doivent être réduites de 40 à 60% d’ici 2030.
Nous devons atteindre le 0 en 2030 et nous montrerons ainsi au monde qu’un Nouveau Contrat Écologique est possible, d’une part, et bénéfique socialement d’autre part.

Impossible n’est pas français… et in varietate concordia
Lorsque le président américain John Ford Kennedy affirma en 1962 que l’être humain irait sur la Lune en 10 ans, nombreux furent ceux qui ont pensé que c’était impossible. Aujourd’hui nous avons des robots sur Mars.
Lorsque Franklin Delano Roosvelt demanda la construction de 185.000 avions pour combattre durant la deuxième guerre mondiale, chaque directeur d’entreprise et chaque général se mit à rire. A cette époque, les Etats-Unis produisaient 3.000 avions par an. A la fin de la guerre, ils en avaient produit 300.000.
C’est ce dont nous sommes capables lorsque nous sommes bien dirigés.
L’Europe a su se reconstruire après la deuxième guerre mondiale, pour devenir aujourd’hui une puissante force de stabilité dans le monde.
L’Allemagne de l’Ouest a su intégrer l’ancienne RDA en une année après la chute du Mur de Berlin.
Le produit intérieur brut français est neuf fois plus élevé qu’en 1890.
En termes de niveau d’éducation, de niveau de revenu et de longévité nous sommes parmi les premiers au monde.

Il s’agit d’un investissement massif dans notre économie et dans notre société. Ce n’est pas une dépense
Chaque euro d’investissement public permet une création de richesse estimée à 2,5 euros.
Avec le Nouveau Contrat Écologique, l’investissement public pourra se porter sur des domaines précis. Il ne s’agit pas d’une modernisation mais d’une remise à jour, pour préparer notre avenir à tous. Les secteurs des transports, du logement résidentiel et de la production industrielle seront les premiers concernés en France. L’investissement public permettra l’émergence d’une économie que « le marché » aujourd’hui est incapable ou refuse de mettre en mouvement.
Il s’agit aussi d’un investissement massif dans le capital humain, qui prendra en compte la vie quotidienne des citoyens comme point de départ pour en déduire quels projets mettre en œuvre, à commencer par la résolution de problèmes plutôt que l’ajout de nouvelles contraintes.
La France dispose d’instituts de recherche en sciences sociales de niveau mondial, ils seront sollicités.

Le Nouveau Contrat est déjà en mouvement
Face au changement climatique, nous savons que l’inaction coûtera plus cher et sera plus dévastatrice que l’action.
L’immense majorité des Français et des Européens a conscience du risque et de la nécessité d’agir. Face à l’inertie des acteurs privés et des gouvernements, en ce début d’année 2019 même les enfants font la grève de l’école pour demander de l’action concrète.
Les acteurs publics les plus engagés en faveur du climat sont les villes et les régions.
Il est temps que les États prennent leurs responsabilités à commencer par les Assemblées Nationales en étroite coordination les citoyens et avec le Parlement Européen.
Unis dans la diversité.

.

Foire Aux Questions

Pourquoi un élan vers des énergies 100% propres et renouvelables, et pas seulement du 100% renouvelable ? Vous dites qu’on continuera d’utiliser les énergies fossiles ?

Nous appelons à une transition complète pour se libérer des énergies fossiles et ne plus émettre du tout de gaz à effet de serre.
Quiconque a lu le projet de loi a pu voir que cela passera par une mobilisation de chaque secteur de l’économie, chaque entreprise, chaque acteur public et chaque groupe syndical.
Mais bannir immédiatement et abruptement les combustibles fossiles serait une très mauvaise idée puisque nous n’avons rien pour les remplacer à ce jour.
Nous le ferons en créant à partir de presque rien une économie de l’énergie renouvelable aussi vite que possible. C’est la ligne directrice du Nouveau Contrat Écologique.
Ainsi nous fixons un objectif net d’émission à 0 dans 10 ans, car personne ne peut garantir que nous saurons atteindre les zéro émissions dans l’absolu. Ça supposerait de pouvoir éliminer les émissions de gaz à effet de serre provenant du transport aérien ou des pets de l’élevage animal.
Mais nous pensons pouvoir faire grandement monter en puissance l’industrie manufacturière et l’industrie de l’énergie, ainsi que rénover chaque bâtiment en France, construire une smart grid, mettre à jour les transports et l’agro-alimentaire, l’agriculture ainsi que planter des millions d’arbres pour atteindre l’objectif net de zéro émission de gaz à effet de serre.

Le nucléaire en fait partie ?
Le Nouveau Contrat Écologique est un investissement massif dans la production d’énergies propres et renouvelables et n’implique pas de construire de nouvelles centrales nucléaires.
Le nucléaire d’ailleurs n’est ni une énergie renouvelable, ni une énergie propre. Ses déchets sont des polluants radioactifs mortels qui ont une durée de vie qui se mesure en centaines d’années.
Cependant nous n’avons aucune certitude de pouvoir décommissionner toutes les centrales existantes en seulement dix ans.
Mais notre objectif est clair : nous voulons du 100% propre et renouvelable. Le pétrole, le charbon, le gaz et le nucléaire n’en font pas partie.

Est-ce que ça implique une taxe carbone ?
On ne peut pas simplement taxer le carburant ou le gaz et s’attendre à ce que les citoyens trouvent tous seuls un autre moyen d’aller au travail ; sauf quand nous leur proposerons une autre alternative plus saine et aussi pratique au quotidien.
Donc nous n’excluons pas la taxe carbone, mais elle fournirait seulement une petite partie des financements nécessaires. Le projet gigantesque qui consiste à remettre à jour l’économie suppose qu’on ait d’abord des alternatives à proposer, techniquement et socialement, pour s’assurer que ce soit indolore pour les citoyens, les familles et les communautés.

Est-ce que ça implique du cap and trade (bourse d’échange de « droits à polluer ») ?
Le Nouveau Contrat Écologique créera une nouvelle économie de l’énergie par des investissements massifs dans la société et la technologie. Les bourses d’échanges de droits à polluer supposent que le marché tel qu’il existe résoudra les problèmes de lui-même. Ce n’est pas vrai.
Le cap and trade pourrait être à la marge un moyen d’associer les acteurs au Nouveau Contrat, mais il faut reconnaître que la législation actuelle des bourses d’échanges est une forme de subvention qui permet l’existence de zones éparses de pollution intense qui exposent sévèrement les populations locales. On doit d’abord s’assurer que les populations locales, leur santé et leur bien-être, sont la première priorité de tout le monde.

Est-ce que ça implique l’interdiction de toute nouvelle construction liée aux énergies fossiles ou de centrale nucléaire ?
L’une des conséquences du Nouveau Contrat Écologique sera de rendre inutiles les nouvelles constructions liées aux énergies de l’ancien monde, fossile ou nucléaire. Nous voulons ne plus en avoir besoin.
Nos investissements seront donc orientés massivement dans les énergies du nouveau monde, pas dans les autres. Vouloir faire les deux serait une tromperie et une hypocrisie qui maintiendrait le statu quo.

Êtes-vous favorables au stockage du CO2 ?
(CCUS : Carbon Capture, Utilization, and Storage)
La bonne manière de capturer le CO2 est de planter des arbres et restaurer les écosystèmes naturels.
A ce jour les technologies de capture des gaz à effet de serre dans l’atmosphère n’ont pas prouvé leur efficacité.

Comment allons-nous payer pour tout ça ?
De la même manière que les États-Unis ont payé leur New Deal dans les années 1930 ou comme les banques centrales ont résolu la crise bancaire en 2008 avec le quantitative easing (rachat de dettes).
De la même manière que nous avons payé la deuxième guerre mondiale et toutes nos guerres actuelles.
La Banque Centrale Européenne peut étendre ses lignes de crédit pour propulser le Nouveau Contrat Écologique vers les sommets. Il y aussi de la place pour des participations publiques, en vue de futurs dividendes ou retours sur investissement.
Au bout du compte, cet investissement dans l’économie nouvelle fera croître la richesse de la nation. La question n’est pas de savoir comment nous payerons, mais que ferons-nous de notre nouvelle prospérité.

Pourquoi doit-il y avoir un si vaste programme public ? Pourquoi ne pas se contenter de l’incitation par les taxes et des réglementations qui orienteraient les investissements du secteur privé ?
– Le niveau d’investissement doit être massif. Même si les milliardaires et les entreprises se donnaient la main pour déverser leur richesse dans la transition écologique, on ne parviendrait qu’à une modeste fraction de ce qui est nécessaire.
– La vitesse d’investissement devra être massive elle aussi. Même si les milliardaires et les entreprises se donnaient la main pour déverser leur richesse dans la transition écologique ils n’auraient pas la capacité de coordination suffisante pour un agenda si serré.
– Les investisseurs privés sont également hésitants à investir dans des domaines où personne n’a encore gagné d’argent. Les gouvernements par contre peuvent agir dans un temps long et peuvent patiemment investir dans les nouvelles technologies et la recherche, sans avoir en tête une application commerciale précise au moment où se fait la dépense d’argent.
Un exemple majeur d’investissement public à succès s’appelle l’internet.
– Pour résumer, nous ne devons pas seulement cesser de faire comme nous avons toujours fait (comme brûler du carburant pour nos besoins en énergie), nous avons aussi besoin de faire du neuf (comme remanier des secteurs d’activité entiers ou rénover tous nos bâtiments). Commencer à faire de nouvelles choses nécessite des investissements immédiats. Un pays qui essaye de changer le fonctionnement de son économie a besoin de gros investissements immédiats, pour lancer et développer ses premiers projets.
– Fournir des incitations au secteur privé ne fonctionne pas. Les subventions en faveur du solaire ou de l’éolien ont certes produit des résultats positifs, mais bien insuffisants par rapport à un objectif de neutralité carbone comme le promeut le Nouveau Contrat Écologique.
– Il y a bien une place pour le secteur privé mais l’investisseur principal ne peut être que la puissance publique. Il est normal que lui revienne aussi le rôle de coordinateur et pilote de l’ensemble du projet.

.

Résumé du projet de loi

Créé en consultation avec de multiples groupes de la société civile, syndicats et défenseurs de l’environnement.

5 objectifs à 10 ans
14 projets pour mobiliser l’économie
15 exigences de justice sociale et de sécurité

5 objectifs à 10 ans :
– Émissions nettes de gaz à effet de serre à zéro, grâce à une transition écologique juste pour toutes les communautés et les travailleurs.
– Création de centaines de milliers d’emplois stables ; assurer la prospérité et la sécurité économique pour tous.
– Investissement dans les méthodes, les infrastructures et l’industrie pour les mettre durablement au niveau des défis du XXIe siècle
– Air propre et eau potable. Résilience climatique au niveau local. Nourriture non contaminée. Accès universel à la nature et à un environnement non dégradé.
– Promotion de la justice et de l’équité en prenant soin des communautés les plus vulnérables.

14 projets majeurs pour mobiliser l’économie :
– Construction d’infrastructures permettant la résilience face aux catastrophes naturelles. Valoriser les bâtiments autonomes en énergie.
– Réparation et rénovation des infrastructures existantes
– Répondre à 100% des besoins énergétiques nationaux en recourant aux énergies propres et renouvelables. Pouvoir se passer du fossile et du nucléaire.
– Construction d’un réseau de distribution de l’énergie économe (smart grid) et garantir un accès universel minimum à l’énergie.
– Rénover tous les bâtiments pour les mettre à niveau d’une société économe en énergie
– Étendre le recours standard à l’industrie propre et non polluante (agro-alimentaire, fabrication, installation et maintenance de panneaux solaires, éoliennes, batteries et stockage énergétique, techniques de dépollution, processus industriels circulaires, « chimie verte », etc.)
– Travailler avec les agriculteurs pour créer des circuits alimentaires durables, permettant l’accès universel à une alimentation de première qualité tout en permettant aux travailleurs de vivre de leur production.
– Remanier le secteur du transport en augmentant massivement la production de véhicules électriques fiables et leur réseau de recharge. Rénover et densifier les transports publics urbains, interurbains et hors zone urbaine. Interconnecter les différents modes de transport à toutes les échelles du pays.
– Atténuer les impacts sanitaires du changement climatique et de la pollution terrestre, aérienne ou marine.
– Reforester massivement pour permettre l’absorption du carbone dans l’atmosphère
– Restaurer les écosystèmes dégradés, notamment en rapport avec la biodiversité du règne animal et végétal.
– Recherche et développement pour des produits de substitution ou des méthodes de remplacement permettant de supprimer les principaux polluants utilisés dans chaque secteur d’activité
– Partage de notre expertise, de nos technologies et méthodes avec nos voisins européens et avec les pays limitrophes de nos territoires d’Outre-Mer.

15 exigences de justice sociale et de sécurité :
– Des investissements massifs et l’assistance aux organisations, associations et entreprises qui s’engagent dans le Nouveau Contrat et s’assurant que la nation y trouve son retour sur investissement.
– Garantir que les coûts sociaux et environnementaux sont intégrés aux études d’impacts, aux estimations de retour sur investissement.
– Fournir une formation professionnelle continue universelle. Protéger les travailleurs plutôt que l’emploi
– Investir dans la Recherche et Développement (R&D) de nouvelles technologies énergétiques
– Mener des investissements directs pour les communautés en première ligne du réchauffement climatique ainsi que pour les communautés directement liées aux industries carbonées qui seraient sinon frappées de plein fouet par la transition en cours. Prioriser les retours sur investissement à leur profit.
– Utiliser comme méthode par défaut la concertation et le processus participatif avec les utilisateurs directs et les communautés locales.
– S’assurer que les emplois créés par le Nouveau Contrat Écologique sont des emplois dignes, stables et inclusifs.
– Protéger le droit des travailleurs à se syndiquer et à être représentés à tous les niveaux de décision.
– Renforcer et élargir la notion de santé et sécurité au travail aux domaines de l’inclusion, et de la non-discrimination, que l’activité soit salariée, indépendante ou bénévole.
– Renforcer les règles commerciales pour mettre un terme au dumping social, à l’export de pollution et accroitre l’industrie nationale.
– Garantir que le domaine public urbain ou naturel est protégé
– Préalablement au démarrage d’un projet sur leur territoire ou pouvant impacter leur territoire, obtenir le consentement éclairé des communautés locales, en métropole ou territoires d’Outre-Mer.
– Garantir un environnement libre de monopoles et de compétition abusive.
– Fournir des soins de santé curatifs de haute qualité, tout en déployant un système de santé orienté vers la prévention, en particulier pour les pathologies considérées comme évitables.
– – –

.
[Note du traducteur]
SOURCES (février 2019) :

https://www.documentcloud.org/documents/5731869-Green-New-Deal-FAQ.html (GreenNewDeal_FAQ.pdf)

Cliquer pour accéder à ENG4%20REPERES%202010%20ENG-Partie%204.pdf

http://www.globalcarbonatlas.org/en/CO2-emissions

Summary for Policymakers of IPCC Special Report on Global Warming of 1.5°C approved by governments

https://report.ipcc.ch/sr15/index.html

http://www.globalcarbonatlas.org/en/CO2-emissions

https://www.lemonde.fr/idees/article/2016/11/04/l-investissement-public-est-la-cle-de-la-reprise-economique_5025661_3232.html

http://www.lefigaro.fr/conjoncture/2016/05/28/20002-20160528ARTFIG00115-pour-jean-tirole-il-faut-proteger-le-salarie-plutot-que-l-emploi.php

.

 

La maladie honteuse des données personnelles 19 novembre 2018


Les vols de données personnelles sont devenus communs et on s’étonne à peine de les voir défiler dans la presse.
Chaque semaine, des voleurs entrent dans les réseaux et remplissent leurs poches d’informations sur la vie des gens, parfois par millions.
La plupart du temps les informations dérobées permettent de commettre des fraudes très efficaces.

Le piratage de l’IRS américain en 2015  a ainsi alimenté pour des années le marché de la contrebande des fausses identités et des justificatifs d’impôts tout en pourrissant la vie des personnes volées pour au moins autant de temps.
D’autres motivations peuvent amener les pirates à attaquer une cible particulière, pour des motifs de vengeance ou de chantage.
Enfin, sans intention de nuire, une cause majeure des fuites de données provient des erreurs humaines. Absence de mise à jour d’un système, oubli dans une configuration technique, réutilisation d’un mot de passe corrompu… toutes ces choses qui confirment qu’en matière de sécurité informatique la première faille de sécurité se trouve « entre la chaise et la clavier » : l’utilisateur ou l’opérateur lui-même.

 

A chaque fois, il s’agit d’informations sur nous, de l’information que nous donnons pour pouvoir utiliser un service, comme nos vrais noms, prénoms, numéro de carte bancaire, sécurité sociale, téléphone, date de naissance, empreinte digitale des enfants pour qu’ils puissent déjeuner à la cantine, ou autre.
Et à chaque fois ceux qui réclament ces informations assurent qu’ils les garderont secrètes et inaccessibles au reste du monde.
Et à chaque fois, ils ne le font pas.
De ce point de vue, l’expression « vol de données » est commode car elle est neutre, en termes de responsabilité. Une entreprise ou une administration « victime de vol de données » se fait passer pour la victime… alors qu’elle avait la responsabilité de garder ces choses secrètes et ne l’a pas fait.

.

Les intrusions délictuelles ont connu un pic dans les années 2014-2015, avec par exemple l’entreprise Orange qui fut attaquée deux fois de suite pour un vol qui concernait plus de deux millions de personnes… dont peut-être vous si vous étiez abonné Orange à l’époque.
Depuis, les grandes organisations ont donc largement eu le temps de comprendre que les données personnelles sont fort recherchées et donc que plus elles en hébergent, plus elles sont susceptibles d’être seront attaquées.
Mais depuis, l’épidémie n’a jamais vraiment cessé. Le pic de 2014-2015 est devenu une norme, voire un minimum dans les années fastes.
Car oui, on en a vu d’autres !
Facebook est devenu un gros pourvoyeur de failles de sécurité mais aussi la plupart des opérateurs de réseau, les banques, sans compter toutes les effractions d’entreprises ou d’administrations dont on n’entendra jamais parler pour des raisons plus ou moins avouables.

Le Règlement Général sur la Protection des Données (RGPD)  va probablement provoquer plus de divulgations d’intrusions, puisqu’il oblige légalement à informer le public qu’un vol a eu lieu, au plus tard dans les 72h après qu’il a été constaté. On peut donc s’attendre à en voir encore davantage dans la presse… pas parce qu’il y a davantage d’attaques, mais parce que les organisations sont contraintes de ne plus le passer sous silence.
Inversement, je serais curieux de voir combien retarderont le plus possible la « découverte » d’intrusions pour retarder le moment où il faudra étaler son linge sale sur la place publique…

.

Les fournisseurs d’accès, les réseaux sociaux, les administrations  et beaucoup d’autres (trop !) enregistrent scrupuleusement à qui nous parlons, à qui nous écrivons, ce que nous likons et avec qui nous échangeons des documents. Les vendeurs enregistrent nos habitudes d’achat, les opérateurs enregistrent les lieux et les heures où nous allons et ce que nous regardons sur internet. Ils savent très bien en déduire nos espoirs, nos peurs, nos fantasmes et nos secrets.
La géolocalisation révèle où nous habitons, où nous travaillons, quels sont nos itinéraires habituels.
En associant les données localisées à l’échelle d’une ville, il est possible de prouver avec qui nous étions dans le bus, au supermarché et avec qui nous avons passé la nuit.

.

Parce que différentes organisations se positionnent comme acheteurs et revendeurs de nos informations (les data brokers), tous ceux qui peuvent collecter des données sont susceptibles de gagner de l’argent en les revendant.
Et le secteur est dynamique, c’est le moins qu’on puisse dire.
D’un côté sur le marché légal, une adresse e-mail valide vaut environ 0,5 centimes d’euros. Une « fiche client » provenant des bases de données de Facebook est estimée à 100 euros (ce qui participe à sa valeur en bourse, vu le nombre revendiqué de 2,27 milliards d’utilisateurs actifs).
De l’autre côté, sur le marché noir, le raccourci habituel est de demander 100 dollars pour 100.000 contacts. Donc d’un côté comme de l’autre, plus ils peuvent en avoir, plus ils en demandent.

Mais sur le marché officiel ou clandestin, une chose est sûre : une fois que nous avons donné nos informations elles ne sont plus à nous même si elles parlent de nous.  Les données enregistrées, stockées sont ensuite diffusées on-ne-sait-où, elles sont analysées par on-ne-sait-qui et pour on-ne-sait quel-but, vendues et achetées pour des motifs de marketing ou autre raison de persuasion et d’influence. Et beaucoup de monde gagne beaucoup d’argent avec.

« Tout enregistrer et le stocker indéfiniment » est donc un business model qui fonctionne.
Pour renforcer cette idée, on pourrait même dire que le travail qui consisterait à identifier ce qui ne mérite pas d’être enregistré est si difficile qu’il n’existe pas. D’ailleurs, ce qui semble inutile aujourd’hui pourrait être très utile demain. Du coup si on l’a enregistré aussi, on pourra le monnayer à ce moment-là.
Il suffit d’enregistrer, stocker et attendre.

.

 

La collecte de données personnelles est cependant dangereuse parce que ce sont des données… personnelles.

Enregistrer tout cela est dangereux parce que ça déclenche les convoitises et ça rend difficile une protection efficace.
Entre 2013 et 2014, Yahoo! a reconnu deux ans plus tard s’être fait voler 1,5 milliard de fiches clients.
Enregistrer les données personnelles est dangereux parce que vous savez que vous allez subir des effractions. Des entreprises vont vous attaquer, des pirates, des États ou des employés très en colère et vous ne pourrez pas tous les arrêter, c’est une certitude.
Or si dans le vrai monde le défenseur a toujours un avantage tactique (même relatif), dans le domaine de la cyber sécurité c’est l’attaquant qui a l’avantage.

Enregistrer tout cela est dangereux aussi car les dégâts d’une intrusion réussie sont dévastateurs.
La protection a été percée, la presse va parler du vol, la réputation va souffrir, la valeur boursière va baisser et cela peut dégénérer jusqu’au procès et à une condamnation ferme… et, surtout, de vrais gens vont se retrouver en difficulté à cause de la fuite.

.

.

Mais si les données personnelles sont si dangereuses, pourquoi donc les enregistrer ?

La première raison est que c’est une maladie de compulsion… il n’y a pas de raison particulière, sauf qu’on ne peut pas s’en empêcher.
Par appât du gain, tout le monde enregistre tout, tout le temps. Les organisations ne peuvent plus s’empêcher de tout enregistrer, comme une espèce de trouble compulsif embarrassant mais très répandu.

Des masses de données vont donc demeurer là pendant des années, personne ne se préoccupera de savoir si elles sont encore à jour ou pertinentes. Si quelque part quelqu’un sait que vous avez eu un cancer en 2005, qui se soucie de mettre à jour l’information de votre parfaite guérison ? Quel malus allez-vous subir si votre mutuelle santé établit ses tarifs sur ce genre d’information erronée ? Et qui possède ce commentaire graveleux que vous aviez posté avec vos noms et prénoms dans un obscur forum de discussion il y a 10 ans ?

 

La compulsion à enregistrer des données personnelles est une maladie honteuse, mais puisque tout le monde est contaminé il n’y a pas de raison de changer de comportement.
Cette incapacité collective vient du fait que l’architecture technique est conçue dans cet objectif et elle fonctionne sans aide, en faisant exactement ce qu’on lui demande. S’il vous fallait un exemple que le design ce n’est pas que de la cosmétique, il est là.
Obligation de « Créer un compte », obligation de saisir une adresse postale, obligation de donner son vrai nom et prénom, numéro de carte bancaire sauvegardé automatiquement après un paiement, etc.
La règle par défaut est l’enregistrement à l’échelle industrielle, jusqu’à l’overdose si nécessaire.

La Révolution arrivera le jour où nous serons payés pour enregistrer nos données personnelles  -ou rémunérés d’une manière ou d’une autre. Je suis bien certain que si la data devenait coûteuse à acquérir, on nous en demanderait soudainement beaucoup moins. Car il existe des cas ou, quoi qu’on en pense, la collecte de ces informations est nécessaire. Par exemple laisser sa mutuelle santé lire nos statistiques d’activité physique pour obtenir une ristourne parce qu’on est raisonnablement « sportif ».
Alors, quand c’est nécessaire, votre organisation devrait envoyer du lourd pour protéger ces données qui ne lui appartiennent pas : cryptographie forte, tokens anonymisés, double ou triple pare-feu, blockchain et j’en passe.

It’s the data, stupid ! All hard and software should (and will) allow portability of data, as it is produced in your organization.

 

 

Une seconde raison est la mode du Big Data.
Les entreprises et les gouvernements sont en pleine période d’envoûtement, subjugués par les promesses d’un monde meilleur (et de profits plus gros) grâce à la data.
Bien des travaux sont pourtant publiés sur le fait que plus de data n’est pas nécessaire, à commencer par les ethnologues qui démontrent jour après jour que le quantitatif sans qualitatif est une fumisterie sans nom. Coûteuse et socialement régressive.

 

Une troisième raison est que la plupart beaucoup de soi-disant responsables minimisent encore les risques.
Ils n’ont toujours pas compris à quel point une brèche de sécurité peut les mettre à genoux (sans parler du jour où une intrusion réussie permettra un vol et aussi le vandalisme des bases de données).
L’excès de confiance ici est un péché mortel et il convient d’éviter de croire qu’on est bien protégé. C’est d’ailleurs le premier signe d’une mauvaise sécurité : lorsque vous êtes sûr d’être bien abrité… demandez à Murphy.

La plupart n’ont pas encore compris que la meilleure protection consiste à supprimer les données personnelles.

.

 

Car les effets de mode se périment et les comportements stupides apportent rarement la longévité.
La tendance actuelle du privacy by design prend le contrepied des arguments habituels sur le sujet.

Dans tous les domaines, il est possible de fournir un service de qualité sans nuire à la vie privée des utilisateurs et sans finir par mourir d’obésité informationnelle.

 

De fait, vous n’avez pas besoin d’enregistrer l’adresse postale d’un client ! Qu’il vous la donne en vue de recevoir son colis est une chose, que vous la gardiez au chaud dans vos bases de données pour une durée indéfinie en est une autre.
Des choix techniques, des choix de design peuvent être faits pour éradiquer la maladie honteuse.


L’assistant Snips est un petit nouveau sur le marché en plein essor de l’intelligence artificielle vocale, qui a la particularité de fonctionner sans transmission à distance. Le logiciel est dans l’objet et vos discussions avec l’objet ne finissent pas sur des serveurs en Inde ou en Arizona.  On se demandera d’ailleurs utilement pourquoi les Alexa ou Siri nous imposent de transmettre nos conversations sur internet pour les enregistrer, alors qu’il est possible de ne pas le faire pour une qualité service équivalente.

Des moteurs de recherche comme Qwant ou DuckDuckGo fournissent des résultats comparables à Google mais ils n’analysent pas, eux, quel est l’historique de vos dernières consultations soi-disant « pour vous offrir une meilleure expérience de navigation ».

 

Les pratiques industrielles courantes dans le fonctionnement d’internet ont transformé internet en plateforme de surveillance, ce n’est pas la NSA qui me contredira.

Raisonnablement, on doit reconnaître que certaines données n’ont même pas besoin d’être demandées, d’autres n’ont pas besoin d’être enregistrées et celles qui doivent l’être devraient être stockées dans des bases différentes, verrouillés par plusieurs niveaux d’accréditations, qui rendent la cible « dure » et qui imposent énormément d’efforts à l’attaquant pour réunir des données cohérentes et monnayables sur le marché noir.

 

Mais il semble d’ores et déjà que si les internautes peuvent utiliser à qualité équivalente des outils conçus pour la discrétion (privacy by design), l’argument commercial fera son petit effet.
Parce que les scandales à répétition nous ont appris à nous, les internautes, que les entreprises ne savent pas protéger nos données et même celles qui savent ont une capacité de défense limitée, quoi qu’elles en disent.
Les entreprises qui peuvent nous protéger sont celles qui en demandent le moins possible, voire pas du tout.
Et s’il est vrai que la data est une matière première qui prend de la valeur quand elle a été raffinée, on pourrait aussi bien la considérer comme une matière inflammable qu’il convient de ne pas avoir en trop grandes quantités pour éviter les retours de flamme…

.

.

.

 

Des objets à commander 9 avril 2018


Les modèles de conception appliqués au digital ont permis l’essor de méthodes collaboratives qui nous éloignent toujours un peu plus de la théorie du One best way de Fayol, Taylor et Ford.
Du reste, s’il y a bien une leçon à retenir des travaux de recherche en organisation c’est que le one best way n’existe pas. Il n’y a pas un modèle d’organisation meilleur que tous les autres : il n’y a que des modèles d’organisation adaptés à leur contexte.
.

De ce point de vue, l’ingénieur en chef enfermé dans son Bureau des Études se révèle être de plus en plus une vue de l’esprit. Il n’est pas seul, il ne peut pas travailler seul, il ne peut que négocier ses contraintes avec les contraintes des autres parties-prenantes d’un projet à commencer par les utilisateurs et leur contexte d’usage. L’intérêt des méthodes collaboratives -et en premier lieu du design thinking- est que la prise en compte du contexte fait partie de la méthode. Ce n’est jamais une garantie de succès, mais c’est très certainement la garantie que vous éviterez de faire des erreurs grossières par manque de prise en compte de la réalité dans laquelle votre projet va se déployer.

Les configurations techniques sont désormais assumées comme des constructions collectives . C’est un mouvement qui concerne les ‘artefacts’ au sens large : ça a commencé par les objets matériels mais les services et les décisions politiques sont aussi concernés. Avoir le grade ou le statut n’est plus suffisant pour être légitime à décider, il faut aussi avoir le consensus et ce consensus se crée par la prise en compte du contexte.

Les implications sont vastes et je limiterai ici mon propos au monde matériel, celui de l’interconnexion généralisée dans l’internet des objets (IoT).
Une gamme d’objets étonnamment vaste est maintenant connectée à l’internet, des vêtements aux montres en passant par les éléments de mobilier, les machines-outils, les jouets, les chaînes logistiques ou les voitures… ou même des smart villes. Ces bidules sont de toutes formes et de toutes couleurs –certains n’ont même pas d’écran de commande et c’est bien l’enjeu de l’IoT : ce sont les objets qui communiquent entre eux et qui s’informent les uns les autres de leur état réciproque pour s’adapter à la situation, sans avoir besoin d’un homo sapiens pour interagir en permanence. L’intervention humaine lorsqu’elle se produit est seulement ponctuelle alors que les objets ont une communication permanente.
Le fonctionnement des ‘couches basses’ fait appel à des algorithmes, des liaisons RFID, des capteurs d’usure installés sur les freins des trains ou un lecteur d’empreintes digitales sur la porte de chez vous… à ce stade, l’humain sur son tableau de contrôle ne voit qu’une partie de la réalité du système, un abrégé, la synthèse de multiples étapes qui se déroulent entre machines, hors de vue et hors de portée.

.

Où est le besoin d’une construction collective ici, puisque précisément les objets fonctionnent en autonomie ?

.

Ce fonctionnement automatisé pose une première question pour l’observateur du système (le technicien superviseur par exemple ou le/la chef de famille), comment sait-il si les objets sont en train de se causer dans une usine, ou un domicile ?
Comment puis-je savoir que mon Google Home ou Microsoft Alexa est en train d’écouter les différentes voix qui se parlent dans ma cuisine et transmet quelque chose aux serveurs Google ? Comment savoir que mon compteur de gaz est en train de transmettre des données à mon fournisseur d’énergie, et quelles données ? Comment savoir que le bus n°56 est effectivement en train de transmettre sa position GPS exacte au centre de supervision ?
Il y a un premier besoin de design d’interface au niveau des transmetteurs pour matérialiser la transparence du système technique envers l’environnement humain. Lorsque les machines se parlent, a minima, elles doivent le signaler en temps réel. Sur l’objet connecté lui-même cette fonction se double par l’enregistrement de logs qui stockent l’ensemble des données brutes de ce qui est transmis et reçu -et en provenance et à destination de qui.
A mon humble avis, elles devraient être accessibles au moins en lecture seule par l’utilisateur. Après tout, ce sont ses données à lui.

Car je l’ai déjà dit et je le redirai : la limite ultime d’une technologie réside dans sa capacité à faciliter ou permettre l’existence d’une dictature. Les enjeux de transparence dans l’IoT n’ont rien d’une option cosmétique, ils servent à tracer cette limite.
.

… avec cet argument en tête, je vous invite à relire le rapport du député Vilani Donner un sens à l’intelligence artificielle.
Page 35 :  « L’État doit également organiser l’ouverture au cas par cas de certaines données détenues par des entités privées, et favoriser sans attendre les pratiques de fouille de texte et de données. »
Une phrase comme celle-là devrait tous nous réveiller la nuit, parce qu’elle n’est associée à aucune possibilité de contrôler ce qui est fouillé par l’État et encore moins de débrayer le système ou de refuser d’y participer.
.

Le second besoin en termes d’interface pour l’utilisateur du système est la qualité explicative du système décisionnel : comment l’opérateur peut-il comprendre la logique qui mène à un certain résultat ? Les interfaces spécifiques de l’IoT sont à peu près comparables à des télécommandes, mais évolutives en fonction des situations, grâce aux algorithmes et peut-être un jour grâce à de l’intelligence artificielle.
A partir de quel seuil apparaît par exemple une alerte orange ? Lorsqu’il faut agir immédiatement pour éviter une explosion ou lorsqu’il faut commander une soupape de rechange qui arrivera dans trois jours ?
Quels types d’action sont demandés à l’opérateur humain et pourquoi ?
Le système technique lui-même doit pouvoir s’expliquer et justifier de son fonctionnement : il devient un acteur à part entière du système relationnel… relisez la théorie de l’Acteur-Réseau.

.

Les objets à commander dans l’IoT peuvent être répartis dans le monde entier, par milliers, mais le panneau de supervision est juste là, dans votre smartphone personnel ou sur votre ordinateur professionnel (ou l’inverse)… et bientôt en réalité virtuelle ou augmentée.
L’interaction des humains avec le système technique nécessite à ce titre davantage de prise en compte des utilisateurs puisqu’il faut intégrer dans l’interface l’absence d’objet, l’absence d’indice direct qui permettrait d’interpréter ce qui est affiché.
Les designers vont collaborer avec les ingénieurs et les concepteurs produit pour leur faire comprendre que tout ce qu’ils sont en train de faire devra être utile à l’utilisateur avec une certitude absolue, par exemple pour ouvrir la porte d’entrée de son domicile, ou interpréter correctement le niveau d’usure du système de freinage d’un train.
.
Industry 4.0 concept .Man hand holding tablet with Augmented reaLes applis de supervision de l’IoT ne sont pas soumises aux mêmes objectifs que les applis habituelles pour le grand public. On cherchera à faciliter la prise de décision grâce à quelques écrans qui synthétisent l’état d’un système complexe et ce domaine est plus proche de la maintenance industrielle que du loisir interactif.

Vous pouvez passer des heures sur Instagram en supportant quelques boutons mal faits, mais si vous devez piloter à distance des machines de 500 kilos ou confirmer que le gaz est bien éteint chez vous, le niveau d’exigence dépasse le sens commun… sans parler de l’opérateur d’une escadrille de drones autonomes en opération au-dessus d’une grande métropole.

.

Les critères UI de base restent pourtant bien les mêmes (utilisabilité, simplicité, découvrabilité) que pour n’importe quel design d’interface, mais les conséquences de l’usage pourront être constatées dans le vrai monde avec une porte qui se déverrouille pour laisser entrer les enfants après l’école ou un train qui s’arrête au bon endroit –ou pas.

.

Avec ces conséquences immédiates et très concrètes, la prise en compte de l’utilisateur réel, dans son contexte d’usage devient encore plus cruciale pour éviter les contresens, les erreurs de manipulation et, potentiellement, les catastrophes à grande échelle « simplement » parce qu’une interface ou un algorithme de prise de décision était mal conçu.
Somme toute, si vous êtes déjà dans le domaine du design UX et de la conception système, le travail appliqué à l’IoT est très comparable à ce que vous connaissez déjà…  les aléas, eux, se paieront cash et ne seront pas cantonnés au périmètre du digital (illustration ci-dessous). Dans l’IoT, le mauvais design d’interface et des architectures d’information mal exécutées provoqueront davantage que de la frustration, de l’énervement et des migraines de l’utilisateur. Puisque la prétention de l’IoT est d’activer des liens entre le digital et le monde réel, dans les cas les plus extrêmes une mauvaise conception du côté du digital coutera de vraies vies dans le monde réel.

.

.

.

.

.

.

 

La ville d’aujourd’hui, demain 12 janvier 2017


Depuis que les humains ont commencé à grouper leurs habitats au Néolithique, la tendance à l’urbanisation ne s’est jamais démentie et n’a jamais cessé de croître. Dans un passé récent, au XVIIIe siècle 0,4% de la population terrestre résidait en ville et en ce début de XXIe nous sommes plus de 50%. Les projections indiquent 65% de population citadine en 2025.

Sydney city sprawl. Urban life self-organizes around the possibilities of (social) exchange. Badly designed "smart cities" only place a burden on that basic fact.L’existence de la ville a eu une influence sur tous les domaines de la vie humaine dans la mesure où cet objet socio-géographique est rapidement devenu un centre de décision et, au sens propre, un lieu de pouvoir. Le sujet ‘urbain’ recouvre une réalité bien plus vaste que la simple construction d’un habitat dense, à commencer par l’organisation de la vie humaine, j’ai nommé : la politique.

 

.

L’omniprésence du digital aujourd’hui (devenu « pervasif ») se fait sentir dans tous les domaines, comme une confirmation concrète de la quatrième révolution industrielle telle que définie par Klaus Schwab, fondateur du Forum Économique Mondial. Ce concept peut sembler grandiloquent mais il a le mérite de pouvoir envelopper notre époque faite d’automatisation extrême et d’interconnexion généralisée entre les personnes, les systèmes d’infrastructures et les objets.
La construction de l’objet ville est donc, de fait, la construction d’un objet politique au sens d’organisation de la vie collective. Ce n’est pas un hasard si le premier département de recherche en sociologie au monde fut fondé en 1892 à Chicago, spécifiquement pour comprendre la dimension humaine de la vie en ville (et en corolaire aider la prise de décision publique quant au sujet de la planification urbaine).
Certains sujets spécifiquement urbains en effet ne peuvent pas être résolus par de la tuyauterie neuve ou le recours massif aux camions-toupies… comprendre, gérer et si possible maîtriser la criminalité, la cohabitation entre communautés culturelles, la redistribution des richesses, la résilience face aux catastrophes ou encore la prise en charge des nouveaux habitants ne relèvent pas du « bureau du génie civil ».

.

C’est précisément l’écueil qu’il faut éviter aujourd’hui avec la notion de « ville du futur » : les vrais problèmes à résoudre relèvent de la citoyenneté dans la ville et non de tuyauterie neuve.

Toutes les villes ont la même problématique et connaissent les mêmes sujets de réduction de la pollution, d’accès à l’énergie, de modification de la pyramide des âges, de mobilité, de divorce entre valeur foncière de l’immobilier et sa valeur économique locale, etc.
Ce sont des préoccupations mondiales et dans les discours de gestion urbaine, on en est quasiment à l’injonction morale : il faut être smart. Si vous êtes une ville, il vous être une smart city -une ville intelligente. Dans une grande mesure d’ailleurs, reconnaissons que le modèle historique arrive à ses limites et que ce modèle nouveau de ville hyper connectée au réseau de l’internet des objets (IoT) offre un espoir de les dépasser plutôt efficacement.
Certes, mais que recouvre l’injonction à être une smart city, en termes de conséquences ?
La ville du futur est souvent décrite en termes économiques et l’amélioration supposée est hyper rationalisée : rapidité des services rendus, juste dimensionnement et juste localisation.The equivalent of a ghetto would be to deploy "smart" technologies within our cities, without taking into account the real population (not the intended population). Recruit ethnographers, proceed to deep UX field-observations !
Ce type d’urbanisme paternaliste reprend les codes techno-scientifique qui ont donné vie en France aux « grands ensembles » de HLM dans les années 1950. Posture politique qui a encore des effets sociaux et architecturaux largement négatifs 60 ans plus tard.
L’ampleur des financements d’une smart city impose des partenariats public-privé et une infatuation en termes d’approche basée sur les données… Une étude récente par Raphaël Languillon-Aussel, Nicolas Leprêtre et Benoit Granier montre bien comment les grands groupes industriels (Toshiba, Panasonic, IBM en particulier) utilisent les expérimentations grandeur nature pour améliorer leurs technologies, avec des arguments chiffrés qui mesurent l’efficacité de leur matériel pour apporter la preuve de son utilité. Cette vision de l’efficience promue par les fournisseurs ne doit pas abuser les décideurs politiques pour laisser transformer nos villes en chaîne de production robotisée.
Cela nous ramènerait à la conception technocratique d’il y a 50 ans… le risque est donc énorme de voir se reproduire une dégradation non anticipée de la qualité de la vie urbaine collective.
Car pour les habitants, l’intérêt premier est dans les nuances qui n’apparaissent pas sur un tableau Microsoft Excel : transparence des institutions, engagement civique, équité sociale.
La question posée doit explorer les bénéfices technologiques en termes de service rendu et de renforcement des capacités d’action (empowerment) des citadins eux-mêmes, de leur propre point de vue.

.

Certaines villes considérées comme avant-gardistes mettent en place depuis les années 2000 un modèle qu’on appelle la smart city ; la ville intelligente ; ou encore -avec autant de modestie- la ville du futur. La vision qui préside à l’établissement de la ville du futur est faite d’interconnexion des systèmes et d’exploitation intensive de la data afin d’optimiser les services et les infrastructures. L’intérêt d’insérer du digital dans la ville permet de basculer vers une gestion à très court terme, voire au temps réel pour certains aspects de flux (circulation routière, transport public, distribution d’énergie).

Pour une supervision en temps réel des transports, voir l’exemple d’application Big Data ci-dessous qui montre la circulation des taxis à New York du 24 au 31 octobre 2011 :

 

[lien secondaire : https://vimeo.com/88147836 ]
.

Avec le développement rapide du numérique, la smart city est désormais passée de la brochure marketing sexy à la réalité (parfois moins sexy).
La promesse d’efficacité à grande échelle et de précision algorithmique a séduit des métropoles partout dans le monde. Le Japon abrite 4 des principaux projets mondiaux de smart cities, dont celui de Yokohama qui porte non pas sur un unique quartier (300 à 400 foyers) mais sur 10.000 foyers. En dehors des cadres expérimentaux, Singapour s’est révélée exemplaire dans la gestion de la mobilité, Copenhague pour la dimension durable et Boston pour la participation citoyenne.

.

A ce titre, il est d’une importance cruciale de comprendre que le numérique et l’usage intensif de la data doivent avant tout permettre une plus grande interactivité humaine. Mais la data n’est pas la vie… et le quantitatif est incapable de prendre en compte la variété encore plus grande du qualitatif.
Car, je le prédis, ça ne fonctionnera pas si le système porte uniquement sur l’optimisation technique et omet la socialisation.
En oubliant l’être humain dans l’équation de la ville du futur, on s’apprête à un retour de bâton magistral lorsque le « facteur humain » reviendra sans avoir été invité sous la forme de protestations, de vandalisme, de non-respect volontaire des procédures ou d’arrangements parallèles qui passeront outre tout le ‘smart’ qu’on aura bien voulu injecter dans la ‘city’.
L’absence de prise en compte des aspects socio-politiques aboutira à coup sûr à un refus d’adoption des innovations proposées et à un accroissement des inégalités  -si toutefois l’objectif initial était bien de les réduire.

Il serait donc bon de questionner le modèle de design et les méthodes utilisées avant la pose de la première pierre dans un nouveau Digital technologies can bypass classical urban planning problems, yet the design of these projects should not forget the main issue is social not technical. Real-life citizen-centric more than the abstract user-centric archetypes.quartier. Quels profils de population sont pris comme référence pour penser les innovations à venir ? Les décideurs publics pourraient cesser de valoriser systématiquement la population qu’ils souhaiteraient avoir dans la ville, et de prendre en compte sa réalité. (voir mon article sur les Millennials)
A ce titre, une « smart city » si elle veut assumer son rôle d’infrastructure politique doit en premier lieu se préoccuper de la population réelle… ce qui suppose une adaptation des technologies aux différents contextes locaux et non l’implantation de systèmes standardisés.
Pour réussir au-delà du minimum technique requis, les initiatives d’ « urbanisme digital » doivent prendre en compte et soutenir des besoins spécifiques et hautement variables, qui ne correspondent pas la plupart du temps avec les profils-types d’utilisateurs définis en phase initiale : riches, éduqués et dont la vie peut se faire dans 3 km². Les populations pauvres, non connectées sont par contre les grandes ignorées du processus.
Qu’en est-il du parent solo qui doit faire 50mn de transport en commun pour aller au travail et dont l’abonnement lui coûte 10% de son salaire ? Le fait que sa carte de métro soit sur son smartphone ou que son bus soit sans conducteur est bien le moindre de ses soucis.
Qu’en est-il de l’idée de rue, conçue comme un lieu de vie publique et non un lieu qui mène à des actes d’achat ?
Comment sera garanti l’anonymat de nos données ? Et pourquoi envisage-t’on de faire payer les déchets selon le poids de nos poubelles (connectées) alors que les fabricants ne sont pas contraints de produire moins d’emballages ?

Et à quels services publics n’aurons-nous pas droit si l’on ne dispose ni d’un smartphone, ni d’un ordinateur ni d’une carte bancaire ?
Et pour ceux qui ont ces équipements, sera-t’il possible de cliquer sur opt-out ?

Pour ceux qui se préoccupent de renouveller la ville d’aujourd’hui en vue de demain, ça commence au tout début du processus : dans le cerveau des concepteurs, par une collecte qualitative issue du vrai terrain et une approche bottom-up, participative, du test & learn et -soyons fous- une implication directe des citoyens via des ateliers de co-création.
(remettons-en une couche, cria alors l’ethnologue : faites des observations in situ de vraies personnes pour bien calibrer les technologies à leurs utilisateurs… car ne pas le faire produira l’équivalent digital de la cité HLM : exclusion, paupérisation et déliquescence)

.

Nos existences vont donc changer effectivement mais, finalement, il est probable que l’espace public ne changera pas si radicalement.
Le thème de la ville du futur concerne moins les infrastructures que les interactions humaines avec ces infrastructures. Rome à l’époque de César ressemble beaucoup à la Rome de 2017, le système social par contre n’a plus rien à voir et il a même changé plein de fois. En 3017 il y a fort à parier que Rome ressemblera encore beaucoup à la Rome de 2017. Les espaces horizontaux serviront toujours à accueillir les activités et les parois serviront toujours à séparer les espaces horizontaux. Les façades auront toujours pour fonction de protéger de l’extérieur et les fenêtres à voir au-delà des parois.

Mais dans le système social qui se prépare, la smart city sera bavarde. Les bâtiments, les voies de circulation, les véhicules et les objets seront bavards. Certaines de ces choses inanimées auront sans doute même une relative capacité d’auto-régulation, mais les éléments-clés ne seront pas modifiés. Avec un peu de d’organisation, il sera même encore possible de se perdre en se promenant.

What are the political implications of these internet-data-automation stuff ? This is a VERY good question. Such a technical system would ease or make more difficult the birth of a dictatorship ?L’incompréhension fondamentale que nous devons éviter réside dans le fait qu’une ville est un tissu social avant d’être une plateforme technique. L’impact humain de la planification urbaine n’est pas seulement fiscal ou pratique.

.

Pour pousser l’argument encore plus loin, je l’ai déjà dit et je le dirai encore : le critère ultime d’évaluation d’une technologie est sa capacité à ne pas servir une tyrannie.
Le fondement de l’État de droit repose sur la séparation des pouvoirs : comment s’assure t-on que cela descend jusqu’au niveau des bases de données ? Si demain ce sont mes empreintes digitales qui servent de titre de transport, comment pourra-t’on garantir ma liberté de circulation sous le règne d’un gouvernement autoritaire ?

Pensez-y lorsque vous serez en charge de la conception d’un nouveau « quartier connecté ».

.

.

.

 

 

 

L’émergence du SI Digital 8 août 2016


Les équipes qui travaillent sur le domaine digital peuvent-elles fusionner avec l’informatique ‘classique’ qui reste -jusqu’à présent- le noble défenseur de tout l’édifice technologique.
Ou plutôt : cette fusion devrait-elle avoir lieu ?
Mieux encore : quand ces équipes finiront-elles par travailler ensemble sous la même bannière ?

.

Les entreprises qui cherchent à simplifier leur organisation sont inévitablement confrontées à ces questions mais ne cherchent pas toujours une réponse, faute de savoir réellement quoi faire du domaine ‘digital’ et faute de connaître son degré de compatibilité avec le domaine ‘systèmes d’information’ (SI).
Erreur par ignorance -ou excès de prudence-… ce type d’entreprise aura durant des années son équipe d’expérimentation digitale (ou son Lab) qui restera pendouiller à côté de la Direction Informatique, sans lien ni esquisse d’une discussion commune.

Le digital relève bien sûr techniquement du domaine informatique, tout comme le domaine SI, les équipes de direction pressées pourraient avoir tendance à fusionner SI et Digital.
Autre erreur par ignorance -ou excès de confiance-… car s’il y a bien une parenté technique, elle n’est pas toujours convergente et surtout, on est loin d’avoir un esprit de confrérie ou a minima une bonne volonté partagée.
20160218_NZDF_Q1032139_047.jpg.hashed.c7bd329a.desktop.story.inlineSI et Digital sont des cultures métier différentes et c’est ce qui mène la plupart du temps à l’échec des tentatives de fusion de ces équipes.
Et comprenez moi bien : lorsque je parle de ‘culture métier’ je ne parle pas de la couleur habituelle de leurs chemises mais de leurs manières de faire et d’envisager la technologie, au plus profond des compétences qu’ils mettent en œuvre dans leur travail.
Par exemple le SI est concentré sur la stabilité des systèmes et l’absence d’anomalie significative tandis que le Digital est orienté vers la variabilité des usages et l’amélioration progressive.
Mélangez ces différences culturelles, secouez un peu trop fort… et ça vous explosera au visage car vous aurez transformé des différences en incompatibilités.
Et croyez moi, vous ne voulez pas de tirs fratricides en plein milieu d’un projet.

.

Fort heureusement, la réalité est plus nuancée que cette grossière synthèse et laisse donc des possibilités d’avancer doucement vers un rapprochement du SI et du Digital.
Il y a fort à parier cependant que la convergence ne viendra d’aucun des deux, mais d’un élément extérieur, à commencer par la tendance à la conjonction inédite d’usages et de technologies qui élargissent nos possibilités d’interaction avec le monde. Cette tendance est puissante… bon gré mal gré, il faudra que SI et Digital entament des pourparlers diplomatiques car leurs deux domaines de compétences se révèlent avoir finalement une complémentarité précieuse.

Ce premier élément qui pousse au rapprochement peut servir de repoussoir jusqu’à la fin des temps (ou la faillite), ou bien, il peut servir de levier pour lancer un premier projet (et un chef de projet) qui offre assez de souplesse pour que chacun fasse un pas vers l’autre, par petites touches, pour se retrouver à faire preuve d’esprit d’équipe sans s’en être rendu compte. Pour ce projet en particulier, votre objectif sera d’abord de créer de la cohésion (et j’ai tendance à dire que c’est un objectif prioritaire tout le temps, d’ailleurs).

Comme l’écrivait Michel Cozier en 1979, « on ne change pas la société par décret »… et pas davantage vous ne parviendrez à rapprocher les équipes SI et digital par magie (ou en décrétant le rassemblement de tout le monde sous les ordres du même directeur à la prochaine réorganisation).
Les équipes du domaine digital ont assez de compétences pour se tourner vers les projets internes au fonctionnement de l’entreprise et non pas uniquement aux projets orientés vers les clients de l’extérieur. En parallèle, les équipes de l’informatique traditionnelle (le système ‘legacy’) savent très bien que le futur des réseaux réside dans les méthodes autres que le cycle en V, la rigidité du Coût-Délai-Qualité et le cloud, le big data et le design sexy.

.

Personne n’est dupe. Il y a des convergences… toute la question est de savoir de quelle manière l’entreprise va s’y frotter…

.

5015

.

.

.

.

.

.

 

Le syndrome de La Femme en Rouge : un usage social des objets connectés 14 juin 2016


Ainsi que j’en parlais dans mon post sur le porté connecté, l’une des possibilités socialement intéressantes de cette technologie est de pouvoir (potentiellement) permettre d’entrer en relation avec une ou plusieurs personnes qui nous sont totalement étrangères via les objets.

Cette potentialité offerte par la technologie répond à une attente d’interaction.

En référence à Fiona Johnson dans la trilogie Matrix, je nomme cette attente d’interaction le syndrome de La Femme en Rouge et précisément le fait qu’une personne est toute proche de nous mais que les conventions sociales ne légitiment d’aucune manière le fait qu’on s’adresse à elle sans passer pour un(e) tocard(e). Il manque un prétexte, une bonne raison, une justification même floue et ambiguë.
[A l’attention de mes lectrices : pour équilibrer cette illustration et ne pas sombrer dans le sexisme, si vous avez en tête l’équivalent masculin de La Femme en Rouge je suis très preneur de vos références]

femme-en-rouge_objets-connectes_usages-UX

.

Stanley Milgram a démontré dès 1967 que nous ne sommes pas si éloignés les uns des autres que de nous pourrions croire et qu’en moyenne seulement 6 niveaux de distance nous séparent de n’importe qui. J’aurais par exemple seulement besoin de 6 personnes pour pouvoir entrer en relation directe avec le président des États-Unis (ou n’importe qui d’autre). A force de répéter cette hypothèse d’ailleurs, un jour, il faudra que je me lance…

Cette théorie du petit monde a été reproduite plus récemment au sein du réseau Facebook, où il s’avère que chacun est séparé de chacun seulement par trois niveaux et demi. Au sein d’un réseau social dense et clos comme l’est Facebook (ou Linkedin, ou Tumblr), il devient encore plus simple de joindre un(e) inconnu(e) par relations interposées. Mais le simple fait d’avoir ouvert un profil sur ces réseaux sociaux fournit le prétexte à une mise en relation : parce que vous êtes inscrits sur ces réseaux, vous attendez des sollicitations (et pas toujours graveleuses, merci).

 

Joindre un inconnu sur un réseau social rend donc la prise de contact moins incongrue, dans la mesure où les deux font déjà partie du même réseau. Qu’en est-il si l’inconnu(e) est juste à proximité, sans rien ni personne pour jouer le rôle de connecteur ? Que se passe-t’il si la Femme en Rouge boit son café à la table voisine de la vôtre ? Dans ce contexte il ne s’agit plus de célébrer la relation qu’on a avec autrui même en son absence (via internet); il s’agit de célébrer exactement l’inverse : la présence d’autrui, avec qui on n’est pas encore en relation.intel_presence_syndrome-femme-en-rouge

Les recherches menées chez Intel avec des objets à double écran défrichent partiellement cette problématique, en permettant de s’adresser directement à un(e) inconnu(e) en utilisant la technologie comme entremetteur… en utilisant un prétexte non personnel pour adresser la parole, comme une image diffusée sur un écran, une ligne de texte ou autre. Cela met les deux personnes à l’abri d’une relation qui démarrerait immédiatement sur le plan personnel.

Bien sûr, si vous faites partie des gens qui peuvent lancer une conversation avec (presque) n’importe qui dans n’importe quelle situation, vous pourrez hausser les épaules devant l’idée qu’un objet puisse servir de déclencheur à la prise de contact. J’en conviens. Et si mon allégorie de La Femme en Rouge oriente le débat vers une relation interpersonnelle de séduction, ce serait une erreur de limiter le sujet à ce domaine particulier.
Que se passe-t’il si la Femme en Rouge est directrice des ressources humaines de l’entreprise où vous voulez travailler et qu’elle boit son café à la table voisine de la vôtre ?
Du reste, si vous craignez l’invention prochaine d’une machine à harceler vous pouvez être rassuré, puisque ce sont les objets qui gèreront le premier niveau d’interaction pour ne laisser émerger que les demandes appropriées telles que définies par vos soins. L’expérience de Milgram en 1967 a surtout montré que ce n’est pas l’outil qui permet la mise en relation, c’est la bienveillance de celui ou celle qui reçoit la sollicitation. Les « six degrés de séparation » sont seulement une moyenne et sur presque 270 lettres envoyées pour vérifier l’hypothèse de l’équipe de recherche, moins de 70 parvinrent à destination. La Femme en rouge ou l’Homme en Bleu (?) auront toujours la possibilité de vous ignorer superbement, et réciproquement.
En fin de compte d’ailleurs, dans le film Matrix, personne n’entre en contact avec la Femme en Rouge.

 

assistant_entremetteur_hologramme

Il y a cependant là une nouvelle possibilité d’usage pour les objets connectés, socialement bien plus utile qu’un podomètre ou un stupide compteur électrique soi-disant intelligent.  Je parie que celui qui trouvera un moyen technologique de favoriser la relation avec autrui dans le monde concret aura au moins autant de succès que Mark Zuckerberg et son bouton Like.
Sous quelle forme apparaîtra cette innovation reste sujet à débat : il est probable que nous ne pourrions que nous tromper en lançant des hypothèses sur la base d’exemples existants. Smartphone, montre, bague… tout ce qui entre dans le domaine du ‘porté connecté’ semble pertinent. L’essentiel de toute façon n’est pas l’objet en lui-même mais les protocoles et autres liaisons à courte distance.
Peut-être que la catégorie des objets enchantés pourrait nous orienter vers une voie prometteuse, par exemple avec l’aide des assistants virtuels en hologrammes ?

La force de cette innovation résiderait dans le fait qu’on n’est plus dans le virtuel mais dans la vraie vie.
Un Like bien placé sert de déclencheur de conversation, ou simplement le fait de savoir qui a consulté votre profil sur internet vous rend légitime à adresser la parole à cette personne… mais dans la vraie vie, dans un salon professionnel, au centre commercial ou dans la rue, on ne peut pas utiliser d’intermédiaire : entre soi et autrui, soit on adresse la parole, soit une opportunité est manquée.
C’est ce vide que pourrait combler la technologie connectée dans la mesure où elle servirait à générer du lien social là où, juste avant, il n’y avait qu’une espérance d’interaction.

Célébrons la présence !
.
.
.

 

 

L’utilisateur : nouvel avantage concurrentiel 1 juin 2015


Depuis environ deux ans, les observateurs attentifs auront noté une tendance des entreprises à racheter des agences de Design, tout autant qu’une vague de fusions et de rachats des agences de Design entre elles.
url Ces agences ont su  mettre l’accent sur la philosophie sous-jacente à leur métier et sur l’activité de design ethnographique, c’est à dire la manière dont les actions de conception (le design, au sens propre) peuvent affecter la société au sens large et les utilisateurs de leurs produits (ou services) en particulier. .

Les agences de design ont su faire la preuve que le design, ce n’est pas du coloriage et des « jolies formes ».
Le design c’est la manière dont les choses fonctionnent.
Ces travaux ont permis d’apporter la preuve qu’un bon -qu’un excellent– travail de conception a un intérêt en termes de visibilité et de crédibilité financière. L’argument est de dire que si un produit ou un service est vraiment bien conçu, il se vendra quasiment tout seul… contrairement à un produit simplement banal qui aura effectivement besoin d’importants budgets de publicité et de mise en scène pour soutenir sa diffusion.
.
On retrouve là le credo de Peter Drucker, qui affirmait que « le but du marketing est de connaitre et de comprendre le client de façon telle que le produit ou service s’adapte et se vende par lui-même. L’objectif est de rendre la vente inutile. » (in Management: Tasks, Responsibilities, Practices Ed. Harper & row, 1973)
Nous en sommes à un point où une « chose » bien conçue a désormais autant d’importance -voire davantage- que la partie technique qui « fait » cette « chose » ou la manière dont on communique à son sujet dans les mass media. Les technologies ne sont plus à elles seules un facteur de qualité différenciant parce que tout le monde s’attend à des produits de bonne qualité et qui fonctionnent bien. Après tout, c’est la moindre des choses n’est-ce pas ? De ce point de vue, tous les acteurs sont sur un pied d’égalité technique et ce n’est pas parce que l’un utilise l’internet à tort et à travers qu’il est meilleur que les autres… puisque tout le monde fait de même.

.

Il y a moins de dix ans, lorsque vous observiez le secteur des technologies, le discours ambiant et la symbolique urlmechperfconcernaient d’abord les poulies et les engrenages : les capacités mémoire, les tuyaux, les baies de serveurs en téraoctets ou les portiques de peinture à soufflage ionisants dans les usines automobiles. Les héros étaient les développeurs, les gens des bureaux d’études et les ingénieurs en tant que principaux acteurs de la différentiation et de l’avantage concurrentiel. Ils étaient ceux qui mettaient en place la plomberie. L’importance du travail de conception et de design pour l’utilisateur était souvent perdue dans les cahiers des charges et les mesures de performance.
.

Mais aujourd’hui, fini de rire. Depuis trois ou quatre ans, la technologie est devenue omniprésente : un élément tellement répandu qu’on en parle seulement comme un prérequis et non plus comme un objectif à atteindre. Il est devenu impossible pour une entreprise d’acquérir une position dominante uniquement grâce à la technologie qu’elle utilise ou propose à ses clients. Une bonne -une excellente– phase de conception est devenue critique en termes de business.

.

C’est pourquoi en 2004 (déjà !) le fabricant de matériel électronique Flextronics se portait acquéreur de Frog Design. Depuis, le mouvement n’a pas cessé de gagner de l’ampleur :
Adobe rachète Behance;
Creston rachète How Splendid;
Capital One rachète le remarquable Adaptive Path (une banque qui rachète une agence de design… voilà qui en dit long sur l’intérêt de l’activité);
Shopify rachète Jet Cooper;
Accenture rachète Fjord;
Google rachète Mike & Maaike;
Facebook rachète Hot Studio;
et tout récemment, le géant du conseil Mc Kinsey s’est porté acquéreur de Lunar.
…tous ces éléments laissent deviner que le concept de design infuse progressivement les métiers historiques des entreprises, quelque soit leur secteur.

.

Les acteurs deviennent rares qui osent lancer des produits mal pensés pour les corriger ensuite lorsque les clients commencent à se plaindre (pensez aux premiers abonnements triple play en France et à votre foutue box internet qui refusait de fonctionner…).
Ce temps là est révolu. urldesign Peter Drucker a été entendu et la ligne de front s’est déplacé de la technique pure vers la simplicité d’usage pour le client réel.
J’en ai déjà parlé ailleurs et j’en reparlerai encore… tout cela tient en deux lettres : UX.
En deux mots : expérience utilisateur.

.

Même les couches techniques les plus basses (la plomberie, comme décrite par Francesca Musiani) font l’objet de réflexions sur la manière dont elles affectent le social en général et le comportement des utilisateurs en particulier . Ce n’est pas pour rien que le fabricant de processeurs Intel et le fabricant de logiciels Microsoft emploient à eux seuls davantage d’ethnologues que le vénérable CNRS en France.

.

Il n’y a plus de raison aujourd’hui pour qu’une création technique ou un service immatériel fonctionne mal (et quand ça arrive, la plupart du temps la technique n’y est pour rien, ce sont des problèmes d’organisation du collectif de travail).
Les connaissances en ingénierie, en méthodes de gestion de projet et en techniques de fabrication sont connues de tout le monde -dans le monde entier.

.C’est là qu’intervient la compréhension de l’utilisateur et, au sens large, le travail de recueil ethnographique. Tout le monde va se mettre à dire qu’il fait du design, de la recherche qualitative et de la ‘user research’. Le consensus actuel dans la presse spécialisée est déjà acquis à ce genre de pratiques… bref, c’est à la mode.

Mais l’ethnographie faite par des designers et des consultants en marketing est au mieux une série de pratiques qui se ressemblent parce qu’elles portent le même label : Design.
Ce n’est pas de l’ethnologie, au sens où il n’y a pas de réflexion critique, ni sur la méthode employée, ni sur le positionnement d’une enquête dans le champ plus vaste de la recherche internationale… un peu comme un consultant en organisation qui essaye de se faire passer pour un intellectuel crédible en utilisant le bouclier théorique de la théorie des besoins d’Abraham Maslow.
La plupart du temps, l’observation contextuelle des utilisateurs apporte juste assez de données pour aider à formuler des hypothèses, mais pas assez pour se plonger dans la description épaisse d’un thème et pour le comprendre (pensez au thick data de Clifford Geertz).
La dernière monographie que j’ai lu relatait un travail de terrain étalé sur six années, là où une recherche utilisateur commandée par une entreprise se déroule au mieux sur un délai de six semaines.
urlbureau
Dans le domaine de l’UX et de le recherche utilisateur, l’intégrité scientifique des projets n’est pas garantie. Ce n’est même pas une contrainte de départ officielle pour l’équipe sur le terrain.

.

La vague de rachats d’agences de design par des entreprises diverses et variées ne doit pas donc faire illusion : il s’agit d’un processus qui apporte d’abord un avantage concurrentiel (c’est-à-dire financier) parce que c’est utile. Ça marche. La manière dont ces gens travaillent produit des résultats tangibles.

Si vous êtes Accenture, vous savez faire de la plomberie et gérer d’énormes projets de plomberie, c’est même votre cœur de métier. Mais vous n’êtes pas seul sur ce marché. Il y a même pléthore de concurrents qui sont aussi bons que vous. Par contre tous ne savent pas concevoir un produit (ou un service) parfaitement adapté à l’utilisateur final. C’est là qu’intervient le rachat par Accenture de l’agence Fjord : intégrer en natif les compétences à concevoir des produits et des services qui tiennent compte du contexte réel d’usage dès les premières phase des projets.

Bien entendu, comme pour toute opération de fusion de collectifs de travail, il ne suffit pas d’acheter pour parvenir à un fonctionnement satisfaisant de la nouvelle entité… il y aura des efforts à faire sur la conduite du changement . (autre thème de recherche en ethnologie :) )

.

malinowski_ethno_user research_1916
Mais du point de vue de la recherche académique crédible, aller voir sur place comment vivent les vrais gens, dans le vrai monde, n’a rien d’une nouveauté. Malinowski faisait ça en 1916…

Certains acteurs économiques en font aujourd’hui une procédure ‘normale’ parce qu’ils se rendent compte que ça leur apporte (et rapporte) beaucoup. Mieux vaut tard que jamais en somme -et c’est tant mieux pour tout le monde.
Pourtant, c’est bien sur la crédibilité scientifique que l’on pourra trier le bon grain des équipes UX, de l’ivraie des amateurs qui travaillent vite et mal (notamment -horreur !- à grands coups de ‘sondages’). Le recours au design et à la recherche qualitative marche pour faire des bidules pertinents du point de vue des utilisateurs.
Les implications théoriques de cette pertinence ne sont abordées que dans les organisations de premier plan qui font l’effort de prendre du recul et de se soucier de la cohérence scientifique de l’ensemble… ce qui renforce leur pratique métier concernant l’UX.

.

Le mouvement indique donc une direction claire : utiliser le design, l’expérience utilisateur (UX), la conception centrée utilisateur et au sens large l’enquête ethnographique en immersion : ces pratiques et ces métiers qui vous donnent la possibilité de vous différencier dans un domaine qui ne peut pas être imité : l’adéquation entre ce que vous fabriquez et l’utilisateur qui va l’avoir entre les mains. Notez bien que cela concerne les utilisateurs à la fois au sens de l’usager d’un service public (hôpital, réfugiés syriens en demande d’asile, transport public, impôts), du client qui achète un objet ou un service, mais aussi à l’intérieur d’une organisation pour un employé qui utilise un produit ou une application dans le cadre de son activité professionnelle.
.

Vos clients ne sont pas ceux que vous croyez

Ainsi, les entreprises et leurs prestataires de services devraient s’accorder à dire que la personne la plus importante dans un projet n’est pas dans l’équipe.
Il est là, dehors, dans le vrai monde :  la personne la plus importante dans un projet c’est l’utilisateur final, au delà de la chaîne de fabrication. .
C’est une vérité nécessaire à dire et à comprendre :  nous travaillons pour l’utilisateur -pas pour le chef de projet, le Directeur, le député-maire ou le donneur d’ordres quel qu’il soit.

Parfois, en termes relationnels et commerciaux c’est impossible. Le chef de projet ou le responsable MOA a trop besoin de ses attributs de pouvoir et il ne peut tout simplement pas accepter que « son » équipe ou « ses » consultants travaillent sans prendre en compte ce que le chef croit être le comportement du client (et donc les fonctionnalités à mettre en œuvre dans le projet). Parfois aussi, l’entreprise ne peut pas accepter la remise en cause. Parce qu’une dose d’UX dans un projet suppose d’aller vérifier sur le terrain comment se comportent les utilisateurs d’un produit ou d’un service au lieu d’écouter le responsable hiérarchique qui parle au nom et à la place des utilisateurs. Ce rapport de domination là, entre l’organisation et ses clients, est important et fait partie des non-dits…
Les travailleurs de l’UX doivent pouvoir vérifier, constater et documenter les usages réels, sur le terrain, puis en déduire un cahier des charges pertinent pour que l’utilisateur finisse par dire « oh bon dieu, ça c’est un truc bien pensé ! »
Les équipes ne sont pas là pour répondre aux besoins du chef de projet mais à ceux des vrais utilisateurs, dans leur contexte réel d’usage. gds_ux_modernisation-service-public_agile

.

Là-dessus, je suis sincèrement persuadé qu’il est plus simple d’aligner les besoins d’une organisation toute entière sur les besoins des utilisateurs réels (la conduite du changement, encore !). Une bonne illustration serait l’administration britannique, qui s’est elle-même révolutionnée depuis 2012 avec la mise en place du Government Digital Service.

.

Mais parfois il est vrai, certaines entreprises ou services publics ont d’abord en tête leurs propres besoins endogènes et nombrilistes et ensuite -s’il reste du temps et de l’énergie- ils envisagent les questions d’efficacité du point de vue de ceux qui utilisent leurs produits. Par rapport à tout ce que je viens de dire, ce type d’organisation va de plus en plus se voir relégué à l’arrière-ban du paysage social et économique.
Vous devez en connaître, moi-même j’ai un exemple précis en tête au moment où j’écris ces lignes. Je vous invite à les suivre dans les quelques années qui viennent pour observer comment elles parviennent à se reconfigurer autour et au profit de leurs utilisateurs -ou non. Une chose est sûre : ces trainards seront de plus en plus distancés quels que soient leurs efforts techniques pour se remettre au goût du jour. A coups de grands projets technologiques, ils tenteront de regagner du terrain -en pure perte d’argent, d’énergie et de temps.
C’est d’ailleurs bien la preuve qu’ils n’ont toujours pas compris la leçon.
Parce que l’avantage concurrentiel n’est plus dans la technologie, il est dans la compréhension des besoins de l’utilisateur.

.
.

experience-client-utilisateur_UX_user-research . . .

 

L’expérience du GDS : dis-moi ce que tu sais de tes utilisateurs… 19 novembre 2014


Dans le cadre de nos projets IT, nous avons l’habitude de travailler sur des documents de conception (spécifications, cahiers d’exigences ou user stories) qui font le lien entre les « besoins de l’utilisateur » et les exigences fonctionnelles et techniques à mettre en œuvre pour répondre à ces besoins.experience-utilisateur-client-parcours-UX-ethno

C’est le b-a-ba et personne ne remet en cause l’idée qu’il faut penser à l’utilisateur avant de pouvoir lui proposer quoi que ce soit… mais pour les spécialistes de l’expérience utilisateur (en anglais UX, User eXperience), il ne suffit pas de penser aux utilisateurs, il faut les connaître, les connaître vraiment et pas seulement affirmer qu’on les connaît.
Cela passe par des enquêtes opérationnelles et des études qualitatives pour voir le monde avec les yeux des utilisateurs, dans l’objectif de cesser de leur pourrir la vie   améliorer leur expérience au contact d’un produit ou d’un service.
J’en ai parlé ailleurs : il s’agit d’améliorer notre fréquentation du monde.

.

Ce travail commence en amont d’un projet, par des recueils de type ethnologique où l’on observe les vrais gens dans le contexte réel de leur vraie vie quotidienne. Selon les cas, on parle d’entretiens individuels, de ‘workshops’ de quelques heures ou… d’enquêtes en immersion sur une ou plusieurs semaines. C’est une autre version du travail d’ethnologue, il ne s’agit plus de faire l’ethnologie de l’organisation, mais pour l’organisation.
C’est avec ce genre d’enquête de terrain que l’entreprise Intel a pu rester numéro un mondial du microprocesseur en comprenant qu’il fallait adapter ses produits aux appareils mobiles, parce qu’il s’agissait d’une tendance lourde, confirmée dans les pratiques de socialisation, sur le terrain.

.

Un autre exemple concerne les informations présentes sur un site internet. A ce titre, la page web décrivant ce qu’est la TVA sur le site de l’administration britannique est une expérience remarquable pour le domaine de l’UX et de l’observation en direct des usages.

vat-uk-waterfall-development_projectSur l’image ci-contre à gauche, la version initiale montre une collection de liens et de définitions… alors que l’enquête de terrain prouve que l’utilisateur vient d’abord chercher quels sont les taux officiellement en vigueur –et c’est tout. N’ayant pas le temps ni l’envie de fouiller, le taux d’abandon était dramatique et la fréquentation à 1200 vues/jour était médiocre. Autrement dit : cette page ne servait à rien.

La nouvelle page ci-dessous à droite offre donc à l’internaute d’abord ce qu’il vient chercher : les taux de TVA en vigueur (VAT en anglais).   Allez voir par vous-mêmes en cliquant ici : https://www.gov.uk/vat-rates

Entre ces deux versions de la même page web, les développeurs ont utilisé les résultats d’une enquête de terrain, en la complétant par l’analyse des requêtes des internautes sur le site gov.uk  La nouvelle page reçoit 10 fois plus de trafic qu’auparavant avec 12.000 vues par jour en moyenne.

.

Ces exemples sont cohérents avec un constat que l’on peut faire trop souvent : la plupart des projets qui vat-uk-agile-development_project_ethno_ux_conceptionaffirment se baser sur les besoins de l’utilisateur affichent une connaissance supposée des utilisateurs, mais pas une connaissance réelle. Or le rapprochement entre le travail de conception (design) et la réalité des usages passe par une solide démarche d’expérience utilisateur (UX).

 

C’est ici qu’intervient Leisa Reichelt (sur Twitter : @leisa), directrice du département de la Recherche Utilisateur pour l’administration du Royaume-Uni (oui c’est bien ça : le gouvernement du Royaume-Uni possède un direction UX / User eXperience). L’équipe dirigé par Leisa depuis 2012 s’inscrit dans un vaste projet de refonte de l’administration anglaise, en partant du principe que le point de contact majeur avec le citoyen est désormais l’internet.
Il s’agit de transformer profondément la notion même de service public en passant à une version numérique par défaut. C’est seulement lorsque le numérique ne peut plus répondre au besoin du citoyen que l’administration se matérialise dans des bureaux. Par exemple pour le Jobcentre, l’équivalent anglais de notre Pôle Emploi, l’économie estimée d’ici à la fin du projet est de 2 millions de livres Sterling par an.
Notez bien qu’il ne s’agit pas d’une logique exclusivement comptable. Il ne s’agit pas de supprimer complètement des services publics, mais de les basculer vers l’internet en gardant à l’esprit l’idée d’une présence physique, mais seulement dans un second temps.

La Maîtrise d’Ouvrage (MOA) générale est le Government Digital Service (https://gds.blog.gov.uk ) qui mène des missions d’enquête de terrain avant de modifier les pages web en mode agile. Tous les sprints sont menés sur la base d’une nouvelle enquête ethnologique bien ciblée (« Que veut l’utilisateur qui visite la page sur la TVA ? »).

 

D’ici à mars 2015, en transformant les 25 services publics qui génèrent le plus de recherches sur les moteurs comme Google ou Bing, l’objectif du GDS est de répondre à des besoins réels, sans doute autant que d’aller chercher le contribuable là où il se trouve : derrière l’écran.
Les actes administratifs disponibles en ligne ont ainsi généré 2,6 milliards de livres Sterling de paiements en 2013.

Pour mesurer le succès (ou pas) de ces actions, 4 indicateurs-clés (KPIs) sont suivis :

  • Actes administratifs en ligne : combien d’actes sont possibles en ligne ?
  • Coût par acte : combien coute la fourniture d’un acte en ligne (coût unitaire et moyen) ?
  • Satisfaction utilisateur : quelles notes sont attribuées en ligne par l’utilisateur ?
  • Taux d’abandon : combien de personne entament un acte administratif en ligne sans l’achever ?

Ces statistiques sont publiées en accès libre et en open data sur : https://www.gov.uk/performance

 

Pour gérer un projet, les méthodes agiles ont déjà prouvé leur fiabilité par rapport au classique modèle en cascade. Avec une transformation d’une telle ampleur en Grande-Bretagne, les domaines de la recherche ethnographique et de l’UX sont placés au premier plan à leur tour, en démontrant qu’ils apportent une valeur ajoutée aux projets en fournissant des points d’appui fiables au travail de conception.

 

Mais un autre point d’intérêt à souligner est que la nouvelle organisation qui se met en place démontre une grande humilité : plutôt que d’affirmer que tout sera terminé à une date N (démarche classique d’un projet ‘en cascade’), l’accent est mis sur l’amélioration continue.
Est-ce un indice que c’est l’organisation elle-même qui devient plus agile ? Pour une bureaucratie vieille de plus de 300 ans ce ne serait pas le moindre des défis…

.

Pour ceux d’entre vous qui se demandent en quoi ils sont directement concernés et ce que pourrait leur apporter une micro-enquête ethnologique comme base de départ d’un projet, je me suis livré à un petit comparatif sur des sites web bien connus qui sont susceptibles de fournir à l’utilisateur des informations fiables sur de multiples sujets. Nous pourrions commencer par rechercher naïvement quel est le taux de TVA applicable en France, ou quel est le prix d’un timbre poste… voyez le résultat ci-dessous :

la-poste_impots_web-ux-experience-utilisateur_timbre-tva

Dans l’optique d’un utilisateur lambda qui recherche soit le taux de TVA en vigueur, soit le prix d’un timbre, inutile de vous dire que le site web de l’organisation ne répond pas à son besoin.
Pourtant, je parierais gros que l’équipe qui a publié ces pages est persuadée de connaître ses utilisateurs.
Pourtant, ces deux pages sont techniquement parfaites et répondent à toutes les normes de codage informatique, d’ergonomie, d’UI ou de QoS et de QoE.

Ce qui fait défaut ici est le manque de connaissance réelle des besoins de l’utilisateur, un vide que l’on peut combler en deux mots : l’expérience utilisateur. C’est la base première pour  connaître vraiment les utilisateurs et pas seulement affirmer qu’on les connaît. C’est ce que réalise en ce moment l’administration britannique.
…Et si une administration bureaucratique âgée de 300 ans y parvient, n’est-ce pas, quelle organisation pourra prétendre ne pas pouvoir le faire ?

.
.
.

 

Devoirs de vacances, été 2014 7 juillet 2014


.

Dans le droit fil de l’article proposé à l’été 2013 (voir ces Devoirs de vacances) ainsi que des différentes ‘Lectures’ proposées  sur ce blog, voici pour l’été 2014 une bibliographie à destination d’étudiants de niveau bac+5 ‘Conseil en Organisation’ à l’université Paris VIII ( »UP8 », pour les intimes).

.

Introduction à

la théorie des organisations

& ethnologie contemporaine

 

 

[FR] Les ouvrages dont l’auteur est souligné sont présumés lus avant les examens. Des discussions vigoureuses sur leurs argumentaires sont attendues en classe.
[EN] The books (in french) for which author’s name is underlined are assumed read before exams. Vigorous discussions about their content are expected in class.

 

Ouvrages généraux : 

Amselle, Jean-Loup : Branchements. Anthropologie de l’universalité des cultures   Ed. Flammarion, 2005

Clifford Geertz

Ansart , P. : Les sociologies contemporaines  Ed. Seuil, 1990

Augé, M. : Pour une anthropologie des mondes contemporains, Ed. Aubier, 1994

Barley Nigel : L’anthropologie n’est pas un sport dangereux Ed. Payot, 1999 (1996)

Bernoux, P. : La sociologie des organisations   Ed. Seuil, 2014 (1985)

Boudon, R. : La place du désordre  Ed. PUF, 2004

Degenne, A. + Forsé, M. : Les réseaux sociaux  Ed. Armand Colin, 1994

Friedberg, E. : Le pouvoir et la règle  Ed. Seuil, 1993

Geertz, Clifford : Savoir local, savoir global  Ed. PUF, 1999 (1986)
                                        L’interprétation des cultures,  Ed. Gallimard, 1983 (1973)

Latour, B. + Callon, M. + Akrich, M. : Sociologie de la traduction : textes fondateurs   Ed. Presses de l’École des Mines, 2006

Latour, B. + Lemonnier, P. (dir.) : De la préhistoire aux missiles balistiques. L’intelligence sociale des techniques   Ed. La Découverte, 1994

Leach, Edmund : L’unité de l’homme  Ed. Gallimard, 1981

Leroi-Gourhan, André : Le fil du temps. Ethnologie et préhistoire Ed. Fayard, 1983
                                                         Le geste et la parole (2 volumes) Ed. Albin Michel, 1964

Henry Mintzberg.

Henry Mintzberg.

Mintzberg Henry : Structure et dynamique des organisations Ed. d’Organisation, 1982 (1979)

Nietzsche, Friedrich : Aurore. Pensée sur les préjugés moraux Ed. Robert Laffont, 1993 (1881)

Quivy, Raymond : Manuel de recherches en sciences sociales Ed. Dunod, 1995 (1988)

Zimmerman, B. : Ce que travailler veut dire   Ed. Economica, 2002

.

Synthèses et domaines d’études : 

 Bayart, J.-F. : Le gouvernement du monde  Ed. Fayard, 2004

Beaune, J.-C. : Anthropologie des milieux techniques  (2 volumes) Ed. Vallon, 2013

Bourdieu, Pierre : La distinction. Critique sociale du jugement  Ed. Minuit, 1992 (1979)

Pierre Bourdieu.

Pierre Bourdieu.

Coulon, A. : L’École de de Chicago   Ed. PUF, Que Sais-je ? n°2639   2002

Coriat, O. + Weinstein, O. : Les nouvelles théories de l’entreprise   Ed. Poche, 1995

Crawford, M. : Eloge du carburateur. Essai sur le sens et la valeur du travail.   Ed. La Découverte, 2010

Daumal, S. : Design d’expérience utilisateur. Principes et méthodes UX   Ed. Eyrolles, 2012

Granjon, F. : Reconnaissance et usages d’internet. Sociologie critique des pratiques de l’informatique connectée   Ed. Presses des Mines, 2012

Thiesse, A.-M. : La création des identités nationales.  Ed. Seuil, 2001

Warnier, J.-P. : La mondialisation de la culture Ed . La Découverte, 2004

Wotling, P. : Nietzsche et le problème de la civilisation Ed. PUF, 1995

 

——————————-in english   /   Ouvrages en anglais— :————————————————–

Allison, G. + Zelikow, P. : The essence of Decision, explaining the Cuban missile crisis  Ed. Longman, 1999 (1971)

Bell, G. + Kaye, J. : « Designing Technology for Domestic Spaces : A Kitchen Manifesto. » article in Gastronomica, 2, 2002.

Genevieve Bell.

Genevieve Bell.

Brooks, F. : The design of design. Essays from a computer scientist   Ed. Addison, 2002

Davis, D.: The consumer revolution in urban China   Ed. University of California Press, 2000

Dunn, E. + Gilbert, D. + Wilson, T. :  « If money doesn’t make you happy, you’re probably not spending it well » in Journal of Consumer Psychology, 21, 2011

Fincham, B. : « Balance is everything. Bicycle messengers, work and leisure » in Sociology, 42, 2008

Hopkins, A. G. : Globalization in world history. Ed. W.W. Norton, 2002

Ladner, Sam : Practical ethnography. A guide to doing ethnography in the private sector.   Ed. Left Coast, 2014

Malkki L.: Purity and exile. Violence, memory & national cosmology among Hutu refugees in Tanzania.   Ed. University of Chicago Press, 1995

Musiani, F.: « Caring about the plumbing.On the importance of architectures in social studies of (peer-to-peer) technology » in Journal of peer production, 1, 2012

Norman, Donald : The design of everyday things   Ed. Basic Books, 2002

Whyte, W. (dir.) : The exploding metropolis Ed. University of California Press, 1993
                                      The organization man   Ed. University of Pennsylvania Press, 2002 (1956)
.

Terrains d’études, monographies : 

Alter, N.: L’innovation ordinaire   Ed. PUF, 2013 (2001)

Bauer, M. : Les patrons de PME entre le pouvoir, l’entreprise et la famille  Ed. InterEditions, 1993

Chouinard , Yvon : Patron malgré lui : les confessions d’un surfeur entrepreneur   Ed. Penguin, 2006

Yvon Chouinard.

Yvon Chouinard.

Drucker, Peter. : L’avenir du management Ed. Village Mondial, 2005

Guigo, D : Ethnologie des hommes des usines et des bureaux Ed. L’Harmattan, 1994

Mintzberg H. : Des managers, des vrais ! Pas des MBA Ed. d’Organisation, 2005

Pfeiffer, J. + Sutton, R . : Faits et foutaises dans le management Ed. Vuibert, 2007

Zheng, L. + Desjeux, D. : Entreprises et vie quotidienne en Chine   Ed. L’Harmattan, 2002

 

Beaud, S. + Lindgaard, J. : La France invisible  Ed. La Découverte, 2006

Callon, M. : « La domestication des coquilles Saint-Jacques et des marins pêcheurs dans la baie de Saint-Brieuc » in L’année sociologique, 1986

Le Guirriec, Patrick : Le pouvoir en campagne. Formes locales du politique en Bretagne Ed. Apogée, 1994

Lieber, M. + Angeloff, T. : Chinoises au XXIe siècle  Ed. La Découverte, 2012

Petonnet, C. : Espaces habités. Ethnologie des banlieues Ed. Galilée, 1982

Roche, D. : Histoire des choses banales. Naissance de la consommation   Ed. Fayard, 2000

Colette Pétonnet.

Colette Pétonnet.

 

Audouin-Rouzeau, S. : Combattre. Une anthropologie de la guerre moderne (XIXe – XXIe siècle)   Ed. Seuil, 2008

Hassner, P. + Marchal, R. : Guerres et sociétés : États et violence après la Guerre Froide   Ed. Karthala, 2003

Simmel, G. : Le conflit  Ed. Circé, 1995 (1908)

Toffler, Alvin : Guerre et contre-guerre, Ed. Hachette, 1996 (1993)

 

 

Ressources sur internet : 

https://yannickprimel.wordpress.com    (ceci s’appelle une auto-référence :) )

http://www.sciencespo.fr/ceri : Centre d’Études et de Recherches Internationales (Sciences Po).

http://www.asmp.fr/travaux/groupe_travail.htm : Cahiers et publications de l’Académie des Sciences Morales et Politiques

http://metropoles.revues.org : Revue Métropoles : ville et sciences sociales

http://www.millenaire3.com/Revue-M3.1371.0.html : Revue M3 : société urbaine et action publique

www.observateurocde.org (le même en anglais : http://www.oecdobserver.org ) : Magazine de l’OCDE – Organisation de Coopération et de Développement Économiques

http://nrt.revues.org : La Nouvelle Revue du Travail

http://terrain.revues.org : Revue française Terrain

http://www.ethnographiques.org   : Maison des sciences de l’Homme et de l’Environnement de Besançon + Institut d’ethnologie de Neuchâtel.

http://www.insee.fr/fr/publications-et-services : Institut National de la Statistique et des Études Économiques… pour poser les théories sur des faits, et non l’inverse.

 

——————————-in english   /   Sites en anglais— :—————————————————

www.aaanet.org : American Anthropological Association, depuis 1902.

http://ethnographymatters.net : La recherche ethnographique appliquée aux terrains contemporains et entreprises.
Méthodes, big data, design ethnographique, UX.

http://harvardbusiness.org : Harvard Business Review

http://www.ifeas.uni-mainz.de/eng/index.php : Université de Mainz (Allemagne), département d’anthropologie et études africaines.

http://socialcomputing.uci.edu : Technology Center for Social Computing  (centre de recherches sociales de l’entreprise Intel)

www.sociosite.net/topics/websoc.php : Cyberspace and web sociology, par l’université d’Amsterdam

www.unesco.org/shs/ijms : International Journal on Multicultural Societies, par l’UNESCO

.

 

Friedrich Nietzsche : “You have your way. I have my way. As for the right way, the correct way, and the only way, it does not exist.”

Friedrich Nietzsche : “You have your way. I have my way. As for the right way, the correct way, and the only way, it does not exist.”

.

.

.

 

UI, QoS et QoE 16 juin 2014


mobile-phone-oldComment l’expérience des utilisateurs a-t’elle évolué, depuis toutes ces années d’adoption débridée des appareils mobiles ? Nous sommes devenus plus aguerris, plus expérimentés et plus exigeants dans l’usage de nos téléphones, smartphones, tablettes et autres bidules portables. Nous en savons aussi davantage en termes de réseaux, de design, de mise en œuvre et d’amélioration.

Et en ethnologue que je suis, je dirais qu’il faut commencer par le commencement, c’est à dire par l’interface utilisateur – l’UI en anglais dans le texte.

.

L’Interface Utilisateur (User Interface – UI) :

Notre interaction avec un appareil -n’importe lequel- commence par des notions d’ergonomie et d’interface. Cela s’applique à une chaudière, une machine à laver, un téléphone (ou aux boutons de vote des députés, à l’Assemblée Nationale française).
L’UI est une chose que l’on appréhende immédiatement et sans même y penser explicitement : l’emplacement, le format et la forme des touches d’un clavier, la facilité (ou pas) avec laquelle on peut dimensionner une page web sur un écran de 3 pouces de diagonale ou encore la contrariété permanente due à un dictionnaire qui vous impose le mot sodomiser, alors que vous voulez écrire sonoriser dans un message à votre patron…

La plupart des utilisateurs préfèrent retrouver sur chacun de leurs écrans des repères fixes pour s’orienter dans la navigation. Le même logo Facebook ou Tumblr, le bouton Envoyer placé au même endroit, l’icône d’une molette pour accéder aux réglages d’une application, etc.
Toutes ces choses sont plutôt largement connues et c’est le boulot des équipes de design de les prendre en compte, lorsqu’elles travaillent sur un projet d’interface.
user-interface_iphone-appChacun de ces projets pour livrer « du neuf » est une opportunité pour l’entreprise d’améliorer le contact avec ses utilisateurs, au sens parfois le plus physique du terme.
Identifier ces points de rencontre avec l’utilisateur est donc une activité préalable extrêmement importante. Ils permettent aussi à l’entreprise de se construire une identité forte, avec des éléments qui créent de la familiarité dans l’usage.

En exemple, on pourrait citer les fonctionnalités permises (ou pas) par une appli Android ou Apple, les animations visuelles, le vocabulaire utilisé, les polices de caractères, etc.

 

Et avec maintenant l’expérience de plus de dix ans d’intense activité sur les appareils mobiles, les logiciels embarqués et l’infrastructure réseau qui fait fonctionner l’ensemble, les équipes de design qui ont travaillé sur de multiples projets pour de multiples clients ont eu bien le temps de parvenir à identifier les briques fondamentales qui doivent faire partie des spécifications d’un élément ou d’un ensemble d’éléments.
Concernant l’UI, il s’agira alors de réutiliser ces briques fondamentales en les habillant aux couleurs spécifiques de l’appli MonMail pour iOS par exemple, ou de l’appli MaBanque pour Android.

.

 

Routines d’utilisation et mode de vie de l’utilisateur :

En observant vos compagnons de trajet dans le bus, devant la machine à café ou (horreur !) au volant de leur voiture, vous comprendrez vite que les applications mobiles peuvent se classer par tranche horaire d’utilisation.
La qualité perçue par l’utilisateur sera fonction de l’horaire et de l’importance de ce qu’il a à faire avec son appli à ce moment là. Une appli mobile pour lire les infos du jour sera jugée importante le matin. Une autre sera importante entre midi et 14 heures pour trouver un restaurant à la mode. Une autre pour chronométrer sa vitesse moyenne sera importante le soir ou le week end quand l’utilisateur fait son footing.

Ces routines d’utilisation en disent long sur la bonne UI à adopter. Par exemple l’appli qui sert à se chronométrer en footing devrait avoir des caractères gros et bien lisibles, d’autant plus que l’appareil lui-même sera porté dans un étui Velcro sur le bras.

Tout cela, une fois encore, dépendra de la connaissance fine que vous avez des utilisateurs. Quels sont donc les vrais usages, par les vrais gens, dans le vrai monde ?
Observez, enregistrez, notez, apprenez… mais quelles que soient les conclusions auxquelles vous parviendrez, n’oubliez pas que l’utilisateur utilisera ce qu’il a à utiliser du moment que c’est utilisable; c’est-à-dire du moment qu’il reste de l’énergie dans la batterie de l’appareil.

.

Batterie :

Les applications mobiles gratuites qui utilisent des services tiers pour afficher des pubs vont vider votre batterie plus vite que leurs équivalents payants qui n’affichent pas de pub (c’est d’ailleurs pour ça que vous payez).
Cette conclusion est celle d’une étude conjointe réalisée en 2012 par Microsoft et l’université Purdue intitulée :  “Fine Grained Energy Accounting on Smartphones”. Les chercheurs ont étudié 5 applis les plus téléchargées aux États-Unis sur Android : les cours de Bourse, Angry Birds, le New York Times, Map Quest et Chess Free. low-battery-good-luck

Les pubs affichées par une appli gratuite représentent entre 65 et 75% du total d’énergie consommé par l’appli toute entière. Pour le cas du jeu Angry Birds, le cœur de l’appli consommait seulement 18% d’énergie pour faire fonctionner le jeu, tout le reste étant consacré à l’affichage des pubs.
En moyenne, plus de 50% de l’énergie consommée l’est entre l’application et les tiers qui affichent (et font défiler) les publicités, qui vous localisent et sélectionnent ce qui convient à votre langue…

Bref.

Pour le dire autrement, la majeure partie de l’énergie consommée par les applications mobiles gratuites l’est pour des activités non essentielles. Ce n’est donc pas nouveau mais ça confirme avec des chiffres incontestables que… la pub est une plaie de la vie contemporaine.

.

Performance de l’application :

“Planté », “lent”, “long”, “merdique”… nous avons un tas de mots fleuris pour décrire le comportement d’une application.

C’est particulièrement vrai quand on a déjà utilisé cette appli sur un ordinateur fixe et qu’on passe à la version mobile. Nos attentes sont tellement élevées qu’il n’est pas étonnant qu’on soit déçus -en d’autres termes, il n’est pas étonnant que nous ressentions une faible QoE : Quality of Experience. Essayez donc de taper un e-mail sur le clavier d’un vrai ordinateur, puis le même texte sur le clavier d’un smartphone…
D’un autre côté, l’intérêt d’une appli mobile est justement qu’on peut y accéder lorsqu’un ordinateur est hors de notre portée. Nous sommes donc prêts à accepter une expérience de moindre qualité, du moment que ça nous permet quand même grosso-modo de parvenir à l’objectif.
Pour un usage réellement nomade, l’utilisateur est plus tolérant quant à la performance de ses applications habituelles (laissons de côté les applis critiques comme les SOS embarqués, qui, elles, ne tolèrent aucune « moindre qualité »).
Mais la plupart du temps, lorsqu’on décrit la performance d’une appli on mélange tout et n’importe quoi. On mélange en particulier la performance du réseau avec celle de l’application. Quand j’affirme par exemple que l’appli LinkedIn est super lente à s’afficher cet après-midi, le problème se situe en réalité au niveau des couches techniques du réseau de télécommunications et pas du tout au niveau de l’application LinkedIn présente sur mon téléphone.

.

La jonction entre QoS et QoE : 

La QoS : Quality of Service est la capacité du réseau à fournir un service à un niveau garanti. Dans un autre article j’avais parlé de robustesse des systèmes. Ce n’est pas une erreur, il y a effectivement un rapport…
La Qualité de Service embrasse toutes les fonctions, enchaînements de connexions et procédures qui permettent de relier l’équipement de l’utilisateur (les appareils communicants) et le cœur de réseau. C’est une notion strictement limitée au domaine technique. Elle se mesure, s’exprime et se comprend en termes de d’architecture réseau et d’éléments télécoms   -éléments qui sont la plupart du temps inconnus et invisibles de l’utilisateur.
La QoE : Quality of Experience  est l’autre face de la même pièce : comment fonctionne le service, du côté utilisateur. Là où les indicateurs QoS montreront une baisse du débit descendant de 1,5Mo/seconde à 45Ko/seconde sur le routeur 654, ces données en termes de QoE seront exprimées en temps d’affichage d’une page web qui passe de 4 à  52 secondes sur un appareil mobile.

Pour bien insister sur la différence, je précise que QoE n’est donc pas la même chose que l’UX (User eXperience), même s’il y a le mot ‘expérience’ dans les deux expressions.
Avec la QoS, les trois notions sont sûrement complémentaires, mais nettement distinctes. Ainsi, un ethnologue qui serait en train d’observer l’usage des téléphones mobiles in vivo constaterait, en termes d’UX, un énervement de l’utilisateur qui ne peut pas accéder aux informations qu’il souhaite : « Ah, le réseau Orange ! Ça m’éneeeeerve ! ».

Or, même si une amélioration de la QoS dans bien des cas peut améliorer la QoE, satisfaire à tous les critères de transmission télécom ne garantit pas la satisfaction des utilisateurs. Un excellent débit réseau d’un côté (QoS excellente) ne sera d’aucune utilité pour le pauvre gars qui se trouve à peu de distance mais au-delà de la portée des antennes-relais et donc hors réseau (QoE nulle).

ui-qos-qoe_mobile-reseau-network_service-quality-experienceLes indicateurs de surveillance de l’état du réseau (QoS) des opérateur internet ou de téléphonie mobile sont muets lorsqu’il s’agit de parler de la Qualité de l’Expérience des utilisateurs.
Pire : ils sont trompeurs, car on pourrait penser qu’un réseau en parfait état de marche apporte une qualité d’expérience optimale aux clients, alors que ça peut ne pas être le cas. Une transmission parfaite des paquets de data ne fait pas les utilisateurs heureux… mais y contribue seulement.

Ce qui compte vraiment, c’est la QoE et l’objectif de la QoS devrait être d’améliorer la QoE.
Atteindre un haut niveau de QoE dépend de la compréhension qu’on a des facteurs qui contribuent à la qualité de service, et comment on utilise cette compréhension pour définir des spécifications techniques pour gérer le réseau.
Cette manière de penser réduit les coûts de développement car vous allez vous concentrer d’abord sur ce qui compte vraiment du point de vue de l’utilisateur. Vous limitez ainsi le risque de rejet et de mécontentement.

…à commencer par faire passer d’abord les données réellement utiles au fonctionnement d’une application mobile, puis les données concernant les affichages de pub qui vont siphonner la batterie de l’utilisateur.

 

L’observation ethnographique confirmera sur le terrain si l’expérience utilisateur s’en trouve améliorée, ce qui est encore une autre histoire….
.

.

 

 

The ethnographic design 6 juin 2014


The association of « ethno » and design has a guiding principle :

improve the attendance of the world.

.

(click to read in english the full text in .pdf) At first sight : ethnographic design.
This document is also available in french here.

.

Ethnography applied to design allows to understand in which context someone is going to use the product, so that it blends in the entire life experience of the user… be it a silex arrow point, a smartphone or a public service for the unemployed.

.

.

A physical object, a system or a procedure does not come out of the blue and is not used in the vacuum.
A whole complex of group values, relationships and symbolic ties operate to steer the user in a very particular way, within the bounds of the social fabric.

Understanding this  »very particular way » allows to improve the design so that the object, system or procedure truly fits in the meaning the user gives to his life.

.

.

.

.

.

 

 

Le design ethnographique 5 mai 2014


L’association de l’ethno et du design a un objectif premier :

 améliorer la fréquentation du monde.

. (cliquez pour afficher le texte complet en .pdf) A première vue : le design ethnographique. .
.
.
L’ethnographie appliquée au travail de conception permet de comprendre dans quel contexte une personne va utiliser le produit, pour que le produit s’inscrive dans l’expérience de vie toute entière …que ce produit soit une pointe de flèche en silex, un smartphone ou un service de recherche d’emploi. . Un objet, un système ou une procédure ne surgit pas du néant et n’est pas utilisé dans le vide sidéral. Tout un ensemble de liens, de relations, de liaisons symboliques opèrent pour orienter l’utilisateur vers un usage bien particulier dans le tissu social. . Comprendre cet  »usage bien particulier » permet d’améliorer le design pour que l’objet, le système ou la procédure s’intègre au sens que l’utilisateur donne à sa vie.
.
.
L’utilisation du mot ‘design’ peut cependant poser problème, car en français c’est synonyme de ‘décor’ et de choses jolies… alors que le vrai sens du terme porte sur le fonctionnement.
Le design, c’est la manière dont les choses fonctionnent, pas la manière dont elles sont décorées après le travail d’études, de conception et de développement.
.
Le design ethnographique consiste précisément à ramener l’utilisateur réel au centre du processus de conception. De ce point de vue vous avez peut-être déjà entendu parler de Conception Centrée Utilisateur (CCU), de Conception Orientée Client (COC), de parcours client, de connaissance client, d’expérience utilisateur ou UX (User eXperience).
Toutes ces variantes parlent de la même chose : concevoir des produits, services ou interfaces qui soient adaptés aux usages réels de la vraie vie -par opposition aux usages supposés tels qu’on peut en entendre parler lorsque des experts parlent au nom des utilisateurs.
.
.
—  . . .

 

Votre achat immobilier ne sera pas un investissement 15 avril 2014


Comme j’en parlais dans l’article sur les revenus passifs, l’achat d’une résidence principale est un réflexe qui reproduit le modèle social dominant sans y réfléchir à deux fois. Pour alimenter le débat, voici une petite illustration qui vaut bien des discours (ci-dessous).
Pour plus de détails, lisez également Jacques Friggit: Le prix des logements sur le long terme qui reprend la moyenne des prix de l’immobilier en France depuis le XIIIe siècle (si, si). 

Vous trouverez là-dedans des arguments solides qui confirment qu’un achat immobilier résidentiel aujourd’hui (2014) devrait se faire en ayant conscience d’une baisse des prix de vente à moyen terme c’est-à-dire moins de 20 ans. La seule chose qui retient la courbe des prix en haut du graphique, ce sont les subventions et/ou défiscalisations accordées par les politiques publiques, de manière à favoriser l’endettement l’accession à la propriété d’une large part de la population.
Mais aucune politique publique ne peut soutenir indéfiniment l’éloignement entre le prix d’une chose et la capacité qu’on a à l’acheter. Comme tout situation de bulle spéculative, la bulle de l’immobilier résidentiel français a une unique vocation : éclater. Les mesures gouvernementales pourront au mieux retarder et amortir la chute, mais pas l’empêcher.
Pour le dire autrement : arrêtez de penser que l’immobilier c’est du solide !

.

Je sais, il y a des avis contraires, notamment les notaires, les banquiers et les agents immobilier. Mais par définition, un professionnel de l’immobilier vous dira toujours que c’est le bon moment pour acheter : soit parce que les taux d’emprunt sont bas, soit parce que les prix de vente sont en train de grimper… et surtout parce que ça le rémunère, lui.
Ce que nous apprend la courbe de Friggit, c’est que l’immobilier n’est pas plus performant ni protecteur qu’un autre placement financier. Le ciment et les parpaings ne protègent pas mieux votre argent que les actions d’entreprises cotées à New York, Shanghai ou Paris.
Ce qui protège votre patrimoine par contre, c’est de réfléchir avant d’agir et de ne pas placer tous vos oeufs dans la même stupide maison le même panier. 
C’est cette large répartition du risque qui fait que vous pourrez faire face aux vents contraires.

.

The gap between French real estate prices and sales as of april 2014. Another way to learn that buying real estate in France, today, is not safe.

.

.

.

 

 

L’âge du drone 1 avril 2014


Il se passera encore du temps avant qu’on ait recours aux livraisons automatisées par drones.
La société Amazon possède son propre programme sur le sujet des livraisons par drones. Vous en avez sans doute déjà entendu parler, il s’appelle Prime Air  (il y a aussi celui de Domino’s Pizza).
Remote pilot of drones is an emerging job for civilian applications. By 2020, 30.000 unmanned vehicles will in the US sky at any moment. But how about non-flying unmanned vehicles ?Le mot drone d’ailleurs ne convient pas vraiment. Un drone, à l’origine c’est une cible (sans pilote) sur laquelle les (vrais) pilotes s’entraînent au tir. On préférera donc parler de véhicule sans pilote, que l que soit le milieu où il évolue.
L’objet peut donc être totalement autonome dans son déplacement et sa mission, ou bien piloté à distance par un opérateur… ou un mix des deux, selon la subtilité des actions requises et qui de l’humain ou du processeur est capable d’y répondre au mieux.

.

.
Dans le secteur civil aujourd’hui, nous ne sommes plus dans la phase de R&D. Les grands enjeux, les standards techniques et informatiques sont largement connus, à commencer par la télédétection LIDAR et une bonne dose d’internet des objets.  La phase suivante peut donc démarrer et c’est là que se place par exemple Amazon : la phase des études techniques.
Certains éléments laissent cependant penser que si Amazon est bel et bien en train d’investir du temps et de l’argent sur le sujet, ce n’est pas un système logistique qui corresponde à leur modèle de distribution. Toute la stratégie d’Amazon en effet est d’assurer les livraisons depuis d’énormes entrepôts qui couvrent un continent. Mes livres commandés sur internet pour une livraison en France peuvent très bien être expédiés par l’entrepôt situé en France, Allemagne ou au Royaume-Uni.
A cette échelle de distances, je vois très mal comment gérer une distribution porte-à-porte par des machines qui ont une autonomie de 30 minutes aller/retour…

De plus, pour le modèle d’Amazon Prime la difficulté réside dans le fait qu’ils seront déployés dans des environnements complexes et très denses.
Il est techniquement assez simple de planifier le vol d’un véhicule sans pilote du point A au point B avec, accroché dessous, une pizza ou quelques kilos de livres. C’est simple dans un désert ou au-dessus d’un troupeau de vaches. amazon_drone
Là où les choses se gâtent, c’est que sur le trajet d’un colis Amazon il peut y avoir des câbles électriques, une grue de travaux publics qui n’était pas là hier, un essaim de moineaux, un hélicoptère du SAMU, d’autres véhicules également en pleine livraison… ou du vent à 120 km/h en rafales.  Une fois en approche de la destination, il faut encore se poser, livrer la marchandise (et de quelle manière ?), puis repartir. Tout cela sans tomber en panne, sans décapiter le client et sans être intercepté en vol par des indélicats qui se feront des cadeaux à peu de frais -version 2.0 du braquage de camion de livraison.
Et à supposer que le client n’habite pas un immeuble sans balcon…

.

Mais l’obstacle vraiment majeur à un  »ciel ouvert » concerne les autorisations de vol délivrées par l’autorité officielle qui gère le trafic aérien.  Et sans tarder, cet obstacle sera levé aux États-Unis : en effet dès octobre 2015, le Congrès américain publiera ses premiers principes de régulation d’un espace aérien ouvert, où l’autorisation de vol est la règle et non plus l’exception.

30.000 véhicules aériens sans pilote (UAV) sont ainsi prévus d’être en vol à tout instant dans le ciel américain d’ici à l’année 2020.
La question n’est pas tranchée de savoir si ce sera d’abord pour livrer des pizzas, pour constater vos excès de vitesse en temps réel ou pour vous filmer en nu intégral sur votre balcon. Quand on connaît les espiègleries dont sont capables les agences comme la NSA ou le FBI, je pense que les pizzas ne seront pas prioritaires.

.

L’arrivée des véhicules sans pilote est donc effectivement pour demain… d’autant plus que cette ouverture de l’espace aérien américain s’inscrit dans une tendance plus vaste  : l’élargissement des usages dévolus aux appareils autonomes et/ou pilotés à distance.Development of unmanned ground vehicles is supported by strong military projects. Easy spin-offs can be seen on public roads in the US, like Toyota cars running (almost) alone on Google systems.
Pour preuve, aux USA depuis 2010, 10% des forces aériennes militaires de première ligne (celles qui jettent les bombes) sont sans pilote.
D’ici à 2015 ce sera au tour des véhicules terrestres de première ligne, dont les technologies seront issues en grande partie des résultats 2007 du glorieux DARPA Urban challenge.
Ne soyez pas surpris de l’ancienneté du sujet, tout cela figurait au chapitre 220 du budget 2001 (2001 !) de la Défense américaine (Defense Authorization Act, H.R. 4205/P.L. 106-398 ).
A quand remonte le dernier concours public de recherche appliquée organisé par l’armée française ?

.

 

Ce n’est pas un hasard non plus si quelques voitures marquées Google circulent actuellement en Californie ou au Névada avec un humain assis seulement sur le siège passager. Ces voitures sans pilote fonctionnent. Je veux dire par-là qu’elles ne roulent pas sur circuit : elles doublent sur autoroute et s’arrêtent aux passages piétons en ville. Et elles font preuve d’un taux d’accident largement inférieur aux véhicules circulant sur des routes comparables avec un humain derrière le volant. L’objectif stratégique de Google ici n’est pas de fabriquer des voitures, mais de fabriquer le logiciel qui sera embarqué dans les futures véhicules terrestres sans pilote.

N’essayez pas de trouver un équivalent en Europe, la convention de Vienne de 1968 sur la circulation routière exige la présence active d’un conducteur à chaque instant.  Or ni les États-Unis ni le Japon n’ont signé cette Convention, ce qui en fait les deux pays de pointe pour développer la technologie entièrement sans pilote… et c’est donc presque naturellement qu’un système d’exploitation Google fait rouler des Toyota.
Unmanned Ground Vehicles are not far from the wide adoption curb, with the little help of the Internet Of Things.Plusieurs projets européens sont néanmoins en cours dans le cadre du groupe de travail iMobility, avec la particularité de fournir une assistance au pilote humain mais jamais à le remplacer complètement conformément à la Convention de Vienne. Toutes les fonctions d’assistance à la conduite déjà disponibles aujourd’hui en sont un avant-goût, comme le Park Assist ou la fonction d’appel d’urgence automatique  »eCall » obligatoire sur tout véhicule neuf dès 2015.
C’est aussi le projet SARTRE, qui vise à permettre la circulation de convois de véhicules autonomes, ce qui a été réussi pour la première sur une autoroute (fermée au public) à Barcelone. On peut alors imaginer un système automatique qui se met en fonction sur certains tronçons de route uniquement.  C’est là-dessus que travaille le constructeur Volvo.
Dans un esprit similaire, le projet CityMobil a permis de tester la circulation d’un véhicule automatique (et horriblement laid) sur une rue (fermée au public) à La Rochelle.

.

C’est dans ces parenthèses que réside la différence entre les projets européens et américains : les projets de véhicule automatisé en Europe ne peuvent pas légalement dépasser le stade de l’expérience ponctuelle en milieu fermé. Nous avons besoin de passer au stade industriel, ce qui nécessite de se mêler aux conditions de circulation réelles.
Poussez vos projets jusqu’à être capables de faire rouler une voiture sans pilote sur une autoroute Allemande non limitée en vitesse, ou à traverser le carrefour de la place de l’Étoile à Paris et vous pourrez gérer à peu près n’importe quelle problématique d’interface Homme-Machine sans rougir.

Il ne s’agira plus alors de livrer des commandes internet par drone, mais de déposer les courses de madame Martin dans sa voiture qui arrive toute seule au supermarché drive.
.
.
.If the US / Japanese projects tend to deliver a fully self-driving car, European projects will deliver automatic functions to assist the driver. Instead of drone deliveries by Amazon, we should prepare for self-driving cars at the local grocery drive-in.

 .

.

.

 

L’exploration de Tell Dibgou 28 février 2014


Dibgou est l’un des sites les plus vastes et les mieux conservés du Nord-est du Delta du Nil. Il se situe sur les marges sud du Lac Menzaleh, à une dizaine de kilomètres au Nord-est du tell Sân el-Hagar, qui abrite les ruines de l’antique Tanis, capitale de l’Egypte au cours des XXIe et XXIIe dynasties. La ville continue de se développer au cours des siècles suivants jusqu’à atteindre son apogée entre le IXe et le XIe siècle de notre ère.

Elle s’insérait alors dans un réseau urbain important dont la production de textiles luxueux était l’activité fondamentale. Ils provenaient des ateliers califaux réputés dans tout le Moyen-Orient pour avoir la finesse de la membrane intérieure de l’œuf.

.

La documentation relative à Dibgou est très mince. Seules les sources arabes nous informent sur l’histoire de Dibgou (Dabiq), dans la phase terminale de son développement. Dabiq est notamment citée par des historiens tels que Muqaddasi à la fin du Xe siècle ou Ibn Duqmaq et Maqrizi au XVe siècle.
D’après ces sources manuscrites arabes, les Chrétiens restèrent probablement majoritaires à Dibgou jusqu’à la fin du XIe siècle. Le site possède donc encore probablement les ruines de ces édifices religieux, mosquées et églises, qui devaient être au cœur de la vie de la cité médiévale.

Aucune fouille archéologique n’y a jamais été pratiquée. Cette situation remarquable en Egypte pour un site de grande dimension s’explique par l’isolement du lieu. Elle représente pour notre équipe une opportunité exceptionnelle de pouvoir accéder à un univers totalement inconnu jusqu’à présent.

.

La mission recherche des collaborateurs  :

archéologues, topographes, architectes, documentalistes, restaurateurs, céramologues, dessinateurs, anthropologues, photographes.
Les conditions sont les suivantes : prévoir une assurance individuelle avec rapatriement ; voyage Paris – Le Caire A / R à la charge du participant ; travail bénévole mais frais de table et de séjour liés au travail pris en charge ; endurance et grande disponibilité nécessaires.
La mission recherche également des collaborateurs bénévoles pour le travail documentaire post-fouille en France.

Si vous êtes intéressé(e)s, adressez votre candidature à la Mission en cliquant ici .

.

 

Les connexions souveraines 2 février 2014


La rapide urbanisation planétaire tend à faire converger les infrastructures qui portent les groupes humains   -ce qui ne veut pas dire que notre monde devient uniforme, loin de là.

L’importance des phénomènes internationaux qui caractérise la globalisation depuis 70 ans amène l’anthropologie à rendre intelligible les liens qui se tissent entre les différentes parties du monde.

J’ai déjà parlé ailleurs de la population humaine comme un ensemble déjà mondialisé depuis le paléolithique ancien, à raison de 50 kilomètres par génération. L’histoire de l’être humain est l’histoire de la mondialisation, du mélange et des métissages.
Et c’est très bien ainsi.

.
La fin du XXe siècle a cependant largement intensifié le phénomène et c’est la grande nouveauté. Elle a permis l’allongement et la connexion de flux qui étaient jusque-là à dominante régionale ou continentale, en particulier pour les flux financiers et informationnels.
Cela a permis aux économistes de remettre sur le devant de la scène l’idée d’un monde en mouvement, par opposition à un monde figé fait de traditions et de positions inamovibles.

Le XXIe siècle aura, lui, une nuance particulière dans l’histoire de la civilisation humaine, dans la mesure où il permet l’émergence de modes de vie individuels qui ont un horizon de possibilités planétaires et par l’apparition d’institutions comme l’ONU, l’Europe, l’ASEAN, de fondations privées comme celle de Bill et Melinda Gates ou des ONG qui ne se contentent plus de vivre dans les cadres et les frontières qu’on leur impose.

.
Ce n’est plus seulement le monde qui est en mouvement autour d’individus immobiles, c’est nous qui faisons le mouvement et qui donnons leur impulsion aux flux. 
La civilisation westphalienne qui garde l’État comme acteur central n’est plus la référence unique. Et celui que ça dérange le plus ce n’est pas moi, c’est l’État. 
  

.

La globalisation ne va cependant pas dans le sens d’une suppression des territoires, contrairement à ce qu’affirme Virilio.
Au contraire : la globalisation donne d’autant plus d’importance au territoire qu’elle en part et qu’elle y arrive. A ce titre, l’État reste un acteur incontournable parce qu’il a la maîtrise de son territoire -par l’emploi de la force militaire au besoin. Mais dans la globalisation du XXIe siècle, le mouvement d’ouverture descend au niveau individuel. Les États ne sont plus des références obligées. Ils s’efforcent de l’être, sûrement. L’entreprise Alstom est à vendre et l’État français tente de montrer qu’il existe en s’imiscant dans la transaction. Mais comme la Reine rouge dans Alice au pays des merveilles, si l’État contemporain court toujours plus vite c’est finalement pour rester à la même place.
Des décisions prises par la Banque Centrale Européenne ont une influence sur le pouvoir d’achat de villageois au Maroc et sur la stabilité du maghreb. La consommation en Europe et en Amérique touche la production des usines en Chine, ce qui touche en retour les employés de l’industrie du pétrole au Brésil en Russie et au Nigéria.  Les prix du pétrole auront leur influence sur le choix de mon prochain véhicule et de ma prochaine destination de vacances (mmmh, à moins que je commence à utiliser sérieusement un vélo ?).
Les travaux d’études ont donc beaucoup à faire pour éclairer ce qui est en train de naître. Pour cela il faut suivre les acteurs et sortir de l’échelle strictement locale que véhiculaient les anciens schémas de pensée, à l’intérieur de frontières verrouillées par un État.

.


En tant qu’individu, aussi longtemps que j’ai droit à l’habeas corpus et accès à une connexion haut débit, ma position sur la planète a très peu d’importance.
Je vis sur Terre, la Terre est une planète. C’est OK. Je vis en cohérence avec la vérité du monde.
Selon l’ancienne forme de pensée du XXe siècle, je devrais m’en sentir déraciné. Je devrais supporter stoïquement la frustration et le sentiment d’exil et le choc culturel permanent alors que… non. Pas du tout. C’est le système des États-nations qui a du mal a supporter cette nouvelle donne. Ce sont les États-nations qui s’excitent en vain pour  »maîtriser » les flux de devises par rapport à leurs taux de change, les flux migratoires, l’imposition des revenus de citoyens basés à l’étranger, la taxation d’une unique personne qui ne demande rien à personne pour vendre ses services en Argentine alors qu’elle réside au Portugal avec un passeport français.
Il faut aller plus loin que la revendication d’identité pour aller vers l’activité humaine et suivre ses interdépendances. Car cela fait bien longtemps que les autochtones ne sont plus des autochtones.  
 »L’authentique » est une impossibilité moléculaire en anthropologie, depuis 3.000.000 d’années et malgré cet état de fait incontestable, il reste des adeptes de la théorie du déclin entamée par Oswald Spengler en 1918 (une théorie qui résonne avec la vision souverainiste des informations télévisées, à commencer par Jean-Pierre Pernaud au journal de 13 heures sur TF1).

Ainsi, l’anthropologie contemporaine ne se réduit pas à l’analyse d’un monde ou de cultures en dépérissement / des villages traditionnels qui se meurent / des tribus exotiques contaminées par Coca Cola.
Tout cela n’existe que dans le regard des observateurs incapables de comprendre qu’ils n’ont pas sous les yeux un décès, mais des transformations permanentes.

..

Il s’agit ici d’une critique de la notion populaire de culture.
La culture, ce n’est pas un catalogue de traits distinctifs qui permet de différencier les groupes sociaux. C’est le malheur des ethnologues d’avoir cru cela possible, notamment par les caractéristiques physiques -à commencer par la couleur de la peau.
La culture c’est l’échange, le mouvement, le refus ou l’acceptation de nouveautés… la culture c’est un processus digestif comme aurait pu dire Nietzsche, juste avant que Malinowski décrive le processus d’échange de la Kula au large de la Nouvelle-Guinée (schéma) qui connecte 18 îles et couvre plus de 1.500 kilomètres en plein océan Pacifique.

.

Cette posture a des implications méthodologiques majeures. Dans cette perspective, étudier les phénomènes à l’échelle d’un quartier de Bobigny ou d’un village de banlieue de Dakar (ou l’inverse) ne prend son sens que dans une perspective plus vaste.
Alors, une ethnographie du global est possible à partir du moment où l’on prend en compte trois éléments complémentaires : l’influence des forces externes sur la vie locale, les connexions existantes entre différents lieux et les représentations qui façonnent le quotidien. 

Cette approche trouve son incarnation dans la démarche de sociologie urbaine de l’École de Chicago, qui avait par exemple suivi le flux des lettres échangés par les immigrés jusqu’en Pologne. Les chercheurs ont ainsi pu défricher une notion élaborée ensuite par Arjun Appadurai et appelée « ethnoscape ». Le paysage mental qui structure les valeurs, les références et l’imaginaire des membres d’une diaspora.
Cette modification du regard n’a pas que des implications théoriques, elle a des conséquences très réelles car elle pose la question de la pertinence des aires culturelles.

.

En effet, les aires culturelles ont longtemps été le paradigme de référence de l’anthropologue. Les aires étaient souveraines. C’était aussi une idée intuitive, compréhensible par l’immense majorité de la population, en particulier parce que la théorie des aires culturelles fait encore partie intégrante des enseignements scolaires de géographie. Si tel groupe est localisé en Afrique subsaharienne, alors il aura des caractéristiques culturelles X et Y. Si tel groupe est localisé en Europe circumpolaire, alors il aura des caractéristiques culturelles A et Z… Si vous avez déjà entendu parler de  »management culturel », vous savez de quoi il s’agit.
Le même genre de raisonnement est à l’œuvre dans les entreprises internationales qui tentent de trouver une cohérence dans l’organisation de leurs Ressources Humaines, en classant leurs salariés dans de grandes aires du type Europe, Middle East, Africa (EMEA)… alors que bien sûr, cela n’apporte en rien la garantie d’une  »homogénéité » des populations présentes dans ces bassins de recrutement.
C’était déjà moyennement pertinent lorsque les flux étaient majoritairement endogènes, partaient et arrivaient dans une même aire géographique. Ça ne l’est plus du tout à l’âge de l’e-mail, de la télévision par satellite et des voyages en avion (2e schéma)… à l’âge où une aire géographique n’est plus limitative pour se construire une culture.

.

Le concept de flux, aujourd’hui, permet de replacer les aires culturelles au niveau qui est le leur : un niveau seulement intermédiaire, entre le domicile privé, le village et le reste du monde. Les flux traversent les aires culturelles. Une aire culturelle, à ce titre, n’est qu’un élément d’un système plus vaste… ce qui est une bonne opportunité pour faire adopter aux sciences sociales en général une bonne dose de théorie des systèmes.
Car, comme dans n’importe quel système, ce ne sont pas les aires / les éléments qui ont une importance centrale, ce sont les zones d’interface. Les points de raccordement entre les flux d’échanges (quelle que soit la nature de ce qui est ‘échangé’).
Bref, ce sont les connexions qui sont souveraines.

connexion-flux-systeme

.

.

.

.

 

Le vélo 21 octobre 2013


Je suis adepte des déplacements à vélo.
Le mien est un vélo d’occasion, blanc, simple et léger. Je n’en connais pas la marque.
Pour les connaisseurs, précisons que l’engin est un mono vitesse (singlespeed) à rétropédalage, à mi-chemin entre le vélo de type hollandais et le radical fixie . Lorsque la conversation démarre à un feu rouge et qu’on n’a pas le temps d’aborder La distinction de Pierre Bourdieu, c’est une manière tout à fait honorable de montrer à ses congénères dans quelle case sociale on se place :
‘C’est quoi votre vélo ?’
‘Oh, rien de spécial c’est un single.’
‘Cool.’

.

J’ai pris le temps de me documenter et de choisir le bestiau en fonction du terrain, car c’est mon moyen de locomotion favori pour les trajets autour de chez moi et en particulier domicile-travail. Avec mes 15 minutes de trajet je ne peux pas me comparer à un bike commuter anglo-saxon, mais c’est suffisant pour porter un regard différent sur la ville.
Cela me permet aussi de sortir du contexte habituel des articles sur ce blog, pour toucher du doigt le domaine de la vie quotidienne dans ce qu’elle a de plus concret.
En effet… :
Le vélo est le seul véhicule dont l’usage augmente l’espérance de vie de son conducteur. Rien d’autre n’est comparable en termes de bienfaits sur la santé.
Le vélo est une pierre supplémentaire apportée à l’édifice d’une société vert brillant.
Le vélo est le transport le plus rapide en ville pour les distances jusqu’à 5 kilomètres (trajet urbain moyen en voiture : 3 kilomètres).
Le vélo est fiable, en particulier un modèle qui n’a pas de dérailleur et en incluant un montage à pneus renforcés.
Le vélo c’est gratuit.
Le vélo c’est amusant.
Les gens à vélo sont beaux.

Et surtout, le vélo vous met en sécurité.
Cette petite phrase mérite explication… d’autant plus qu’en tant que cycliste, je conseille le port de gants avant même le port du casque.

.

Depuis le milieu des années 1990, les politiques publiques ont cessé de favoriser la voiture exclusivement. Comme l’avait fait sa copine Margaret Thatcher au Royaume-Uni, Georges Pompidou avait initié la chose en France en 1975 en déclarant qu’il fallait adapter les villes à la voiture… jusqu’à ce qu’on se rende compte vingt ans plus tard que la ville n’est pas qu’un lieu de transit, c’est aussi un lieu de vie.
Or, en favorisant les cyclistes et notamment en séparant les flux, le nombre de pratiquants réguliers augmente ce qui réduit le taux d’accident et leur gravité. Entre 1996 et 2005, les décès de cyclistes en Europe ont ainsi diminué de 32%.
C’est l’effet de masse critique : à partir d’un certain seuil, le groupe protège l’individu du simple fait de sa masse (vis-à-vis des usagers extérieurs) et du fait de son autorégulation interne (dissuasion des comportements à risque).
Adossé à cet effet protection de l’individu par le groupe, on ajoutera (ou pas) des politiques d’aménagement et de design urbain qui conçoivent des infrastructures protectrices (ou pas) avant même qu’un cycliste enfourche sa monture.
Cela nous amènerait à parler par exemple de la ville de Portland dans l’Oregon, où le nombre de décès de cycliste en 1999, 2000, 2002, 2006, 2008 et depuis 2010 est égal à… zéro. Rien. Personne n’est mort.

.

.Quels étaient donc les circonstances de ces accidents et en quoi me permettent-elles de conseiller d’abord de porter des gants pour se protéger les mains, plutôt qu’un casque pour se protéger la tête ?

L’immense majorité des chutes est sans conséquence. Le (ou la) cycliste se relève et s’en va. Personne n’en est informé. Ces chutes n’entrent donc pas dans les statistiques.
Dans 80% des accidents assez sérieux pour être signalés, il n’y a pas de tiers impliqué. La victime est tombée toute seule, comme un grande. Le comportement du cycliste est donc en cause, et non celui des autres.
Dans ces situations-là, qui représentent en proportion la seule forme de chute que connaîtra un cycliste dans sa vie, les mains sont la première forme de protection contre le sol, suivent les bras puis les jambes (notamment en cas de dérapage de la roue arrière).
Plus la chute est dure, plus les conséquences nous amènent vers un poignet cassé, voire un coude ou une clavicule… et la tête n’aura même pas touché le sol.
Je conseille donc de porter des gants ou mitaines renforcés au niveau des paumes et des manches longues. Pour aller au bureau, une veste de costume déchirée vaut mieux qu’un bras en sang, n’est-ce pas ?

.

Enfin, si votre chute finit directement sur votre sublime tête, le casque sera utile si votre cuir chevelu touche l’obstacle. Le casque ne servira à rien en cas de choc facial (visage) ou latéral (profil et oreille).
Et à supposer qu’il soit correctement attaché et à la bonne taille et que la chute vous amène à tomber là où le casque vous protège, il vous protègera d’abord des lésions cutanées sur le haut du crâne. Votre tête sous la roue d’une Fiat 500 finira grosso modo dans le même état, avec ou sans casque. Le poétique vocabulaire médical appelle cela une  »destruction massive ».
Bien entendu, je ne tente pas ici de vous dissuader de porter un casque à vélo et je ne minimise pas la gravité des chocs à la tête en vélo.
Les atteintes de la tête en vélo sont peu fréquentes, mais ce sont les plus graves et même elles sont toujours graves chez l’enfant et les plus de 60 ans : voir l’étude INRETS  »vélo et casque », rapport UMRESTTE 0908 de mai 2009.
Par contre je vous dissuade de croire qu’un casque de vélo vous protègera en cas d’accident grave. Ça, c’est une croyance, un rituel magique pour éloigner le mauvais œil :  »Mets-ton casque, pour pas avoir d’accident !  »

.

1.214 personnes sont mortes à vélo en Europe en 2005, dont 60% environ mortes d’un choc à la tête soit 728 personnes. Pour se représenter une échelle de volume, on peut comparer ce nombre aux 80.000 morts annuels du fait d’accidents domestiques.
A l’échelle européenne, la victime ‘statistique’ à vélo est un homme dans 80% des cas, qui sera tué à un carrefour urbain entre mai et octobre (donc à la belle saison), plutôt un vendredi entre 16 et 20 heures (donc en plein jour) et percuté par une voiture. Les statistiques françaises nous apprennent même que cette voiture le percutera par l’arrière à une vitesse inférieure à 40 km/h.  »Percuté par l’arrière » signifie bien sûr que voiture et vélo circulaient sur la même voie. Ceci est la cause de l’accident : les flux de circulation n’étaient pas séparés.
En France, cela nous ramène à 108 cyclistes morts d’un choc à la tête sur environ 10.000 accidents de vélo signalés. C’est trois fois moins que les piétons tués par accident de la circulation.
cliquez ici pour l’étude européenne 2011 (in english) sur l’accidentologie des cyclistes.

A ce titre, l’idée de rendre obligatoire le port du casque à vélo est un non-sens puisqu’il n’empêche pas l’accident grave (prévention), il n’empêche pas ses conséquences (protection) et il ne traite pas non plus 80% des cas d’accident plus fréquents que le choc à la tête… et bien sûr le port du casque ne traite pas les causes d’accident. Dans une certaine mesure, j’irais même jusqu’à dire qu’il donne un faux sentiment de sécurité, un peu comme le conducteur qui croit que le dispositif ABS de sa voiture lui permet de freiner plus court… ou un peu comme le préfet qui pense que les accidents de voiture dus à l’alcool vont diminuer parce qu’il y a davantage de radars sur le bord des routes…

Bref. C’est une erreur de penser que le casque de vélo protège des conséquences d’un accident grave, notamment du traumatisme crânien.
Lorsqu’on est à vélo, on N’EST PAS protégé en cas d’accident grave. La SEULE protection c’est la prévention : faire ce qu’il faut pour ne pas avoir d’accident.

.

Nous aurions mieux à faire que de tergiverser sur le port d’un casque.

Par exemple cesser de considérer le vélo comme un mode de transport  »doux ».
Mon vélo n’est pas en pâte à modeler  -si je tombe ce sera brutal, si je percute ce sera brutal et si je suis percuté ce sera brutal aussi. Mais puisque je suis le mode de transport le plus rapide en ville même dans le respect du code de la route, je suis aussi légitime que n’importe qui d’autre. A ce titre, la place du cycliste est sur une voie de circulation à part entière, dûment signalée et aménagée.

Or, une manière classique de séparer les flux de véhicules consiste à créer une bande de roulement pour les vélos sur le bord extérieur de la chaussée. Ces bandes cyclables latérales ne sont pas une solution car elles me cantonnent entre les voitures stationnées et celles qui roulent. Cela correspond en réalité à une double zone de danger : celle de l’invisibilité au prochain carrefour et celle de la porte de voiture qui s’ouvre à l’improviste.
Je suggère que les bandes cyclables soient placées au centre de la rue et non sur ses côtés… et j’en profite pour rappeler publiquement que si votre porte de voiture cause un accident, vous êtes en tort :

Code de la route applicable en France, article R417-7 : Il est interdit à tout occupant d’un véhicule à l’arrêt ou en stationnement d’ouvrir une portière lorsque cette manoeuvre constitue un danger pour lui-même ou les autres usagers. Le fait de contrevenir aux dispositions du présent article est puni de l’amende prévue pour les contraventions de la première classe.

.

Les aménageurs urbains (et interurbains) doivent permettre au cycliste d’avancer vite et sans interférer avec les autres moyens de locomotion. Parce que le vélo est un véhicule à proprement parler et pas seulement un engin de loisir. Nous n’avons rien à faire sur un bas-côté avec l’argument que si tout le monde est gentil, Dieu reconnaîtra les siens en termes de cédez-le-passage.  Souvenez-vous que 86% des tués à vélo le sont à un carrefour, percutés par une voiture qui ne les avait pas vus .


.
S’il n’est pas possible de séparer réellement les flux, alors au moins ne placez pas le vélo en zone de danger : mettez-le au centre pour que tout le monde le voie, afin que chacun prenne ses décisions de conduite en connaissance de cause.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
..
 

Des experts à l’unité 22 octobre 2011


Trouver un expert peut être un processus long et difficile. Voire très long et très difficile.

Nous savons que dans nos organisations il y a des experts, mais de là à identifier l’expert sur le sujet qui nous préoccupe il y a une marge… et encore faut-il qu’il ait le temps de répondre aux sollicitations. Cela peut être un vrai problème au quotidien.
L’usage de l’outil informatique (toujours lui) peut nous aider dans cette tâche.

En utilisant des solutions de data mining, on peut aller fouiller les bases de données (encore elles) pour identifier les sujets fréquemment abordés par les utilisateurs et de quelle manière quelqu’un est susceptible de répondre aux questions.
Les grandes organisations archivent les données de leurs employés dans de grands ‘sacs’ où l’information repose en vrac en attendant qu’on l’utilise.
Mais il n’y a pas de formule magique. Il ne suffit pas d’écrire ‘Je cherche un expert en projets php’ pour qu’un nom de l’annuaire s’affiche à l’écran.
Il faut donc se pencher du côté de la modélisation des connaissances –une branche du knowledge management– or il s’avère que ce concept est difficile à comprendre pour un ordinateur.
N’oublions pas que, comment dire, un ordinateur c’est con comme un balai.
Le gros du travail consiste ici à creuser plus loin que les profils qui apparaissent dans les annuaires ou sur le Facebook-entreprise que vous avez à disposition. Tout cela en respectant l’intimité numérique de chacun.

Un logiciel comme Atlas construira tout seul les profils de vos employés, leurs compétences et les sujets qu’ils traitent de façon récurrente, mais cela sans aucune possibilité de filtrage.
D’un autre côté ça impose trop de temps de demander aux employés de remplir à la main leur profil et de plus ça peut s’avérer largement inexact, en termes d’inventaire des compétences aussi bien que d’objectivité dans l’évaluation de son niveau d’expertise.
Une autre piste de travail sur la modélisation des connaissances consiste à laisser l’utilisateur désigner certains dossiers, afin que le système y fasse une indexation automatique (dossiers de documents et d’e-mails). L’utilisateur exclut de lui-même le dossier ‘Personnel’ par exemple, parce que vous n’avez pas besoin de savoir qu’il est expert en cuisine asiatique ou en gestion de tournois de belote…
De cette manière il est possible d’obtenir des mots clés qui identifient les zones d’expertise de la personne. Il est possible ensuite d’utiliser la liste de tous les mots clés répertoriés dans toute l’organisation pour retrouver la ou les personnes qui en font le plus grand usage.

Par exemple, pour un employé qui possède de nombreux documents qui traitent de MVS, le système en conclura qu’il y a ici une expertise en MVS mais aussi en utilisation des grands systèmes, Z/OS et JCL. Le tout est envoyé à un serveur central qui rassemble l’information sur les profils des utilisateurs et établit le classement des mots clés. En cherchant qui s’y connaît réellement au sujet de MVS, le nom de cette personne ressortira avec le détail de ses compétences.
Selon la fréquence de mise à jour de ce serveur central, on peut imaginer qu’il offre une vue quasiment en temps réel des domaines d’expertise au sein de l’organisation et, surtout, qui les possède.
Woâ.

Mais il ne suffit pas d’avoir un inventaire, il faut aussi estimer si la personne est effectivement susceptible de répondre aux sollicitations, sans quoi tout le travail en amont n’aura servi à rien.

L’identification d’une présence forte sur les réseaux de discussion (e-mail, forum interne, communauté projet, etc.) est un facteur qui donne davantage de poids à quelqu’un qui est identifié comme porteur de savoir. C’est le genre de signe qui dénote un fort investissement et qui laisse supposer qu’il/elle sera volontaire pour s’impliquer dans une communauté plus large. Inclure des ratios de participation aux réseaux sociaux est donc un complément important pour l’évaluation d’une expertise. On peut en tirer un facteur de pondération positive ou négative qui permet d’affiner énormément la simple appréciation quantitative du savoir.
Cerise sur le gâteau, vous pourriez même laisser chacun évaluer la qualité des interventions de tous les autres. Ne cherchez pas bien loin, cela existe déjà sur LinkedIn par exemple.

Ceci dit, les utilisateurs de LinkedIn ne sont pas ses employés. Dans une organisation qui n’y est pas habituée, ce genre d’évaluation publique pourrait être assez délicate à gérer en termes relationnels.
Serez-vous toujours aussi amical avec vos collègues s’ils vous donnent (anonymement) une mauvaise évaluation ? 

Il n’empêche que l’on peut aller encore plus loin, du moins en théorie.
L’analyse de réseaux sociaux (ARS) nous apprend en effet que l’on peut identifier quelqu’un sur un réseau par son savoir mais aussi par sa position. Selon qu’il est intégré à un groupe ou selon qu’il est à la croisée de plusieurs groupes.
Cela peut être d’une importance cruciale pour relier des domaines d’expertise grâce à la seule (?) personne qui fait le pont entre eux, même si cette personne n’a rien d’un expert stricto sensu.
La capacité de quelques personnes à porter de l’information d’un groupe à un autre peut être décisive quand on parle d’innovation.

Dans tous les cas cela dit, on doit s’attendre à des refus des utilisateurs si on leur impose des méthodes trop invasives. Ils résisteront et ils auront de bonnes raisons pour le faire. A partir d’un certain seuil, nous sommes tous susceptibles de refuser de dire ce que l’on sait ne serait-ce que pour éviter les interférences constantes de la part des collègues. Si vous utilisez ce genre de fonctionnalité chez vous, prêtez-y une grande attention car la gestion des relations réelles qu’elles provoquent n’est pas à prendre à la légère.
Ces systèmes de knowledge management rendent visibles des choses qui étaient invisibles jusque là, pour le meilleur comme pour le pire.

D’un autre point de vue, certaines directions peuvent aussi se montrer hésitantes à rendre lisible des informations susceptibles d’intéresser les concurrents –si tant est qu’ils puissent y avoir accès…

Mais déjà vous êtes montés d’un cran dans la chaîne alimentaire, car si ce problème se pose cela veut dire que vous êtes parvenu à un niveau de maturité extrêmement solide quant à la gestion des compétences et des connaissances.

.

.

 

Des données par milliards 10 octobre 2011


Avec la diffusion de l’informatique à toutes les strates du fonctionnement des sociétés contemporaines, l’élément technologique majeur s’appelle désormais la base de données. C’est le hangar, le centre de stockage, le tiroir magique. Les anglais appellent d’ailleurs cela un data warehouse : entrepôt de données.
La totalité des services à distance que nous utilisons aujourd’hui fonctionne grâce à des bases de données.

Appeler le SAMU vous fait passer par une base qui reconnaît « 15 » comme numéro à acheminer en priorité et qui oriente l’appel vers un opérateur géographiquement proche. Autre base de données.
Une troisième associe votre numéro d’appel à une adresse physique ou à une cellule du réseau GSM. Une quatrième enregistre la conversation et les actions mises en œuvre par le médecin régulateur avec (cinquième) géolocalisation de l’équipe disponible la plus proche. Une sixième copie le tout en temps réel, juste au cas où.
D’autres bases peuvent être sollicitées, comme celle des donneurs d’organes, du nombre de lits disponibles par hôpital ou du dossier médical informatisé des victimes (si, si, un jour ça existera).
Ce qui existera peut-être un jour aussi, c’est la possibilité d’adresser au SAMU un SMS ou une photo du carrefour où un cycliste vient de se faire renverser, ce qui déclenchera une comparaison avec une base du type Google Street View et reconnaissance du lieu (si, si, un jour ça aussi ça existera).
Bref… en fin de compte les données enregistrées dans ces bases sont exploitées dans d’autres bases à des fins statistiques, pour connaître par exemple les pics d’activité à l’heure près, les secteurs géographiques les plus demandeurs, la proportion d’interventions primaires réellement vitales, le type d’action de secours par type de population, le taux de survie par type d’action de secours, etc.

Plus on s’approche du centre de ces bases de données, plus les professionnels ont le cœur qui bat fort. Car installer le bidule, configurer les machins et enregistrer des trucs est finalement assez simple.
C’est ce qui se passe après qui l’est moins.

Comme on l’a déjà vu, les données sont une matière brute : comme du pétrole elles demandent à être extraites, raffinées et distribuées. Cela se fait avec des logiciels de data mining et ce sont eux qui permettent de donner du sens à l’amoncellement de 0 et de 1 qui gît dans les serveurs.
Nous parlons de volumes absolument gigantesques : c’est du lourd, c’est du big data.
La puissance technique du matériel n’est (presque) plus une limite, le critère déterminant repose désormais sur le nombre d’instructions qui peuvent être traitées simultanément. Cette unité de mesure anglophone s’appelle le FLOP… sans jeu de mot francophone. En 2012, les calculs habituels dans l’activité d’une grande multinationale touchent les 10 puissance 16 ‘opérations à virgule flottante par seconde’ (pétaFLOPS). Les 10 puissance 18 sont attendus d’ici l’année 2016.

.

Mais au-delà des spécifications techniques, par « donner du sens » je ne sous-entend pas seulement une finalité commerciale. Donner du sens signifie que l’utilisateur trouve l’information utile et pertinente de son point de vue à lui.
A l’instar du SAMU, donner du sens aux données stockées peut faire la différence entre une équipe d’urgence disponible ou pas d’équipe du tout.

De façon moins critique, si votre page Facebook indique que vous vivez à Paris 14e arrondissement, la base de données vous affichera des publicités concernant le code postal 75014 du pays appelé France, sans quoi vous afficherez celles qui concernent Irving, Texas, Etats-Unis d’Amérique.
Plus important encore du point de vue de l’entreprise Facebook, la moindre indication que vous faites apparaître sur votre profil est susceptible d’être monnayée à ceux qui ont des choses à vendre (code postal 75014 !) et tout cela repose dans des bases qui sont sollicitées en permanence. Si vous êtes un lecteur régulier de ce blog, vous savez de quoi je parle.
Et sinon, vous auriez tort de vous en priver   :)

Mais de façon très concrète, les données disponibles ne se présentent pas sous la forme de tableaux ordonnés du type 1 case = 1 information.
Les données sont en relation les unes avec les autres, ce sont des bases de données relationnelles. Elles nous arrivent sous la forme d’association de données, de graphiques, de cartes ou de liaisons par nœud exactement comme on pourrait vous faire apparaître au milieu d’un ensemble cohérent (?) composé de tous vos amis Viadeo ou Facebook.

De fait c’est la mise en relation des données qui leur donne leur valeur. Avec la théorie des graphes et l’Analyse de Réseau les chercheurs savent faire cela depuis le début du XXe siècle mais c’est l’essor des réseaux sociaux numériques qui nous a fait changer d’ordre de magnitude.
On ne parle plus de 10 ou 100 éléments immobiles qui attendent d’être analysés, mais de millions de nœuds et de dizaines de millions de relations en mouvement. Chaque jour, tous les jours.
Analyser des graphiques de cette dimension suppose des algorithmes à la fois mathématiquement solides et d’usage souple, car le graphique d’hier peut ne plus être valable demain. Le data dans le warehouse aura très certainement changé. Ce n’est pas un hasard si la National Security Agency américaine est le premier recruteur de mathématiciens au monde : ils sont employés pour concevoir, tester et fiabiliser les algorithmes qui servent à rendre intelligibles les données brutes au travers de programmes de collecte et de restitution comme Prism, rendu public en 2013.

L’intérêt pour les analyses de données a donné aux entreprises privées un temps d’avance sur la recherche universitaire, car celle-ci a mis du temps à comprendre à quel point les problèmes industriels étaient différents des modèles stables qu’ils traitaient depuis 80 ans.
Les impératifs du business ont obligé les entreprises à résoudre leurs problèmes en interne (ou presque), pour transformer des algorithmes explicatifs en algorithmes prédictifs… et à éprouver leur fiabilité. Chez Facebook, la base de données Haystack par exemple stocke vos photos. En traduction littérale, haystack signifie botte de foin… celle où vous devez retrouver l’aiguille ! La force de Haystack n’est pas tant dans les supports matériels que dans sa distribution sur le Réseau ce qui en fait une créature potentiellement indestructible et infiniment extensible. Il s’agit de payer pour de l’espace sur des serveurs physiques (loués par d’autres entreprises), après quoi l’entreprise peut y loger un morceau supplémentaire de Haystack.

Tout récemment l’entreprise IBM a mis en place un réseau spécifique pour un client qui souhaitait sous-traiter l’hébergement de sa messagerie e-mail. Un très gros client, puisque le résultat est un réseau de 120 millions de giga octets : 120Po.

1Go peut contenir (à la louche) 200 fichiers musicaux mp3, ce qui permet au système IBM d’en stocker 24 milliards… en termes de comptes rendus de réunion, ça en fait des réunions pour le client !

Blague à part, ces 120 Peta octets peuvent servir à du stockage bien entendu mais ils représentent surtout une puissance de calcul et à ce titre on peut l’utiliser comme supercalculateur météo, comme simulateur de tests nucléaires et autres opérations d’envergure majeure.
Pour le prestataire IBM qui fournit ce service à ce client, cela fait 200.000 disques durs reliés les uns aux autres, surveillés en permanence et sauvegardés.

Le client en question reste anonyme (Pentagone, NSA ?) et les disques durs en question sont hébergés dans les locaux américains de l’entreprise IBM. Une solution peu satisfaisante en termes de sécurité. Mais sans doute était-ce une exigence du client, qui préfère avoir tous ses œufs dans le même panier afin de pouvoir bien le surveiller, le panier. Une virtualisation complète comme le Haystack de Facebook était sans doute plus risquée.

De fait, IBM a donc du développer aussi une solution originale de stockage physique puisque le refroidissement des 200.000 disques se fait par circulation d’eau froide.

Pour un urbaniste, nul doute que tout cela ressemble furieusement à une centrale thermique !
Question : avez-vous déjà pensé à utiliser vos propres salles serveurs comme source de chauffage ?

.

 

Comparaison des monographies 12 septembre 2011


.

Si des directeurs d’entreprises peuvent se comporter comme des vandales et convaincre le Conseil d’Administration de les payer pour l’avoir fait, pourquoi ne pas envisager que les responsables d’organisations criminelles fassent prospérer leurs affaires sur la base des théories de Peter Drucker ou Jean Tirole ?

On a tendance à ignorer largement que la littérature à vocation professionnelle est lue par des gens dont le cadre d’activité, légal ou pas, est secondaire.
A ce titre, comme un marteau ou une arme à feu, une organisation est un outil dont l’aspect légal dépend de l’usage qu’on en fait, avec là-dedans toutes les nuances imaginables. Statut officiel/clandestin et activité légale/illégale permettent bien des combinaisons qui suffisent à construire un discours techniquement élaboré, sans besoin de parler de morale. En effet, ‘criminel’ est un terme à manier avec précaution car tout ce qui est illégal n’est pas criminel (et vice-versa). Je me retiendrai donc de faire un parallèle entre clandestinité, illégalité et criminalité.
Pensez au groupe clandestin et illégal de Robin des Bois, dans les profondeurs de la forêt de Sherwood vers 1270. Comment était-il qualifié par les médias officiels de l’époque (si j’ose dire), un groupe de jeunes criminels spécialisés dans le racket ?

.

Pour préciser mon propos, remarquons aussi que la distinction est importante entre statut officiel (un numéro de SIRET et un structure en Société Anonyme par exemple) et ce que l’on fait avec ce statut. Souvenez-vous qu’Al Capone a pu être appréhendé et condamné pour fraude fiscale (statut officiel) et non pas parce qu’il avait pour habitude de passer à la perceuse à percussion les rotules de ses opposants. Cet outil qu’est une organisation selon la manière dont il est géré peut donc être exceptionnellement performant quel que soit l’objectif que vous lui donnez : blanchiment d’argent, commerce de meubles ou vol de diamants sur une piste de l’aéroport de Bruxelles.

Toute organisation (toute !) doit répondre en effet à une question fondamentale : Que pouvons-nous faire ensemble ?
Pour orienter l’action collective et pour la gérer dans l’espace et le temps, c’est la question qui doit trouver une réponse, quelle que soit la taille de l’organisation, son statut et son activité.
Le fait que les acteurs du secteur légal et illégal puissent se côtoyer dans les mêmes universités ou s’inspirent des mêmes théories de management ne devrait donc pas nous étonner outre mesure.

.

Les 5 éléments d’une organisation tels que les a décrits Henry Mintzberg sont valables pour tous ceux qui cherchent à façonner au mieux leur structure interne. Cela nous rappelle que la réalité possède plusieurs dimensions, y compris morales. Les questions techniques d’organisation concernent donc les géants internationaux comme Total, Toyota, Greenpeace aussi bien que la triade 14k ou la MS-13. A une échelle plus réduite, les cinq trafiquants de marijuana qui travaillent ensemble en bas de votre immeuble ont les mêmes questionnements professionnels que le gérant de l’épicerie d’en face, ou le club de foot local.
…et ne me faites pas dire ce que je n’ai pas dit : il ne s’agit pas de faire des amalgames abusifs, il s’agit de comparer des questionnements liés à la gestion d’une activité collective. Le parallèle s’arrête là.

Les hackers du réseau Anonymous appliquent-ils un équivalent du CMMI pour créer leur code informatique avant d’attaquer les consoles Sony ? Le lean manufacturing a-t’il une influence sur les méthodes des ateliers clandestins de contrefaçons ? Quel est l’équivalent des congés payés, dans une institution yakuza qui emploie des dizaines de milliers de membres ? Quelles ont été les stratégies d’investissement de la Irish Mob en Amérique, pendant la crise financière de 2008-2010 ? Et comment se passe une fusion-acquisition entre concurrents, lorsqu’on fait du trafic de drogue ?

.

En 1927, la glorieuse École de Chicago publia un article de Frederick Thrasher qui recensait 1313 « bandes criminelles » à l’intérieur des limites de la ville soit environ 25.000 personnes employées dans des métiers très diversifiés dont une petite partie seulement pouvait être qualifiée d’illégale. La majeure partie concernait la gestion au sens courant. Ce recensement et sa cartographie (carte) permettaient d’inscrire ces gangs dans le paysage urbain, comme autant de PME de 19 personnes, à la différence près qu’elles exerçaient au-delà des limites de la loi dans une culture d’entreprise qui permet de déployer l’activité là où le système judiciaire affirme que non, vous ne pouvez pas.
En lisant aujourd’hui des ouvrages traitant par exemple de logistique, de comptabilité ou de marketing, nous laissons les auteurs nous amener d’un côté de la réalité avec ses références et ses symbolismes, mais ça n’est qu’un côté de la réalité. Il s’agit en quelque sorte de reprendre contact avec le monde, le vrai, celui qui existait avant les explications expurgées d’ambiguïté et les études de cas moralement indiscutables.
Nous sommes devenus tellement dépendants de ce symbolisme et de ces explications académiques que nous avons perdu contact avec une partie de la réalité des organisations et des motivations qu’on peut avoir à en créer une et à la gérer.
A leur décharge, on peut comprendre que les écoles de commerce ne soient pas très favorables à présenter un cours qui s’appellerait « management d’équipe appliqué au trafic de cellules souches »…

Ce genre de sujet de recherche serait pourtant grandement utile, pour nous donner une compréhension plus complète des formes que peut prendre une organisation et les circuits de fonctionnement qu’elle est susceptible d’adopter. C’est aussi cela, l’ethnologie du XXIe siècle.
Michel Crozier a disséqué avec soin la bureaucratie française, il reste encore du travail pour parvenir à une compréhension aussi complète des organisations clandestines et illégales comme la `Ndrangheta calabraise (chiffre d’affaires annuel estimé à 40 milliards). Où sont les Crozier, les Peter Drucker,  Clifford Geertz et Elton Mayo des mondes clandestins ?!

Le monde réel ne se plie pas à la norme fictive de ce que c’est, une organisation.

.

A ce titre, compte tenu de leurs contraintes opérationnelles, nombre d’organisations clandestines et illégales sont incontestablement plus performantes qu’une grande partie de leurs consœurs vivant au grand jour et analysées en long en large et en travers par la recherche universitaire ou par les success stories de la presse spécialisée.
Mais aucune revue ne vous expliquera jamais comment des personnes travaillant ensemble parviennent à solidifier des règles de conduite, les possibles et les interdits qui permettent le maintien de l’activité collective. Bref, toutes ces représentations qui déterminent ce que c’est, la norme d’action dans un groupe organisé. Aucun magazine ne sait le faire pour Expedia ou Citroën, n’espérez pas qu’ils le fassent pour une mafia d’Italie du Sud ou de Hong Kong !
Comment elle naît cette activité collective, comment les acteurs la maintiennent, par quel symbolisme, quels discours et quels actes ? Comment les employés de `Ndrangheta comprennent-ils au quotidien la devise de leur organisation : Héroïsme et Vertu ? Que peut nous apprendre la monographie de cette mafia calabraise -leader mondial dans la gestion des flux de cocaïne- en comparaison de, disons, le leader mondial des flux d’eau potable : Veolia Environnement (chiffre d’affaires annuel 30 milliards), dont la devise est : Inventer pour l’Environnement ?

Et entre différentes organisations, tous secteurs confondus, où sont les interfaces qui ont les plus fortes probabilités d’entrer en contact les unes avec les autres ? Selon quels critères d’opposition ou de collaboration ?
Par exemple lorsqu’ils sont en compétition pour un même marché (de travaux publics -au hasard), une entreprise légale et officielle a-t’elle les moyens de se battre contre un groupe illégal et clandestin ? Quels moyens ? Et jusqu’où les utiliser ?

.

.

 

 
%d blogueurs aiment cette page :