The blog of blog of blogs

Les aventures d'un ethnologue dans le grand monde

Des objets à commander 9 avril 2018


Les modèles de conception appliqués au digital ont permis l’essor de méthodes collaboratives qui nous éloignent toujours un peu plus de la théorie du One best way de Fayol, Taylor et Ford.
Du reste, s’il y a bien une leçon à retenir des travaux de recherche en organisation c’est que le one best way n’existe pas. Il n’y a pas un modèle d’organisation meilleur que tous les autres : il n’y a que des modèles d’organisation adaptés à leur contexte.
.

De ce point de vue, l’ingénieur en chef enfermé dans son Bureau des Études se révèle être de plus en plus une vue de l’esprit. Il n’est pas seul, il ne peut pas travailler seul, il ne peut que négocier ses contraintes avec les contraintes des autres parties-prenantes d’un projet à commencer par les utilisateurs et leur contexte d’usage. L’intérêt des méthodes collaboratives -et en premier lieu du design thinking- est que la prise en compte du contexte fait partie de la méthode. Ce n’est jamais une garantie de succès, mais c’est très certainement la garantie que vous éviterez de faire des erreurs grossières par manque de prise en compte de la réalité dans laquelle votre projet va se déployer.

Les configurations techniques sont désormais assumées comme des constructions collectives . C’est un mouvement qui concerne les ‘artefacts’ au sens large : ça a commencé par les objets matériels mais les services et les décisions politiques sont aussi concernés. Avoir le grade ou le statut n’est plus suffisant pour être légitime à décider, il faut aussi avoir le consensus et ce consensus se crée par la prise en compte du contexte.

Les implications sont vastes et je limiterai ici mon propos au monde matériel, celui de l’interconnexion généralisée dans l’internet des objets (IoT).
Une gamme d’objets étonnamment vaste est maintenant connectée à l’internet, des vêtements aux montres en passant par les éléments de mobilier, les machines-outils, les jouets, les chaînes logistiques ou les voitures… ou même des smart villes. Ces bidules sont de toutes formes et de toutes couleurs –certains n’ont même pas d’écran de commande et c’est bien l’enjeu de l’IoT : ce sont les objets qui communiquent entre eux et qui s’informent les uns les autres de leur état réciproque pour s’adapter à la situation, sans avoir besoin d’un homo sapiens pour interagir en permanence. L’intervention humaine lorsqu’elle se produit est seulement ponctuelle alors que les objets ont une communication permanente.
Le fonctionnement des ‘couches basses’ fait appel à des algorithmes, des liaisons RFID, des capteurs d’usure installés sur les freins des trains ou un lecteur d’empreintes digitales sur la porte de chez vous… à ce stade, l’humain sur son tableau de contrôle ne voit qu’une partie de la réalité du système, un abrégé, la synthèse de multiples étapes qui se déroulent entre machines, hors de vue et hors de portée.

.

Où est le besoin d’une construction collective ici, puisque précisément les objets fonctionnent en autonomie ?

.

Ce fonctionnement automatisé pose une première question pour l’observateur du système (le technicien superviseur par exemple ou le/la chef de famille), comment sait-il si les objets sont en train de se causer dans une usine, ou un domicile ?
Comment puis-je savoir que mon Google Home ou Microsoft Alexa est en train d’écouter les différentes voix qui se parlent dans ma cuisine et transmet quelque chose aux serveurs Google ? Comment savoir que mon compteur de gaz est en train de transmettre des données à mon fournisseur d’énergie, et quelles données ? Comment savoir que le bus n°56 est effectivement en train de transmettre sa position GPS exacte au centre de supervision ?
Il y a un premier besoin de design d’interface au niveau des transmetteurs pour matérialiser la transparence du système technique envers l’environnement humain. Lorsque les machines se parlent, a minima, elles doivent le signaler en temps réel. Sur l’objet connecté lui-même cette fonction se double par l’enregistrement de logs qui stockent l’ensemble des données brutes de ce qui est transmis et reçu -et en provenance et à destination de qui.
A mon humble avis, elles devraient être accessibles au moins en lecture seule par l’utilisateur. Après tout, ce sont ses données à lui.

Car je l’ai déjà dit et je le redirai : la limite ultime d’une technologie réside dans sa capacité à faciliter ou permettre l’existence d’une dictature. Les enjeux de transparence dans l’IoT n’ont rien d’une option cosmétique, ils servent à tracer cette limite.
.

… avec cet argument en tête, je vous invite à relire le rapport du député Vilani Donner un sens à l’intelligence artificielle.
Page 35 :  « L’État doit également organiser l’ouverture au cas par cas de certaines données détenues par des entités privées, et favoriser sans attendre les pratiques de fouille de texte et de données. »
Une phrase comme celle-là devrait tous nous réveiller la nuit, parce qu’elle n’est associée à aucune possibilité de contrôler ce qui est fouillé par l’État et encore moins de débrayer le système ou de refuser d’y participer.
.

Le second besoin en termes d’interface pour l’utilisateur du système est la qualité explicative du système décisionnel : comment l’opérateur peut-il comprendre la logique qui mène à un certain résultat ? Les interfaces spécifiques de l’IoT sont à peu près comparables à des télécommandes, mais évolutives en fonction des situations, grâce aux algorithmes et peut-être un jour grâce à de l’intelligence artificielle.
A partir de quel seuil apparaît par exemple une alerte orange ? Lorsqu’il faut agir immédiatement pour éviter une explosion ou lorsqu’il faut commander une soupape de rechange qui arrivera dans trois jours ?
Quels types d’action sont demandés à l’opérateur humain et pourquoi ?
Le système technique lui-même doit pouvoir s’expliquer et justifier de son fonctionnement : il devient un acteur à part entière du système relationnel… relisez la théorie de l’Acteur-Réseau.

.

Les objets à commander dans l’IoT peuvent être répartis dans le monde entier, par milliers, mais le panneau de supervision est juste là, dans votre smartphone personnel ou sur votre ordinateur professionnel (ou l’inverse)… et bientôt en réalité virtuelle ou augmentée.
L’interaction des humains avec le système technique nécessite à ce titre davantage de prise en compte des utilisateurs puisqu’il faut intégrer dans l’interface l’absence d’objet, l’absence d’indice direct qui permettrait d’interpréter ce qui est affiché.
Les designers vont collaborer avec les ingénieurs et les concepteurs produit pour leur faire comprendre que tout ce qu’ils sont en train de faire devra être utile à l’utilisateur avec une certitude absolue, par exemple pour ouvrir la porte d’entrée de son domicile, ou interpréter correctement le niveau d’usure du système de freinage d’un train.
.
Industry 4.0 concept .Man hand holding tablet with Augmented reaLes applis de supervision de l’IoT ne sont pas soumises aux mêmes objectifs que les applis habituelles pour le grand public. On cherchera à faciliter la prise de décision grâce à quelques écrans qui synthétisent l’état d’un système complexe et ce domaine est plus proche de la maintenance industrielle que du loisir interactif.

Vous pouvez passer des heures sur Instagram en supportant quelques boutons mal faits, mais si vous devez piloter à distance des machines de 500 kilos ou confirmer que le gaz est bien éteint chez vous, le niveau d’exigence dépasse le sens commun… sans parler de l’opérateur d’une escadrille de drones autonomes en opération au-dessus d’une grande métropole.

.

Les critères UI de base restent pourtant bien les mêmes (utilisabilité, simplicité, découvrabilité) que pour n’importe quel design d’interface, mais les conséquences de l’usage pourront être constatées dans le vrai monde avec une porte qui se déverrouille pour laisser entrer les enfants après l’école ou un train qui s’arrête au bon endroit –ou pas.

.

Avec ces conséquences immédiates et très concrètes, la prise en compte de l’utilisateur réel, dans son contexte d’usage devient encore plus cruciale pour éviter les contresens, les erreurs de manipulation et, potentiellement, les catastrophes à grande échelle « simplement » parce qu’une interface ou un algorithme de prise de décision était mal conçu.
Somme toute, si vous êtes déjà dans le domaine du design UX et de la conception système, le travail appliqué à l’IoT est très comparable à ce que vous connaissez déjà…  les aléas, eux, se paieront cash et ne seront pas cantonnés au périmètre du digital (illustration ci-dessous). Dans l’IoT, le mauvais design d’interface et des architectures d’information mal exécutées provoqueront davantage que de la frustration, de l’énervement et des migraines de l’utilisateur. Puisque la prétention de l’IoT est d’activer des liens entre le digital et le monde réel, dans les cas les plus extrêmes une mauvaise conception du côté du digital coutera de vraies vies dans le monde réel.

.

.

.

.

.

.

Publicités
 

188 reasons why 8 mars 2018


 

So  you want to « fight bias » ? Which one exactly ?

.

[click here to enlarge this infographic of 188 biases as they are listed in Wikipedia Encyclopedia]

188_cognitive-bias

.

.

.

 

Du test utilisateurs avec 5 personnes 24 janvier 2018


Un fameux article publié par Jakob Nielsen en 2000 affirmait que 5 utilisateurs sont suffisants pour identifier en quantitatif la majorité des problèmes d’utilisabilité sur un objet particulier, réel ou virtuel.
Au-delà de cinq, il n’y a plus besoin d’ajouter des utilisateurs-testeurs encore et encore, « parce que vous retrouverez les mêmes problèmes encore et encore ». L’article explique clairement que lorsque 12 personnes sont impliquées dans un test, vous parviendrez à trouver presque 100% des problèmes d’utilisabilité.

Mais l’objectif des tests utilisateurs n’est pas nécessairement de couvrir 100% des problèmes. Il est aussi possible (et préférable) de limiter le périmètre à tester et se concentrer sur un élément précis, par exemple le processus d’achat en ligne, ou celui de la résiliation ou encore plus concrètement l’utilisation d’un nouveau type d’extincteur, ou la procédure de fixation d’un siège enfant dans une voiture.
Il s’ensuit qu’au lieu d’en recruter 12, on peut se limiter à 5 utilisateurs au minimum dans la mesure où, si ces 5 personnes sont toutes confrontées au même problème, on peut en déduire avec 90% de certitude que c’est un problème qui touche au moins 71% de la population en prenant, en termes statistiques, la limite inférieure de l’intervalle de confiance binominale.
.

Ces chiffres sont valables quelle que soit la taille de la population totale considérée.
Vous pouvez par exemple tester votre process d’achat en demandant à 5 utilisateurs d’aller sur votre site web et d’acheter un nouveau tee-shirt (avec de l’argent que vous leur aurez donné). En termes de proportions et de représentativité de ces cinq personnes, les résultats seront valables aussi bien si vous avez 20 millions de visiteurs mensuels (Amazon France) ou 150 (le-club-de foot-du-quartier).

.

Dans un article non moins fameux publié 12 ans après, Nielsen poursuit son argumentation en s’appuyant notamment sur 83 cas d’études menés par son entreprise où effectivement 5 utilisateurs-tests suffisent en moyenne pour atteindre le meilleur ratio coûts/bénéfices.

Mais… les critiques ne manquent pas… d’abord parce que :

Vous ne savez pas si vous avez identifié au moins 71% de tous les problèmes, ou juste 71% des problèmes les plus évidents (pas forcément les plus graves).

.

La littérature spécialisée a également beaucoup étudié la question et les réponses ne se sont jamais très éloignées des « 5 utilisateurs de Nielsen » comme le standard minimal de l’UI (User Interface).
Jakob Nielsen n’a jamais dit autre chose d’ailleurs, ni jamais affirmé qu’il ne fallait pas recruter 6 ou 12 ou 15 utilisateurs selon le contexte et l’objectif visé par l’étude.
Une chose intéressante à noter est que, souvent, le client qui mandate une campagne de tests, s’il est assez riche pour payer un nombre important d’utilisateurs-tests, ne le fait pas pour augmenter la fiabilité des résultats…mais pour se rassurer. Un peu comme les gens qui achètent un couteau suisse à 18 lames tout en sachant qu’ils en payent 16 de trop puisqu’ils n’en ont réellement besoin que de deux.

.

Au-delà du seuil minimum d’utilisateurs-tests, la vraie question qui émerge du débat critique est : avez-vous un processus itératif qui vous permette de vous améliorer en permanence ?

Alors effectivement, l’hypothèse de départ et l’affirmation de Nielsen peuvent être reformulées : 5 utilisateurs sont un nombre suffisant pour mettre en place un processus de tests pertinent sur la longue durée. A ce stade en effet, il est beaucoup plus efficace de mettre en place une phase de tests régulière avec cinq utilisateurs, plutôt qu’une unique campagne de tests avec quinze personnes (ou 30, ou 50).

.

Mais bien sûr, n’oubliez pas que vous n’êtes en train de faire « que » du test quantitatif. Ça ne vous apportera donc que des réponses liées à l’objet testé et non à l’expérience vécue (UX : User eXperience).
Si vous demandez à 5 utilisateurs d’acheter un ticket de RER pour aller de la gare Massy-TGV à Paris, vous aurez un test qui porte sur l’interface des bornes d’achat. Vous risquez de rater une bonne partie du problème (en date du début d’année 2018), qui est que 2 uniques bornes RATP sont disponibles en gare, pour accueillir les 1.200 voyageurs qui débarquent d’un TGV Ouigo et qui mettront plus de temps à attendre leur tour dans la file devant la borne qu’à faire leur trajet tout entier. A ce stade ils haïront tous votre interface, vos tarifs, votre marque, vos employés et vos produits mais pas à cause de l’interface, à cause du nombre de bornes…

Et ça les copains, il n’y a que le qualitatif qui pourra vous l’expliquer.

.

.

 

 

interview à l’École de design de Nantes 4 décembre 2017


Dans le cadre de la mise en place d’une nouvelle formation « Observation des usages » j’ai été reçu à l’École de design de Nantes pour une interview sur ce sujet d’études étrange et iconoclaste…
Profitons-en pour signaler que ce module de formation continue est désormais en fonctionnement et les réservations vous sont ouvertes :

.

Propos recueillis le 14 novembre 2017.
Après l’ère du tout technologique, de plus en plus d’entreprises et de collectivités reviennent aujourd’hui au début de tout produit/services : leur utilisateur. Pour cela, il convient de bien l’observer pour analyser son comportement, ses prises de décisions et actions. Pour accompagner ce changement, L’École de design met en place un nouveau module de formation continue « Mieux observer ses usagers ».
Description de cette formation avec son animateur, Yannick Primel, ethnologue et expert UX.

.

Pourquoi ce retour à l’observation des usages ?

Yannick Primel :
Beaucoup de projets s’attachent à livrer un produit fini qui fonctionne parfaitement, en laissant les utilisateurs se dépêtrer avec les contraintes techniques ou les incohérences de procédure.
On constate cependant aujourd’hui que la valeur ajoutée n’est plus dans la technologie mais dans la prise en compte de l’usage, dans la manière dont on configure un produit pour faciliter son emploi. Que le produit fonctionne techniquement, c’est la moindre des choses. Mais correspond-il vraiment à l’usage précis que j’en fais, là où je l’utilise habituellement ? Pour répondre à cela, il faut revenir au fondamental : l’utilisateur. L’observer, analyser son pourquoi et son comment dans la vraie vie, c’est de là que vient l’expérience utilisateur (User eXperience).
Quelque part, c’est une forme de respect qui s’était perdue envers le client ou le citoyen.

Une manière courante de concevoir un produit ou un service est de faire appel à des représentants ou des experts qui vont parler au nom des utilisateurs, c’est ainsi qu’on croit les connaître.

Mais qui a réellement été voir l’utilisateur ? L’observation UX vise à combler ce fossé entre la croyance et la connaissance avérée.

Il faut accepter que ce qu’on va observer ne va pas forcément correspondre aux représentations qu’on avait jusque-là. Accepter de changer ce qu’on fait parfois depuis des années pour mieux coller à la réalité est un point fondamental de l’UX.
Ainsi, c’est le besoin pratique qui dicte la configuration technique à adopter et non plus l’inverse.

 .

.

Qui doit observer ses usagers ?

Yannick Primel :
Celui qui va sur le terrain !

Entreprises privées ou collectivités, les décisionnaires (dirigeants, chefs produits, responsable innovation, directeur de services…) vont influencer la stratégie globale de la structure en acceptant que l’observation devienne un prérequis indispensable.
Avec l’UX on arrête de supposer, on va vérifier.
Cet élan vers le design de services et l’UX peut être illustré notamment par les banques. Certaines ont même racheté des agences de design pour évoluer. Elles ont accepté de revoir leurs produits dans la perspective de profits durables, si j’ose dire, en tout cas fondés sur une réalité pérenne (le groupe BPCE et ING Direct par exemple). Moins figées dans leur contrat que les assurances par exemple, elles ont commencé à se questionner sur la pertinence de leurs produits par rapport à un client-type imaginaire.
Pour le service public, deux extrêmes me viennent à l’esprit : la transformation particulièrement efficace du Ministère des Finances et au contraire le drame du RSI, qui a connu une forme de suicide par l’absence totale de prise en compte des besoins utilisateurs.
L’observation directe est donc la 1ère étape de la démarche de Design Thinking. Elle constitue la phase de découverte, la pointe de son double diamant. L’observateur est celui qui va percer la réalité de ce qu’on cherche à comprendre.
C’est le pied à l’étrier pour la structure prête à opérer son changement grâce au Design Thinking.

.

Comment se fait cette observation ? Quel est le terrain d’observation ?

Yannick Primel :
Sur la journée de formation, on va consacrer 1 heure à observer un lieu proche.
Le but : voir comment il est utilisé et par qui. Comment vit-on dans l’endroit ? Quelle est la symbolique projetée par ceux qui le fréquentent ? Quels sont les points de friction ?
La méthode de terrain est fiable car les critères sont rigoureux. Les ethnologues parcourent le monde depuis au moins 150 ans.

 

La collecte en particulier doit être reproductible : quelqu’un d’autre sur le même terrain rapportera des faits comparables, c’est donc loin d’être « subjectif ».

 

De manière générale, les données collectées sont d’abord qualitatives et directes parce qu’on est là pour ça. Prise de notes, photos, vidéos, tous les supports sont bons à prendre.
Si elles sont disponibles, viennent ensuite les données indirectes comme les métadonnées, statistiques de fréquentation, journal de bord des utilisateurs…
Enfin vient la phase de « raffinage » où l’on met en forme cette matière brute. Des projets différents peuvent puiser dans une même observation UX parce qu’on s’attache à décrire un contexte d’utilisation et ses permanences, ses rituels sociaux qui dictent quel objet on utilise ou à quel service on va faire appel et pourquoi ceux-là et pas d’autres.
Des adolescents observés dans leur lycée sont une source d’inspiration infinie pour les fabricants de vêtements, de chaussures comme de téléphones mobiles… et bien sûr aussi pour l’Éducation nationale.

On obtient toujours énormément d’informations. De manière générale, on trouve même toujours plus que ce qu’on est venu chercher. C’est l’expérience de la sérendipité, le « don de faire des trouvailles ».

On peut préparer ensuite les phases suivantes du Design Thinking, en constituant un parcours utilisateur et des personas solides (une personne fictive qui va représenter un groupe cible) qui sont incarnées à partir des vraies personnes dans leur vraie vie et non plus « à dire d’expert ». On constitue également une empathy map. Il s’agit de décrire les ressentis (froid, chaud, peur, nombre de décibels dans un lieu, importance du toucher, perception du temps perdu …).
Ces données émotionnelles et physiques, permettent de faire comprendre à l’équipe projet le ressenti physique d’une personne et aussi de comprendre ce qu’on va faire ressentir à quelqu’un avec la nouveauté qu’on en train de fabriquer.

.

Une base pour un changement de stratégie de l’organisation ?

Yannick Primel :
Une fois sensibilisées à l’observation des usages, les entreprises/collectivités peuvent mettre en place des procédures et parcours internes pour faire évoluer les compétences et gagner un avantage concurrentiel à l’échelle opérationnelle. Cela va clairement de pair avec la méthode de Design Thinking.
Rien ne devrait être conçu, testé ou livré sans avoir été confirmé sur le terrain.
Bien sûr ce n’est pas magique ni une garantie de succès… mais c’est en revanche la garantie qu’on va éviter de faire des erreurs grossières. D’abord on évite l’effet Beurk, ensuite éventuellement on suscite l’effet Wow !

Mais partir à la rencontre des usagers n’est qu’une première étape.

Pour donner son plein potentiel, cette démarche peut être généralisée et intégrée à l’orientation stratégique de l’entreprise. On passera alors de l’UX à l’échelle d’un projet, à de l’UX « exploratoire » (l’UX Research) qui permet d’orienter les efforts d’innovation sur la base d’un constat empirique. C’est mieux que d’avancer en aveugle…
En tant que méthode, l’UX est d’ailleurs née d’un projet du fabricant de microprocesseurs Intel qui avait envoyé l’anthropologue Genevieve Bell explorer ce que les gens faisaient dans leurs cuisines en Europe, Afrique du Nord et aux États-Unis. Un bref exemple encore sur l’UX Research : après le choc du Brexit, l’entreprise Ogilvy&Mather s’est rendue compte que sa compréhension de la vie quotidienne au Royaume-Uni était largement faussée par sa propre implantation londonienne. Ogilvy a donc développé un programme pour envoyer ses chefs de projets en observations régulières dans tout le pays, afin de ne plus laisser diverger leurs croyances et la réalité du terrain.

Pour eux, cela revient à modifier radicalement leurs produits parce qu’ils acquièrent une vraie connaissance de leur public, qu’ils n’avaient pas auparavant.

.

 

.

.

.

 

Le chef de projet automatique 27 juin 2017


Dans un article récent, l’anthropologue australienne Genevieve Bell énonçait que face à l’essor de l’intelligence artificielle (IA), la plus grande peur de l’humanité est de devenir sans importance, supplantée par des machines et des lignes de code informatique qui réaliseraient les tâches quotidiennes mieux et plus vite.
Ce n’est pas une mince affirmation pour quelqu’un qui a travaillé comme ethnologue pour l’entreprise Intel durant 18 ans et qui y a achevé sa carrière comme vice-présidente (encore une preuve que l’ethnologie sert à quelque chose : documentez-vous sur les réalisations de son équipe).

.

Contrairement aux propos d’autres chercheurs comme Stephen Hawking qui craignent que l’IA nous projette vers l’autodestruction, l’idée de Bell est qu’avec des intelligences artificielles omniprésentes, il se passe… rien.
L’être humain se retrouverait les bras ballants, les yeux dans le vague, attendant de répondre à la question « Et maintenant, on fait quoi ? »

Dans ce scénario de prospective, l’être humain se retrouve contraint de penser différemment son rapport au travail, à la productivité et au sens qu’il donne à son existence… à commencer par le fait que travailler pour toucher un salaire n’est peut-être pas le plus grand des accomplissements, puisqu’un automate est capable de faire ça mieux et sans demander de rémunération.
A quoi donc occuperions-nous nos journées si n’étions pas contraints de gagner un salaire ?
Le problème fondamental qui se posera alors sera d’ordre politique, au sens où il faudra trouver des occupations pour les masses humaines afin de les garder en bonne forme et contentes. Le mot « chômage » n’aura plus de sens dans la mesure où il ne s’agira plus d’un manque d’emplois, mais d’une absence totale d’utilité à travailler parce que nous ne serons plus contraints d’être productifs. Pour une large part de l’humanité, ceux qui travailleront seront les robots, les logiciels et, au sens large, les IA.  La question sous-jacente est celle non pas de qui produit, mais qui profite de la richesse ainsi produite.

Et effectivement l’intelligence artificielle a déjà commencé à supplanter l’être humain dans des domaines aisément automatisables. Malheureusement nous sommes encore trop immatures sur ce sujet pour avoir même pensé à redistribuer cette richesse. Peu à peu, à force d’affinages et de perfectionnements, ce sont d’autres domaines qui vont être touchés.  Si nous n’apportons toujours pas de réponse au problème il y en aura des gros, des problèmes.

.

Vous me direz alors que l’essor des IA sera limité et que de nombreux domaines sont à l’abri d’une automatisation radicale.
Cette phrase est assez ironique car elle est généralement prononcée par des gens qui se considèrent à l’abri d’une telle humiliation à se voir remplacer par un robot.
C’est bien le cœur du sujet : on est humilié d’être remplacé par un robot lorsqu’on en déduit que désormais, on est inutile.
L’hypothèse de Genevieve Bell semble prendre le pas sur celle de Stephen Hawking.
Entre l’ethnologue et le physicien, nous aurions finalement le choix entre deux avenirs qui ont déjà été envisagés par la science-fiction. D’un côté il y aurait un scénario post-pénurie que nous décrit La Culture de Ian M. Banks et de l’autre il y aurait l’apocalyptique Terminator de James Cameron.

.

Les chauffeurs de taxi se sont mis en colère en voyant Uber piétiner leur monopole… ce n’est rien à côté de ce qui arrivera avec les véhicules doté d’une autonomie de niveau 4, c’est à dire qui se conduisent totalement seuls, sans même avoir besoin d’être construits avec un volant et un frein pour Homo Sapiens.
Dans un domaine connexe, en France, les chauffeurs-livreurs sont plus de 300.000 (3,5 millions aux Etats-Unis).
De ce point de vue, les entreprises concernées (dont les auto-écoles) feraient bien de se préparer au jour où le « pilotage » manuel d’un véhicule à moteur sera légalement restreint aux pistes fermées. Dans la mesure où 90% des accidents de la route sont dus à une erreur humaine il ne faudra pas longtemps avant que la décision réglementaire soit prise… dès que le parc automobile sera prêt.
Il est arrivé la même chose aux actuaires du secteur de l’assurance -sans bruit et sans fracas- dans les années 1995-2000, au fur et à mesure qu’ils étaient remplacés par des logiciels qui rendaient inutile l’emploi d’un humain diplômé d’actuariat. Ce n’est donc pas un emploi dans un bureau avec clim et épaisse moquette du secteur tertiaire qui nous protège, ni parce qu’on a le sentiment de faire un travail hyper complexe.

.

Dans le monde de l’entreprise, on a tendance aujourd’hui à considérer que l’élévation hiérarchique est proportionnelle au niveau de protection face à l’automatisation des métiers. Plus vous êtes haut en grade, plus vous seriez à l’abri.
Peu ou prou, j’y vois comme une forme de déni qui empêche d’analyser le sujet sérieusement.

.

L’un des postes les plus exposés me semble être -contre toute évidence- celui de chef de projet.
Le chef de projet (le « CdP ») est celui qui coordonne les différents acteurs d’un projet en vue de livrer un produit qui ait la meilleure qualité possible. C’est la version essentielle et synthétique : le chef de projet est un chef d’orchestre.

Une autre définition plus pointilleuse de ce métier fait du CdP celui qui rassemble les informations utiles pour piloter un projet afin d’assurer le respect du fameux triptyque Coût-Délai-Qualité.
Il est alors censé empêcher les dépassements de budget, garantir l’absence de défaut à la livraison et assurer que cette livraison sera faite à l’heure.
Disons-le tout de suite, c’est généralement illusoire et pourtant c’est la définition la plus répandue.
Peut-être parce que c’est celle qui permet aux étages supérieurs de la hiérarchie de se dédouaner d’une mauvaise évaluation initiale en faisant porter le chapeau au seul responsable, le chef de projet.
En effet, sachant que la plupart des coûts sont systématiquement sous-évalués de 20 ou 30 %, il est assez facile ensuite de faire sauter le fusible chef de projet en lui reprochant d’avoir dépassé le budget prévu de 35%.
C’est la raison pour laquelle on sait de manière certaine que 80% des projets dans le secteur informatique dépassent le budget, sont livrés en retard et connaissent des défauts qu’il faut corriger par la suite.
Relisez cet article pour comprendre à quel point ça peut réellement partir en vrille.
(…de ce point de vue une destruction à la Terminator est envisageable… mais plutôt comme conséquence d’un accident industriel lié à un défaut de conception des IA plutôt qu’à leur perfection intrinsèque)

Bien sûr le chef de projet ne travaille pas seul, mais à ce stade ce noble métier est réduit au niveau du contremaître d’usine dont la contribution majeure consiste à vérifier que les différents contributeurs n’ont pas dépassé le temps prévu pour l’une des activités du projet. Sa valeur ajoutée n’est pas celle d’un chef, il est affecté à des tâches routinières de reporting et de projection budgétaire et calendaire.
Dans les organisations qui appliquent cette définition étriquée du chef de projet, la valeur de chacun est comparable aux rouages d’une bureaucratie normée, régulée et réduite au fétichisme des Jours/Homme.

.

Or il se trouve que les logiciels de « pilotage » sont  abondants et qu’ils enregistrent toutes les données relatives au projet. L’un concerne les « imputations » du temps de travail, l’autre recense les défauts ou anomalies et un autre encore pourra regrouper la dimension qualitative du produit en construction sous la forme d’ « exigences ».
Toutes les données sont donc présentes et c’est bien tout ce dont l’automate a besoin pour se mettre à fonctionner.

Au moment où les concepteurs d’algorithmes et d’IA parviennent à des niveaux de fiabilité inconnus jusque-là (voyez ClickUp ou Polydone par exemple), il ne se passera pas beaucoup de temps avant qu’une IA soit infusée dans un logiciel de pilotage de projet, de manière à automatiser le métier de chef de projet… c’est à dire à rendre inutile le chef de projet humain en tant que gestionnaire et comptable du Coût-Délai-Qualité.
Les premières entreprises qui adopteront ces IA de gestion de projet pourront dupliquer une compétence automatisée et si elle est aussi efficace que les voitures autonomes, on réduira les taux de (retards + dépassements budgétaires + anomalies) de 90%.
Le contrecoup sera que dès le départ, l’IA mettra en évidence la sous-estimation initiale faite par les responsables hiérarchiques (Comités d’investissements et autres Comités de direction) et qu’il n’y aura plus personne pour servir de dérivation à la responsabilité.

.

En termes de culture organisationnelle et de culture métier, l’absorption de la fonction de chef de projet par les IA laissera bien des spécialistes compétents en état de choc.
Le chef de projet est l’archétype du métier qui ne peut pas être automatisé !
Les actuaires disaient la même chose aux alentours des années 2000. Je le sais, j’y étais.
C’était avant de constater qu’effectivement les Modèles Linéaires Généralisés (en anglais GLM) faisaient le boulot, mieux, moins cher et avec une qualité constante autrement plus fiable qu’un humain qui a besoin de réfléchir à ce qu’il fait.

La fonction de chef de projet au sens de contremaître est donc vouée à disparaître pour cause d’obsolescence.
Resteront ceux qui se seront reconvertis en experts en logiciels de gestion de projet et ceux qui excellent dans ce qui est réellement non automatisable dans ce métier : la coordination des acteurs, la prise de décision relative au contenu du produit fini, la diplomatie entre les différents métiers affectés à un projet.
Bref : l’entregent, l’orchestration des équipes par la connaissance fine de leurs membres.
La seule compétence qui reste quand les machines s’occupent suffisamment bien de tout le reste. La dernière qui reste pour empêcher que tous les intervenants à leur tour finissent par être considérés comme des rouages de la machine.

.

L’irruption de l’IA dans la gestion de projet fera l’effet d’une attaque surprise et ça ne sera pas la faute de l’IA, elle sera du fait de notre manque d’anticipation. Skynet a verrouillé sa cible.

.

Il est temps d’envisager pour tout le monde l’avènement des IA comme les balbutiements d’un âge post-pénurie et donc de nous poser collectivement la question : qu’est-ce qui nous rend utiles ?

.

.
.
.

 

Plus loin, plus ancien 21 juin 2017


Depuis le numéro du magazine Nature daté du 8 juin 2017, nous avons vieilli collectivement de 100.000 ans -au bas mot.
Si vous-vous souvenez bien en effet, depuis vos années de collège, vous avez appris qu’Homo Sapiens (nous !) est âgé d’environ 200.000 ans, tels que des restes de squelettes ont permis de l’attester dans la zone du grand rift d’Afrique de l’Est.
Il s’agit bien de nous et je ne parle pas par métaphore, car n’importe quel enfant de 3 ans depuis cette époque aurait été capable d’être scolarisé dans l’une de nos écoles maternelles sans qu’on puisse le distinguer des autres (moyennant un apprentissage de la langue).
Vous ne pourriez pas distinguer ses parents si vous les croisiez dans la rue.
Pour résumer, depuis qu’Homo Sapiens existe, aucun de ses membres n’est différent des 7 milliards d’humains qui peuplent aujourd’hui la surface de la terre, ni physiquement, ni en termes de diversité culturelle ou de capacités mentales.

C’est toujours vrai depuis le numéro de juin 2017 du magazine Nature… sauf que c’est vrai sur 100.0000 ans de plus et sur une zone d’origine qui n’est plus l’Afrique de l’Est mais le continent africain tout entier.

.

Jusque-là en effet, le matériau scientifique laissait penser que nous (Homo Sapiens) étions nés à l’Est du continent africain, dans la savane alors qu’à l’Ouest, les singes avaient perduré dans les forêts denses.
De cette régions du Rift, l’être humain avait alors cheminé jusqu’à sortir d’Afrique pour peupler le reste de la planète. En Europe, nous avions côtoyé Neandertal, un autre genre d’Homo.
L’histoire du genre humain était linéaire à la fois en temps et en géographie. Pas d’hésitation, pas de détour, ni de chemin de traverse.
Cette histoire là on l’apprend à l’école (jusqu’à la prochaine révision des manuels).

Sauf que…
Sauf qu’au Maroc à Jebel Irhoud, une recherche archéologique a exhumé en 2004 des squelettes qui ont été étudiés pendant 10 ans et dont l’analyse remet en cause la linéarité du peuplement humain et son ancienneté.
La présence d’être humains à l’Est de l’Afrique il y a 200.000 ans n’est pas remise en cause : ils étaient effectivement là.
Mais 100.000 ans avant, il y en avait déjà à l’extrême Ouest du continent à 9.500 km de là.

.

La théorie admise selon laquelle les humains actuels descendent d’une population unique qui vivait dans l’unique région éthiopienne reste pertinente (la théorie « East side story »).
Mais avant la grande migration qui a poussé Sapiens à sortir d’Afrique (la théorie « Out of Africa »), il y avait donc déjà eu une migration propre au continent africain pendant au moins 150.000 ans.
Nous étions bien là, dans l’actuelle Éthiopie, mais aussi près de l’Atlantique et -très probablement- dans beaucoup d’autres endroits d’Afrique dont Florisbad dans l’actuelle Afrique du Sud où un crâne de Sapiens a été daté à 265.000 ans.
Et nous avons du prendre l’habitude -très probablement- de côtoyer sporadiquement d’autres Homo qui n’étaient pas Sapiens.
A la même période par exemple notre ancêtre à tous Homo Erectus, une lignée vieille de presque deux millions d’années, circulait aussi sur les mêmes sols.
Nalédi, Neandertal, Erectus, Florensis… toutes ces « branches minoritaires » du genre Homo sont désormais éteintes, mais au moment où Sapiens s’éparpillait gaiement de par le monde, il a forcément croisé ses cousins et, non, ils ne se pas toujours fait la guerre.
Avec une population d’humains estimée à 800.000 individus dans toute l’Afrique et 10.000 Néandertal en Europe, il est probable (hypothèse) qu’ils ne se considéraient pas comme des concurrents ou des ennemis a priori.
Les ressources étaient abondantes et le premier risque n’était pas incarné par un camarade bipède, loin de là.
Pour preuve qu’il y a eu des échanges intimes (et fructueux) : la population européenne actuelle possède 2% de gènes Neandertal.

.

Les humains d’il y a 300.000 ans avaient les ressources matérielles et psychologiques pour vivre côte à côte avec des humains qui n’étaient pas Homo Sapiens.
Il y a 300.000 ans d’ailleurs, il n’était pas certain que ce soit Sapiens qui finisse par être le seul survivant. D’autre conditions naturelles auraient pu faire de Neandertal la lignée persistante.

evolution-homo_humain_anthropologie-ethnologie

L’histoire de l’être humain s’avère donc plus complexe et plus dense que prévu.
Cette augmentation du niveau de complexité est souvent le signe d’un gain qualitatif en science, car les explications qui rendent la réalité plus simple sont en général extrêmement suspectes.

.

En termes de théorie anthropologique, la découverte de Jebel Irhoud n’est pas une révolution (toutes proportions gardées et mis à part tout ce qui vient d’être dit sur son importance).
Cette découverte renforce par contre un positionnement déjà existant, qui voit l’existence humaine se déployer dans le temps long et dans des configurations culturelles multiples dont aucune ne peut se prévaloir d’être meilleure que les autres.
A l’échelle de l’espèce humaine, cette variété des configurations sociales est porteuse de vitalité.
C’est aussi une plus grande probabilité de survie.

 

leroi-gourhan_le fil du temps_ethnologie-prehistoire

L’ethnologue, qui étudie les variances culturelles du genre humain, se retrouve contraint à émettre des hypothèses invérifiables quant au mode de vie de ces lignées disparues.
Sujet de thèse : à quoi et comment pensait Homo Erectus ?
Le seul matériau de l’ethnologue, c’est Homo Sapiens.

L’intérêt de la découverte de Jebel Irhoud réside aussi dans les questions que l’ethnologue peut se poser à lui-même.
A quoi ressemble une théorie en sciences humaines quand on la mesure l’aune de François Rabelais et son fameux « Science sans conscience n’est que ruine de l’âme » ?
Quelle est en effet la conséquence du savoir anthropologique ? Que peut-on en faire et quel objectif le chercheur peut-il se donner ?

.

D’ailleurs il ne s’agit pas de comprendre et d’expliquer une culture. « Une » culture ça n’existe pas. La bonne perspective est d’envisager les liens, les échanges entre cultures.
Répétons-le : la mondialisation est aussi ancienne que l’apparition de l’humain sur Terre.
A cet égard, emprunts, dons et bricolages symboliques permettent les traductions d’un groupe à l’autre et c’est par ces échanges que nous, Sapiens, avons pu perdurer et croître en tant qu’espèce depuis presque un demi-million d’années.
Le fait que tous les groupes soient enclins à se considérer comme plus digne que les autres pour représenter l’humanité (théorie de l’ethnocentrisme) est un réflexe spontané qui n’étonnera personne… comment reprocher aux membres d’une culture d’y être viscéralement attachés ?
Cette autoprotection nécessite pourtant d’être fermement bridée pour ne pas engendrer de rejet irraisonné; c’est la condition pour qu’elle soit positivement utile en servant de sas ou de tampon dont la fonction première n’est pas de rejeter la différence d’autres groupes mais de se donner le temps de bricoler un mode d’échange culturel collectivement acceptable.

.

C’est donc là qu’intervient l’anthropologue américaine Ruth Benedict :
« The purpose of anthropology is to make the world safe for human differences. »
L’objectif de l’anthropologie est de rendre le monde sûr pour les différences humaines.

.

sans-titre

.

.

.

 

 

La ville d’aujourd’hui, demain 12 janvier 2017


Depuis que les humains ont commencé à grouper leurs habitats au Néolithique, la tendance à l’urbanisation ne s’est jamais démentie et n’a jamais cessé de croître. Dans un passé récent, au XVIIIe siècle 0,4% de la population terrestre résidait en ville et en ce début de XXIe nous sommes plus de 50%. Les projections indiquent 65% de population citadine en 2025.

Sydney city sprawl. Urban life self-organizes around the possibilities of (social) exchange. Badly designed "smart cities" only place a burden on that basic fact.L’existence de la ville a eu une influence sur tous les domaines de la vie humaine dans la mesure où cet objet socio-géographique est rapidement devenu un centre de décision et, au sens propre, un lieu de pouvoir. Le sujet ‘urbain’ recouvre une réalité bien plus vaste que la simple construction d’un habitat dense, à commencer par l’organisation de la vie humaine, j’ai nommé : la politique.

 

.

L’omniprésence du digital aujourd’hui (devenu « pervasif ») se fait sentir dans tous les domaines, comme une confirmation concrète de la quatrième révolution industrielle telle que définie par Klaus Schwab, fondateur du Forum Économique Mondial. Ce concept peut sembler grandiloquent mais il a le mérite de pouvoir envelopper notre époque faite d’automatisation extrême et d’interconnexion généralisée entre les personnes, les systèmes d’infrastructures et les objets.
La construction de l’objet ville est donc, de fait, la construction d’un objet politique au sens d’organisation de la vie collective. Ce n’est pas un hasard si le premier département de recherche en sociologie au monde fut fondé en 1892 à Chicago, spécifiquement pour comprendre la dimension humaine de la vie en ville (et en corolaire aider la prise de décision publique quant au sujet de la planification urbaine).
Certains sujets spécifiquement urbains en effet ne peuvent pas être résolus par de la tuyauterie neuve ou le recours massif aux camions-toupies… comprendre, gérer et si possible maîtriser la criminalité, la cohabitation entre communautés culturelles, la redistribution des richesses, la résilience face aux catastrophes ou encore la prise en charge des nouveaux habitants ne relèvent pas du « bureau du génie civil ».

.

C’est précisément l’écueil qu’il faut éviter aujourd’hui avec la notion de « ville du futur » : les vrais problèmes à résoudre relèvent de la citoyenneté dans la ville et non de tuyauterie neuve.

Toutes les villes ont la même problématique et connaissent les mêmes sujets de réduction de la pollution, d’accès à l’énergie, de modification de la pyramide des âges, de mobilité, de divorce entre valeur foncière de l’immobilier et sa valeur économique locale, etc.
Ce sont des préoccupations mondiales et dans les discours de gestion urbaine, on en est quasiment à l’injonction morale : il faut être smart. Si vous êtes une ville, il vous être une smart city -une ville intelligente. Dans une grande mesure d’ailleurs, reconnaissons que le modèle historique arrive à ses limites et que ce modèle nouveau de ville hyper connectée au réseau de l’internet des objets (IoT) offre un espoir de les dépasser plutôt efficacement.
Certes, mais que recouvre l’injonction à être une smart city, en termes de conséquences ?
La ville du futur est souvent décrite en termes économiques et l’amélioration supposée est hyper rationalisée : rapidité des services rendus, juste dimensionnement et juste localisation.The equivalent of a ghetto would be to deploy "smart" technologies within our cities, without taking into account the real population (not the intended population). Recruit ethnographers, proceed to deep UX field-observations !
Ce type d’urbanisme paternaliste reprend les codes techno-scientifique qui ont donné vie en France aux « grands ensembles » de HLM dans les années 1950. Posture politique qui a encore des effets sociaux et architecturaux largement négatifs 60 ans plus tard.
L’ampleur des financements d’une smart city impose des partenariats public-privé et une infatuation en termes d’approche basée sur les données… Une étude récente par Raphaël Languillon-Aussel, Nicolas Leprêtre et Benoit Granier montre bien comment les grands groupes industriels (Toshiba, Panasonic, IBM en particulier) utilisent les expérimentations grandeur nature pour améliorer leurs technologies, avec des arguments chiffrés qui mesurent l’efficacité de leur matériel pour apporter la preuve de son utilité. Cette vision de l’efficience promue par les fournisseurs ne doit pas abuser les décideurs politiques pour laisser transformer nos villes en chaîne de production robotisée.
Cela nous ramènerait à la conception technocratique d’il y a 50 ans… le risque est donc énorme de voir se reproduire une dégradation non anticipée de la qualité de la vie urbaine collective.
Car pour les habitants, l’intérêt premier est dans les nuances qui n’apparaissent pas sur un tableau Microsoft Excel : transparence des institutions, engagement civique, équité sociale.
La question posée doit explorer les bénéfices technologiques en termes de service rendu et de renforcement des capacités d’action (empowerment) des citadins eux-mêmes, de leur propre point de vue.

.

Certaines villes considérées comme avant-gardistes mettent en place depuis les années 2000 un modèle qu’on appelle la smart city ; la ville intelligente ; ou encore -avec autant de modestie- la ville du futur. La vision qui préside à l’établissement de la ville du futur est faite d’interconnexion des systèmes et d’exploitation intensive de la data afin d’optimiser les services et les infrastructures. L’intérêt d’insérer du digital dans la ville permet de basculer vers une gestion à très court terme, voire au temps réel pour certains aspects de flux (circulation routière, transport public, distribution d’énergie).

Pour une supervision en temps réel des transports, voir l’exemple d’application Big Data ci-dessous qui montre la circulation des taxis à New York du 24 au 31 octobre 2011 :

 

[lien secondaire : https://vimeo.com/88147836 ]
.

Avec le développement rapide du numérique, la smart city est désormais passée de la brochure marketing sexy à la réalité (parfois moins sexy).
La promesse d’efficacité à grande échelle et de précision algorithmique a séduit des métropoles partout dans le monde. Le Japon abrite 4 des principaux projets mondiaux de smart cities, dont celui de Yokohama qui porte non pas sur un unique quartier (300 à 400 foyers) mais sur 10.000 foyers. En dehors des cadres expérimentaux, Singapour s’est révélée exemplaire dans la gestion de la mobilité, Copenhague pour la dimension durable et Boston pour la participation citoyenne.

.

A ce titre, il est d’une importance cruciale de comprendre que le numérique et l’usage intensif de la data doivent avant tout permettre une plus grande interactivité humaine. Mais la data n’est pas la vie… et le quantitatif est incapable de prendre en compte la variété encore plus grande du qualitatif.
Car, je le prédis, ça ne fonctionnera pas si le système porte uniquement sur l’optimisation technique et omet la socialisation.
En oubliant l’être humain dans l’équation de la ville du futur, on s’apprête à un retour de bâton magistral lorsque le « facteur humain » reviendra sans avoir été invité sous la forme de protestations, de vandalisme, de non-respect volontaire des procédures ou d’arrangements parallèles qui passeront outre tout le ‘smart’ qu’on aura bien voulu injecter dans la ‘city’.
L’absence de prise en compte des aspects socio-politiques aboutira à coup sûr à un refus d’adoption des innovations proposées et à un accroissement des inégalités  -si toutefois l’objectif initial était bien de les réduire.

Il serait donc bon de questionner le modèle de design et les méthodes utilisées avant la pose de la première pierre dans un nouveau Digital technologies can bypass classical urban planning problems, yet the design of these projects should not forget the main issue is social not technical. Real-life citizen-centric more than the abstract user-centric archetypes.quartier. Quels profils de population sont pris comme référence pour penser les innovations à venir ? Les décideurs publics pourraient cesser de valoriser systématiquement la population qu’ils souhaiteraient avoir dans la ville, et de prendre en compte sa réalité. (voir mon article sur les Millennials)
A ce titre, une « smart city » si elle veut assumer son rôle d’infrastructure politique doit en premier lieu se préoccuper de la population réelle… ce qui suppose une adaptation des technologies aux différents contextes locaux et non l’implantation de systèmes standardisés.
Pour réussir au-delà du minimum technique requis, les initiatives d’ « urbanisme digital » doivent prendre en compte et soutenir des besoins spécifiques et hautement variables, qui ne correspondent pas la plupart du temps avec les profils-types d’utilisateurs définis en phase initiale : riches, éduqués et dont la vie peut se faire dans 3 km². Les populations pauvres, non connectées sont par contre les grandes ignorées du processus.
Qu’en est-il du parent solo qui doit faire 50mn de transport en commun pour aller au travail et dont l’abonnement lui coûte 10% de son salaire ? Le fait que sa carte de métro soit sur son smartphone ou que son bus soit sans conducteur est bien le moindre de ses soucis.
Qu’en est-il de l’idée de rue, conçue comme un lieu de vie publique et non un lieu qui mène à des actes d’achat ?
Comment sera garanti l’anonymat de nos données ? Et pourquoi envisage-t’on de faire payer les déchets selon le poids de nos poubelles (connectées) alors que les fabricants ne sont pas contraints de produire moins d’emballages ?

Et à quels services publics n’aurons-nous pas droit si l’on ne dispose ni d’un smartphone, ni d’un ordinateur ni d’une carte bancaire ?
Et pour ceux qui ont ces équipements, sera-t’il possible de cliquer sur opt-out ?

Pour ceux qui se préoccupent de renouveller la ville d’aujourd’hui en vue de demain, ça commence au tout début du processus : dans le cerveau des concepteurs, par une collecte qualitative issue du vrai terrain et une approche bottom-up, participative, du test & learn et -soyons fous- une implication directe des citoyens via des ateliers de co-création.
(remettons-en une couche, cria alors l’ethnologue : faites des observations in situ de vraies personnes pour bien calibrer les technologies à leurs utilisateurs… car ne pas le faire produira l’équivalent digital de la cité HLM : exclusion, paupérisation et déliquescence)

.

Nos existences vont donc changer effectivement mais, finalement, il est probable que l’espace public ne changera pas si radicalement.
Le thème de la ville du futur concerne moins les infrastructures que les interactions humaines avec ces infrastructures. Rome à l’époque de César ressemble beaucoup à la Rome de 2017, le système social par contre n’a plus rien à voir et il a même changé plein de fois. En 3017 il y a fort à parier que Rome ressemblera encore beaucoup à la Rome de 2017. Les espaces horizontaux serviront toujours à accueillir les activités et les parois serviront toujours à séparer les espaces horizontaux. Les façades auront toujours pour fonction de protéger de l’extérieur et les fenêtres à voir au-delà des parois.

Mais dans le système social qui se prépare, la smart city sera bavarde. Les bâtiments, les voies de circulation, les véhicules et les objets seront bavards. Certaines de ces choses inanimées auront sans doute même une relative capacité d’auto-régulation, mais les éléments-clés ne seront pas modifiés. Avec un peu de d’organisation, il sera même encore possible de se perdre en se promenant.

What are the political implications of these internet-data-automation stuff ? This is a VERY good question. Such a technical system would ease or make more difficult the birth of a dictatorship ?L’incompréhension fondamentale que nous devons éviter réside dans le fait qu’une ville est un tissu social avant d’être une plateforme technique. L’impact humain de la planification urbaine n’est pas seulement fiscal ou pratique.

.

Pour pousser l’argument encore plus loin, je l’ai déjà dit et je le dirai encore : le critère ultime d’évaluation d’une technologie est sa capacité à ne pas servir une tyrannie.
Le fondement de l’État de droit repose sur la séparation des pouvoirs : comment s’assure t-on que cela descend jusqu’au niveau des bases de données ? Si demain ce sont mes empreintes digitales qui servent de titre de transport, comment pourra-t’on garantir ma liberté de circulation sous le règne d’un gouvernement autoritaire ?

Pensez-y lorsque vous serez en charge de la conception d’un nouveau « quartier connecté ».

.

.

.

 

 

 

 
%d blogueurs aiment cette page :