François-Xavier Petit, agrégé d’histoire et anthropologue

François-Xavier Petit est agrégé d’histoire et anthropologue. D’abord chargé de cours à la Sorbonne et coordinateur d’un projet d’humanités numériques à l’EHESS, il devient ensuite plume et conseiller de différents responsables politiques, avant d’intégrer les cabinets de plusieurs ministres du travail de 2012 à 2015, en tant que conseiller numérique, innovation, prospective et société. Il fonde ensuite Matrice, programme de formation,d’entrepreneuriat, d’innovation,de recherche  et de création artistique dont il est le directeur général.

Retrouvez les derniers articles de cette chronique :
Voir tous les articles

Penser l’automatisation 

Au coeur de l’utopie d’internet était la fabrication du consensus. L’abondance d’informations et la diversité des opinions exprimées au travers de tous les canaux numériques devaient aboutir à l’émergence de vérités partagées. Or c’est tout le contraire qui se produit. Rarement la réalité a semblé si écartelée, si relative.  

Penser l’automatisation 

Peut-on, pour autant, parler de « régression », d’un nouvel âge triste ? Ce qui interroge, c’est que les facteurs à l’oeuvre sont l’inverse du schéma classique de la « régression ». Au Moyen-Âge, par exemple, c’est la perte des auteurs anciens qui fait « régresser » les sociétés, en les privant des savoirs classiques. Pour nous, c’est l’inverse : l’abondance d’informations que nous ne savons ni contextualiser ni assimiler semble nous faire « régresser » en détruisant nos capacités à générer de la connaissance. Sacré crochet du droit dans la face du progrès, des Lumières et de l’Ecole de la République, tous fondés par la conviction que la diffusion de la connaissance est l’antidote de l’obscurantisme… 

 Penser comme un ordinateur 

 Alors, que s’est-il passé ? Depuis l’irruption de l’informatique, nous avons été conditionnés à penser que les ordinateurs rendaient le monde efficace et transparent, parce qu’ils étaient capables de fournir (par le calcul) des réponses aux problèmes qui nous assaillent (du séquençage du génome contre certaines maladies, à l’autonomisation des rames de métro pour une meilleur cadence, en passant par l’intelligence artificielle pour aider la police à lutter contre la criminalité). Or c’est précisément cette histoire qui a déraillé. 

 Confiants dans cette vision sécurisante d’un numérique qui se pilote lui même, de réseaux qui assurent la cohérence du tout, d’une automatisation sans cesse plus efficace et infaillible, nous ne nous posons plus la question de savoir ce que produit vraiment le numérique sur nous ; au point de croire souvent plus à nos outils informatiques qu’à la réalité de notre observation. Combien de fois avez-vous suivi votre GPS alors que votre souvenir des lieux vous disait de prendre une autre route ? Que l’on se comprenne bien, il ne s’agit pas de dire que c’était mieux avant, avec la boussole et le parchemin, mais plutôt que l’utilisation de nos prothèses techniques n’est pas du tout neutre dans notre manière de saisir le monde ou de nous saisir nous-mêmes, de cultiver nos goûts, de déployer notre singularité ou de construire notre expérience. C’est cela qu’il faut investiguer. 

Sur l’armature du réel se tissent des systèmes techniques dont le but est de modéliser le monde, de le décomposer en unités minimales : les données. Ainsi, l’observation des données du climat permet de prévoir la météo de demain, les assureurs modélisent les risques via les données des accidents, les militaires observent le comportement des navires pour en déduire les « patterns » suspects, et les producteurs de biens et services nous enferment dans nos habitudes de consommation.  

 C’est pas le moment de prendre son biais 

 Mais le moins que l’on puisse dire, c’est que ce n’est pas très sérieux, malgré l’apparent caractère mathématique et rationnel de cet appareillage technique ! De fait, dans cette modélisation globale s’expriment tous les biais possibles. Le premier d’entre eux est de croire que l’algorithme prédit le futur quand il ne fait que modéliser le passé, en maniant des données elles-mêmes relatives et imparfaites. La police prédictive autant que la justice algorithmique ont achevé de démontrer leurs erreurs, c’est-à-dire le renforcement des croyances sociales et inégalitaires inscrites dans les données, là où, au moins, le juge a un surmoi et saisit la notion de circonstance atténuante. L’algorithme semble bien être dans l’erreur (James Bridle, Cathy O’Neil). 

 Toi non plus, tu ne comprends pas ? 

Si ce n’était que ça… Le vrai problème est que nous ne comprenons rien au choix qui sont effectués par les systèmes techniques, et qu’aucun algorithme n’est aujourd’hui en capacité d’expliquer ses propres choix. Jamais. Autrement dit, nous vivons avec nos objets techniques (ce n’est pas nouveau) dont le mode de fonctionnement nous est totalement obscur (ça, c’est nouveau). Rien de grave quand il s’agit de choisir un itinéraire, un peu plus quand on cherche un conjoint, l’université du fiston, ou que sa voiture est autonome. Alors, puisqu’on ne comprend pas… eh bien la machine doit avoir raison. Et plus l’informatique nous encercle, plus nous lui reconnaissons la capacité à définir la vérité. D’ailleurs ce qui structure notre accès la connaissance – la première page de Google – est elle-même un biais algorithmique costaud. En effet, Google ne remonte pas les résultats les plus populaires mais les plus « pertinents ». Et « pertinent » veut dire ici « cité et utilisé par d’autres (en bien comme en mal) », en pariant sur le fait que, si les internautes font des liens vers ce contenu, c’est qu’il est « pertinent ». Voilà bien le biais de l’automatisation : savoir si cette définition de « pertinent » est justement « pertinente ». Sauf que cela est caché, obscur, bien loin de nos compréhensions, inaccessible à nos choix. Et quand on trie par pertinence, on ne nous demande pas si la pertinence est pertinente. Le problème n’est pas l’ordre d’apparition des résultats de Google mais le fait que nous lui déléguons nos tâches cognitives : contrôler la pertinence de la pertinence. 

Et quand bien même la puissance de calcul ne parvient pas à fournir la bonne réponse (la voiture n’est pas encore autonome) revient notre atavisme de croire au progrès. Traduit dans un monde d’informaticien, cela signifie que l’obstacle finira par être enjambé par la loi de Moore nous garantit que la puissance de calcul va doubler rapidement. Les plateaux d’aujourd’hui seront forcément emportés demain. La loi de Moore et la croyance dans le progrès ne sont pas seulement économiques ou technologiques, elles sont profondément libidinales. Qui a dit que la machine nous débarrassait de ces biais trop humains… 

 Is conspiracy the new chic ? 

 Mais qui peut croire que ça va bien se passer ? Dans une multitude d’informations sans contrôle de la pertinence, tout semble se valoir et l’on paraît bien démuni et incapable de comprendre ou d’agir (comme avec le changement climatique, où l’on sait tout mais on ne peut presque rien). Et si le conspirationnisme était la bouée cognitive de sauvetage des plus démunis intellectuellement ? De plus en plus, le monde paraît bien incompréhensible. De fait l’automatisation, par son obscurité, concentre en un nombre de têtes toujours plus infime la compréhension du présent. Un bon complot a le mérite de donner un peu de clarté. Au moins, il y a un méchant dans l’histoire, comme dans James Bond. Vous imaginez si 007 ne se heurtait qu’à un système électronique sans cerveau malade pour le piloter ? En 2013, à 1.07 pm, le compte twitter officiel d’Associated Press a été piraté par l’Armée électronique syrienne. Deux explosions à la Maison Blanche et le Président Obama blessé ont été annoncés. Le fil de 2 millions d’abonnés a reçu l’information. A 1.08 pm, le Dow Jones a perdu 150 points par des opérations automatiques car bien des abonnés humains n’avaient pas vu l’information. Sans compréhension, il n’y a que des fantasmes. 

 Mais les fantasmes que nous nourrissons ne sont pas psychédéliques comme au premier temps de l’internet. Les nôtres sont paranoïaques (la NSA et Wikileaks se rejoignent sur ce point) et programment la désintégration sociale. Oui, quand on est assiégé par l’évidence de la complexité, un récit simpliste est quand même une manière de reprendre un peu de pouvoir (« take back control » martèle justement le tragique Boris Johnson… tiens donc). On est ici au cœur de l’automatisation – d’ailleurs bien des bots ont fait le vote Brexit et si l’on peut avoir une certitude, c’est que l’on ne sait pas qui était derrière, ni pourquoi. Entre la recherche de revenus publicitaires, la fiction paranoïaque, l’action des Etats ou la multiplication des spams, il semble impossible de démêler l’origine. Décidément, on ne comprend pas et ça devient un énorme problème. Faudrait-il bannir le numérique ? Bien sûr que non ! Mais tâchons de le penser bien davantage.


Commenter

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

velit, libero. diam tristique ut ut vulputate, id, commodo