Cet article fait partie du dossier

La confiance : pour valoriser les données et l’IA
Découvrez le dossier

Les articles du dossier

Data et IA : les entreprises peuvent-elles générer plus de confiance pour les clients et utilisateurs ?

Olivier Crochat dirige le Center for Digital Trust, au sein de l’école polytechnique fédérale de Lausanne. Il revient sur le concept de confiance appliquée au monde digital avec un tour d’horizon des questions qui se posent aujourd’hui aux entreprises qui développent des services numériques basés sur la data et l’IA.

Alliancy. Quelles sont aujourd’hui les sujets technologiques qui vous paraissent les plus problématiques quand on pose la question de la confiance ou de la défiance qu’ils provoquent ?

Olivier Crochat

Olivier Crochat dirige le Center for Digital Trust, au sein de l’école polytechnique fédérale de Lausanne

Olivier Crochat. L’un des sujets qui est souvent associé à ces termes est celui de la cybersécurité, mais je considère en la matière que l’on reste sur du « business as usual ». Ce qui change en fin de compte ces dernières années, c’est la nature des attaques et les modes de protection. Les criminels s’améliorent et les moyens pour se défendre aussi.

A lire aussi : [Chronique] La responsabilité partagée de la protection de l’information : le chantier majeur oublié des DRH

Ce n’est donc pas tellement un enjeu de confiance ou de défiance. Par contre, je dirais que toutes les organisations ont aujourd’hui un vrai enjeu de confiance autour des usages technologiques qu’elles veulent porter et proposer à leurs clients, leurs collaborateurs, etc. Nous le savons tous, la technologie n’est pas intrinsèquement bonne ou mauvaise : c’est bien le choix conscient d’en faire une certaine utilisation qui va poser problème. On ne peut jamais simplifier la situation en prétendant que par défaut, un nouvel usage va servir le bien commun. Les risques de mauvais usages sont permanents, donc il faut entrer dans le détail.

La démocratisation de l’intelligence artificielle, à travers par exemple les deep fakes ou plus généralement les possibilités offertes par les réseaux de neurones, pose-t-elle un problème de confiance ?

Olivier Crochat. L’idée commune est de dire que les technologies se perfectionnant, les possibles tromperies deviennent de moins en moins détectables. Mais là encore, on est plutôt dans un jeu du chat et de la souris, ou une course à l’armement : même s’il existe des risques importants, les moyens pour détecter et vérifier progressent aussi et permettent de rattraper le retard. Après tout, quand les premières photos truquées ou retouchées ont été utilisées, on avait beaucoup de mal à le voir… Or, aujourd’hui, la vigilance est très forte sur le sujet. Là où le problème est réel je pense, c’est sur la rapidité du changement. Celui-ci pose des difficultés d’adaptation aux personnes, citoyens ou collaborateurs. Et donc, mécaniquement, beaucoup risqueront de faire confiance, sans avoir le temps d’acquérir les outils, intellectuels ou techniques, pour se prémunir de ceux qui voudront exploiter cette confiance.

Dans ce cadre, on a l’impression que le problème de la confiance est avant tout un sujet d’acculturation au numérique ?

Olivier Crochat. Une grosse partie du problème vient de la construction de croyances. On le voit très bien avec la question du complotisme et quand on regarde les caisses de résonnances et les bulles cognitives que sont devenus les réseaux sociaux. Cependant, il ne faut pas tomber dans le piège de penser que certains évènement au demeurant marginaux dans leurs conséquences, parce qu’ils sont montés en épingle par les médias ou les réseaux, auraient des impacts extrêmement graves sur tous les aspects de nos sociétés. Il y aura toujours des complotistes, des criminels, des arnaqueurs… Ce n’est pas parce qu’ils jouent aujourd’hui avec le numérique, que c’est la fin du monde.

Dans son livre « Thinking, fast and slow », le prix Nobel d’économie Daniel Kahneman, a très bien montré comment nous avons de toute façon un biais de sélection pour construire ce en quoi nous avons confiance ou non. Nous sélectionnons littéralement ce qui conforte certaines dispositions, qui nous rassurent, etc. Et il faut souligner que nous avons tous tendance à choisir cette facilité intellectuelle à « noyer le poisson ».

Mais une fois cette tentation identifiée, je vous rejoins sur l’idée que l’enjeu aujourd’hui est aussi et surtout celui de la culture numérique. Il ne s’agit plus seulement de développer une capacité à mettre à distance l’information et à faire preuve d’esprit critique, il faut pouvoir comprendre les tenants et les aboutissants de notre nouvel environnement numérique. Quand on parle de technologies, l’incompréhension est souvent telle qu’il est difficile de développer son esprit critique… Pourtant, avec le numérique comme pour le reste, il convient de se méfier de ce qui parait « trop beau pour être vrai ».

De ce fait, les entreprises en transformation numérique, ont-elles une responsabilité particulière à assumer ?

Olivier Crochat. C’est une bonne question. Je pense qu’il y a un enjeu très important au niveau du « design » du numérique, c’est-à-dire des cercles vicieux qui peuvent se créer, en termes d’usages et de modèles d’affaires, du fait des possibilités offertes par le numérique. Je vais prendre un exemple qui est de plus en plus étudié : les plateformes qui développent des services en utilisant les données personnelles de leurs utilisateurs, rentrent souvent – parfois sans s’en apercevoir – dans une dérive consistant à confondre le moyen et la fin. Pour alimenter leurs bases de données, elles vont avoir tendance à pousser des usages qui visent principalement la captation des données personnelles, plutôt qu’un véritable service pour l’utilisateur. C’est comme cela que les réseaux sociaux en viennent à créer des bulles et des filtres. La machine finit par n’avoir qu’un objectif : se nourrir elle-même, entrainant tout le business model derrière. On peut extrapoler ce problème avec de nombreux types de services numériques aujourd’hui.

Que peut-on faire pour éviter de tomber dans de tels cercles vicieux ?

Olivier Crochat. Je pense déjà que les collaborateurs ont un rôle important à jouer. Quand ils prennent conscience du problème, ils sont nombreux à peser pour que l’entreprise rectifie le tir et cherche plutôt à servir le bien commun. Ensuite, il y a évidemment le volet législatif et réglementaire, qui doit pouvoir contrôler et punir les excès. Je pense également que plus la maturité du public augmente sur cette question, plus il est possible de penser de nouveaux business modèles qui répondent à la fois aux enjeux de revenus, aux attentes des actionnaires de la société capitaliste, et à ces enjeux de confiance vis-à-vis des utilisateurs. Mais pour que ces derniers puissent vraiment avoir leur mot à dire, il faut qu’ils aient le choix. S’il n’y a pas possibilité d’aller chercher de nouveaux bénéfices différents auprès d’un autre service, la force des habitudes fera qu’on ne sortira jamais de ces usages ou de la première plateforme que l’on s’est mise à utiliser.

Comment assure-t-on la liberté de choix qui garantit la confiance ?

Olivier Crochat. Le point le plus important est déjà la portabilité des données, d’un service à un autre, qui doit être associée à une grande interconnectivité et interopérabilité de ceux-ci.  Dans le design des services, c’est un sujet souvent ignoré et qui n’est généralement pas vu comme un facteur favorisant la confiance ou l’adhésion…  De plus en plus de sociétés veulent devenir « data driven » et vont donc se retrouver à utiliser énormément d’outils d’analyse, d’algorithmie, de solutions stockage, de sécurité, etc. Il est rare qu’elles les développent elles-mêmes. Il faut donc qu’elles aient ce réflexe de passer les outils choisis au crible de ces sujets de confiance. Créer un servir et utiliser la donnée doivent systématiquement interroger sur le rapport bénéfice-risque, mais pas seulement ; la dimension d’acceptabilité sociale et plus encore la dimension intrinsèquement éthique doivent questionner.

On en est au tout début de ces nouveaux usages et je pense qu’il est nécessaire de mettre en garde les entreprises, pour qu’elles ne tombent pas dans le piège de l’illusion de la data. Trop d’acteurs font miroiter des promesses merveilleuses en utilisant le mot « data » ou « IA », avec des argumentations qui confondent allègrement la causalité et la corrélation. Il faut prendre du recul sur la réalité de ces usages. Et plutôt qu’attendre les législateurs, les entreprises qui veulent générer de la confiance ont tout intérêt à prendre les devants, à définir leurs normes, leurs lignes rouges, en toute transparence. Ainsi, elles dépasseront le stade du beau discours et montreront, on l’espère dans la durée, qu’elles sont crédibles quand il est question de confiance pour leurs clients et utilisateurs.


Commenter

Votre adresse e-mail ne sera pas publiée.