Les questions éthiques au cœur de l’IA générative

Rapport à la vérité, manipulation des utilisateurs, distinctions entre les textes écrits par la machine et les humains… Alors que ChatGPT bat tous les records à travers le monde, l’intelligence artificielle générative fait apparaître de nouveaux enjeux liés à l’éthique.

Les questions éthiques au cœur de lIA générativeLes chiffres d’OpenAI et de son désormais très célèbre ChatGPT sont impressionnants : 180 millions d’utilisateurs mensuels (selon SimilarWeb), un chiffre d’affaires estimé à 1 milliard de dollars pour l’année 2023 (contre seulement 28 millions de dollars l’année dernière) ; pour une valorisation estimée à 29 milliards de dollars.

A lire aussi : 82% des entreprises françaises veulent interdire l’usage des IA génératives

En quelques mois seulement, les usages de ChatGPT ont fait irruption dans de très nombreux départements d’entreprises. L’assistance à la rédaction de texte a permis à de multiples entités de créer du contenu marketing, de rédiger des rapports ou des courriers électroniques. La traduction automatique de textes entre différentes langues a également séduit d’innombrables utilisateurs.

Quant aux chatbots basés sur GPT-3,5 ou GPT-4, ils sont mis à profit par certains services client en ligne pour répondre aux questions des prospects ou des clients, et pour l’automatisation des interactions. De son côté, la génération de code informatique est une fonctionnalité qui aide les développeurs à écrire des scripts et automatiser certaines tâches de développement.

De la vie privée à la sphère professionnelle, l’éthique est partout

L’utilisation de ChatGPT et, plus globalement de l’intelligence artificielle générative, soulève cependant de nombreuses questions éthiques et ce, dans tous les domaines : de la vie privée à la sphère professionnelle, en passant par la vie politique.

Dans un avis intitulé « Systèmes d’intelligence artificielle générative : enjeux d’éthique », le Comité national pilote d’éthique du numérique (CNPEN) explique très clairement comment les tensions éthiques se créent : « Le philosophe allemand Hans Jonas, dont l’œuvre a inspiré le débat français et européen sur le principe de précaution, diagnostique le problème éthique dans le décalage entre deux vitesses : la première est celle de notre action technologique de plus en plus puissante et rapide ; la seconde, celle de notre capacité d’en prévoir les conséquences. Le lien entre la célérité de l’innovation technologique, le temps limité pour la réflexion sociétale et le poids des intérêts économiques, est au centre du problème éthique. Ce décalage est susceptible de générer pendant plusieurs années des tensions anthropologiques, psychologiques, économiques, sociales, politiques et culturelles ».

Pour aller plus loin, ne manquez pas notre Dîner-Débat : « Les impacts de l’IA Générative »

Le rapport à la vérité : premier enjeu d’éthique

Un des premiers enjeux éthiques est bien évidemment le rapport à la vérité. Les grands modèles de langue (LLM) contiennent en effet des corrélations entre des tokens (éléments de textes) qui n’ont aucun ou peu de rapports entre eux. Par conséquent, ces systèmes peuvent produire des résultats erronés ou des phrases qui énoncent des faits qui n’existent pas dans le monde réel (hallucinations).

« Les systèmes d’IA générative fonctionnent uniquement avec des représentations numériques, sans appréhender la signification des mots pour les êtres humains. La signification est uniquement celle que les humains projettent sur les résultats, car seuls les humains en possèdent une interprétation dans le monde réel. Ce manque total de compréhension peut n’avoir aucune importance dans certains usages, par exemple produire un poème ou une fiction, ou avoir des conséquences désastreuses si les textes fournis sont des recommandations pour des décisions critiques », peut-on lire dans l’avis du CNPEN.

Éviter la manipulation, volontaire ou involontaire, de l’utilisateur

Les textes fournis par l’intelligence artificielle générative peuvent également entrainer des risques de manipulation, intentionnelle ou non. Selon le Comité national pilote d’éthique du numérique, la machine peut ainsi être perçue comme plus performante ou supérieure à l’homme. Par exemple, les systèmes d’IA générative s’expriment à un bon niveau de langage. Cela produit un risque de manipuler des utilisateurs qui peuvent se sentir pris à défaut ou incompétents devant les « capacités » de la machine.

L’interaction en langage naturel peut aussi amener l’utilisateur à parler plus librement de son intimité et à croire à une attention de la part de la machine qui donne l’illusion de l’empathie humaine. « Un système d’IA générative peut donc mettre les utilisateurs dans des situations les amenant à se confier, mais aussi à révéler des informations confidentielles des entreprises », note le CNPEN.

Enfin, les informations fausses ou imprécises produites par les systèmes d’IA générative pourraient être utilisées afin de nourrir les corpus d’apprentissage de nouveaux modèles de langage. Ces « données synthétiques » nécessitent une approche réglementaire appropriée à chaque domaine d’utilisation des systèmes d’IA générative.

Megaban IA

Maintenir les distinctions entre les textes écrits par la machine et les humains

Le manque de distinction entre un texte écrit par un être humain et celui généré par un système d’IA est un autre problème éthique majeur. Les utilisateurs ne doivent en effet pas confondre un résultat produit par une machine avec un résultat créé par un auteur humain.

« Le maintien des distinctions permet notamment d’attribuer des responsabilités pour un éventuel préjudice. Si un texte provoque une tension éthique, par exemple à cause du nudging (méthode d’influence discrète, NDLR) ou de la fraude qu’il contient, il est impératif de pouvoir tracer son origine afin d’éviter la confusion entre un discours produit par un agent responsable, apte à répondre de ce qu’il dit, et la parole asémantique d’un système d’intelligence artificielle auquel on ne peut attribuer aucune responsabilité », analysent les auteurs du rapport.

Le CNPEN préconise ainsi que les concepteurs de grands modèles de langue mettent en œuvre une solution technique de type « watermark » (code en filigrane) permettant d’assurer que l’utilisateur sera en mesure de distinguer – autant que faire se peut et de manière raisonnable – le résultat d’un modèle d’une production humaine.

Éducation et apprentissage humain : apprendre à raisonner et non pas simplement acquérir des connaissances

Les systèmes d’IA générative sont aujourd’hui très fréquemment utilisés par les étudiants, quelle que soit leur discipline. « La capacité de ces systèmes à produire des textes en langue naturelle syntaxiquement corrects et souvent sémantiquement plausibles en fait un outil singulier. Outre le problème éthique évident de l’intégrité et de l’honnêteté, par exemple faire faire ses devoirs par une machine, plusieurs questions se posent sur l’utilisation des systèmes d’IA générative », relève le CNPEN.

Alors que l’éducation consiste à former les esprits et à leur apprendre à raisonner rigoureusement, un risque évident est de remplacer cet objectif par celui, beaucoup moins ambitieux, d’acquérir des connaissances, dont l’exactitude n’est en outre pas garantie, via la machine. La créativité humaine serait ainsi peu sollicitée.

« Il ne s’agit pas d’interdire ces nouveaux outils, mais il est nécessaire d’en encadrer l’usage et d’apprendre aux enfants les concepts sous-jacents. […] L’évolution du système d’éducation ne doit pas exclure l’IA générative mais l’intégrer. Il est donc nécessaire de former les professeurs à des méthodes pédagogiques adaptées afin que les étudiants développent des capacités exclusives humaines et préservent leurs capacités d’apprentissage sans recours aux machines », recommande le Comité national pilote d’éthique du numérique.

Les enjeux liés à l’éthique sont donc nombreux quand il s’agit d’intelligence artificielle générative. Les discussions autour des textes réglementaires européens, au premier rang desquels figure l’Artificial Intelligence Act, devraient, espérons-le, intégrer l’ensemble de ces composantes.