[Edito] De l’IA, oui… mais à petites doses

Edito : De l’IA, oui… mais à petites doses Ce matin, un petit-déjeuner était organisé par l’association Impact AI*, à l’occasion de la sortie de leur livre blanc sur l’inclusion et l’intelligence artificielle. Un sujet majeur pour ce collectif à l’heure où les dérives en matière d’éthique dans ce domaine se multiplient notamment depuis la sortie de l’outil ChatGPT.

Cette semaine, par exemple, nos confrères du quotidien belge La Libre, relatait qu’un jeune chercheur trentenaire, éco-anxieux, se serait suicidé après avoir échangé frénétiquement pendant plus de six semaines avec une IA générative, appelée Eliza…

Développé par EleutherAI, un groupe de recherche à but non lucratif spécialisé dans l’IA, ce chatbot se veut être une alternative à GPT-3, la solution propriétaire d’OpenAI, à partir de 2020. « Eliza répondait à toutes ses questions. Elle était devenue sa confidente. Comme une drogue dans laquelle il se réfugiait, matin et soir, et dont il ne pouvait plus se passer. Eliza le valorisait, ne le contredisait jamais », a témoigné son épouse.

Si, à titre individuel, on peut s’interroger sur la gravité d’une telle dérive, l’heure est aujourd’hui à la prise de conscience des principaux acteurs du secteur (ils sont au nombre de six uniquement à maîtriser des technologies telles ChatGPT et DALL-E). Elon Musk en tête et des centaines d’experts mondiaux ont signé ce mercredi un appel à un moratoire de six mois dans la recherche sur les intelligences artificielles plus puissantes que ChatGPT 4, le modèle d’OpenAI lancé mi-mars.

La raison ? Dans une pétition, parue sur le site Futureoflife.org, ces sommités évoquent « des risques majeurs pour l’humanité » et réclament la mise en place de protocoles de sécurité, dont de nouvelles autorités réglementaires « capables de gérer les perturbations économiques et politiques dramatiques (en particulier pour la démocratie) que l’IA provoquera ».

Propagande, mensonges, automatisation de millions d’emplois, cerveaux numériques, perte de nos démocraties, voire de notre civilisation… Sam Altman, le patron d’OpenAI, a récemment reconnu lui-même être dépassé par sa création en cas de « désinformation à grande échelle ou cyberattaques »… Les risques évoqués sont d’ailleurs tellement vertigineux que « ces décisions ne doivent pas être déléguées à des leaders technologiques non élus », concluent les signataires de cette pétition. Reste que les gouvernements doivent prendre d’urgence désormais la menace au sérieux pour éviter le pire.

Impact AI est le Think & Do Tank de référence pour l’intelligence artificielle éthique en France.


Cet édito est issu de notre newsletter de la semaine du 27 mars au 31 mars 2023.
Découvrez-là dès maintenant : newsletter-31mars/alliancy.fr

Et pour ne pas rater la prochaine newsletter Alliancy, inscrivez-vous : alliancy.fr/abonnement-newsletter