Cette article fait partie du dossier
Les articles du dossier

Menace ou opportunité ? L’Académie des Technologies synthétise les forces et faiblesses de l’IA générative

L’Académie des Technologies a rendu publique son premier avis sur l’IA générative (IA-G), en prenant l’exemple de ChatGPT, depuis sa démocratisation fin 2022. Elle prévoit déjà de mettre à jour ses recommandations dans quelques mois.

Prouesses et limites IAIntitulé « Prouesses et limites de l’imitation artificielle de langages ; les agents conversationnels intelligents dont ChatGPT », le premier avis formel de l’Académie des Technologies sur la question de l’IA générative a le mérite de proposer une synthèse claire et efficace (en 17 pages aérées et facilement lisibles) des faits et questionnements autour de l’évolution tech majeure de ces dernières semaines.

« Il s’agit d’un avis collectif, voté en assemblée plénière, et s’inspirant de toutes les différences de parcours et de formation des membres de l’Académie, en indépendance totale » souligne Gérard Roucairol, président de l’Académie des Technologies. Cet avis vise à « établir des éléments de référence sur un sujet soumis au buzz, aux opinions contradictoires… » mais le spécialiste, ancien directeur de la Recherche pour le groupe Bull, reconnait également que vu la vitesse à laquelle de nouvelles annonces sont faites par les acteurs du marché « nous ne pourrons pas nous contenter d’un seul point réalisé à un moment donné. L’Académie se réunira donc de nouveau à l’automne » pour une mise à jour de ses remarques et recommandations.

Ainsi, en introduction du document, l’Académie reconnait que : « L’analyse présentée porte principalement sur ChatGPT3, le système le mieux connu en mars 2023, et pour lequel nous disposons d’un certain recul (en notant que la version suivante GPT4, plus puissante, pallie certains défauts de GPT3 sans toutefois remettre en cause les recommandations formulées par l’Académie). »

Pour résumer ce qui fait la particularité d’un ChatGPT par rapport à d’autres outils « grand public » déjà utilisé, Michele Sebag, chercheuse en informatique et directrice de recherche au CNRS, propose de le comparer au moteur de Google Search, « outils central de tous les « travailleurs du savoir » » qui sont parmi les premiers concernés par les chocs amenés par l’IA-G. « En réponse à une requête, l’outil de Google donne accès à différents « documents » et c’est à vous de faire votre réponse, votre opinion, en fonction de ces sources. ChatGPT propose de son côté une réponse formulée, plus ou moins synthétisée selon vos indications. C’est une force importante et une démocratisation énorme du savoir. Mais sa faiblesse c’est qu’en essayant d’établir un consensus entre des documents divers, pas toujours cohérents, voire vraiment contradictoires, la réponse fournie peut elle-même ne pas être cohérente ou juste » détaille l’experte.

Megaban IASurtout, Michele Sebag estime qu’à ce jour, le plus gros défaut de l’outil est « qu’il n’a pas encore appris quand se taire », notamment quand la qualité de la réponse n’est pas au rendez-vous. « Dans le cadre d’un brainstorming, d’un défrichage d’idées, il permet d’amener beaucoup d’éléments, c’est un atout en termes de compréhension globale des sujets. » souligne-t-elle comme avantage clair. D’autant que ChatGPT s’améliore sans cesse à partir de ses erreurs.        

Parmi les faiblesses de l’outil, l’Académie des Technologies épingle cependant plusieurs éléments préoccupants : « Les réponses émises par ChatGPT ne se fondent pas sur la vérité, la logique ou le calcul, mais sur les statistiques. De fait, ChatGPT émet des réponses plausibles et rapides, mais non vérifiées ; ceci est caractéristique de ce que Daniel Kahneman, prix Nobel d’économie, appelle un System 1 ».

Par ailleurs, les spécialistes mettent en garde contre « les hallucinations » dont souffrent le système, amenant à la « création de réponses de toute pièce », à des « incohérences » et des « indéterminismes ». Ils notent que « ces défauts sont d’autant plus graves qu’il s’agit de sujets pointus sur lesquels les données sont rares ou présentant des risques d’homonymie » et que « par construction, les hallucinations générées sont similaires aux vraies données : à l’interlocuteur humain de distinguer (parfois difficilement) le vrai de l’inventé ».

Ce qui n’empêche pas l’Académie d’anticiper une foisonnement d’innovations à venir, fondées sur ChatGPT et consorts. Elle souligne aussi que « les compétences existent en Europe pour participer au meilleur niveau aux avancées scientifiques et technologiques liées aux agents conversationnels intelligents », en pointant notamment les opportunités pour des entreprises européennes comme HuggingFace (franco-américaine), LightOn (française), AlephAlpha (allemande) ou encore StabilityAI (britannique).

« L’accès aux moyens de calcul est facilité notamment par l’initiative européenne EuroHPC qui permet à la recherche publique et privée en Europe d’avoir accès aux plus puissants des supercalculateurs » met en avant l’avis de l’Académie des Technologies, qui met toutefois en garde contre l’absence de capitaux pour porter à l’échelle et démocratiser auprès du grand public les modèles proposés, face à un marché américain en plein essor.

« Une synergie public-privé doit permettre de répondre à cet enjeu, pour avoir un système qui soit conforme aux valeurs européennes, au respect de la vie privée, de la propriété intellectuelle… Pour cela il faut être capable de mobiliser la communauté technologique afin de créer des communs dès aujourd’hui » commente Michele Sebag.

Les experts de l’Académie s’émeuvent aussi de l’impact énergétique de ce boom technologique à venir. L’entraînement d’un langageur (moteur d’un outil comme ChatGPT, NDLR) requiert « l’utilisation de supercalculateurs capables de fonctionner plusieurs semaines, voire plusieurs mois, sans interruption. Ce type d’ordinateur comprend des centaines, voire des milliers, d’accélérateurs de calcul (GPU) […] Le coût énergétique de l’entraînement est actuellement de l’ordre de 1 GWh. » indique-t-il. Sans compter l’intensité énergétique de l’usage de l’outils par des millions d’utilisateurs par la suite, bien supérieure.

« Le fait d’ajouter un langageur aux moteurs de recherche existants augmenterait alors la consommation électrique mondiale de façon considérable au-delà du TWh. Ce point doit être analysé de façon plus approfondie, et mérite une extrême vigilance. » met en garde l’Académie.

ChatGPT : Les recommandations de l’Académie des Technologies

Face aux forces et faiblesses de l’IA Générative, l’Académie des Technologies propose deux recommandations majeures, afin « d’anticiper les effets économiques et sociétaux
des produits et services créés » :

  • La création de langageurs libres et de confiance en exerçant le levier européen

« Il est crucial dans un objectif de souveraineté au niveau des valeurs, de l’économie et de la recherche, de disposer de langageurs libres. L’exemple de la société HuggingFace démontre la faisabilité d’une telle réalisation. […] L’organisation de l’accès à des langageurs libres par le plus grand nombre permettrait de contribuer au test et à l’amélioration de ce bien commun tout en préparant aux évolutions professionnelles et culturelles suscitées par cette technologie. En ce qui concerne le monde de l’Éducation, on pourrait aussi en attendre une formation très large des élèves aux langageurs et leur usage raisonné »

  • La création d’un centre d’expertise sur la régulation des langageurs

« Compte tenu de l’importance durable de cette technologie et de ses enjeux économiques et sociétaux, elle recommande : de définir légalement les responsabilités des offreurs et des utilisateurs (en évitant les redondances avec les régulations déjà en place ou en cours de définition et qui incluent implicitement les langageurs dans leur domaine) ; de mettre en place les moyens d’évaluer leur conformité aux contraintes et réglementations ainsi définies. »

L’Académie note aussi que l’’instrument qui doit servir de modèle et à terme de cible pour répondre à ces enjeux devrait être similaire à l’Agence nationale de la sécurité de l’information.

Elle estime aussi que « la régulation recommandée ne doit pas retarder le développement de langageurs par les Européens. Elle doit au contraire les faciliter en visant notamment la création de biens communs, face à des pays traditionnellement plus réticents vis-à-vis des régulations ».