ChatGPT et les banques : quelles opportunités et limites pour des usages experts de l’IAG ?

Olivier Debeugny, président de la fintech française Lingua Custodia, revient sur l’enjeu de proposer des alternatives autour de l’intelligence artificielle générative, notamment pour le secteur bancaire.

Olivier Debeugny président de la fintech française Lingua Custodia

Olivier Debeugny président de la fintech française Lingua Custodia / DR

Fintech française spécialisée dans les technologies du langage depuis sa création en 2011, Lingua Custodia vient d’annoncer la mise en place d’une fonctionnalité d’IA générative permettant d’interroger des documents confidentiels multilingues. Un cas d’usage utile pour les banques, qui expérimentent avec prudence sur l’IAG. Olivier Debeugny, président de la jeune entreprise, revient sur l’enjeu de pouvoir proposer de telles alternatives expertes à ChatGPT et assimilés.

Alliancy. Depuis quand votre équipe au sein de Lingua Custodia travaille-t-elle sur des cas d’usages IAG pour le secteur financier ?

Olivier Debeugny. À la création de l’entreprise, en 2011, nous voulions simplement créer un « Google Translate » pour le secteur bancaire. Il s’agissait déjà de technologies de langage, mais pour des cas d’usages très précis, ingérables pour un outil généraliste, comme des traductions pour la recherche action ou des prospectus de fonds… Aujourd’hui, nous proposons une plateforme pour les utilisateurs financiers avec des services de traduction automatique, de transcription automatique, mais aussi d’extraction de données. Nous venons de proposer également un analyseur de documents. Il est dorénavant possible de charger un document très dense pour ensuite l’interroger en langage naturel, en mode multilingue. La proposition de valeur est renforcée par le fait que nous proposons cette plateforme sur nos propres serveurs physiques dédiés, et non dans le cloud, afin de pouvoir garantir la confidentialité. Cet outil permet, par exemple, d’interroger des procédures internes pour répondre rapidement à des questionnaires reçus par les institutions financières de la part des régulateurs ou de leurs clients. C’est un usage et une technologie qui ont fait leurs preuves : quand nous devons répondre aux questionnaires de sécurité IT des banques, nous utilisons d’ailleurs cet outil nous-mêmes !

A lire aussi : Pour Arkéa, une Data plateforme hybride pensée pour des domaines et produits

À l’aune de plus d’une décennie de recherche et de travail sur le sujet, quel regard portez-vous sur la dynamique actuelle autour de l’intelligence artificielle générative ?

Déjà, je tiens à signaler que les réactions un peu extrêmes, y compris de la part des dirigeants de grandes sociétés, nous avons pu les voir déjà il y a des années autour des enjeux de traduction automatique. On entendait alors : « Plus besoin de traducteurs en interne ! ». En 2016, quand DeepL s’est lancé, toute une catégorie de professionnels s’est fait très peur… Sauf que la réalité, c’est plutôt que le métier de traducteur a évolué pour devenir celui de « post-éditeur ». On est très loin de la traduction magique, d’autant plus quand on est sur des sujets experts. Sur l’IAG, on constate un peu le même enthousiasme débordant. Mais à l’usage, si on ne fait pas attention, le « Waouh, c’est génial ! » peut vite se transformer en « Waouh, c’est n’importe quoi ! ». Pour bien utiliser ces technologies, il ne faut pas être naïf et en reconnaître les limites… Comme toujours, nous allons passer par les différentes étapes de la courbe du Hype Cycle des technologies de Gartner… Le sujet prioritaire reste le même : trouver les bons cas d’usages. Les entreprises ne peuvent pas seulement dépendre des outils généralistes en la matière, car très rapidement ceux-ci commettront des erreurs sur les cas spécifiques et experts où la complexité prévaut. Or, c’est sur ces derniers cas qu’elles vont pouvoir aller chercher le plus de valeur.

BANNIERE CARRE KYNDRYLComment adapte-t-on l’IAG à ces cas d’usages experts ?

Pour répondre aux enjeux spécifiques, il faudra bien souvent cumuler plusieurs expertises. La compréhension du métier concerné en premier lieu, car même pour un simple chatbot, il faut comprendre avec finesse les questions qui vont être posées. Ensuite, il faut pouvoir anticiper l’appropriation des usages par les professionnels. Nous voyons par exemple avec notre analyseur de document la possibilité très claire pour les grandes banques de mieux diffuser en interne leurs informations et procédures aux salariés. C’est une première marche qui permet en plus de montrer aux collaborateurs qu’une telle technologie n’est pas là pour les remplacer, mais plutôt pour leur permettre d’accéder à l’information plus facilement.

Ensuite, il faut maîtriser le développement des Large Language Models (LLM). Et plusieurs stratégies peuvent exister en la matière : est-ce que l’on veut « fine-tuner », c’est-à-dire spécialiser un modèle existant ? Auquel cas, lequel correspondre le plus à ce besoin ? Faut-il aller plus loin encore ? C’est une question de stratégie IA pour l’entreprise.

Enfin, il y aura de nombreuses questions qui seront liées à ces choix : comment va-t-on traiter les documents exactement ? Comment le fine-tuning du modèle doit-il s’adapter quand les données ou les processus de l’entreprise évoluent ? Faut-il aussi s’appuyer sur une base de données vectorielle ? Pour schématiser, il faut pouvoir anticiper l’évolution du modèle face à la réalité.

Malgré la simplicité d’usage apparente pour les utilisateurs, l’entreprise doit donc penser un cycle de vie pour ses IAG ?

Pour simplifier, il faut bien comprendre que ce qui est très facile pour la machine est souvent difficile pour l’homme, et inversement. Cela a de très nombreuses conséquences pour penser la pérennité d’un outil. Il faudra être au clair sur qui maintiendra ce dernier et comment. Comment seront mises à jour les moteurs de traduction pour prendre en compte les évolutions du langage, de l’actualité, les transformations de l’entreprise. Pour tous les modèles d’IAG, c’est une problématique de fond, et c’est aussi ce qui explique le besoin d’expertises, au-delà des cas d’usages généralistes dont on entend beaucoup parler.

Quel est le niveau de maturité de vos interlocuteurs au sein du secteur financier sur le sujet ?

Malgré le bruit important provoqué par ChatGPT, on voit encore des situations très différenciées. Je rencontre des chief operating officers, qui ont besoin d’exemples et de cas concrets mis en œuvre par leurs concurrents, sinon ils auront du mal à convaincre le board. Il faut dire qu’en voyant ChatGPT émerger, le premier réflexe des banques a été d’en interdire l’usage, avant, petit à petit, de rentrer dans un mode d’expérimentation. Aujourd’hui, elles en sont encore au niveau « lab ». D’où l’intérêt pour nous de sortir un outil avec une documentation claire et explicite sur tous les cas d’usages maîtrisés. Nous intervenons aussi pour rassurer : nous menons des séminaires pour parler directement aux salariés des risques et opportunités de l’intelligence artificielle générative.

Comme toujours, la réglementation va fortement contribuer à faire évoluer les mentalités. L’IA Act européen met la pression sur toutes les institutions financières. On peut juger que les banques européennes ont un peu de retard, car les grandes banques américaines ont toutes d’importants laboratoires internes qui travaillent sur le sujet de l’IA générative depuis un moment. Mais la réalité est plus complexe : nous avons discuté avec l’une de ces organisations ce mois-ci et elle nous a dit que leur intérêt pour une équipe d’une dizaine de chercheurs comme la nôtre venait de leur difficulté à avoir assez d’agilité pour avancer rapidement sur le sujet…

Quels sont pour vous les cas d’usages les plus prometteurs ?

Au-delà de ceux que j’ai déjà pu rapidement décrire dans le cadre de notre plateforme, on voit que les banques ont de nombreuses idées de cas d’usages : sur leurs procédures internes, sur les analyses ESG qui intègrent des données déstructurées… Interroger en langage naturel des données complexes ouvre le champ des possibles. En revanche, et j’insiste sur ce point : il y a aussi de très nombreux cas qui fonctionneront tout aussi bien sans LLM. Il faut faire passer ce message aux entreprises : cela ne servira à rien de mettre du LLM partout. Nous testons régulièrement les différences entre les nouveaux modèles et nos anciens… et ces derniers fonctionnent souvent mieux et pour moins cher. Il est important d’avoir bien en tête cet angle de « l’Intelligence Artificielle frugale » pour faire un usage responsable de ces outils. Et c’est aussi ce qui me fait dire qu’il n’y a pas forcément besoin de lever des centaines de millions d’euros pour pouvoir proposer des outils pertinents sur les cas d’usages des entreprises. Lingua Custodia en est la preuve vivante.