[Tribune] Pas de véritable explicabilité pour ChatGPT sans la technologie des graphes

Alors que l’on crie à qui veut l’entendre depuis quelques semaines que ChatGPT et les autres systèmes d’IA générative accuseraient pour la première fois une baisse d’intérêt de la part du grand public, leur potentiel reste encore majoritairement inexploité. Bien sûr, ces derniers présentent encore des limites pour une exploitation dans le contexte de l’entreprise. Qu’il s’agisse d’« hallucinations », de désinformation, de préjugés ou d’un manque d’explicabilité, l’utilisation de l’intelligence artificielle (IA) dans le contexte des « grands modèles de langages » (Large Language Models ou LLM) relève davantage de la curiosité que du substantiel. Nicolas Rouyer, consultant senior avant-vente chez Neo4j, nous livre son analyse.

Nicolas Rouyer consultant senior avant-vente chez Neo4jLa « menace » que représentent les LLM suscite également des craintes. Certains leaders appellent les chercheurs en IA à ralentir la production afin que les risques puissent être étudiés dans le cadre d’une « prise de recul vis-à-vis de la course dangereuse vers des modèles de type boîte noire imprévisibles de plus en plus grands et dotés de nouvelles capacités ». Elon Musk, qui prévoit d’introduire sa propre IA générative, affirme qu’il craint que ChatGPT soit intrinsèquement biaisé.

Il y a là un débat à mener. Quoi qu’il en soit, l’IA générative a encore une belle marge de progression pour offrir une véritable visibilité et instaurer de la confiance. Mais pour jeter les bases de cette démarche, nous devons être clairs sur ce que ChatGPT et ses producteurs de textes LLM ne sont pas. Ces derniers ne sont pas assez sensibles et ne peuvent pas remplacer entièrement la nécessité pour vous et moi de rédiger des articles, des essais ou des brochures, même s’ils peuvent nous aider dans les tâches de rédaction initiales.

A lire aussi : Intelligence artificielle générative : les entreprises peuvent-elles dépasser une stratégie centrée sur la productivité ?

Et comme la technologie a assimilé de nombreux exemples de code informatique, elle constitue également une ressource précieuse pour améliorer l’efficacité des développeurs. Mais au-delà de faciliter la génération de codes et de textes, pour exploiter pleinement la puissance de l’IA générative, nous devons former sa prochaine génération sur des données commerciales structurées et de haute qualité, plutôt que de nous fier à « ce qui existe » gratuitement sur internet.

Et l’un des meilleurs moyens pour y parvenir serait d’utiliser un graphe de connaissances comme support et interface. Cette approche est la meilleure façon de parvenir à l’explicabilité, à la conformité et à la reproductibilité, tout en offrant aux concepteurs de systèmes les nombreux autres avantages qu’apportent les graphes de connaissances et la science des graphes.

Dans les faits, les entreprises commencent à adopter davantage cette approche. Pour prendre un exemple concret, une société pétrolière et gazière de Singapour a essayé un LLM pour ses recherches à l’échelle de l’entreprise, mais comme l’IA ne savait pas ce qu’elle cherchait, les résultats n’avaient qu’une valeur limitée. Toutefois, en utilisant des graphes pour donner du contexte, l’entreprise a été en mesure d’accroître la précision et la pertinence de son IA.

Et cette démarche est à la portée de n’importe quelle organisation : qui peut alors accumuler un volume important de données textuelles, qu’elles soient externes (relatives au marché spécifique) ou internes (telles que des catalogues de produits).

La clé pour en finir avec les erreurs de ChatGPT ?

IA Générative Le défi françaisEn utilisant le nouveau LLM synthétisé, il est possible de créer un graphe de connaissances qui aidera à donner un sens aux données accumulées en accélérant la R&D ou en affinant les procédures de conformité. On peut également utiliser ce processus en sens inverse en appliquant un modèle de langage intelligent à un espace de problème que l’on a encodé dans un graphe. On peut ainsi contrôler l’entrée du modèle, ce qui permet d’obtenir une interface en langage naturel réactive et facile à interroger au-dessus de son graphe, sans qu’il soit nécessaire de déployer des efforts considérables pour y parvenir. Cette approche permet également de réduire radicalement le type d’erreurs que l’on observe avec ChatGPT.

C’est ce qu’on appelle dans le jargon scientifique SLM pour « small language model », qui sera bientôt très répandu dans les applications industrielles et commerciales.

A titre d’exemple, un e-retailer peut se servir de cette approche et incorporer toute la documentation de ses produits à partir de ses bases de données, la charger dans ChatGPT et offrir à ses clients un chatbot conversationnel interactif qui maitriserait toute cette complexité.

Les DSI devraient regarder au-delà des spéculations fantasques à propos de ChatGPT et se concentrer sur l’exploration du potentiel inexploité de leurs entrepôts de données internes en appliquant les LLM et en construisant des graphes de connaissances à l’aide d’algorithmes de science des données de graphes. Ils n’ont alors plus qu’à réinventer le champ des possibles.