IA : vers une phase d’industrialisation à l’horizon 2026

 

Après une phase d’expérimentation marquée par l’essor de l’IA générative, les usages de l’intelligence artificielle devraient évoluer vers des déploiements plus structurés et intégrés aux systèmes des entreprises d’ici 2026.

 

Selon plusieurs responsables de MongoDB, l’année 2025 marque une étape de transition dans l’adoption de l’IA par les organisations. Après plusieurs années d’expérimentations, les entreprises cherchent désormais à inscrire ces technologies plus durablement dans leurs infrastructures, en tenant compte des enjeux de coûts, de sécurité et de gestion des données. Cette évolution s’accompagne d’un intérêt accru pour des architectures capables de fonctionner dans des environnements cloud multiples, tout en garantissant la disponibilité et la localisation des données.

 

Cloud, modèles de langage et agents sous gouvernance

 

Cette phase de structuration concerne également les usages. Les experts interrogés évoquent une utilisation plus ciblée des grands modèles de langage, avec une attention portée à l’ancrage des réponses dans des données fiables. Dans le commerce, l’essor de systèmes dits « agentiques » conduit les acteurs à adapter leurs infrastructures afin de soutenir de nouveaux usages. En parallèle, le développement logiciel assisté par l’IA devrait évoluer vers des pratiques plus encadrées, intégrant davantage de contrôles humains et de tests. Les agents d’IA, enfin, sont appelés à se déployer progressivement dans des cadres de gouvernance définis, avec une priorité donnée à la sécurité et à la maîtrise des accès aux données.

 

Un recours aux LLM questionné par les coûts

 

Cette évolution s’explique aussi par des considérations économiques. Selon Frank Liu, Product Manager senior chez MongoDB, le déploiement généralisé des grands modèles de langage peut entraîner des coûts élevés pour des retours sur investissement limités. Il met en avant des approches reposant sur l’ancrage des réponses dans des données factuelles, ainsi que sur l’utilisation de modèles d’embeddings et de mécanismes de hiérarchisation des résultats afin d’améliorer la pertinence des réponses.