Alliancy

IA médicale : encadrer ou libérer les machines ?

 

À Vivatech 2025, Philips, Tencent, Doctolib et Lumeris ont débattu d’un point crucial : comment encadrer l’essor de l’intelligence artificielle en santé sans freiner l’innovation ? L’arrivée des agents autonomes rend la résolution de cette équation plus urgente que jamais.

 

L’IA en santé est prête à prescrire, agir, décider. Reste à savoir si on la laissera faire, ou si on exigera qu’elle demande la permission à chaque clic. Face à une innovation qui agit, plus encore, capable d’initier des décisions à partir d’une situation clinique, la peur du dérapage algorithmique n’est jamais loin. Qui est responsable si un agent se trompe ? Qui décide de ce qui est délégable ou non ? Jean-Claude Sagbini, directeur général de la technologie et président des services technologiques de Lumeris propose une réponse pragmatique : tout doit passer par un pilotage progressif. Son agent conversationnel « Tom » s’intègre comme un membre de l’équipe médicale, auquel le médecin délègue certaines tâches, selon un principe de confiance graduelle. “Le professionnel garde toujours le dernier mot. C’est la clé pour que la régulation soit vécue comme un cadre, pas comme une camisole”, affirme Jean-Claude Sagbini. L’objectif de cette approche ? Avancer sans rompre l’équilibre fragile entre innovation technologique et légitimité médicale. Et c’est précisément là que se joue la confiance, au croisement entre maîtrise, transparence et responsabilité.

 

L’Europe trace ses lignes… et impose sa cadence

 

Dans ce contexte, le modèle réglementaire européen devient une référence. Si certains craignent une innovation bridée, Doctolib y voit une opportunité. “Les exigences européennes nous forcent à développer une IA médicale plus exigeante, plus précise, plus sûre”, estime Clara Leonard, directeur médical produit chez Doctolib. Le cadre est strict, mais il oblige à poser les bonnes questions dès la conception : confidentialité, transparence, qualité des données. Mais c’est du côté de l’IA agentique que les lignes sont les plus tendues. Cette approche pose les bases d’une régulation de confiance, potentiellement exportable. Chez Philips, le chef du bureau numérique, Shez Partovi, propose une boussole. Quatre A pour Automatisation, Augmentation, Agilité et, un garde-fou, l’Anticipation des risques. L’IA ne peut être libérée qu’à condition d’être surveillée comme un traitement : avec traçabilité, seuils d’alerte et évaluation continue. « Les agents IA ne sont pas des gadgets, ce sont des membres actifs de l’équipe. Il faut les encadrer comme tels”, prévient-il.

 

L’innovation d’abord, la régulation après ?

 

Face à cette prudence européenne, Tencent adopte une posture plus offensive. “La régulation n’est pas au rythme de la technologie. On freine ce qui pourrait sauver des vies », critique Alex Ng, président de Tencent Healthcare. Pour lui, l’écart entre les avancées technologiques et les lenteurs réglementaires s’apparente à un immobilisme jugé dangereux. L’entreprise chinoise considère que l’urgence commande une logique inverse : déployer à grande échelle, observer, ajuster ensuite. “Il faut sortir de l’approche binaire, autorisé ou interdit, pour entrer dans une logique de gradation”, expose Alex Ng. Une classification des usages par niveau de risque apparaît alors comme la solution adéquate : actions à faible impact (prise de rendez-vous), tâches intermédiaires (suivi), décisions cliniques critiques. Derrière cette vision se dessine une stratégie assumée : créer un précédent technologique suffisamment massif pour forcer la régulation à suivre. L’IA en santé se situe à la croisée des chemins entre éthique et efficacité, précaution et disruption. Trop libre, elle effraie. Trop encadrée, elle s’asphyxie. Une chose est sûre, l’agent conversationnel ne sera pas qu’un outil. Reste à savoir s’il deviendra un collègue, ou un sujet de débat permanent.

 

Quitter la version mobile