Coopération IA-humain : ce que nous apprend l’expérience des radiologues français

Gérald Gaglio est sociologue de l’innovation à l’Université Côte d’Azur. Il intervenait en septembre dernier lors de la journée d’études organisée par Labor IA et Matrice pour présenter ses travaux consacrés à « l’appropriation limitée et détournée de dispositif de détection à base d’IA en radiologie en France ». Il détaille ce que les difficultés d’adoption de l’IA chez ces professionnels de santé nous apprennent des coopérations qui restent à construire entre l’humain et des technologies utiles mais disruptives.

Coopération IA-humain-radiologieAlliancy. Vous avez conduit 25 entretiens semi-directifs avec des radiologues et votre enquête, d’après vous, invite à «dégonfler un certain nombre de baudruches» concernant l’IA en imagerie. Qu’entendez-vous par là ?

Gérald Gaglio. En 2016, il y a eu une espèce d’acte inaugural avec la conférence de Geoffrey Hinton à Toronto et sa prophétie-catastrophiste pour les radiologues, annonçant que cinq ans plus tard, le Deep Learning ferait mieux qu’eux.

Or ce n’est pas du tout ce qui se dessine. Mais ça n’a pas mis les radiologues dans les meilleures dispositions pour adopter ces outils d’aide à la détection ! Sur ces sujets d’IA, les approximations sont dangereuses. On ne peut pas parler d’IA comme d’un tout. J’ai distingué quatre familles sociotechniques ne serait-ce que pour la radiologie : l’IA de machine (amélioration de la reconstruction des images par la réduction du bruit par exemple), l’IA de détection (aide au diagnostic), l’IA de délestage qui dispense de ce que les radiologues considèrent comme du « sale boulot » (segmentation d’organes avant une radiothérapie, mesure de la taille et du nombre de nodules d’un examen à l’autre…) et enfin l’IA prédictive (pour la réaction à certains traitements, par exemple)

Ce simple geste de segmenter l’IA en finalités et en usages concrets nous montre combien il est vain de vouloir la comparer aux radiologues, de créer une compétition et donc d’évoquer le «  remplacement  » des soignants. 

De plus, les débats manquent souvent de profondeur historique. L’IA, en tant que science, existe depuis les années 1950 et pour en revenir à la radiologie, il y a eu des précédents à la période actuelle, notamment avec l’expérience peu heureuse des CAD (Computer-Aided Diagnosis) en sénologie.

Au final, limiter les réflexions à une sorte de compétition entre humains et machines, comme dans le cadre du jeu de Go, est réducteur.

Est-ce que la «greffe prend mal», entre IA et praticiens de santé ? 

En tant que sociologue, il ne m’appartient pas de définir des bonnes pratiques. Mais on peut constater que la prophétie d’Hinton ne s’est pas réalisée. En 2023, le Deep Learning ne fait pas mieux que les radiologues. Et de toutes façons, ça veut dire quoi, faire mieux ? Très souvent, un radiologue n’analyse pas seulement des images à un temps T, il regarde les examens médicaux complémentaires, les précédents, il peut interroger le patient quand il est présent, réaliser une palpation… Comparer les performances d’un algorithme à celle d’un soignant, ça n’a pas de sens. On gagnerait sans doute beaucoup de temps et d’énergie en se demandant comment les outils d’automatisation aident les radiologues, et non pas les surpassent.

Comparons donc ce qui est comparable. D’ailleurs, les protocoles d’étude qui donnent lieu à des publications sont en train d’évoluer : ils portent de plus en plus sur la question de savoir si un radiologue équipé d’une solution d’IA fait mieux que lorsqu’il n’en dispose pas. Les offreurs de technologies se sont aussi ajustés, dans leur discours, à cette évolution. Ils parlent d’aide, de deuxième avis, etc. Science et marché avancent main dans la main.  

Or, dans l’imaginaire collectif, nous sommes toujours très marqués par l’idée de la compétition entre humain et IA, et la croyance que l’IA « fait mieux » s’est propagée. Si bien que pour la radiologie, cela a des effets concernant les étudiants en médecine : quand ils choisissent leur spécialité, ils peuvent être influencés par les discours de remplacement et délaisser la radiologie, même si cela demande à être vérifié quantitativement. Et bien sûr pour les pouvoirs publics et toutes les instances qui définissent notamment les tarifs des actes de radiologie pourront l’être aussi, à l’avenir. Les représentations ont toujours une incidence sur la réalité. 

Vous avez indiqué aussi que la façon dont l’IA arrive sur les lieux de travail prend souvent les radiologues de court. Quels sont les points sur lesquels se concentrer pour améliorer l’adoption des professionnels ? 

Les solutions d’IA entrent souvent dans les cabinets par le biais de prêts – les start-up prêtent beaucoup le matériel.

Ce sont des prêts relativement longs et cela relève d’une expérimentation qui ne dit pas son nom. Elle n’est pas toujours balisée dans le temps, et le suivi et l’évaluation sont difficiles à mettre en œuvre. Dans ces conditions, on peut vite se retrouver dans cette situation que j’ai vécue, où un radiologue rétorque au dirigeant de start-up venu collecter auprès de lui des cas où l’algorithme s’est trompé pour l’améliorer  : « Vous croyez que je vais corriger votre outil gratuitement ? » 

Les solutions d’IA sont aussi poussées par la voie hiérarchique et les détenteurs du capital – il y a en radiologie une vague importante de rachats par des groupes financiers des cabinets libéraux. Si bien que les radiologues sont pris de court, oui, et se retrouvent par ailleurs parfois épuisés par une hausse sensible du nombre d’examens à réaliser par jour… et j’ai cet exemple d’un représentant d’un groupe financier qui a alors répondu : « Mais vous avez l’IA maintenant, débrouillez-vous ». 

Mes recherches ont montré que l’appropriation était limitée (un radiologue sur quatre serait outillé – c’est le chiffre qui circule dans la communauté des radiologues), même si elle progresse. Notons qu’on se heurte à un paradoxe de l’expertise : les outils sont prévus pour des spécialistes de segments précis du métier (le poumon, le sein, la traumatologie) mais ceux-ci peuvent estimer ne pas en avoir besoin car ils sont déjà spécialistes. D’autres médecins vont donc pouvoir s’en emparer, par exemple les urgentistes.

On voit aussi une tendance à devoir corriger le logiciel :  « Il se trompe », « Il est trop sensible » « Il voit un nodule, mais moi je n’y crois pas ». La promesse du gain de temps n’est alors pas tenue.

Enfin, il semble que l’on assiste au passage d’une logique qualitative d’aide au diagnostic, de caractérisation fine des images par l’IA, à une logique quantitative en bénéficiant uniquement de la « valeur prédictive négative » fiable de ces outils, en les utilisant seulement pour leur capacité à écarter les examens dont on peut être sûr qu’ils ne présentent pas d’anomalies.