Microscope, un outil au service de l’interprétabilité de l’IA

Cet article a été publié originellement sur mydatacompany.fr

Microscope d’OpenAI vise à aider les experts de l’intelligence artificielle en matière d’interprétabilité des algorithmes et modèles d’IA exploitant des réseaux de neurones.

Microscope,-un-outil-au-service-de-l’interprétabilité-de-l’IA L’interprétabilité est un véritable enjeu dans les entreprises dans le domaine de l’IA. Certaines choisissent de renoncer à utiliser certains algorithmes dont le fonctionnement est trop complexe à expliquer. Microscope d’OpenAI pourrait donc contribuer à améliorer les connaissances en matière d’interprétabilité des modèles. Cette collection de visualisations mise en ligne est en effet réutilisable.

Explorer le fonctionnement des réseaux de neurones

Dans sa première version, Miscroscope comprend neuf modèles d’analyse d’images. Parmi ceux-ci des modèles de vision par ordinateur historiques, comme AlexNet, GoogleNet (alias Inception V1) et ResNet v2.

Chaque modèle de visualisation est accompagné de plusieurs scénarios. Quant aux images, elles sont disponibles dans la librairie OpenAI Lucid et réutilisables sous une licence Creative Commons.

« Bien que nous mettions ces éléments à la disposition de tous ceux qui souhaitent explorer le fonctionnement des réseaux neuronaux, nous pensons que l’intérêt premier est de fournir des artefacts persistants et partagés pour faciliter l’étude comparative à long terme de ces modèles » justifie OpenAI.

Ces spécialistes de l’intelligence artificielle espèrent cependant aussi que ces ressources intéresseront des chercheurs de domaines connexes, comme les neurosciences.