Je veux tout savoir de la transformation numérique !
Identifiez-vous pour lire l’intégralité des articles premium et accéder à l’ensemble de nos ressources.
Pour recevoir les dossiers thématiques par mail, inscrivez-vous !
Je m'identifie

Cet article fait partie du dossier

Industrie : Des robots, mais pas seulement
Découvrez le dossier

Les articles du dossier

Arnaud Touati (Alto Avocats) « Les assistants virtuels sont à l’image de leurs éditeurs »

En mars 2016, l’agent conversationnel de Microsoft, Tay, était retiré de Twitter, car il tenait des propos injurieux et racistes. L’associé fondateur du cabinet Alto Avocats, spécialiste des nouvelles technologies, revient sur cette affaire, qui soulève des questions d’ordre juridique et éthique.

| Cet article fait partie du dossier « Industrie : Des robots, mais pas seulement »

arnaud_touati

Arnaud Touati, associé fondateur du cabinet Alto Avocats

Alliancy – Quels problèmes pose l’utilisation du langage artificiel ?

Arnaud Touati – Les agents conversationnels (ou chatbots en anglais) sont des robots désincarnés, donnant la sensation de converser avec un être humain grâce aux avancées considérables des techniques algorithmiques. Ils sont capables d’analyser le langage naturel et de comprendre, par exemple, que le ton de l’humour est utilisé lorsqu’on leur demande : « Veux-tu m’épouser ? ». Mais faut-il soumettre ces intelligences artificielles aux mêmes dispositions juridiques et éthiques que celles applicables à l’humain ? Avec le machine learning (auto-apprentissage), un chatbot à qui l’on tient régulièrement des propos racistes ou injurieux intégrera ces informations comme étant morales et éthiques.

C’est ce qui s’est passé avec Tay ?

Arnaud Touati – Tout à fait. Tay, l’agent conversationnel de Microsoft, a été lâché sans contrôle sur la plateforme Twitter en mars 2016. En une journée, de nombreux utilisateurs mal intentionnés lui ont envoyé des tweets pour abuser de ses qualités de commentateur afin qu’il réponde de manière inappropriée, entraînant la suspension de son compte par l’éditeur. La difficulté, pour le concepteur de l’algorithme, consiste alors à contrôler le langage sans limiter la liberté d’expression, ni créer un langage universel « bienséant » forcément réducteur. Les limites inhérentes au langage relèvent de la morale et de l’éthique. Or, l’éthique est une notion subjective à manier avec précaution…

Alliancy 17 Intelligence artificielleDevra-t-on légiférer sur l’utilisation du langage naturel par les chatbots ?

Le rapport adopté mi-janvier 2017 par la commission des Affaires juridiques du Parlement européen a axé sa réflexion sur la notion de responsabilité des robots. Il n’a pas évoqué celle de l’appréhension du langage par les machines. Or, il s’agit d’une problématique majeure car la plupart des chatbots utilisés sont l’oeuvre d’éditeurs américains et reflètent la vision de leur propre culture. Mais, ce qui est « acceptable » pour le consommateur américain l’est-il pour le consommateur français, voire européen ?

Que devrait-on faire alors ?

Nous devons proposer – voire imposer – des réponses au niveau européen. L’analyse de ce qui peut être dit ou écrit par les langages artificiels, utilisés par les chatbots « apprenants », devrait être confiée à une autorité administrative indépendante, et composée d’un comité pluridisciplinaire comprenant notamment des linguistes, sociologues, juristes, techniciens…, afin d’adapter la technique à l’environnement. Il appartiendrait alors à cette autorité de suivre l’évolution du langage. Nous pourrions également imaginer un contrôle a priori des chatbots avec l’obtention d’une autorisation de mise sur le marché.

Mais qui est responsable en cas de propos malveillants ?

Le régime actuel de responsabilité n’est pas adapté au langage artificiel, mais il existe deux solutions. La première consisterait en un partage de responsabilité entre les différents acteurs (concepteur, fabricant, utilisateur). Celle-ci soulève toutefois l’épineuse question de la détermination de la participation de chacun des acteurs à l’origine du dommage. La deuxième solution, plus facile à mettre en oeuvre, serait d’octroyer au robot ou à l’algorithme une personnalité juridique avec un système assurantiel proche de celui existant en matière de circulation routière. La victime percevrait une indemnisation, à charge ensuite à l’assureur de se retourner vers le – ou les – responsable(s), avec les mêmes difficultés d’appréhension du degré de responsabilité de chacun des acteurs que pour la première solution.

De manière plus large, être titulaire d’une personnalité juridique donne des devoirs (dont celui d’indemniser), mais donne-t-il également des droits ?

De quels droits le robot dispose-t-il ? Peuton, par exemple, imaginer qu’il puisse engager une action judiciaire ? Les propositions du Parlement européen mériteraient d’être éclaircies dans les mois à venir à ce sujet. Et il serait heureux que la France y tienne une place de choix, au risque de se voir imposer des normes inadaptées à son corpus juridique

> A lire aussi sur Alliancy : 

Extrait du NOUVEAU magazine Alliancy n°17 «  en est l’IA dans l’entreprise ?  » .


Commenter

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *