Cet article fait partie du dossier

Industrie : Des robots, mais pas seulement
Découvrez le dossier

Les articles du dossier

Arnaud Touati (Alto Avocats) « Les assistants virtuels sont à l’image de leurs éditeurs »

En mars 2016, l’agent conversationnel de Microsoft, Tay, était retiré de Twitter, car il tenait des propos injurieux et racistes. L’associé fondateur du cabinet Alto Avocats, spécialiste des nouvelles technologies, revient sur cette affaire, qui soulève des questions d’ordre juridique et éthique.

| Cet article fait partie du dossier « Industrie : Des robots, mais pas seulement »

arnaud_touati

Arnaud Touati, associé fondateur du cabinet Alto Avocats

Alliancy – Quels problèmes pose l’utilisation du langage artificiel ?

Arnaud Touati – Les agents conversationnels (ou chatbots en anglais) sont des robots désincarnés, donnant la sensation de converser avec un être humain grâce aux avancées considérables des techniques algorithmiques. Ils sont capables d’analyser le langage naturel et de comprendre, par exemple, que le ton de l’humour est utilisé lorsqu’on leur demande : « Veux-tu m’épouser ? ». Mais faut-il soumettre ces intelligences artificielles aux mêmes dispositions juridiques et éthiques que celles applicables à l’humain ? Avec le machine learning (auto-apprentissage), un chatbot à qui l’on tient régulièrement des propos racistes ou injurieux intégrera ces informations comme étant morales et éthiques.

Cet article est réservé à nos abonnés, Connectez-vous !

 

Vous n’êtes pas encore abonné ? Intégrez la communauté Alliancy
Et accédez à l’intégralité des articles de la rédaction, et bien plus encore…Je découvre