La chronique du Cesin : La robolution est en marche

La lueur verte au coin supérieur gauche de mes lunettes vient de m’avertir que j’ai un appel de Sophia.

– … Bonjour Sophia qu’y a-t-il ?

– Bonjour Thierry [Le RSSI], le Directeur Général souhaiterait discuter avec vous d’un sujet important. Puis-je lancer une visio sur le parebrise de votre véhicule ?

– Oui, j’étais justement en train de rédiger une note à son intention en passant le péage de l’autoroute. Le véhicule est en conduite automatique, tu peux donc lancer la vidéo sécurisée.

– Je viens de la lancer. Bonne route Thierry.

– Merci Sophia.

Bon, même si Sophia n’est « qu’un » robot, il faut rester poli ! Surtout depuis cette jurisprudence où un robot a gagné son procès contre son employeur pour propos inappropriés envers un humanoïde.

Rêve ou dystopie, ce préambule n’a rien de futuriste puisque tout ou presque y existe déjà. Sophia est un robot humanoïde qui s’est vu accorder la nationalité Saoudienne en octobre 2017 lors du congrès de Riyad « Future Investment Initiative » consacré aux nouvelles technologies, au grand dam des organismes de protection des droits de l’homme et encore plus des droits de la femme. Les robots assistants (cobots), IAD (intelligent assist devices), de forme humanoïde ou logiciels intégrés dans d’autres objets tels que des véhicules ou des robots médicaux, seront inéluctablement de plus en plus présents dans les environnements de travail industriels mais aussi personnels comme les robots de compagnie, que ce soit le chien Aibo, Kuri ou Buddy le petit français.

Sans faire de futurologie catastrophique, les hommes/femmes de la sécurité des SI ne peuvent s’empêcher d’imaginer le pire si ces robots venaient à « disjoncter », sur prise de contrôle abusive ou sur incohérence de leur prise de décision, en particulier si l’un d’entre eux venait à privilégier la troisième règle d’Asimov sans vouloir en respecter la seconde partie (HAL l’ayant déjà fait dans « 2001 Odyssée de l’Espace »).

En toute logique, le robot logiciel est programmé par des humains. Mais la logique évolue, et déjà de nombreux logiciels sont aujourd’hui composés par l’assemblage de briques de codes programmatiques (Blockly, Code With Chrome, ou Arduino). Cette programmation, conçue « For Dummies », est donc à la portée de machines dotées d’intelligence artificielle. On est bien loin du code correcteur d’erreur de Hamming, mais réellement sur des robots adaptatifs capables dans un premier temps de continuer à marcher après un choc mais demain de se réparer eux-mêmes. En 2015, la société française Atlantico a conçu un algorithme pour robots mis au point par des chercheurs de l’Université Pierre et Marie Curie (UPMC), du Centre national de la recherche scientifique (CNRS), et de l’université du Wyoming (Etats-Unis) qui permet à des robots d’apprendre à fonctionner même après un choc violent qui les a endommagés.

Toute notre attention doit donc se porter sur la conception initiale de ces logiciels à destination d’assistants robotisés, afin d’en respecter une intégrité non seulement au sens premier de l’intégrité du code mais sur la finalité de ce code (Security by Design). Lorsqu’un logiciel d’IA est aujourd’hui capable d’apprendre sur l’expérience, au-delà de sa programmation initiale et de décider d’actions, il devient urgent d’intégrer d’une manière ou d’une autre les trois lois d’Asimov dans nos PSSI.

Au-delà, si l’on envisage, plus ou moins sérieusement, de donner une existence légale aux robots en leur accordant des droits, il faudra également leur donner des devoirs et en premier lieu celui de respecter la finalité pour laquelle ils sont conçus.

Les trois règles de la robotique d’Isaac Asimov : :

    1. Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
    2. Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
    3. Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

    Mais que donnerait une quatrième loi si on remplaçait « humain » par « autre robot » dans les deux premières ? car aujourd’hui de nombreux robots sont eux-mêmes commandés par d’autres robots.

Liens utiles :