29/10/2019

L’essor de la robotique redéfinit le droit fondamental à la dignité humaine et à la liberté

L’essor de la robotique ne fait pas que bouleverser notre vie quotidienne. Il pose des questions sur l’avenir de nos droits fondamentaux, à commencer par le premier d’entre-eux : la dignité humaine (art. 7 de la Constitution fédérale). En effet, même si nous sommes encore loin de la « singularité », l’irruption dans nos vies de robots capables de copier à la quasi-perfection les interactions et émotions humaines nous pousse à nous interroger sur la relation humain-machine. Ces questions pouvaient relever de la science-fiction il y a quelques années à peine, mais portent désormais toutes sur des cas bien réels.

Ainsi, la dignité humaine tolère-t-elle que l’on impose à un humain de se faire soigner par un robot dans un contexte de pénurie de main d’œuvre dans le domaine des soins ? Et commande-t-elle que ce soit désormais les robots qui soient chargés des tâches triviales, abrutissantes, harassantes ou dangereuses en lieu et place des humains ? Est-il compatible avec ce droit fondamental d’être « aux ordres » d’un robot ? Ou de lui confier des décisions cruciales pour la suite de notre existence comme trouver un emploi… ou le perdre ? La dignité humaine comporte-elle le droit de n’avoir des interactions humaines qu’avec des congénères humains ? Ces questions méritent un débat éthique et juridique approfondi. Dans ce cadre, il faudra avoir à l’esprit que nos réponses ne seront pas universelles : certaines sociétés comme celles qui sont sous l’influence du Shintoïsme ayant une toute autre approche de la relation avec les « choses ».

L’essor de la robotique pose aussi la question de l’avenir du droit fondamental à la liberté, mais aussi de son indispensable pendant : le devoir de responsabilité. En effet, même si vivre dans un monde de plus en plus gouverné par des algorithmes n’est pas une nouveauté si l’on considère certains algorithmes non-numériques à l’impact considérable comme le « frein à l’endettement », l’usage intensif d’algorithmes pour prendre des décisions ne peut que restreindre le libre arbitre. Car celui qui se fie à un algorithme pour prendre une décision ne décide en réalité pas, il obéit. Et, bien souvent, il n’a aucune idée du mécanisme derrière la décision que lui propose ou impose l’algorithme, car c’est en général une « boîte noire », percluse de biais ou d’erreurs.

Quant à la responsabilité, elle est aussi menacée de disparition par l’essor des robots de plus en plus « intelligents » et autonomes. En effet, en l’absence de règles claires sur la responsabilité en cas de dommages, il y a un fort risque que plus personne ne les assume. La solution ne réside certainement pas dans l’attribution d’une personnalité juridique aux robots (qui resteraient financièrement incapables d’assumer un éventuel dommage). Elle ne réside pas non plus dans une confiance aveugle en les entreprises technologiques. Ces dernières tentent certes de nous faire croire qu’elles se soucient de minimiser les dommages que pourraient causer leurs créations, par exemple avec le jeu « moral machine ». Mais cette poudre aux yeux détourne des vrais enjeux : la question n’est en effet pas de savoir si un véhicule autonome, confronté au dilemme peu réaliste de devoir renverser un vieillard et un chaton pour épargner des enfants, fera le choix le plus « moral » possible, mais bien de savoir qui paiera les dégâts (peu importe si les victimes sont les enfants ou le couple vieillard-chaton).

(Texte paru dans la "newsletter" d'octobre 2019 de TA-Swiss, fondation pour l'évaluation des choix technologiques)

15/08/2019

Les algorithmes votent à la place des citoyens : un cauchemar signé avenir.suisse

Récemment, avenir.suisse, qui nous avait plutôt habitué à son mépris pour la démocratie tant directe que parlementaire, a publié un document sur la démocratie directe numérique. J’ai d’ailleurs déjà abordé leurs fadaises à propos du vote électronique. Mais une lecture attentive d’une de leurs propositions passée inaperçue fait autrement plus froid dans le dos que les grandes lignes dont ont parlé les médias. En effet, une de leurs propositions n’est rien de moins que la réalisation d’une des pires dystopies qui soit : le remplacement due la volonté populaire par celles des algorithmes. Oh, bien sûr, la boîte à idée néolibérale ne le dit pas comme ça. Mais, au détour de ses fariboles sur le vote électronique, on trouve un paragraphe inquiétant (p. 64) : la généralisation du e-voting doit permettre « d’intégrer [les] plateformes d’aide au vote dans l’architecture de vote électronique ». Et ce pour favoriser la transparence ( ?) et la simplicité ( ?). Cela ne signifie en réalité rien de moins que l’intégration des systèmes (dont j’ai déjà abondamment parlé) comme « smartvote » ou « vimentis » directement dans les bulletins de vote électronique. Et donc de faire en sorte que les électeurs votent directement comme le leur suggère smartvote et consorts, en un clic. Certes, c’est déjà possible à l’heure actuelle, à condition de recopier les suggestions de vote à la main. Mais cette étape est cruciale. Car n’en déplaise aux technoturbos, écrire quelque chose à la main force à y réfléchir à deux fois. Alors que si le système de vote lui-même permet, voire suggère de voter comme smartvote et que c’est facile, l’incitation sera forte de remplir le questionnaire, puis de se fier aveuglément à ses recommandations. Un clic et hop, devoir civique accompli !

Mais où est le problème, me direz-vous ? Ne devrais-je pas faire confiance au libre arbitre des citoyens comme au savoir-faire de smartvote et laisser les gens voter comme bon leur semble (et tant pis si c’est un algorithme qui décide à leur place) ? Et bien non, et ce pour deux raisons.

Smartvote = fadaises

La première raison est le manque de sérieux de smartvote, vimentis et consorts. Comme j’ai déjà eu l’occasion de l’expliquer dans de nombreux billets, les questions posées par ces plateformes d’aide au vote sont tout sauf sérieuses. Souvent, elles mélangent les sujets ou ne donnent un aperçu que très partiels de dossiers très complexes. Souvent, elles sont contradictoires. Souvent ce ne sont que des généralités à des lieues des nuances que recèle tout choix politique. Bref, voter en se fiant à smartvote revient à tirer au sort une poignée de candidats dans une liste ou à jouer son oui ou son non à pile ou face (éventuellement s’abstenir si la pièce reste sur la tranche). Par ailleurs, un algorithme de recommandation de vote n’est rien d’autre qu’une escroquerie, car il prétend objectiviser un choix qui est forcément subjectif. Et qui est par ailleurs si complexe qu’il est tout bonnement impossible à résumer en une seule question à laquelle il faut répondre par oui, non ou plutôt oui/non. Certes, au final, lors d’une votation, il faut toujours répondre par oui, non ou abstention. Mais la question ne fait jamais deux lignes. Un projet soumis au vote des élus et du peuple peut compter plusieurs dizaines, voire centaines de pages. Et si l’on hésite, il n’est pas possible de répondre par « plutôt » comme chez smartvote.

Pas de décisions algorithmiques !

Mais c’est surtout la deuxième raison qui est la plus cruciale. En se fiant aux recommandations de smartvote et consorts, l’électeur ne décide plus rien. Il obéit à un algorithme. Un algorithme dont il ne sait rien. Ni de sa conception, ni de son fonctionnement. Et d’ailleurs, les lui expliquerait-on qu’il n’y comprendrait rien (j'avoue être dans ce cas). Il est en outre impossible de savoir si l’algorithme « de recommandation de vote » ne favorise pas un parti politique ou un certain type de candidats plutôt que d’autres, par exemple en posant plus de questions sur un thème en particulier que sur d’autres thèmes certes cruciaux pour l'avenir du pays, mais plus difficiles à résumer en petites questions à la mode smartvote. Ainsi, un questionnaire qui contiendrait beaucoup de questions sur la protection de l’environnement favoriserait nettement certains partis. Et d’autres si ces questions portent majoritairement sur l’immigration ou l’intégration européenne. Et même si le questionnaire est équilibré au niveau des thèmes, rien n’indique qu’un de ses concepteurs n’a pas falsifié l’algorithme pour qu’il favorise les candidats du bord politique qui a sa préférence en les faisant remonter dans le classement, peu importe leurs réponses. Ou qu’une erreur de programmation ne n'entraîne la même conséquence. Dans tous les cas, il est impossible d’en avoir le cœur net, les algorithmes de smartvote et consorts n’étant pas publics.

Quoi qu’il en soit, cette proposition d’avenir.suisse ouvre la porte au remplacement par des algorithmes de la libre décision des électeurs, donc à la mort pure et simple de la démocratie. Cette proposition est dans la droite ligne de ses précédentes propositions anti-démocratiques comme son soutien au frein à l’endettement (un algorithme qui décide à la place des élus et du peuple), le remplacement des décisions politiques (donc des élus et du peuple) par des décisions « d’experts » ou des mécanismes automatiques d’augmentation de l’âge de la retraite ou de baisse des rentes (encore des algorithmes). Derrière ces propositions se cache en réalité une volonté de priver les gens de leur libre-arbitre, en tout cas de restreindre les sujets sur lesquels ils peuvent donner leur avis. Et même si telle n’est pas la volonté d’avenir.suisse (laissons leur le bénéfice du doute), c’est en tout cas la conséquence de leurs propositions. Bref, tout cela est fort peu libéral.

*  *  *

J’aurai, comme lors des dernières élections, l’occasion de revenir sur les questions de smartvote et consorts. Mais pour cela, il faudra que je remplisse ces questionnaires d’abord (il faudra attendre le 20 août pour m’y mettre…). Donc, stay tuned !

06/11/2018

Le « dilemme du véhicule autonome », ou comment les techs enfument le débat de la responsabilité des IA et des robots

Récemment, la revue scientifique « Nature » a publié les résultats d’une étude du MIT (l’étude en Anglais) sur le « dilemme du véhicule autonome » (version actualisée du « dilemme du tramway »). C’est-à-dire comment devrait réagir l’intelligence artificielle (IA) aux commandes d’un tel véhicule face à un accident imminent qu’on ne peut éviter qu’en causant d’autres dommages (y compris aux occupants du véhicule). 

capture-decran-2018-11-06-a-11-03-24

 

 

 

 

 

 

Par exemple, écraser une grabataire pour éviter de renverser un jeune papa et son bébé dans une poussette. Ou alors une jeune cadre dynamique à la place d’une grand-mère poussant la poussette précédemment citée. Ou alors un trentenaire à la mine patibulaire portant son joli petit chaton au lieu d’un garçonnet à l’air espiègle dont le lance-pierre dépasse du pantalon. Ou encore un mignon petit caneton tout doux à la place d’un gros pitbull baveux dont on sait qu’il procure compagnie et joie à une charmante vieille dame. Voire le plus beau massif de fleur de la ville au lieu de la devanture d’une chaîne de restauration rapide appartenant à une caisse-maladie. Etc. etc.

Cette étude devait d’une part montrer les « différences de sensibilité » entre les genres, les classes sociales les peuples et les cultures. Dans quelle région commanderait-t-on à l’IA, par exemple, de ne surtout pas écraser la jeune maman et son bébé (« pensez donc, il a toute la vie devant lui ! ») ou alors de sauver impérativement la personne âgée (« il faut respecter les anciens, leur savoir et leur expérience ») ? Et quand on a le choix entre un groupe de 60 retraités et une seule jeune mère et son seul bébé, faut-il faire le choix du nombre ou de l’âge ? Comment un jeune informaticien programmerait-il l’IA et en quoi cette base d’apprentissage serait-elle différente si elle venait d’une retraitée ? Les résultats sont présentés comme rassurants : plus il y de (jeunes) vies humaines en jeu, plus les gens interrogés ont tendance à les épargner, quitte à pour cela écraser vieux schnoques, bébés phoques et mobilier urbain. De telles études sur les dilemmes moraux sont d’ailleurs légion (cf. ce florilège en Allemand).

Mais cette étude devait surtout montrer que les concepteurs de véhicules autonomes les concevaient de telle manière que, en cas de drame inévitable, l’IA ferait tout pour limiter les dégâts, tant au niveau physique (« surtout, limitons le nombre de blessés ! ») qu’éthique (« quitte à écraser quelqu’un, autant épargner le bon ! »). Le grand public n’aurait donc rien à craindre des véhicules autonomes, et par extension des IA en général, car leurs concepteurs aussi géniaux que visionnaires leur ont donné les moyens de penser à tout, y compris aux problèmes éthiques les plus trapus, même s’ils sont hautement improbables.

Disons-le tout net : C’est de l’enfumage. D’une part, parce que ce sont des questions certes intéressantes pour un débat éthique, mais qui restent purement théoriques. Certes, en théorie, la probabilité existe qu’un accident ne puisse être évité qu’au prix d’un autre dégât (y compris qu’une vie ne puisse être sauvée qu’au prix d’une autre), mais aucune des situations décrites dans le « dilemme » n’est amenée à se reproduire en vrai dans la vraie vie. Lorsque vous êtes au volant, avez-vous déjà été confronté au choix de devoir écraser un bébé et un chaton pour épargner l’autostoppeur désagréable du siège passager ? Moi, jamais.

Par ailleurs, si les IA des véhicules autonomes sont bien conçues, elles ne doivent pas se mettre dans une situation où un danger imminent ne peut être écarté qu’au prix d’un autre danger. Par exemple, au moment d’arriver dans une rue où gambadent des enfants, traversent des piétons, roulent des poussettes, trottinent des personnes âgées et ronronnent des chatons, un véhicule autonome bien conçu devra ra-len-tir. Et non pas maintenir une vitesse qui lui ferait risquer d’avoir comme unique choix d’écraser les enfants pour épargner le chaton (ou l’inverse).

Mais c’est surtout de l’enfumage parce que ce genre d’études a pour unique effet que de détourner le débat public des vraies questions. La vraie question en matière d’accidents causés par des véhicules autonomes pilotés par des IA apprenantes est : qui est responsable ? Peu importe de savoir si l’IA en question, si ce cas s’était présenté, aurait choisi, pour des raisons éthiques ou que sais-je, d’écraser un pépé en fin de cycle pour épargner une fillette qui respire la joie de vivre. Ce qui compte, c’est que, s’il y a de vrais dégâts, quelqu’un paie. Le tout est de déterminer qui : le constructeur du véhicule ? son propriétaire ? le programmeur de l’IA ? le passager du véhicule qui se trouvait le plus près du bouton « stop » (s’il existe) ? le piéton écrasé parce qu’il n’aurait pas respecté les règles de sécurité ? le propriétaire du chaton ? le constructeur de la route ou la commune où elle se trouve, parce qu’ils n’auraient pas veillé à ce que la signalisation soit compréhensible par l’IA ? L’entreprise qui a construit la route et ne l’a pas fait assez plate ? Celle qui a installé la signalisation ? Celle qui fournit les données GPS ? Le bébé qui a hurlé, perturbant ainsi les capteurs sonores de l’IA qui n’aurait pas entendu les pas feutrés du chaton ? Et, une fois que le ou les responsables sont établis, quelle règle de responsabilité va-t-on appliquer ? Une responsabilité causale comme celle du propriétaire d’un immeuble ? Une responsabilité partagée en fonction du niveau de risque ou de la possibilité d’influencer et/ou de contrôler l‘IA et son apprentissage ? Une responsabilité analogue à celle de celui qui met sur le marché des produits dangereux ?

Toutes ces questions se posent en cas de dommage causé par des robots ou par des objets pilotés par des IA. Et ce qu’il faut éviter, c’est que cela aboutisse à une situation où personne n’est responsable, par exemple parce que le concepteur prétend que l’IA, en apprenant, a évolué d’une manière qu’il ne pouvait prévoir et que le propriétaire avance que l’IA a agi d’une façon qu’il ne pouvait prévoir au moment d’acheter l’objet.

Un autre problème avec cette étude, c’est qu’elle sous-entend que l’on pourrait laisser les algorithmes décider tout seul, y compris pour des questions de vie ou de mort. Et ça, c’est la fin de la responsabilité individuelle. Car une personne qui doit prendre une décision et qui suit aveuglément un algorithme ne décide plus rien ; elle obéit.

Le législateur doit donc fixer des règles. Mais il ne doit pas se laisser détourner du sujet par des questions du type « la responsabilité du concepteur de l’IA est-elle réduite parce qu’il l’a programmé pour écraser les mémés avant les enfants ? ». Or, en imposant un débat public sur ces questions qui n’ont qu’un intérêt théorique, les « techs » nous font croire que c’est aux scientifiques qu’il revient de déterminer ce qui est bien ou mal et nous détournent des vraies questions sur la responsabilité des IA et des robots. Si elles font cela, c’est dans le but de réduire leur propre responsabilité. Parce qu’une personne qui fait tout pour éviter qu’un mignon chaton ne se fasse brutalement écraser ne saurait être fondamentalement mauvaise, n’est-ce pas ?