14/11/2018

Surveillance dans la chambre à coucher : le mythe qui n’en est pas un

Les partisans de la surveillance généralisées des assurés par les assureurs, en particulier les caisses-maladies, n’ont de cesse de réfuter que la surveillance dans une chambre à coucher soit possible. Certains, comme Isabelle Chevalley aujourd’hui dans « 24 heures » parlent même de « mythe ». Et d’ailleurs, poursuit-elle, « l’intérieur du domicile ne peut faire l’objet d’aucune observation, tel en a décidé le Tribunal fédéral ».

Deux remarques à ce sujet. D’une part, il est impossible que le Tribunal fédéral (TF) se soit prononcé sur une loi qui n’est pas encore en vigueur, car la Suisse ne connaît pas de contrôle constitutionnel préalable des lois fédérales. Ce qu’a dit le TF, c’est que, selon la loi actuelle, l’observation dans une chambre à coucher est interdite. Mais c’est justement ce que veulent changer les assureurs et la droite du Parlement et c’est parce que le TF a mis le holà aux surveillance abusives qu’ils ont élaboré cette nouvelle loi.

D’autre part, il suffit de lire la loi soumise au vote du peuple pour vérifier qu’une surveillance est bel et bien possible à l’intérieur d’un appartement. En effet, selon l’art. 43a al. 4 P-LPGA, l’assuré ne peut être observé que si « il se trouve dans un lieu qui est librement visible depuis un lieu accessible au public ». Comme une chambre à coucher, un balcon ou un jardin visible depuis le trottoir d’en face. Et comme la loi ne le précise pas, un détective qui observe à l’aide d’un drône pourra probablement observer tout ce qu’il veut, du moment que c’est « depuis un lieu accessible au public ». Enfin, comme la loi n’interdit pas explicitement aux assureurs d’utiliser les informations recueillies illégalement (l’al. 6 n’interdit que leur utilisation « à d’autres fins » ou par « un autre assureur »), nul doute que les caisses-maladies utiliseront toutes les méthodes possibles et imaginables… et qu’elles finiront bien par trouver un petit détail qui justifiera que l’on rabote les prestations.

Si la loi n’est pas rejetée le 25 novembre, il sera donc bel et bien possible de mener des surveillance très invasives et donc très couteuses. Sur le dos des assurés… et à leur frais !

06/11/2018

Le « dilemme du véhicule autonome », ou comment les techs enfument le débat de la responsabilité des IA et des robots

Récemment, la revue scientifique « Nature » a publié les résultats d’une étude du MIT (l’étude en Anglais) sur le « dilemme du véhicule autonome » (version actualisée du « dilemme du tramway »). C’est-à-dire comment devrait réagir l’intelligence artificielle (IA) aux commandes d’un tel véhicule face à un accident imminent qu’on ne peut éviter qu’en causant d’autres dommages (y compris aux occupants du véhicule). 

capture-decran-2018-11-06-a-11-03-24

 

 

 

 

 

 

Par exemple, écraser une grabataire pour éviter de renverser un jeune papa et son bébé dans une poussette. Ou alors une jeune cadre dynamique à la place d’une grand-mère poussant la poussette précédemment citée. Ou alors un trentenaire à la mine patibulaire portant son joli petit chaton au lieu d’un garçonnet à l’air espiègle dont le lance-pierre dépasse du pantalon. Ou encore un mignon petit caneton tout doux à la place d’un gros pitbull baveux dont on sait qu’il procure compagnie et joie à une charmante vieille dame. Voire le plus beau massif de fleur de la ville au lieu de la devanture d’une chaîne de restauration rapide appartenant à une caisse-maladie. Etc. etc.

Cette étude devait d’une part montrer les « différences de sensibilité » entre les genres, les classes sociales les peuples et les cultures. Dans quelle région commanderait-t-on à l’IA, par exemple, de ne surtout pas écraser la jeune maman et son bébé (« pensez donc, il a toute la vie devant lui ! ») ou alors de sauver impérativement la personne âgée (« il faut respecter les anciens, leur savoir et leur expérience ») ? Et quand on a le choix entre un groupe de 60 retraités et une seule jeune mère et son seul bébé, faut-il faire le choix du nombre ou de l’âge ? Comment un jeune informaticien programmerait-il l’IA et en quoi cette base d’apprentissage serait-elle différente si elle venait d’une retraitée ? Les résultats sont présentés comme rassurants : plus il y de (jeunes) vies humaines en jeu, plus les gens interrogés ont tendance à les épargner, quitte à pour cela écraser vieux schnoques, bébés phoques et mobilier urbain. De telles études sur les dilemmes moraux sont d’ailleurs légion (cf. ce florilège en Allemand).

Mais cette étude devait surtout montrer que les concepteurs de véhicules autonomes les concevaient de telle manière que, en cas de drame inévitable, l’IA ferait tout pour limiter les dégâts, tant au niveau physique (« surtout, limitons le nombre de blessés ! ») qu’éthique (« quitte à écraser quelqu’un, autant épargner le bon ! »). Le grand public n’aurait donc rien à craindre des véhicules autonomes, et par extension des IA en général, car leurs concepteurs aussi géniaux que visionnaires leur ont donné les moyens de penser à tout, y compris aux problèmes éthiques les plus trapus, même s’ils sont hautement improbables.

Disons-le tout net : C’est de l’enfumage. D’une part, parce que ce sont des questions certes intéressantes pour un débat éthique, mais qui restent purement théoriques. Certes, en théorie, la probabilité existe qu’un accident ne puisse être évité qu’au prix d’un autre dégât (y compris qu’une vie ne puisse être sauvée qu’au prix d’une autre), mais aucune des situations décrites dans le « dilemme » n’est amenée à se reproduire en vrai dans la vraie vie. Lorsque vous êtes au volant, avez-vous déjà été confronté au choix de devoir écraser un bébé et un chaton pour épargner l’autostoppeur désagréable du siège passager ? Moi, jamais.

Par ailleurs, si les IA des véhicules autonomes sont bien conçues, elles ne doivent pas se mettre dans une situation où un danger imminent ne peut être écarté qu’au prix d’un autre danger. Par exemple, au moment d’arriver dans une rue où gambadent des enfants, traversent des piétons, roulent des poussettes, trottinent des personnes âgées et ronronnent des chatons, un véhicule autonome bien conçu devra ra-len-tir. Et non pas maintenir une vitesse qui lui ferait risquer d’avoir comme unique choix d’écraser les enfants pour épargner le chaton (ou l’inverse).

Mais c’est surtout de l’enfumage parce que ce genre d’études a pour unique effet que de détourner le débat public des vraies questions. La vraie question en matière d’accidents causés par des véhicules autonomes pilotés par des IA apprenantes est : qui est responsable ? Peu importe de savoir si l’IA en question, si ce cas s’était présenté, aurait choisi, pour des raisons éthiques ou que sais-je, d’écraser un pépé en fin de cycle pour épargner une fillette qui respire la joie de vivre. Ce qui compte, c’est que, s’il y a de vrais dégâts, quelqu’un paie. Le tout est de déterminer qui : le constructeur du véhicule ? son propriétaire ? le programmeur de l’IA ? le passager du véhicule qui se trouvait le plus près du bouton « stop » (s’il existe) ? le piéton écrasé parce qu’il n’aurait pas respecté les règles de sécurité ? le propriétaire du chaton ? le constructeur de la route ou la commune où elle se trouve, parce qu’ils n’auraient pas veillé à ce que la signalisation soit compréhensible par l’IA ? L’entreprise qui a construit la route et ne l’a pas fait assez plate ? Celle qui a installé la signalisation ? Celle qui fournit les données GPS ? Le bébé qui a hurlé, perturbant ainsi les capteurs sonores de l’IA qui n’aurait pas entendu les pas feutrés du chaton ? Et, une fois que le ou les responsables sont établis, quelle règle de responsabilité va-t-on appliquer ? Une responsabilité causale comme celle du propriétaire d’un immeuble ? Une responsabilité partagée en fonction du niveau de risque ou de la possibilité d’influencer et/ou de contrôler l‘IA et son apprentissage ? Une responsabilité analogue à celle de celui qui met sur le marché des produits dangereux ?

Toutes ces questions se posent en cas de dommage causé par des robots ou par des objets pilotés par des IA. Et ce qu’il faut éviter, c’est que cela aboutisse à une situation où personne n’est responsable, par exemple parce que le concepteur prétend que l’IA, en apprenant, a évolué d’une manière qu’il ne pouvait prévoir et que le propriétaire avance que l’IA a agi d’une façon qu’il ne pouvait prévoir au moment d’acheter l’objet.

Un autre problème avec cette étude, c’est qu’elle sous-entend que l’on pourrait laisser les algorithmes décider tout seul, y compris pour des questions de vie ou de mort. Et ça, c’est la fin de la responsabilité individuelle. Car une personne qui doit prendre une décision et qui suit aveuglément un algorithme ne décide plus rien ; elle obéit.

Le législateur doit donc fixer des règles. Mais il ne doit pas se laisser détourner du sujet par des questions du type « la responsabilité du concepteur de l’IA est-elle réduite parce qu’il l’a programmé pour écraser les mémés avant les enfants ? ». Or, en imposant un débat public sur ces questions qui n’ont qu’un intérêt théorique, les « techs » nous font croire que c’est aux scientifiques qu’il revient de déterminer ce qui est bien ou mal et nous détournent des vraies questions sur la responsabilité des IA et des robots. Si elles font cela, c’est dans le but de réduire leur propre responsabilité. Parce qu’une personne qui fait tout pour éviter qu’un mignon chaton ne se fasse brutalement écraser ne saurait être fondamentalement mauvaise, n’est-ce pas ?

30/10/2018

L’initiative de l’UDC ne peut rien contre les véritables « juges étrangers »

Comme cela fait longtemps que je suis le dossier des nouveaux accords de libre-échange (TISA, TTIP, CETA, etc.) et des tribunaux arbitraux de « protection des investisseurs »  (investor state dispute settlement, ISDS), plusieurs personnes opposées comme moi à ces traités internationaux m’ont demandé si l’initiative anti-droits humains de l’UDC serait une solution à cette problématique. En effet, ces tribunaux arbitraux sont de véritables juges étrangers, qui n’appliquent pas le droit des pays concernés. De tels « tribunaux » ont condamné des Etats condamnés à verser à des multinationales des dommages et intérêts se chiffrant en centaines de millions de francs parce qu’ils ont appliqué leur droit ou l’ont modifié dans un sens qui « nuisait aux perspectives de profits » de ces entreprises. Ça a été par exemple le cas de l’Allemagne, qui a dû indemniser le fournisseur d’énergie suédois Vattenfall, parce qu’elle lui avait interdit d’implanter une centrale à charbon dans une réserve naturelle. D’autres Etats ont été condamnés parce qu’ils ont modifié leur droit dans un but d’intérêt public, par exemple l’Egypte, qui a dû indemniser Veolia pour avoir augmenté le salaire minimum légal. Cela pourrait arriver de nouveau à l’Allemagne (toujours elle !), que Vattenfall (toujours lui !) traîne devant un tribunal arbitral, parce que ce pays a décidé (comme la Suisse) de sortir du nucléaire... et lui réclame 4 milliards d’Euros parce qu’il ne pourrait plus lui vendre d’énergie nucléaire. A chaque fois, ces tribunaux arbitraux n’appliquent pas le droit du pays concerné, mais s’appuient sur de vagues notions de « protection des investisseurs » ou de « perspectives de profits déçues » que les traités internationaux qui les contiennent ne définissent pas précisément, afin de laisser un maximum de marge de manœuvre aux arbitres. A cela s’ajoute le fait que ces tribunaux ne respectent pas les règles élémentaires d’indépendance du pouvoir judiciaire, notamment parce qu’ils siègent à huis clos, ne publient pas les motifs de leurs décisions, n’ont pas d’instance de recours ni de règles contre les conflits d’intérêts (de nombreux arbitres officient en parallèle en tant que conseils d’autres multinationales qui souhaitent attaquer d’autres Etats…). La Suisse n’a par bonheur pas encore été attaquée devant un de ces tribunaux, mais elle a signé de nombreux traités qui le permettraient. Et, sait-on jamais, peut-être que d’ici quelques années, un de ces « tribunaux » pourrait la condamner à « indemniser » une multinationale qui se sentirait lésée par un vote populaire. Voilà qui serait une sacrée atteinte à notre souveraineté !

L’initiative de l’UDC n’est pas une solution.

Cette situation est intolérable, mais l’initiative anti-droits humains de l’UDC n’y changera rien. Car, même si cette dernière veut faire primer le droit national sur les traités internationaux, elle n’empêchera pas la Suisse de devoir payer les dommages-intérêts, si elle se fait condamner par un de ces tribunaux parce qu’elle a changé son droit. Elle aura beau arguer que son propre droit a changé et que ce dernier prime sur l’accord international qui autorise le tribunal arbitral à statuer, ce dernier pourra tout de même la condamner et notre pays devra payer la somme réclamée. Car ces tribunaux ont justement pour objectif de faire payer les Etats qui changent leur droit dans un sens qui déplaît aux entreprises. Et même si la Suisse venait à dénoncer l’accord international en question (pour éviter d’avoir à payer une deuxième fois, par exemple), le principe de non-rétroactivité lui imposerait de payer la somme exigée avant la dénonciation de l’accord.

L’UDC est favorable aux « juges étrangers » des traités « de protection des investisseurs »

En outre, il ne faut pas oublier que l’UDC est favorable à ces tribunaux arbitraux et à ces accords de libre-échange qui détruisent notre souveraineté. Elle a notamment approuvé tous les accords de libre-échange qui les prévoient, même lorsque le PS a contesté leurs clauses « de protection des investisseurs ». Et le groupe UDC au Conseil national a accepté presqu’à l’unanimité la proposition d’adhérer au TTIP (alors que cet accord n’aurait concerné que les USA et l’UE), traité qui prévoyait de tels tribunaux arbitraux ! Pourtant, je l’avais avertie à la tribune qu’elle s’apprêtait à soutenir des juges étrangers.

Conclusion : l’UDC se fiche donc pas bien mal qu’un tribunal arbitral illégitime applique à la Suisse un droit qui n’est pas du droit suisse… du moment que cela sert les intérêts des grandes entreprises.

Tout cela démontre qu’avec son initiative, l’UDC s’attaque surtout à la protection de nos droits fondamentaux, garantie dans des accords internationaux comme la Convention Européenne des Droits de l’Homme. Ce qu’elle veut en réalité, c’est la fin de l’Etat de droit et des liberté individuelles, c’est une « démocratie illibérale » comme en Pologne ou en Hongrie, c’est-à-dire un système politique ou certes la population peut voter, mais où ses droits sont réduits à néant par un système judiciaire aux ordres du pouvoir. Le 25 novembre, je déposerai un NON décidé à cette initiative dangereuse.

*   *   *

Pour en savoir plus sur les tribunaux arbitraux…

D’autres exemples de pays condamnés par ces tribunaux (en anglais)