18/07/2022

A quoi pourrait bien ressembler le nouveau statut « spécial Uber » réclamé par le PLR ?

En plus d’être aveuglé par cette licorne-disruptive-deux point zéro-super innovante qu’est Uber (c’est en tout cas l’avis de certaines personnes), le PLR a certainement vu dans l’arrivée de cette plateforme une aubaine pour déréguler le droit du travail. Probablement espérait-il que le modèle où la plateforme n’est qu’un intermédiaire entre clients et prestataires indépendants finirait par s’imposer (comme en rêvait Uber, mais aussi d’autres plateformes actives dans d’autres domaines comme Batmaid). Des milliers de travailleurs pseudo-indépendants auraient été poussés vers l’indépendance totale, ce qui aurait été désastreux pour leur protection sociale. Mais que voulez-vous, la disruption et l’innovation sont à ce ce prix !

Comme le Tribunal fédéral a – notamment grâce à la ténacité du Canton de Genève et des syndicats – confirmé que les employés d’Uber sont des salariés et non des indépendants, tout est à refaire pour les fans de dérégulation. Mais plutôt que d’exiger de la multinationale californienne et de ses consoeurs disruptives qu’elles adaptent leur modèle d’affaire, le PLR s’aplatit devant elles et propose de modifier notre droit pour créer un nouveau statut ni-complétement travailleur, ni-complétement indépendant (ci-après : statut « ni-ni »), taillé sur mesure pour les besoins des plateformes. Il s’agirait concrètement de créer un nouveau statut hybride pour les travailleurs de plateforme (qui ne seraient justement plus totalement des « travailleurs »), en s’inspirant du modèle du « worker » britannique ou du statut qu’Uber et sa concurrente Lyft sont parvenu à faire accepter par le corps électoral californien (grâce à une des campagnes politique les plus chères qu’ait vécu cet Etat). Selon ses auteurs, ce nouveau statut « ni-ni » devrait « être inscrit dans le code des obligations en tant que forme alternative au contrat de travail » et ne contiendrait qu’une protection contre « certains risques sociaux ». Mais pas tous. Et c’est justement l’intérêt du point de vue des plateformes. Une première mouture de cette proposition affichait d’ailleurs clairement la couleur : « Ce statut offrira une certaine couverture sociale, mais elle sera moins favorable que celle d'un salarié. ». Le PLR prétend aussi que ce nouveau statut permettrait une flexibilité que le contrat de travail n’a pas ; mais probablement n’a-t-il pas bien compris comment fonctionne le droit suisse du travail, car sinon, il saurait que cette flexibilité existe déjà, mais que c’est juste Uber & co. qui ont décidé de ne pas s’en servir.

Quoi qu’il en soit, c’est quand on examine ce que pourrait contenir – ou pas – ce nouveau statut « ni-ni » qu’on constate qu’en réalité, ce nouveau type de contrat n’aurait qu’une seule conséquence : reporter les risques (et leurs coûts) sur la collectivité. Pour s’en assurer, il suffit de comparer le statut de travailleur et celui d’indépendant en droit suisse. Sur la base de ces différences, on constate que certains risques sont assumés (et payés) par les employeurs s’ils concernent un travailleur, mais que, lorsqu’ils frappent un indépendant, c’est très souvent la collectivité qui finit par passer à la caisse. Et que ça peut lui coûter assez cher.

 

Les indépendants sont moins protégés contre les risques de la vie active

Examinons-donc les principales différences entre statut d’indépendant-e et de salarié-e. Une activité professionnelle (qu’elle soit salariée ou indépendante) ayant notamment pour objectif de fournir un revenu aux personnes actives, celles-ci doivent faire face à certains risques de perdre ce revenu à cause d’une incapacité de travail (comme une maladie ou un accident), le chômage, l’invalidité ou la vieillesse, mais aussi la sous-enchère et la concurrence déloyale. Les salariés sont en général assez bien couverts contre ces risques, qui sont à la charge de l’employeur pour certains ou des assurances sociales pour d’autres. En revanche, les indépendants doivent assumer seuls la plupart de ces risques ; par exemple, s’ils sont malades, ils n’ont droit à aucun revenu, à moins d’avoir conclu, à leurs frais, une assurance perte de gain souvent hors de prix. Ils n’ont pas le droit de s’assurer à l’assurance-chômage et se retrouvent donc sans revenu s’ils n’ont aucun client. L’assurance perte de gain en cas d’accident n’est pas obligatoire pour eux. Ils ne sont pas non plus obligés de cotiser à la prévoyance professionnelle : certes, lorsqu’ils cotisent, ils bénéficient d’avantages fiscaux non-négligeables, mais ceux-ci ne sont réellement intéressants que pour ceux qui ont de gros revenus à y consacrer. En effet, pour se faire un « bel étage », il faut avoir des moyens ! Les indépendants n’ont aussi pas droit à certaines prestations dont bénéficient les salariés grâce à la législation sur le travail ; par exemple, lorsqu’ils prennent des vacances, ils n’ont aucun revenu, alors que le salaire des travailleurs leur est dû pendant leurs vacances. Et les indépendants ne bénéficient pas de la durée maximale des horaires de travail, de l’obligation d’accorder des pauses, des limitations du travail supplémentaires, des règles du piquet, des compensations en cas de travail de nuit ou du dimanche, ou encore de congés payés lorsqu’ils doivent s’occuper de leurs enfants malades (une lacune que les mesures covid n’ont comblé que temporairement) ou d’autres proches à charge. En outre, les indépendants ne bénéficient pas des salaires minimaux cantonaux (ou des autres mesures édictées pour lutter contre la sous-enchère). Enfin, le principe de l’égalité salariale (à travail égal, salaire égal) ne s’applique pas à leur rémunération.

 

Que se passera-t-il si on supprime l’une ou l’autre de ces différences pour créer un statu « ni-ni » ?

Si l’on souhaite créer un nouveau statut « ni-ni », il faudrait logiquement supprimer certaines des différences qui existent entre le statut de travailleur et celui d’indépendant, étant donné que, selon la proposition du PLR, seuls « certains risques sociaux » devraient être couverts. Donc, si seuls certains risques sont couverts, d’autres ne le seraient pas du tout. Le tableau ci-après montre quelles seraient les conséquences probables de la suppression de ces différences :

 

Avantages des salarié-e-s que l’on pourrait supprimer pour créer un nouveau statut « ni-ni »

Conséquences pour les personnes concernées

Conséquences pour la collectivité

Qui paierait si on crée un nouveau statut « ni-ni » ?

Qui paie si les personnes concernées restent des salariées selon le droit en vigueur (comme l’a décidé le Tribunal fédéral) ?

Paiement du salaire en cas de maladie (ou une autre incapacité de travail comme un accident)

(Option 1) Les personnes malades ou accidentées n’ont aucun revenu pendant la durée de l’incapacité de travail. Une fois leurs économies épuisées, elles doivent s’adresser à l’aide sociale.

Hausse des coûts de l’aide sociale, baisse des recettes fiscales

Les cantons, les communes

Les plateformes employeuses

Paiement du salaire en cas de maladie (ou une autre incapacité de travail comme un accident)

(Option 2) Pour éviter de se retrouver sans revenu, les personnes malades continuent à travailler malgré leur incapacité et leur état de santé s’aggrave/leur guérison est retardée. Et si elles ne peuvent finalement plus travailler quand même, cf. option 1.

Hausse des coûts de la santé, donc des primes LAMal

Les assurés, les cantons

Les plateformes employeuses

Frais de guérison en cas d’accident

Si la personne n’est pas assurée contre les accidents (ce qui n’est pas obligatoire pour les indépendants), c’est son assurance de base LAMal qui prend en charge les frais de guérison (et pas un assureur-accident comme la SUVA).

Hausse des coûts de la santé, donc des primes LAMal

Les assurés, les cantons

Les plateformes employeuses

Vacances et congés payés

Parce qu’elles n’ont pas de revenu pendant leurs congés, les personnes concernées n’en prennent pas ou en prennent moins. Elles s’épuisent et leur santé en pâtit.

Hausse des coûts de la santé, donc des primes LAMal.

Les assurés, les cantons

Les plateformes employeuses

Assurance-chômage (AC)

Les indépendants n’ont pas le droit de s’assurer à l’AC. Comme elle n’ont pas de revenu si elles n’ont pas d’activité en raison de la conjoncture, les personnes concernées s’adressent à l’aide sociale une fois leurs économies épuisées.

Hausse des coûts de l’aide sociale, baisse des recettes fiscales

Les cantons, les communes

Les plateformes employeuses

Obligation de s’assurer à la prévoyance professionnelle (LPP)

Comme la prévoyance professionnelle n’est pas obligatoire, bon nombre d’indépendants avec de petits revenus ne s’assurent pas. Si un cas d’assurance survient (vieillesse, invalidité), elles n’ont que l’AVS/AI et c’est tout. Elles font donc appel aux prestations complémentaires (PC).

Hausse des dépenses des PC

Cantons, communes

Les plateformes employeuses

Limites maximales de l’horaire de travail, pauses obligatoires

Comme elle n’ont pas de limites d’horaires, les indépendants, notamment ceux qui ont de faibles revenus, travaillent beaucoup trop longtemps et s’épuisent. Leur état de santé en pâtit et le risque d’accident augmente.

Hausse des dépenses de santé et des accidents.

Assurés, cantons, SUVA et autres assureurs-accidents

Les plateformes employeuses

Travail de nuit

Le travail de nuit est dangereux pour la santé. Il cause notamment une hausse du risque de cancer, de trouble du sommeil, de la digestion ou du rythme cardiaque. Les indépendants peuvent travailler la nuit sans restrictions ni compensations et leur état de santé en pâtit. La fatigue augmente, et donc le risque d’accident.

Hausse des dépenses de santé et des accidents.

Assurés, cantons, SUVA et autres assureurs-accidents

Les plateformes employeuses

Salaire minimum / mesures contre la sous-enchère salariale

Les indépendants n’y ont pas droit. Ils ne peuvent donc pas forcément compter sur une rémunération décente. Si leur revenu est insuffisant, ils doivent faire appel aux subsides pour les primes d’assurance-maladie, aux bourses d’étude, à l’aide individuelle au logement, à d’autres subsides publics ou à l’aide sociale.

Hausse des dépenses en subsides (p. ex. pour primes LAMal), pour les bourses d’étude, d’aide individuelle au logement, d’aide sociale… Baisse des recettes fiscales

Confédération, cantons, communes

Les plateformes employeuses

 

Conclusion : Avec le droit actuel (application du droit du travail aux employés des plateformes comme l’a jugé le tribunal fédéral), les principaux risques que courent ces personnes sont assumés par les employeurs, donc par les plateformes. En revanche, une modification du droit du contrat de travail pour créer un statut à mi-chemin entre travailleur et indépendant aurait pour conséquence de reporter ces coûts sur la population, contribuables comme assurés. Ce n’est ni souhaitable, ni raisonnable. A moins d’être un fanatique de l’adage : « les profits pour les privés, les coûts pour la collectivité ».

 

 

 

PS : J’aimerais d’ailleurs bien entendre l’avis de la droite vaudoise sur cette volonté du PLR suisse de reporter les coûts sociaux sur la collectivité, elle qui est d’habitude si prompte à dénoncer l’augmentation de la « facture sociale », qui comprend, entre autres, les dépenses d’aide sociale, les PC et les subsides LAMal

 

20/06/2022

Le droit suisse du travail est-il aussi peu flexible que ne le dit Uber ?

Le Tribunal fédéral (TF) a confirmé ce dont aucun spécialiste de droit du travail ne doutait : les employés d’Uber ne sont pas des indépendants et lui sont liés par un contrat de travail. Uber n’a pas manqué de protester, arguant que ses chauffeurs « ont clairement exprimé leur souhait de rester indépendants, de conserver leur flexibilité et d’être leur propre patron »*. Uber sous-entend ainsi que le droit du travail auquel sont soumis ses employés ne serait pas assez flexible et les empêcheraient de se sentir « leur propre patron ». Mais si on examine un peu les règles suisses en matière d’organisation du travail et le pouvoir de direction de l’employeur, on se rend compte qu’en réalité, notre droit permet de laisser une liberté énorme aux travailleurs.

Oui, le droit suisse est flexible… si l’employeur le veut bien

En effet, si notre droit du travail confère à l’employeur le droit de dicter l’organisation, le lieu, les outils et l’exécution du travail, les horaires, les vacances, le comportement et le code vestimentaire des travailleurs, il ne l’y oblige pas. Un employeur qui souhaite laisser ses employés s’organiser eux-mêmes, fixer leurs priorités et objectifs, travailler depuis chez eux (ou depuis n’importe quel autre endroit), prendre le chemin qu’ils souhaitent pour aller effectuer leurs tâches, refuser une tâche, choisir leurs horaires, eh bien, il le peut. Selon le droit suisse, un employeur peut très bien donner des directives détaillées comme ne pas en donner du tout. En outre, le droit suisse du travail connaît le « travail sur appel improprement dit », une forme de travail sur appel qui permet au travailleur de refuser une mission lorsque l’employeur veut lui en confier une. Difficile d’accorder une plus grande flexibilité !

Or, même s’il pourrait accorder une très grande liberté de choix et d’organisation à son personnel, Uber a fait le choix d’au contraire le soumettre à un corset de règles ultrastrictes, ainsi qu’à un contrôle continu et pointilleux. Ainsi, Uber donne à ses chauffeurs des directives extrêmement détaillées sur la façon dont le travail doit être exécuté : itinéraire, modèle de voiture, aspect du véhicule, façon de conduire, temps de réaction, etc. Tout fait l’objet de directives précises, dont le respect est scrupuleusement évalué… et sanctionné. Comme l’a établi le TF (mais aussi d’autres enquêtes dans d’autres pays, comme celle-ci), les chauffeurs Uber n’ont pas le droit de refuser des courses (ou ils sont virés), de se connecter trop rarement à l’application (ou ils sont virés), de s’écarter de l’itinéraire imposé (ou ils sont virés), ni de démarcher leur propre clientèle ou de fixer leurs tarifs (ou ils sont virés). Si Uber voulait de la liberté et de la flexibilité pour ses chauffeurs, eh bien elle n’aurait qu’à. Personne, et certainement pas le droit suisse du travail, n’oblige Uber à être aussi tatillonne et directive, mais elle a fait le choix de l’être quand même. Alors qu’elle ne vienne pas accuser le droit suisse !

Mais alors, me direz-vous, avec une pareille flexibilité, peut-on encore vraiment parler de salariés ? La réponse est sans équivoque oui. En effet, même si Uber utilisait toute la flexibilité dont elle peut disposer, ses chauffeurs travailleraient pour elle et pas pour compte propre, ne fixeraient pas leurs tarifs et continuerait à exécuter une tâche imposée par Uber : transporter des passagers d’un point a à un point b, en respectant certaines règles de conduite et de comportement. Par ailleurs tout cela se ferais sous la marque Uber (on ne dit d’ailleurs plus « Je commande un taxi », mais : « je commande un Uber »). Et si Uber voulait vraiment « employer » de vrais indépendants, elle devrait alors totalement renoncer à tout son arsenal de directives tatillonnes et de contrôles algorithmiques.

On ne transige pas avec la sécurité et la protection de la santé

En revanche, ce qui n’est pas flexible dans notre droit du travail (heureusement !), ce sont les règles de protection des travailleurs, de protection de la santé publique et qui concernent l’affiliation aux assurances sociales. Ces règles reposent sur un intérêt public qui l’emporte sur la liberté économique tant des employeurs, qui doivent traiter correctement leurs employés même si ça leur coûte cher, que de ces derniers, qui pourraient être frustrés de ne pas pouvoir « travailler plus pour gagner plus » et qui doivent parfois renoncer à leur « indépendance » contre leur gré. Parmi ces règles, il y en a plusieurs qui ont pour but d’éviter des dépenses sociales :

  • en garantissant une rémunération minimale des travailleurs (salaire minimum, remboursement des frais professionnels, paiement du salaire lors de travail sur appel),
  • en évitant qu’ils ne soient privés de revenu parce qu’ils sont dans l’incapacité de travailler (paiement du salaire en cas de maladie, assurance invalidité), au chômage (assurance-chômage) ou à la retraite (AVS, prévoyance professionnelle).

D’autres ont pour but d’éviter une explosion des coûts de la santé (repos, vacances). D’autres visent à protéger la population en limitant le nombre d’accidents (horaires de travail limités, pauses régulières, respect des règles de sécurité routière). Du point de vue d’Uber, ces règles n’ont qu’un défaut : elles coûtent cher. Mais elles permettent notamment à la collectivité de faire des économies. Et, dans tous les cas, ce ne sont pas ces règles-ci qui empêchent les chauffeurs de se sentir « leur propre patron ». Car un patron a aussi des responsabilités envers son entreprises, mais aussi envers la collectivité.

 

Cette histoire révèle deux choses à propos d’Uber.

  1. En réalité, ce qui dérange Uber, ce n’est pas le côté contraignant du droit du travail en matière d’organisation du travail et de liberté laissée aux employés. En effet, Uber aurait tout loisir de laisser beaucoup plus de flexibilité à ses chauffeurs et surtout à moins contrôler leurs moindres faits et gestes. Ce qui dérange vraiment Uber, c’est plutôt le côté contraignant pour l’employeur, qui doit rémunérer correctement ses employés, leur accorder vacances et congés payés, protéger leur santé et leur personnalité, les payer lorsqu’ils sont malades, les assurer correctement aux assurances sociales (et éviter ainsi que ce ne soit les contribuables qui passent à la caisse en cas de lacune de prévoyance nécessitant un recours à l’aide sociale ou aux prestations complémentaires…).
  2. Cette défaite devant le TF ne va pas seulement être couteuse pour Uber, qui va devoir payer d’énormes sommes à ses chauffeurs et aux assurances sociales. Elle a surtout pour défaut de faire s’effondrer son modèle d’affaire comme un château de carte. Car si Uber a eu autant de succès, c’est parce qu’elle a pu être plus flexible et moins chère que ses concurrents, qui, eux respectent la loi et paient ce qu’ils doivent, notamment aux assurances sociales et au fisc. En effet, le modèle d’affaire d’Uber repose essentiellement sur le non-respect des lois fiscale (en témoigne le montant d’impôt très faible payé en France l‘an passé), du travail, en matière d’assurance sociale ou de régulation des transports et sur le report sur la collectivité des coûts que cela génère. Quand on ne respecte pas les règles auquel ses concurrents sont soumis, il est facile d’être moins cher. Mais ces pratiques portent un nom : la concurrence déloyale.

On le voit, lorsqu’il s’agit de laisser une grande liberté d’organisation aux employés, le droit suisse du travail est suffisamment flexible. Il suffit que l’employeur le veuille. En revanche, lorsqu’un intérêt public commande de protéger les travailleurs, la santé publique et les finances publiques, il n’y a pas de raison de se plier aux désirs des entreprises, fussent-elles des licornes-disruptives-4.0-etc. comme Uber. La proposition du PLR de créer un nouveau contrat de pseudo-indépendant est donc aussi inutile que nuisible et ne peut en réalité n’avoir qu’une seule conséquence : diminuer la protection des personnes concernées et reporter les coûts sur la collectivité.

 

 

*Probablement que, lorsque les chauffeurs en question réaliseront que, parce qu’ils bénéficient d’un contrat de travail, ils pourront exiger d’Uber une rémunération conforme au salaire minimum genevois, un droit à des vacances, le droit au paiement de leur salaire en cas de maladie, le paiement de leur salaire pendant leur délai de congé, le remboursement de leurs frais professionnels (essence, amortissement, taxes et entretien de leur véhicule, etc.) et ce sur rétroactivement sur les cinq dernières années (10 ans pour les frais), ils se réjouiront qu’Uber leur doive autant d’argent. Ils se réjouiront aussi d’être assurés à l’assurance-chômage, ce qui est impossible en tant qu’indépendant.

17/08/2021

Quand les algorithmes sélectionnent, embauchent… et licencient

Comme le révélait récemment le « Tages-Anzeiger », les algorithmes sont de plus en plus utilisés lors de l’embauche de nouveaux collaborateurs par des entreprises suisses (comme la Migros, La Poste, les CFF, Crédit Suisse, Axpo, Helsana ou encore UBS) . Il existe en effet un nombre croissant d’outils informatiques qui permettent de trier les dossiers de candidatures, de les évaluer, voire de mener un entretien d’embauche via un « chatbot » ou même un véritable robot. Dans certains cas, cela a lieu sans aucune intervention humaine.

Si elle facilite grandement la tâche des employeurs et leur fait économiser un temps considérable, en particulier ceux qui font face à un très grand nombre de candidatures pour les postes qu’ils mettent au concours, l’utilisation d’algorithmes ne va pas sans poser des problèmes de droit du travail. J’avais traité cette question (avec celle du licenciement prononcé par un algorithme… dont je reparlerai une autre fois), dans un article scientifique paru l’an dernier (« Quand les algorithmes embauchent et licencient », in Müller/Rudolph/Schnyder/von Kaenel/Waas (éd.), Festchrift für Wolfgang Portmann, Zurich 2020 ). En voici un résumé (pour les références complètes, se reporter au texte original).

 

  1. Les nouveaux instruments numériques pour trier, sélectionner et interroger les candidats à l’embauche

Un nombre croissant d’employeurs fait appel à des algorithmes plus ou moins « intelligents » pour identifier les candidats potentiels, solliciter leur postulation, répondre à leurs questions, trier les candidatures, voire mener les premiers entretiens d’embauche. Certains de ces outils remplissent toutes ces fonctions à la fois, comme le chatbot « Mya » utilité par Adecco. Voici quelques-unes de ces fonctions.

 

  • Identifier des candidats potentiels

Les services de « sourcing » prospectent  sur les réseaux pour identifier des personnes qu’une entreprise pourrait recruter. Charge ensuite à elle de procéder au recrutement en tant que tel. Ces services passent en revue de nombreux sites, notamment des réseaux sociaux, et tentent ainsi d’identifier des personnes externes à l’entreprise dont le profil pourrait l’intéresser. Ces personnes n’ont pas postulé ni même l’intention de le faire. Ce service trouve ensuite leurs coordonnées. Comme il ne s’agit pas encore d’une phase précontractuelle, les règles du contrat de travail ne s’appliquent pas. En revanche, la Loi sur la protection des données est applicable et cette méthode la viole largement. En effet, le « sourceur » établit de véritables profils de personnalité (art. 3 let. d LPD, respectivement du « profilage » selon la LPD révisée), souvent sur la base d’information inexactes (qui devraient être corrigée selon l’art. 5 LPD), le tout sans le consentement explicite des intéressés (art. 4 al. 5 LPD) et sur la base de données dont la collecte avait un autre but (principe de finalité, art. 4 al. 3 et 4 LPD). Par ailleurs, le scannage généralisé des données personnelles de toute la population pouvant être potentiellement être engagée par les clients du « sourceur » est en contradiction avec le principe de proportionnalité (art. 4 al. 2 LPD).

 

  • Trier et sélectionner les dossiers de candidature

Il existe de nombreuses solutions d’« applicant tracking system » (système de suivi des candidatures) qui permettent de scanner les dossiers de candidatures reçus et de déterminer s’ils conviennent. Certains de ces systèmes informent même les candidats de leur classement par rapport à d’autres candidats.

Par exemple, la plateforme d’offres d’emploi monster.com ne transmets un dossier de candidature à un employeur potentiel que lorsque celui-ci reçoit le feu vert du logiciel maison « 6sense ». Du moment que la personne qui soumet un dossier le fait à l’intention d’un employeur en particulier, il faut partir de l’idée qu’elle fait une véritable une postulation ; l’employeur potentiel est alors soumis aux obligations dites précontractuelles dont je reparlerai plus bas.

A l’instar de « 6sense », de nombreux outils permettent aux employeurs de trier les candidatures et d’en sélectionner certaines. Certains, comme Text-Analysis ou Sentiment-Analysis (Watson/IBM) analysent les CV et établissent un profil de la personne qui postule. D’autre, comme Tone-Analyser prétendent être capable de décrypter les sentiments présents dans un texte.

Certains outils se disent capables de prévoir l’adéquation de l’employé potentiel avec les attentes de l’employeur (« matching ») : au moyen d’un calcul de probabilité des performances, ils tentent de démontrer si le candidat sera productif et s’il s’intégrera à la culture d’entreprise. Tous les fournisseurs de telles solutions prétendent qu’elles permettent de réduire le roulement du personnel (turnover) et d’améliorer la productivité. C’est toutefois lors de l’emploi de tels outils que le risque de discrimination par réplication des profils majoritaires dans l’entreprise est le plus élevé, les algorithmes auto-apprenants ayant tendance à s’inspirer des données qu’ils ont eu initialement à disposition.

LinkedIn a développé un outil qui, grâce au « machine learning », serait capable d'apprendre les besoins d’un recruteur et d'identifier automatiquement les candidats pertinents, en se basant sur l’historique des interactions. Dans de nombreux cas, il arrive que ce soient les algorithmes qui décident, seuls, de rejeter définitivement la candidature ou au contraire de la conserver pour les étapes suivantes du recrutement.

D’autres employeurs utilisent les algorithmes pour trier les candidatures au moyen de tests psychologiques. Ainsi, pour certains postes pour débutants chez Unilever, les premières phases de recrutement sont entièrement automatisées : les postulants reçoivent automatiquement un test psychologique mené par une intelligence artificielle dont le résultat décidera de la suite qui sera donnée à leur candidature.

 

  • Répondre aux questions des employés potentiels

Il existe plusieurs solutions de chatbot programmés pour répondre aux questions les plus fréquentes que posent les personnes qui envisagent de postuler auprès d’un employeur. Il existe notamment AskRH, qui fonctionne avec l’API « conversation » de Watson/IBM. Cela permet aux employés de se renseigner par exemple sur les conditions de travail en vigueur et ainsi d’éviter des postulations qui ne mèneront à rien.

 

  • Confier l’entretien d’embauche à une IA ou un robot

Il arrive même que l’entretien d’embauche se fasse grâce au truchement d’une IA, voire d’un véritable robot. Cela va d’une conversation téléphonique avec un chatbot (comme le proposent Precire, HireVue ou VideoBio), qui ne sert parfois qu’à établir un profil de personnalité du candidat, à un véritable entretien d’embauche, à distance face à un avatar humanoïde voire en présence d’un vrai robot. Il y a par exemple « Sophie », capable de poser des questions au candidat et de l’évaluer à l’aune de ses réactions et réponses. Il y a aussi « Zara », utilisée par Manpower, qui est d’abord utilisé pour effectuer un premier tri lors de recrutement massif, mais aussi dans le cadre de véritables entretiens. Il y a encore « Matilda », et « Vera », censés trier les CV, établir un profil de personnalité du candidat, déterminer sa motivation et sa compatibilité avec le poste mis au concours, le tout pour plusieurs milliers de profils par jour.

 

  1. Les risques d’une sélection par les algorithmes
    • Le risque de discrimination

Le risque principal de l’emploi d’algorithmes lors du recrutement de personnel est la discrimination. En effet, même s’ils ont la réputation (largement usurpée comme on le verra ci-après) d’être objectifs, neutres et rationnels, les algorithmes n’en comportent pas moins de nombreux biais, notamment en raison des biais contenus dans les bases de données qu’ils utilisent ou qui ont servi à les entraîner, par exemple « foutaise à l’entrée, foutaise à la sortie » (« garbage in, garbage out »). En effet, ces bases sont composées des données disponibles (p. ex. les employés actuels d’une entreprise), alors qu’avant l’essor du numérique, elles étaient constituées d’échantillons représentatifs. Il y a aussi la discrimination statistique, lorsqu’un algorithme attribue automatiquement certaines caractéristiques un profil parce qu’il procède à une généralisation sur la base d’autres critères, par exemple lorsqu’il considère que tous les habitants d’un quartier sont peu productifs parce tous les travailleurs précédemment engagés habitant ce quartier se sont révélés être moins productifs que la moyenne. Les biais peuvent aussi résulter d’un pur calcul économique de l’algorithme, qui rejette les candidatures féminines parce qu’il considère que leur rapport coût-efficacité est moins bon. Certains algorithmes ne font enfin que reproduire les biais des humains qui les ont programmés (p. ex. le sexisme ambiant de certaines entreprises technologiques dont le personnel est majortairement composé d’hommes).

Parmi les exemples tristement célèbres, on trouve le logiciel de reconnaissance faciale de Google qui qualifiait de « gorilles » des photos de personnes afro-américaines. Ou celui de Microsoft « face API » qui dû être corrigé après que 93% des erreurs concernaient des personnes dont la couleur de peau est sombre, parce que sa base de données d’entraînement était surtout composée d’image d’hommes blancs. Plus récemment, un étudiant de l’EPFL a démontré que les algorithmes de Twitter pratiquent eux-aussi la discrimination à grande échelle.

Il existe aussi des exemples de biais en matière de recrutement de personnel :  un algorithme d’analyse de CV d’Amazon pour faciliter le recrutement attribuait souvent de mauvaises notes aux candidatures féminines pourtant en adéquation avec les postes à repourvoir. Il a aussi été démontré par une étude de l’Université de Carnegie-Mellon que l’algorithme de Google avait tendance à ne présenter aux chercheuses d’emploi des offres moins qualifiées ou moins bien payés que celles présentées aux hommes de profil équivalent.

Chez Unilever, la sélection par algorithmes de certains employés se fait au moyen de tests qui utilisent les résultats des meilleurs employés comme valeur de référence. Il y a donc un risque réel de pénaliser certains candidats. Cela dit, les résultats présentés par Unilever tendant à montrer une amélioration de la diversité des profils (cf. ci-après).

La discrimination de certaines catégories de travailleurs peut aussi être voulue par l’employeur, qui paramètre sciemment ses algorithmes de sélection, par exemple pour qu’ils excluent les candidatures d’un certain âge.

  • L’illusion de l’objectivité

Bien des concepteurs et des utilisateurs prétendent qu’une sélection opérée par des algorithme est plus objective et rationnelle que celle qui est le fait d’humains et qu’elle serait même capable d’objectiviser ce qui est par nature subjectif. Par exemple, Manpower prétend que l’analyse des émotions et du sourire par Zara est « objective ». Or, s’il est vrai l’usage d’algorithmes et de données permet d’éviter bon nombre de biais « typiquement humains », cela n’est souvent qu’une illusion d’objectivité et de rationalité. Comme évoqué ci-dessus, les algorithmes peuvent eux-mêmes générer des biais. En outre, contrairement à ce que bon nombre de personne croient, les données ne sont pas en soi rationnelles, neutres et objectives parce qu’elles recensent des faits sous forme de chiffres. En effet, toute base de données n’est d’une part qu’un reflet partiel de la société, un défaut encore plus marqué lorsque les données utilisées se fondent sur une entreprise dont le personnel est peu diversifié. D’autre part, une base de données est toujours le fruit d’un choix de critères, qui lui, est forcément subjectif.

  1. Les chances d’une sélection par les algorithmes
    • Les biais cognitifs

Les sciences cognitives ont identifié depuis plusieurs décennies des écarts systématiques et réguliers par rapport à des choix considérés comme « rationnels ». Ces erreurs sont non seulement fréquentes, mais de direction constante, c’est-à-dire non aléatoire. En d’autres termes, elles ont pour conséquences que ceux qui les commettent se trompent toujours de la même manière et tombent toujours dans les mêmes pièges. Elles sont qualifiées de « biais cognitifs ». Certains de ces biais peuvent avoir des conséquences dévastatrices lorsqu’ils influencent la décision d’engager ou non quelqu’un. Il existe par exemple le « biais du champion » qui pousse à tenir pour vrai ce qui est dit par une personne connue et admirée pour ses succès et donc à s’y fier aveuglément ou le « biais d’intuition », qui pousse les dirigeants à se fier à leur instinct, indépendamment des faits. Il y a aussi le « biais de stéréotype », qui consiste à associer certains métiers à un sexe en particulier (coiffeuse, agent de police).

  • Racisme, sexisme et autres discriminations

De nombreuses expériences de postulations fictives ont montré que de nombreux employeurs se laissent influencer par des préjugés sexistes, racistes ou dus à l’âge lors de l’embauche de nouveaux travailleurs.

  • Les algorithmes en tant que moyen pour surmonter ces biais

Une sélection effectuée par des algorithmes permettra d’éviter ces discriminations, pour autant qu’ils soient correctement paramétrés et qu’ils ne se fondent pas sur d’autres critères entraînant des discriminations. Selon Unilever, l’utilisation d’algorithmes pour certains processus de sélection aurait permis d’augmenter la diversité des profils, tant au niveau de l’origine ethnique, sociale que géographique des candidats. Une étude de la Harvard Business Review a par ailleurs montré que la sélection effectuée par des algorithmes donne de meilleurs résultats que celle effectuée par des managers connaissant certes très bien leur métier et leur entreprise, mais se fiant surtout à leur intuition et se laissant distraire par des détails : les candidats sélectionnés par algorithmes ont ensuite de meilleures évaluations de leurs supérieurs, sont plus souvent promus et assimilent mieux par la formation. Une autre étude a aussi montré que certaines analyses de personnalité sont plus précises lorsqu’elles sont le fait d’algorithmes travaillant sur la base de traces numériques comme des activités sur les réseaux sociaux que lorsque des humains se livrent aux mêmes analyses en se basant sur des questionnaires de personnalité.

  • L’amélioration de la productivité et la diminution du roulement du personnel (turnover)

Le recrutement effectué l’aide d’algorithmes peut aussi inclure un élément prédictif. Les employeurs en espèrent une meilleure prévisibilité de la productivité des travailleurs qu’ils recrutent et de la durée de la relation contractuelle qui les liera à ceux-ci. L’algorithme est ainsi censé déterminer si le salarié va rester longtemps dans l’entreprise, s’il s’adaptera à sa culture et au poste qu’on va lui confier.

 

  1. Quelques principes pour garantir la légalité des algorithmes

Réguler l’usage des algorithmes est une chose, contrôler que leur utilisation est conforme aux règles en est une autre. Et ce contrôle peut être très ardu. En effet, un algorithme est souvent une « boîte noire », un mécanisme dont il est impossible de connaître le fonctionnement exact. Cette absence de transparence est souvent justifiée par la propriété intellectuelle, mais elle est aussi due au fait que les personnes disposant de compétences suffisantes pour être capable de comprendre leur fonctionnement exact sont fort peu nombreuses.

Toutefois, comprendre le fonctionnement d’un algorithme utilisé dans le cadre d’une relation de travail est nécessaire dans de nombreux cas, notamment lorsque le travailleur est en droit d’obtenir une explication détaillée de son employeur (ou d’un employeur potentiel), comme les motifs du congé à remettre par écrit (art. 335 al. 2 CO) ou en cas de soupçon de discrimination à l’embauche liée au sexe (art. 8 al. 1 LEg). S’il fonde sa « décision » sur celle de l’algorithme, l’employeur devra en expliquer de manière transparente et compréhensible le fonctionnement, en particulier les éventuelles mesures pour éviter biais et discriminations. Il devra le cas échéant renseigner un tribunal de manière détaillée. Et, même lorsqu’il reprend telle quelle et fait sienne la « décision » de l’algorithme, l’employeur ne saurait se contenter de « j’ai décidé de suivre la proposition de l’algorithme », sans en détailler le contenu. En effet, se fier, voire se soumettre à un tel résultat n’est pas le motif qui justifie le congé ou le refus d’embauche, mais le processus qui a conduit à l’élaboration des motifs. S’il veut rester un décideur, l’employeur aura donc lui aussi intérêt à connaître le fonctionnement des algorithmes à qui il délègue la préparation de certaines de ses décisions.

La recherche a commencé à préciser les conditions nécessaires à l'usage d'algorithmes respectueux des droits fondamentaux. Voici les critères qu’ils devraient remplir :

  • Responsabilité : pour tout système algorithmique, il doit y avoir une personne ayant le pouvoir de faire face à ses effets indésirables ;
  • Explicabilité : toute décision produite par un algorithme devrait être expliquée aux personnes concernées ;
  • Exactitude : les sources d'erreur doivent être identifiées, consignées et comparées ;
  • Auditabilité : les algorithmes doivent être développés pour permettre à des tiers d'en sonder et d'en revoir le comportement ;
  • Justiciabilité : pour éviter les biais des décisions automatisées, les algorithmes qui prennent des décisions au sujet des individus doivent être évalués pour que leurs effets discriminatoires puissent être mesurés.

Il existe aussi des solutions techniques pour corriger les biais des algorithmes, comme compléter ou de redresser les bases de données en le reconstituant à l’aide de modèles statistiques.

La nouvelle LPD fait un premier pas en prévoyant une obligation d’information de la personne concernée et la possibilité pour celle-ci d’exposer son point de vue en cas de décision individuelle automatisée (art. 19 nLPD). Ce projet est malheureusement très en-deça des principes précédemment évoqués et reste donc très insuffisant. Il va aussi beaucoup moins loin que le nouveau règlement général sur la protection des données (RGPD) européen, dont l’art. 22 confère en principe le droit de ne pas être l’objet d’une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l'affectant de manière significative. Le RGPD prévoit aussi des sanctions dissuasives ainsi que des dommages-intérêts, dont pourraient bénéficier les personnes victimes de discrimination suite à une décision automatisée, comme un non-engagement sur proposition ( voire décision) d’un algorithme. L’employeur soumis au RGPD a aussi l’obligation de réduire les risques de discrimination, notamment au moyen d’une « analyse d’impact sur la protection des données ».

 

  1. Une machine pour représenter l’employeur ?

Conclure un contrat ou lui mettre un terme sont des actes juridiques qui nécessitent une manifestation de volonté. Un employeur (qu’il s’agisse d’une personne physique ou morale) peut se faire représenter (au sens des art. 32ss. CO) par une personne physique dotée des droits civils (art. 12 CC) pour valablement conclure un contrat ou émettre la manifestation de volonté unilatérale de donner le congé. Peuvent ainsi signer un contrat de travail ou une modification de ce contrat avec un employé, les organes exécutifs qui disposent du pouvoir de représentation, ainsi que toutes les personnes qui peuvent valablement représenter l’entreprise dans les actes juridiques avec des tiers. Si le contrat n’a pas été conclu par une personne dument autorisée à représenter l’employeur et que ce dernier ne le ratifie pas, il n’est pas conclu.

Lorsque ce n’est pas une personne physique ou morale (algorithme, IA, robot) qui prend la décision d’engager ou de donner le congé, cela doit être ratifié par une personne physique habilitée à représenter l’employeur. En effet, pour agir en qualité de représentant, il faut la personnalité juridique, ce que ni un algorithme, ni un robot, ni une intelligence artificielle n’a… ni n’aura, en tout cas dans un proche avenir (le Parlement fédéral a notamment refusé cette proposition de l’ancien conseiller national Mathias Reynard).

 

  1. La discrimination à l’embauche en droit suisse du travail
    • Les obligations précontractuelles de l’employeur

Même s’ils finissent par ne pas être liés par un contrat de travail, un employeur et les personnes qui postulent à un emploi sont liées par des obligations précontractuelles qui vont au-delà des règles usuelles de la bonne foi. Ainsi, l’art. 328 CO sur la protection de la personnalité du travailleur s’applique déjà lors de la phase précontractuelle, même si au final aucun contrat n’est conclu (quelle qu’en soit la raison). L’art. 328b, qui autorise l’employeur à ne traiter que des données personnelles en liens avec la relation de travail s’applique lui aussi pendant cette phase précontractuelle.

L’employeur potentiel ne peut donc pas pratiquer de discrimination à l’embauche. Il ne peut pas non plus poser certaines questions au candidat ou rechercher certaines informations à son sujet.

  • La discrimination à l’embauche en droit privé
    • En fonction du sexe

L’art. 3 al. 2 de la Loi sur l’égalité (LEg) prohibe la discrimination en fonction du sexe, y compris lorsqu’elle est indirecte. Cela est aussi valable pour la discrimination à l’embauche, qui, si elle ne donne pas à la victime de droit à être embauchée, donne le droit à une indemnité. Une personne qui n’a pas été engagée et se prévaut d’une telle discrimination peut demander à celui qui ne deviendra pas son employeur qu’il motive sa décision par écrit (art. 8 al. 1 LEg). Cette régale rend à notre sens plus nécessaire encore la généralisation des critères d’explicabilité et de responsabilité des algorithmes : l’employeur qui fait recours à de tels outils doit être le cas échéant en mesure d’expliquer que cela ne conduit pas à des résultats discriminatoires.

Il faut enfin relever l’art. 3 al. 3 LEg, qui autorise expressément les « mesures appropriées visant à promouvoir dans les faits l'égalité entre femmes et hommes ». L’emploi d’algorithmes dans le but de favoriser la diversité des sexes lors de nouvelles embauches sera donc licite.

 

  • En fonction d’autres critères (origine ethnique, âge, opinions politiques, handicap, orientation sexuelle)

L’art. 8 al. 2 de la Constitution fédérale (Cst.) stipule que « Nul ne doit subir de discrimination du fait notamment de son origine, de sa race, de son sexe, de son âge, de sa langue, de sa situation sociale, de son mode de vie, de ses convictions religieuses, philosophiques ou politiques ni du fait d'une déficience corporelle, mentale ou psychique. » Ce droit fondamental ne s’applique toutefois pas strictement aux rapports de travail de droit privé (contrairement à l’al. 3 du même article consacré à l’égalité entre les sexes). Il n’existe ainsi pas de droit général à l’égalité de traitement en droit suisse du travail. Le Tribunal fédéral a notamment rappelé récemment que l’interdiction de discrimination directe visée par la loi sur l'égalité ne tient pas compte de l’orientation sexuelle. La liberté de contracter qui en découle n’est toutefois pas illimitée, notamment lorsque le travailleur (potentiel) est atteint dans ses droits personnels ou sa considération sociale, par exemple en cas de traitement discriminatoire sans motif justificatif.

L’art. 328 CO interdit donc toute discrimination à l’embauche motivée par un des critères évoqués à l’art. 8 al. 2 Cst. C’est par exemple le cas de la discrimination à l’embauche fondée sur un motif raciste. La sanction pour l’employeur qui la commet sera en principe une indemnité pour tort moral, mais ne saurait conduire à une obligation de contracter.

  • En fonction du lieu de domicile ou de la nationalité

Le lieu de domicile est une donnée personnelle facile à trouver et à traiter. C’est la source de nombreuses discriminations causées par des algorithmes. En effet, ceux-ci peuvent facilement faire des corrélations entre le critère « lieu de domicile » et un autre critère, même s’il n’y a en réalité pas de lien de causalité. Un exemple très connu est celui de la solvabilité : il suffit d’habiter dans un quartier où vivent de nombreux mauvais payeurs pour être soi-même classé dans cette catégorie par des organismes qui prétendent analyser la solvabilité, ce qui peut avoir des conséquences néfastes sur la vie quotidienne, comme des difficultés à obtenir un prêt bancaire ou à conclure un bail à loyer.

En matière de droit du travail, l’Accord sur la libre circulation des personnes (ALCP) prohibe la discrimination des travailleurs ressortissants des Etats membre de l’Union Européenne (art. 7 ALCP et art. 9 par. 1 de l’annexe 1 ALCP). Les algorithmes de sélection devront donc être paramétrés afin de ne pas aboutir à l’exclusion de travailleurs ressortissants de certains Etats. Cependant, comme les « mesures d’accompagnements » prévoient que l’interdiction de discrimination ne saurait conduire à de la sous-enchère salariale, il conviendra aussi d’éviter que ces algorithmes ne privilégient les ressortissants de certains de ces Etats, notamment au détriment des travailleurs indigènes, au motif que ceux-là accepteraient des conditions salariales moindres. En effet, un logiciel qui donnerait systématiquement la priorité à des travailleurs étrangers nettement moins bien rémunérés que des travailleurs indigènes contribuerait à une sous-enchère certainement abusive et en tout cas répétée, ce que justifierait les interventions des autorités prévues aux art. 360a ss CO. Si c’est l’employeur – et non l’algorithme – qui prend la décision finale d’engager, l’utilisation d’un tel algorithme pourrait constituer un indice de l’existence de sous-enchère abusive et répétée. Une telle discrimination pourrait en outre contrevenir aussi aux mesures de mise en œuvre de l’art. 121a Cst. (« préférence indigène »).

  • Les conséquences de la discrimination à l’embauche

En cas de discrimination à l’embauche, le travailleur victime n’a pas de droit à être engagé. Si la discrimination est liée au sexe, la victime pourra prétendre à une indemnité au titre de l’art. 5 al. 2 LEg. Dans les autres cas, elle aura droit à des dommages-intérêts et/ou une indemnité pour tort moral.

  • Les informations que l’employeur potentiel n’a pas le droit de recueillir

Lors d’un entretien d’embauche, un employeur potentiel, qui est légitimé à poser toute question directement liée au rapport de travail, n’a pas le droit de poser certaines questions qui violent la personnalité du candidat. C’est notamment le cas des questions liées aux opinions politiques et religieuses, à une grosses ou un projet de grossesse, à la situation familiale, au cercle d’amis, aux activités extra-professionnelles, etc. Et, s’il les pose tout de même, le candidat a le droit de ne pas répondre, voire de mentir. Certaines questions ayant trait à l’état de santé du candidat ou d’éventuels antécédents pénaux ne sont admissibles que lorsque cela peut avoir un impact sur l’exécution du travail.

Quant aux recherches sur le candidat et son passé, en particulier à propos de son activité sur les réseaux sociaux, il s’agit d’une pratique de plus en plus courante. Elle permet en effet à l’employeur d’obtenir des informations auxquelles il ne devrait pas avoir accès dans le cadre d’une postulation, car elles ne font pas partie des informations en lien avec la relation de travail qu’il est en droit d’obtenir. Ces informations sont pourtant d’autant plus faciles à obtenir qu’elles sont, en particulier les publications sur les réseaux sociaux, publiques ou en tout cas accessibles à un grand nombre de personnes. En outre, de nombreux services spécialisés, du « background check » aux analyses de solvabilité, permettent aux employeurs d’obtenir des informations qui peuvent leur sembler pertinentes sur un candidat. Toutefois, lorsqu’il mène de recherches de son propre chef (ou les externalise), l’employeur est soumis aux mêmes obligations précontractuelles que lors d’un entretien d’embauche. Il doit donc s’abstenir de rechercher des informations qui n’ont aucun lien avec la future relation de travail ou qui lui donnerait la réponse à des questions qu’il n’a pas le droit de poser. Comme il y a fort à parier que toute recherche fondée sur les activités en ligne d’une personne mènera fatalement à de telles informations, l’employeur doit renoncer à de telles recherches et à faire appel à des services spécialisés qui les font à sa place. Si une information comme un antécédent pénal ou en matière de poursuite et faillite s’avère avoir un lien avec la future activité, l’employeur doit demander au candidat de lui fournir l’information sous la forme d’un extrait de casier judiciaire ou de registre des poursuites, mais ne saurait mener lui-même de telles investigations. En revanche, l’employeur est habilité à consulter les informations à caractère professionnel que le candidat a lui-même mis en ligne, notamment sur les réseaux sociaux à vocation professionnelle comme linkedin, xing ou encore les réseaux d’alumni des hautes écoles.

Lorsque c’est un algorithme qui mène un entretien ou effectue des recherches sur un candidat, il convient donc de garantir qu’il ne posera pas de question interdite, respectivement ne mènera pas de recherches illicites. Si la problématique des questions semble assez simple à régler (il suffit de paramétrer le logiciel qui mène l’entretien pour qu’il ne les pose pas), celles des recherches est plus ardue. S’il est facile pour l’employeur de ne pas faire usage d’un service qui effectuera de telles recherches à l’aide d’algorithmes, il est beaucoup plus difficile de prévoir ce que pourrait faire une IA en charge du processus de sélection. En effet, celle-ci pourrait, de son propre chef suite à son processus d’apprentissage, décider de mener de telles recherches sur le compte des personnes qu’elle va sélectionner. Il importe donc de paramétrer ces IA pour qu’elles ne mènent pas de recherches illicites sur le compte des candidats et s’en tiennent aux informations que l’employeur est légalement en droit d’obtenir.

  1. En guise de conclusion

L’usage d’algorithmes et d’IA pour sélectionner les candidats et trier leurs dossiers comporte de nombreux avantages pour les employeurs : gain de temps, évitement de certains biais typiquement humains (biais cognitifs, racisme) et, dans certains cas, gains de productivité et diminution du taux de roulement. Mais cela ne les libère pas de leurs devoirs envers leurs potentiels futurs collaborateurs. Même si c’est un algorithme qui effectue la sélection, l’employeur reste soumis aux obligations du droit du travail. Et c’est à lui que revient la décision d’engager ou pas le candidat. D’une part parce qu’une machine n’est pas (encore) capable de conclure valablement un contrat, mais aussi parce que les algorithmes et les bases de données dont ils se servent subissent eux-aussi des biais, des erreurs et des lacunes. Pour éviter de commettre une discrimination à l’embauche, l’employeur doit faire en sorte de les éviter. Il doit aussi veiller à ce que ces algorithmes puissent être audités et expliqués, le cas échéant devant un tribunal. Il en va de sa responsabilité, mais aussi de son libre-arbitre. En effet, un décideur qui se fie aveuglément à ce qui lui propose ou impose un algorithme ne décide pas ; il obéit.

D’une manière générale, il convient de ne pas se laisser bercer par l’illusion d’objectivité, de neutralité et de rationalité que certains confèrent aux machines. Même si elles donnent l’apparence d’être libérées des « travers » humains que sont la subjectivité ou les émotions, elles n’en ont pas moins été créées et développées par des humains, qui leur ont souvent transmis leurs défauts. Quant aux données qui les alimentent, il s’agit aussi de constructions humaines, fondées sur des choix et des jugements humains.