17/08/2021

Quand les algorithmes sélectionnent, embauchent… et licencient

Comme le révélait récemment le « Tages-Anzeiger », les algorithmes sont de plus en plus utilisés lors de l’embauche de nouveaux collaborateurs par des entreprises suisses (comme la Migros, La Poste, les CFF, Crédit Suisse, Axpo, Helsana ou encore UBS) . Il existe en effet un nombre croissant d’outils informatiques qui permettent de trier les dossiers de candidatures, de les évaluer, voire de mener un entretien d’embauche via un « chatbot » ou même un véritable robot. Dans certains cas, cela a lieu sans aucune intervention humaine.

Si elle facilite grandement la tâche des employeurs et leur fait économiser un temps considérable, en particulier ceux qui font face à un très grand nombre de candidatures pour les postes qu’ils mettent au concours, l’utilisation d’algorithmes ne va pas sans poser des problèmes de droit du travail. J’avais traité cette question (avec celle du licenciement prononcé par un algorithme… dont je reparlerai une autre fois), dans un article scientifique paru l’an dernier (« Quand les algorithmes embauchent et licencient », in Müller/Rudolph/Schnyder/von Kaenel/Waas (éd.), Festchrift für Wolfgang Portmann, Zurich 2020 ). En voici un résumé (pour les références complètes, se reporter au texte original).

 

  1. Les nouveaux instruments numériques pour trier, sélectionner et interroger les candidats à l’embauche

Un nombre croissant d’employeurs fait appel à des algorithmes plus ou moins « intelligents » pour identifier les candidats potentiels, solliciter leur postulation, répondre à leurs questions, trier les candidatures, voire mener les premiers entretiens d’embauche. Certains de ces outils remplissent toutes ces fonctions à la fois, comme le chatbot « Mya » utilité par Adecco. Voici quelques-unes de ces fonctions.

 

  • Identifier des candidats potentiels

Les services de « sourcing » prospectent  sur les réseaux pour identifier des personnes qu’une entreprise pourrait recruter. Charge ensuite à elle de procéder au recrutement en tant que tel. Ces services passent en revue de nombreux sites, notamment des réseaux sociaux, et tentent ainsi d’identifier des personnes externes à l’entreprise dont le profil pourrait l’intéresser. Ces personnes n’ont pas postulé ni même l’intention de le faire. Ce service trouve ensuite leurs coordonnées. Comme il ne s’agit pas encore d’une phase précontractuelle, les règles du contrat de travail ne s’appliquent pas. En revanche, la Loi sur la protection des données est applicable et cette méthode la viole largement. En effet, le « sourceur » établit de véritables profils de personnalité (art. 3 let. d LPD, respectivement du « profilage » selon la LPD révisée), souvent sur la base d’information inexactes (qui devraient être corrigée selon l’art. 5 LPD), le tout sans le consentement explicite des intéressés (art. 4 al. 5 LPD) et sur la base de données dont la collecte avait un autre but (principe de finalité, art. 4 al. 3 et 4 LPD). Par ailleurs, le scannage généralisé des données personnelles de toute la population pouvant être potentiellement être engagée par les clients du « sourceur » est en contradiction avec le principe de proportionnalité (art. 4 al. 2 LPD).

 

  • Trier et sélectionner les dossiers de candidature

Il existe de nombreuses solutions d’« applicant tracking system » (système de suivi des candidatures) qui permettent de scanner les dossiers de candidatures reçus et de déterminer s’ils conviennent. Certains de ces systèmes informent même les candidats de leur classement par rapport à d’autres candidats.

Par exemple, la plateforme d’offres d’emploi monster.com ne transmets un dossier de candidature à un employeur potentiel que lorsque celui-ci reçoit le feu vert du logiciel maison « 6sense ». Du moment que la personne qui soumet un dossier le fait à l’intention d’un employeur en particulier, il faut partir de l’idée qu’elle fait une véritable une postulation ; l’employeur potentiel est alors soumis aux obligations dites précontractuelles dont je reparlerai plus bas.

A l’instar de « 6sense », de nombreux outils permettent aux employeurs de trier les candidatures et d’en sélectionner certaines. Certains, comme Text-Analysis ou Sentiment-Analysis (Watson/IBM) analysent les CV et établissent un profil de la personne qui postule. D’autre, comme Tone-Analyser prétendent être capable de décrypter les sentiments présents dans un texte.

Certains outils se disent capables de prévoir l’adéquation de l’employé potentiel avec les attentes de l’employeur (« matching ») : au moyen d’un calcul de probabilité des performances, ils tentent de démontrer si le candidat sera productif et s’il s’intégrera à la culture d’entreprise. Tous les fournisseurs de telles solutions prétendent qu’elles permettent de réduire le roulement du personnel (turnover) et d’améliorer la productivité. C’est toutefois lors de l’emploi de tels outils que le risque de discrimination par réplication des profils majoritaires dans l’entreprise est le plus élevé, les algorithmes auto-apprenants ayant tendance à s’inspirer des données qu’ils ont eu initialement à disposition.

LinkedIn a développé un outil qui, grâce au « machine learning », serait capable d'apprendre les besoins d’un recruteur et d'identifier automatiquement les candidats pertinents, en se basant sur l’historique des interactions. Dans de nombreux cas, il arrive que ce soient les algorithmes qui décident, seuls, de rejeter définitivement la candidature ou au contraire de la conserver pour les étapes suivantes du recrutement.

D’autres employeurs utilisent les algorithmes pour trier les candidatures au moyen de tests psychologiques. Ainsi, pour certains postes pour débutants chez Unilever, les premières phases de recrutement sont entièrement automatisées : les postulants reçoivent automatiquement un test psychologique mené par une intelligence artificielle dont le résultat décidera de la suite qui sera donnée à leur candidature.

 

  • Répondre aux questions des employés potentiels

Il existe plusieurs solutions de chatbot programmés pour répondre aux questions les plus fréquentes que posent les personnes qui envisagent de postuler auprès d’un employeur. Il existe notamment AskRH, qui fonctionne avec l’API « conversation » de Watson/IBM. Cela permet aux employés de se renseigner par exemple sur les conditions de travail en vigueur et ainsi d’éviter des postulations qui ne mèneront à rien.

 

  • Confier l’entretien d’embauche à une IA ou un robot

Il arrive même que l’entretien d’embauche se fasse grâce au truchement d’une IA, voire d’un véritable robot. Cela va d’une conversation téléphonique avec un chatbot (comme le proposent Precire, HireVue ou VideoBio), qui ne sert parfois qu’à établir un profil de personnalité du candidat, à un véritable entretien d’embauche, à distance face à un avatar humanoïde voire en présence d’un vrai robot. Il y a par exemple « Sophie », capable de poser des questions au candidat et de l’évaluer à l’aune de ses réactions et réponses. Il y a aussi « Zara », utilisée par Manpower, qui est d’abord utilisé pour effectuer un premier tri lors de recrutement massif, mais aussi dans le cadre de véritables entretiens. Il y a encore « Matilda », et « Vera », censés trier les CV, établir un profil de personnalité du candidat, déterminer sa motivation et sa compatibilité avec le poste mis au concours, le tout pour plusieurs milliers de profils par jour.

 

  1. Les risques d’une sélection par les algorithmes
    • Le risque de discrimination

Le risque principal de l’emploi d’algorithmes lors du recrutement de personnel est la discrimination. En effet, même s’ils ont la réputation (largement usurpée comme on le verra ci-après) d’être objectifs, neutres et rationnels, les algorithmes n’en comportent pas moins de nombreux biais, notamment en raison des biais contenus dans les bases de données qu’ils utilisent ou qui ont servi à les entraîner, par exemple « foutaise à l’entrée, foutaise à la sortie » (« garbage in, garbage out »). En effet, ces bases sont composées des données disponibles (p. ex. les employés actuels d’une entreprise), alors qu’avant l’essor du numérique, elles étaient constituées d’échantillons représentatifs. Il y a aussi la discrimination statistique, lorsqu’un algorithme attribue automatiquement certaines caractéristiques un profil parce qu’il procède à une généralisation sur la base d’autres critères, par exemple lorsqu’il considère que tous les habitants d’un quartier sont peu productifs parce tous les travailleurs précédemment engagés habitant ce quartier se sont révélés être moins productifs que la moyenne. Les biais peuvent aussi résulter d’un pur calcul économique de l’algorithme, qui rejette les candidatures féminines parce qu’il considère que leur rapport coût-efficacité est moins bon. Certains algorithmes ne font enfin que reproduire les biais des humains qui les ont programmés (p. ex. le sexisme ambiant de certaines entreprises technologiques dont le personnel est majortairement composé d’hommes).

Parmi les exemples tristement célèbres, on trouve le logiciel de reconnaissance faciale de Google qui qualifiait de « gorilles » des photos de personnes afro-américaines. Ou celui de Microsoft « face API » qui dû être corrigé après que 93% des erreurs concernaient des personnes dont la couleur de peau est sombre, parce que sa base de données d’entraînement était surtout composée d’image d’hommes blancs. Plus récemment, un étudiant de l’EPFL a démontré que les algorithmes de Twitter pratiquent eux-aussi la discrimination à grande échelle.

Il existe aussi des exemples de biais en matière de recrutement de personnel :  un algorithme d’analyse de CV d’Amazon pour faciliter le recrutement attribuait souvent de mauvaises notes aux candidatures féminines pourtant en adéquation avec les postes à repourvoir. Il a aussi été démontré par une étude de l’Université de Carnegie-Mellon que l’algorithme de Google avait tendance à ne présenter aux chercheuses d’emploi des offres moins qualifiées ou moins bien payés que celles présentées aux hommes de profil équivalent.

Chez Unilever, la sélection par algorithmes de certains employés se fait au moyen de tests qui utilisent les résultats des meilleurs employés comme valeur de référence. Il y a donc un risque réel de pénaliser certains candidats. Cela dit, les résultats présentés par Unilever tendant à montrer une amélioration de la diversité des profils (cf. ci-après).

La discrimination de certaines catégories de travailleurs peut aussi être voulue par l’employeur, qui paramètre sciemment ses algorithmes de sélection, par exemple pour qu’ils excluent les candidatures d’un certain âge.

  • L’illusion de l’objectivité

Bien des concepteurs et des utilisateurs prétendent qu’une sélection opérée par des algorithme est plus objective et rationnelle que celle qui est le fait d’humains et qu’elle serait même capable d’objectiviser ce qui est par nature subjectif. Par exemple, Manpower prétend que l’analyse des émotions et du sourire par Zara est « objective ». Or, s’il est vrai l’usage d’algorithmes et de données permet d’éviter bon nombre de biais « typiquement humains », cela n’est souvent qu’une illusion d’objectivité et de rationalité. Comme évoqué ci-dessus, les algorithmes peuvent eux-mêmes générer des biais. En outre, contrairement à ce que bon nombre de personne croient, les données ne sont pas en soi rationnelles, neutres et objectives parce qu’elles recensent des faits sous forme de chiffres. En effet, toute base de données n’est d’une part qu’un reflet partiel de la société, un défaut encore plus marqué lorsque les données utilisées se fondent sur une entreprise dont le personnel est peu diversifié. D’autre part, une base de données est toujours le fruit d’un choix de critères, qui lui, est forcément subjectif.

  1. Les chances d’une sélection par les algorithmes
    • Les biais cognitifs

Les sciences cognitives ont identifié depuis plusieurs décennies des écarts systématiques et réguliers par rapport à des choix considérés comme « rationnels ». Ces erreurs sont non seulement fréquentes, mais de direction constante, c’est-à-dire non aléatoire. En d’autres termes, elles ont pour conséquences que ceux qui les commettent se trompent toujours de la même manière et tombent toujours dans les mêmes pièges. Elles sont qualifiées de « biais cognitifs ». Certains de ces biais peuvent avoir des conséquences dévastatrices lorsqu’ils influencent la décision d’engager ou non quelqu’un. Il existe par exemple le « biais du champion » qui pousse à tenir pour vrai ce qui est dit par une personne connue et admirée pour ses succès et donc à s’y fier aveuglément ou le « biais d’intuition », qui pousse les dirigeants à se fier à leur instinct, indépendamment des faits. Il y a aussi le « biais de stéréotype », qui consiste à associer certains métiers à un sexe en particulier (coiffeuse, agent de police).

  • Racisme, sexisme et autres discriminations

De nombreuses expériences de postulations fictives ont montré que de nombreux employeurs se laissent influencer par des préjugés sexistes, racistes ou dus à l’âge lors de l’embauche de nouveaux travailleurs.

  • Les algorithmes en tant que moyen pour surmonter ces biais

Une sélection effectuée par des algorithmes permettra d’éviter ces discriminations, pour autant qu’ils soient correctement paramétrés et qu’ils ne se fondent pas sur d’autres critères entraînant des discriminations. Selon Unilever, l’utilisation d’algorithmes pour certains processus de sélection aurait permis d’augmenter la diversité des profils, tant au niveau de l’origine ethnique, sociale que géographique des candidats. Une étude de la Harvard Business Review a par ailleurs montré que la sélection effectuée par des algorithmes donne de meilleurs résultats que celle effectuée par des managers connaissant certes très bien leur métier et leur entreprise, mais se fiant surtout à leur intuition et se laissant distraire par des détails : les candidats sélectionnés par algorithmes ont ensuite de meilleures évaluations de leurs supérieurs, sont plus souvent promus et assimilent mieux par la formation. Une autre étude a aussi montré que certaines analyses de personnalité sont plus précises lorsqu’elles sont le fait d’algorithmes travaillant sur la base de traces numériques comme des activités sur les réseaux sociaux que lorsque des humains se livrent aux mêmes analyses en se basant sur des questionnaires de personnalité.

  • L’amélioration de la productivité et la diminution du roulement du personnel (turnover)

Le recrutement effectué l’aide d’algorithmes peut aussi inclure un élément prédictif. Les employeurs en espèrent une meilleure prévisibilité de la productivité des travailleurs qu’ils recrutent et de la durée de la relation contractuelle qui les liera à ceux-ci. L’algorithme est ainsi censé déterminer si le salarié va rester longtemps dans l’entreprise, s’il s’adaptera à sa culture et au poste qu’on va lui confier.

 

  1. Quelques principes pour garantir la légalité des algorithmes

Réguler l’usage des algorithmes est une chose, contrôler que leur utilisation est conforme aux règles en est une autre. Et ce contrôle peut être très ardu. En effet, un algorithme est souvent une « boîte noire », un mécanisme dont il est impossible de connaître le fonctionnement exact. Cette absence de transparence est souvent justifiée par la propriété intellectuelle, mais elle est aussi due au fait que les personnes disposant de compétences suffisantes pour être capable de comprendre leur fonctionnement exact sont fort peu nombreuses.

Toutefois, comprendre le fonctionnement d’un algorithme utilisé dans le cadre d’une relation de travail est nécessaire dans de nombreux cas, notamment lorsque le travailleur est en droit d’obtenir une explication détaillée de son employeur (ou d’un employeur potentiel), comme les motifs du congé à remettre par écrit (art. 335 al. 2 CO) ou en cas de soupçon de discrimination à l’embauche liée au sexe (art. 8 al. 1 LEg). S’il fonde sa « décision » sur celle de l’algorithme, l’employeur devra en expliquer de manière transparente et compréhensible le fonctionnement, en particulier les éventuelles mesures pour éviter biais et discriminations. Il devra le cas échéant renseigner un tribunal de manière détaillée. Et, même lorsqu’il reprend telle quelle et fait sienne la « décision » de l’algorithme, l’employeur ne saurait se contenter de « j’ai décidé de suivre la proposition de l’algorithme », sans en détailler le contenu. En effet, se fier, voire se soumettre à un tel résultat n’est pas le motif qui justifie le congé ou le refus d’embauche, mais le processus qui a conduit à l’élaboration des motifs. S’il veut rester un décideur, l’employeur aura donc lui aussi intérêt à connaître le fonctionnement des algorithmes à qui il délègue la préparation de certaines de ses décisions.

La recherche a commencé à préciser les conditions nécessaires à l'usage d'algorithmes respectueux des droits fondamentaux. Voici les critères qu’ils devraient remplir :

  • Responsabilité : pour tout système algorithmique, il doit y avoir une personne ayant le pouvoir de faire face à ses effets indésirables ;
  • Explicabilité : toute décision produite par un algorithme devrait être expliquée aux personnes concernées ;
  • Exactitude : les sources d'erreur doivent être identifiées, consignées et comparées ;
  • Auditabilité : les algorithmes doivent être développés pour permettre à des tiers d'en sonder et d'en revoir le comportement ;
  • Justiciabilité : pour éviter les biais des décisions automatisées, les algorithmes qui prennent des décisions au sujet des individus doivent être évalués pour que leurs effets discriminatoires puissent être mesurés.

Il existe aussi des solutions techniques pour corriger les biais des algorithmes, comme compléter ou de redresser les bases de données en le reconstituant à l’aide de modèles statistiques.

La nouvelle LPD fait un premier pas en prévoyant une obligation d’information de la personne concernée et la possibilité pour celle-ci d’exposer son point de vue en cas de décision individuelle automatisée (art. 19 nLPD). Ce projet est malheureusement très en-deça des principes précédemment évoqués et reste donc très insuffisant. Il va aussi beaucoup moins loin que le nouveau règlement général sur la protection des données (RGPD) européen, dont l’art. 22 confère en principe le droit de ne pas être l’objet d’une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l'affectant de manière significative. Le RGPD prévoit aussi des sanctions dissuasives ainsi que des dommages-intérêts, dont pourraient bénéficier les personnes victimes de discrimination suite à une décision automatisée, comme un non-engagement sur proposition ( voire décision) d’un algorithme. L’employeur soumis au RGPD a aussi l’obligation de réduire les risques de discrimination, notamment au moyen d’une « analyse d’impact sur la protection des données ».

 

  1. Une machine pour représenter l’employeur ?

Conclure un contrat ou lui mettre un terme sont des actes juridiques qui nécessitent une manifestation de volonté. Un employeur (qu’il s’agisse d’une personne physique ou morale) peut se faire représenter (au sens des art. 32ss. CO) par une personne physique dotée des droits civils (art. 12 CC) pour valablement conclure un contrat ou émettre la manifestation de volonté unilatérale de donner le congé. Peuvent ainsi signer un contrat de travail ou une modification de ce contrat avec un employé, les organes exécutifs qui disposent du pouvoir de représentation, ainsi que toutes les personnes qui peuvent valablement représenter l’entreprise dans les actes juridiques avec des tiers. Si le contrat n’a pas été conclu par une personne dument autorisée à représenter l’employeur et que ce dernier ne le ratifie pas, il n’est pas conclu.

Lorsque ce n’est pas une personne physique ou morale (algorithme, IA, robot) qui prend la décision d’engager ou de donner le congé, cela doit être ratifié par une personne physique habilitée à représenter l’employeur. En effet, pour agir en qualité de représentant, il faut la personnalité juridique, ce que ni un algorithme, ni un robot, ni une intelligence artificielle n’a… ni n’aura, en tout cas dans un proche avenir (le Parlement fédéral a notamment refusé cette proposition de l’ancien conseiller national Mathias Reynard).

 

  1. La discrimination à l’embauche en droit suisse du travail
    • Les obligations précontractuelles de l’employeur

Même s’ils finissent par ne pas être liés par un contrat de travail, un employeur et les personnes qui postulent à un emploi sont liées par des obligations précontractuelles qui vont au-delà des règles usuelles de la bonne foi. Ainsi, l’art. 328 CO sur la protection de la personnalité du travailleur s’applique déjà lors de la phase précontractuelle, même si au final aucun contrat n’est conclu (quelle qu’en soit la raison). L’art. 328b, qui autorise l’employeur à ne traiter que des données personnelles en liens avec la relation de travail s’applique lui aussi pendant cette phase précontractuelle.

L’employeur potentiel ne peut donc pas pratiquer de discrimination à l’embauche. Il ne peut pas non plus poser certaines questions au candidat ou rechercher certaines informations à son sujet.

  • La discrimination à l’embauche en droit privé
    • En fonction du sexe

L’art. 3 al. 2 de la Loi sur l’égalité (LEg) prohibe la discrimination en fonction du sexe, y compris lorsqu’elle est indirecte. Cela est aussi valable pour la discrimination à l’embauche, qui, si elle ne donne pas à la victime de droit à être embauchée, donne le droit à une indemnité. Une personne qui n’a pas été engagée et se prévaut d’une telle discrimination peut demander à celui qui ne deviendra pas son employeur qu’il motive sa décision par écrit (art. 8 al. 1 LEg). Cette régale rend à notre sens plus nécessaire encore la généralisation des critères d’explicabilité et de responsabilité des algorithmes : l’employeur qui fait recours à de tels outils doit être le cas échéant en mesure d’expliquer que cela ne conduit pas à des résultats discriminatoires.

Il faut enfin relever l’art. 3 al. 3 LEg, qui autorise expressément les « mesures appropriées visant à promouvoir dans les faits l'égalité entre femmes et hommes ». L’emploi d’algorithmes dans le but de favoriser la diversité des sexes lors de nouvelles embauches sera donc licite.

 

  • En fonction d’autres critères (origine ethnique, âge, opinions politiques, handicap, orientation sexuelle)

L’art. 8 al. 2 de la Constitution fédérale (Cst.) stipule que « Nul ne doit subir de discrimination du fait notamment de son origine, de sa race, de son sexe, de son âge, de sa langue, de sa situation sociale, de son mode de vie, de ses convictions religieuses, philosophiques ou politiques ni du fait d'une déficience corporelle, mentale ou psychique. » Ce droit fondamental ne s’applique toutefois pas strictement aux rapports de travail de droit privé (contrairement à l’al. 3 du même article consacré à l’égalité entre les sexes). Il n’existe ainsi pas de droit général à l’égalité de traitement en droit suisse du travail. Le Tribunal fédéral a notamment rappelé récemment que l’interdiction de discrimination directe visée par la loi sur l'égalité ne tient pas compte de l’orientation sexuelle. La liberté de contracter qui en découle n’est toutefois pas illimitée, notamment lorsque le travailleur (potentiel) est atteint dans ses droits personnels ou sa considération sociale, par exemple en cas de traitement discriminatoire sans motif justificatif.

L’art. 328 CO interdit donc toute discrimination à l’embauche motivée par un des critères évoqués à l’art. 8 al. 2 Cst. C’est par exemple le cas de la discrimination à l’embauche fondée sur un motif raciste. La sanction pour l’employeur qui la commet sera en principe une indemnité pour tort moral, mais ne saurait conduire à une obligation de contracter.

  • En fonction du lieu de domicile ou de la nationalité

Le lieu de domicile est une donnée personnelle facile à trouver et à traiter. C’est la source de nombreuses discriminations causées par des algorithmes. En effet, ceux-ci peuvent facilement faire des corrélations entre le critère « lieu de domicile » et un autre critère, même s’il n’y a en réalité pas de lien de causalité. Un exemple très connu est celui de la solvabilité : il suffit d’habiter dans un quartier où vivent de nombreux mauvais payeurs pour être soi-même classé dans cette catégorie par des organismes qui prétendent analyser la solvabilité, ce qui peut avoir des conséquences néfastes sur la vie quotidienne, comme des difficultés à obtenir un prêt bancaire ou à conclure un bail à loyer.

En matière de droit du travail, l’Accord sur la libre circulation des personnes (ALCP) prohibe la discrimination des travailleurs ressortissants des Etats membre de l’Union Européenne (art. 7 ALCP et art. 9 par. 1 de l’annexe 1 ALCP). Les algorithmes de sélection devront donc être paramétrés afin de ne pas aboutir à l’exclusion de travailleurs ressortissants de certains Etats. Cependant, comme les « mesures d’accompagnements » prévoient que l’interdiction de discrimination ne saurait conduire à de la sous-enchère salariale, il conviendra aussi d’éviter que ces algorithmes ne privilégient les ressortissants de certains de ces Etats, notamment au détriment des travailleurs indigènes, au motif que ceux-là accepteraient des conditions salariales moindres. En effet, un logiciel qui donnerait systématiquement la priorité à des travailleurs étrangers nettement moins bien rémunérés que des travailleurs indigènes contribuerait à une sous-enchère certainement abusive et en tout cas répétée, ce que justifierait les interventions des autorités prévues aux art. 360a ss CO. Si c’est l’employeur – et non l’algorithme – qui prend la décision finale d’engager, l’utilisation d’un tel algorithme pourrait constituer un indice de l’existence de sous-enchère abusive et répétée. Une telle discrimination pourrait en outre contrevenir aussi aux mesures de mise en œuvre de l’art. 121a Cst. (« préférence indigène »).

  • Les conséquences de la discrimination à l’embauche

En cas de discrimination à l’embauche, le travailleur victime n’a pas de droit à être engagé. Si la discrimination est liée au sexe, la victime pourra prétendre à une indemnité au titre de l’art. 5 al. 2 LEg. Dans les autres cas, elle aura droit à des dommages-intérêts et/ou une indemnité pour tort moral.

  • Les informations que l’employeur potentiel n’a pas le droit de recueillir

Lors d’un entretien d’embauche, un employeur potentiel, qui est légitimé à poser toute question directement liée au rapport de travail, n’a pas le droit de poser certaines questions qui violent la personnalité du candidat. C’est notamment le cas des questions liées aux opinions politiques et religieuses, à une grosses ou un projet de grossesse, à la situation familiale, au cercle d’amis, aux activités extra-professionnelles, etc. Et, s’il les pose tout de même, le candidat a le droit de ne pas répondre, voire de mentir. Certaines questions ayant trait à l’état de santé du candidat ou d’éventuels antécédents pénaux ne sont admissibles que lorsque cela peut avoir un impact sur l’exécution du travail.

Quant aux recherches sur le candidat et son passé, en particulier à propos de son activité sur les réseaux sociaux, il s’agit d’une pratique de plus en plus courante. Elle permet en effet à l’employeur d’obtenir des informations auxquelles il ne devrait pas avoir accès dans le cadre d’une postulation, car elles ne font pas partie des informations en lien avec la relation de travail qu’il est en droit d’obtenir. Ces informations sont pourtant d’autant plus faciles à obtenir qu’elles sont, en particulier les publications sur les réseaux sociaux, publiques ou en tout cas accessibles à un grand nombre de personnes. En outre, de nombreux services spécialisés, du « background check » aux analyses de solvabilité, permettent aux employeurs d’obtenir des informations qui peuvent leur sembler pertinentes sur un candidat. Toutefois, lorsqu’il mène de recherches de son propre chef (ou les externalise), l’employeur est soumis aux mêmes obligations précontractuelles que lors d’un entretien d’embauche. Il doit donc s’abstenir de rechercher des informations qui n’ont aucun lien avec la future relation de travail ou qui lui donnerait la réponse à des questions qu’il n’a pas le droit de poser. Comme il y a fort à parier que toute recherche fondée sur les activités en ligne d’une personne mènera fatalement à de telles informations, l’employeur doit renoncer à de telles recherches et à faire appel à des services spécialisés qui les font à sa place. Si une information comme un antécédent pénal ou en matière de poursuite et faillite s’avère avoir un lien avec la future activité, l’employeur doit demander au candidat de lui fournir l’information sous la forme d’un extrait de casier judiciaire ou de registre des poursuites, mais ne saurait mener lui-même de telles investigations. En revanche, l’employeur est habilité à consulter les informations à caractère professionnel que le candidat a lui-même mis en ligne, notamment sur les réseaux sociaux à vocation professionnelle comme linkedin, xing ou encore les réseaux d’alumni des hautes écoles.

Lorsque c’est un algorithme qui mène un entretien ou effectue des recherches sur un candidat, il convient donc de garantir qu’il ne posera pas de question interdite, respectivement ne mènera pas de recherches illicites. Si la problématique des questions semble assez simple à régler (il suffit de paramétrer le logiciel qui mène l’entretien pour qu’il ne les pose pas), celles des recherches est plus ardue. S’il est facile pour l’employeur de ne pas faire usage d’un service qui effectuera de telles recherches à l’aide d’algorithmes, il est beaucoup plus difficile de prévoir ce que pourrait faire une IA en charge du processus de sélection. En effet, celle-ci pourrait, de son propre chef suite à son processus d’apprentissage, décider de mener de telles recherches sur le compte des personnes qu’elle va sélectionner. Il importe donc de paramétrer ces IA pour qu’elles ne mènent pas de recherches illicites sur le compte des candidats et s’en tiennent aux informations que l’employeur est légalement en droit d’obtenir.

  1. En guise de conclusion

L’usage d’algorithmes et d’IA pour sélectionner les candidats et trier leurs dossiers comporte de nombreux avantages pour les employeurs : gain de temps, évitement de certains biais typiquement humains (biais cognitifs, racisme) et, dans certains cas, gains de productivité et diminution du taux de roulement. Mais cela ne les libère pas de leurs devoirs envers leurs potentiels futurs collaborateurs. Même si c’est un algorithme qui effectue la sélection, l’employeur reste soumis aux obligations du droit du travail. Et c’est à lui que revient la décision d’engager ou pas le candidat. D’une part parce qu’une machine n’est pas (encore) capable de conclure valablement un contrat, mais aussi parce que les algorithmes et les bases de données dont ils se servent subissent eux-aussi des biais, des erreurs et des lacunes. Pour éviter de commettre une discrimination à l’embauche, l’employeur doit faire en sorte de les éviter. Il doit aussi veiller à ce que ces algorithmes puissent être audités et expliqués, le cas échéant devant un tribunal. Il en va de sa responsabilité, mais aussi de son libre-arbitre. En effet, un décideur qui se fie aveuglément à ce qui lui propose ou impose un algorithme ne décide pas ; il obéit.

D’une manière générale, il convient de ne pas se laisser bercer par l’illusion d’objectivité, de neutralité et de rationalité que certains confèrent aux machines. Même si elles donnent l’apparence d’être libérées des « travers » humains que sont la subjectivité ou les émotions, elles n’en ont pas moins été créées et développées par des humains, qui leur ont souvent transmis leurs défauts. Quant aux données qui les alimentent, il s’agit aussi de constructions humaines, fondées sur des choix et des jugements humains.

 

 

16/10/2020

Conseils droits du travail et Covid-19 : bref commentaire à chaud de la convention de l’union patronale sur le télétravail

L’Union Patronale Suisse (UPS) vient de proposer un modèle de convention pour les travailleurs en télétravail (ci-après : MCT). Cela part certes d’une bonne intention, car cette façon de travailler désormais très à la mode (pour ne pas dire indispensable en période de quarantaine) se trouve un peu dans un no man’s land juridique. En tout cas du point de vue de celui ou celle qui ne prend pas le temps d’analyser la situation. Malheureusement, la proposition de l’UPS est une catastrophe au niveau des droits des travailleurs. En effet, elle reporte sur ceux-ci toute une série d’obligations fondamentales de l’employeur, dans des domaines aussi importants que le remboursement des frais professionnels, de la protection de la santé et de la protection des données. Mon conseil donc : ne surtout pas signer une convention fondée sur ce modèle. Ni en tant que travailleurs, ni en tant qu’employeur. En effet, en tant que travailleur, on risque de renoncer valablement à des droits pourtant importants. Par ailleurs, les travailleurs ne pouvant renoncer valablement à certains autres de leurs droits (art. 314 al. 1 CO), même sciemment, volontairement et de bonne foi, les employeurs qui se croiraient déliés de toute responsabilité grâce à cette convention feraient une énorme erreur qui pourrait leur coûter cher.

 

Voici quelques points du modèle de convention passés en revue (à chaud) :

Horaires de travail (art. 3 du MCT)

« L’Employé(e) s’engage à respecter les prescriptions impératives de la loi relatives à la durée du travail et du repos. » Il s’agit d’un report de la responsabilité de l’employeur sur ses travailleurs. C’est à lui de veiller au respect des horaires de travail. Cette clause n’a donc qu’une valeur déclaratoire et ne délie pas l’employeur de sa responsabilité de veiller au respect des horaires du travail et des pauses, de même qu’à l’interdiction de travailler la nuit et le dimanche,

 

Remboursement des frais (art. 5 MCT)

Le modèle de convention reporte les frais professionnels sur les employés. Or, l’art. 327a CO consacré aux frais professionnels est limpide :

1 L’employeur rembourse au travailleur tous les frais imposés par l’exécution du travail et, lorsque le travailleur est occupé en dehors de son lieu de travail, les dépenses nécessaires pour son entretien.

2 Un accord écrit, un contrat-type de travail ou une convention collective peut prévoir que les frais engagés par le travailleur lui seront remboursés sous forme d’une indemnité fixe, telle qu’une indemnité journalière ou une indemnité hebdomadaire ou mensuelle forfaitaire, à la condition qu’elle couvre tous les frais nécessaires.

3 Les accords en vertu desquels le travailleur supporte lui-même tout ou partie de ses frais nécessaires sont nuls.

Le MCT est donc illégal sur ce point.

 

 Santé et ergonomie au travail (art. 6 MCT)

« L’Employé(e) s’engage à respecter les dispositions de sécurité et d’ergonomie ». Veiller au respect des dispositions de sécurité et d’ergonomie est d’abord la tâche de l’employeur (art. 6 LTr, art. 328 CO). Il doit prendre toutes les mesures appropriées pour protéger la santé et la sécurité de son personnel, les payer et veiller à leur bonne mise en œuvre. Certes, les employés doivent respecter les mesures imposées par l’employeur, le cas échéant collaborer à leur mise en œuvre, mais la responsabilité de base demeure chez l’employeur qui ne peut pas s’en exonérer, même avec un accord conclu de bonne foi par le travailleur. Là encore, cette clause n’a qu’une portée déclaratoire et ne délie pas l’employeur de sa responsabilité de tout mettre en œuvre pour protéger la santé de son personnel, y compris lorsqu’il travaille hors de ses locaux.

 

Protection des données (art. 7 MCT)

« L’Employé(e) est rendu(e) attentif(ti-ve) à la confidentialité des données qu’il/elle traite. Il/elle s’engage notamment à prendre toutes les mesures nécessaires afin de préserver la sécurité informatique de ces données et d’éviter toute intrusion dans les systèmes informatiques de l’Employeur. (…) Toute violation de cet article peut entraîner la résiliation sans délai de la convention de télétravail ainsi que des sanctions disciplinaires. En outre, l’Employeur se réserve le droit de réclamer à l’Employé(e) tout dommage en résultant (art. 321e CO). » Voici un autre report illégal de responsabilité de l’employeur sur le travailleur. Cette clause revient à faire assumer les frais liés à la sécurité informatique aux travailleurs (cf. plus haut), mais revient aussi à lui faire assumer une responsabilité qui n’est pas la sienne. Selon l’art. 321e CO, la responsabilité des travailleurs pour les dommages causés à l’employeur est en effet limitée et ne s’étend pas à des tâches pour lesquels ils ne sont pas compétents. Or, nul ne saurait être tenu d’avoir pour son domicile un niveau de sécurité informatique digne d’une entreprise. Les éventuelles sanctions disciplinaires prévues dans l’art. 7 MCT seront abusives, à moins que l’employé ne cause un dommage intentionnellement ou suite à une très grave négligence.

 

Entrée en vigueur et fin (art. 2)

Une fin unilatérale et immédiate d’une convention de télétravail ne sera en général pas possible. Pour modifier un contrat de travail, il faut soit l’accord des deux parties, soit un congé-modification. Dans tous les cas, une modification à laquelle un travailleur s’oppose ne peut entrer en vigueur qu’à l’échéance de son délai de congé et non immédiatement.

 

 

29/05/2020

App SwissCovid : quel paiement du salaire en cas d’auto-quarantaine ?

Un des éléments-clef du succès des mesures contre la pandémie a été l’octroi d’allocations perte de gain (APG) aux personnes qui ont dû, sur ordre médical, s’astreindre à une quarantaine parce qu’elles présentaient des symptômes de covid-19 ou étaient soupçonnées d’être infectées, notamment parce qu’elles avaient été en contact avec de telles personnes. Sans ces mesures, bon nombre de personnes qui auraient dû rester chez elles se seraient rendues à leur travail pour ne pas se retrouver sans revenu, favorisant ainsi la diffusion du coronavirus. Plusieurs pays, notamment ceux où la couverture perte de gain en cas de maladie est notoirement trop faible comme les USA en ont fait l’amère expérience. Le même scénario s’est reproduit dans d’autres pays comme la Suède où des personnes en situation précaire ont préféré se rendre à leur travail au lieu de se confiner, notamment dans le secteur pourtant très à risque des soins aux personnes âgées, ce qui cause un désastre sanitaire. Pour que les mesures contre la pandémie portent leurs fruits, il est donc crucial que les personnes qui doivent se confiner ne perdent pas de revenu (ou en tout cas pas trop), faute de quoi elles feront courir des risques importants à la collectivité, pour des raisons financières qu’on ne saurait leur reprocher.

Dans ce contexte, il est donc important que celles et ceux qui utiliseront l’application de traçage de proximité SwissCovid (mon avis à ce sujet) en suivent les recommandations. Or, si le fait de se mettre en auto-quarantaine sur recommandation de l’application mène à une perte de revenu, beaucoup n’obtempéreront pas, pas uniquement celles et ceux dont la situation est la plus précaire.

Juridiquement, le paiement du salaire en cas de quarantaine est controversé dans la doctrine juridique, désormais fournie (ce qui n’était pas le cas au début de la pandémie). Je soutiens la thèse que le salaire est dû s’il s’agit d’une quarantaine ordonnée par un médecin ou une autorité, comme si le travailleur concerné était malade. En effet, il s’agit là soit d’un cas médical (qui doit être attesté par un médecin, comme en cas de maladie) ou d’une obligation légale reposant sur une décision d’une autorité, deux états de faits qui fondent l’obligation de l’employeur de continuer à payer le salaire (art. 324a CO). Vu la situation exceptionnelle, l’ordonnance du Conseil fédéral a permis que cette charge frappant les employeurs soit allégée par le recours aux APG.

En cas d’auto-quarantaine, c’est-à-dire sur seule décision personnel du travailleur concerné, la situation est plus compliquée. En effet, sauf avis médical démontrant le contraire, la personne concernée n’est pas malade et ne s’appuie pas sur une décision médicale ni sur un ordre d’une autorité, mais sur une simple recommandation. Pendant la phase de confinement, l’OFSP recommandait dans certains cas aux travailleurs de se mettre en auto-quarantaine et à leurs employeurs de faire preuve de souplesse en matière d’exigence d’un certificat médical, dans le but d’éviter une surcharge du système de santé. Même si ce risque est désormais écarté et s’il convient de faire preuve ce genre de la plus grande des prudences face à une recommandation automatisée émise par un algorithme (mais c’est un autre débat), il n’en demeure pas moins que la recommandation émise par l’application SwissCovid est un avis suffisamment sérieux pour justifier qu’une auto-quarantaine soit traitée de la même manière qu’une quarantaine sur ordre médical, et donne donc droit au paiement d’un salaire comme en cas de maladie. L’intérêt public de protéger la santé et d’éviter une « deuxième vague » dont les effets économiques seraient à n’en pas douter dévastateurs renforce encore ce point de vue.

Or, le message du Conseil fédéral pour la base légale permettant la mise en service de l’application précise (en p. 4365) qu’une quarantaine volontaire ne donne pas droit au paiement du salaire, même si c’est une mesure « qui permet d’interrompre la chaîne de transmission ». Cet avis, qui n’est pas un avis de doctrine élaboré et argumenté, est discutable du point de vue du droit du travail. Il n’en demeure pas moins qu’il est défendable, même si, à titre personnel et comme développé ci-dessus, je ne le partage pas. Dans ces conditions, pour garantir le paiement du salaire serait de passer dans tous les cas par un médecin et donc d’éviter les auto-quarantaines. Mais cela risquerait certainement d’engorger les cabinets médicaux et générerait des frais supplémentaires. Afin d’éviter que cette question d’interprétation ne génère des incertitudes dommageables tant pour les salariés et les employeurs que du point de vue de la santé publique, le Parlement fédéral devrait donc, lorsqu’il traitera du projet de base légale modifier le projet pour couvrir 80% du revenu des personnes concernées via les APG, comme cela a déjà été fait pendant la phase de confinement. Cela aura certes un coût non-négligeable pour les caisses publiques (et allégera la charge des entreprises, même si les employeurs cofinancent les APG par leurs cotisations). Mais le succès de la lutte contre la pandémie sera à ce prix. Car une application de traçage de proximité qui recommande des quarantaines que trop peu de monde respecte par craintes de perte financières risque au final de ne pas servir à grand’chose.