20/06/2022

Le droit suisse du travail est-il aussi peu flexible que ne le dit Uber ?

Le Tribunal fédéral (TF) a confirmé ce dont aucun spécialiste de droit du travail ne doutait : les employés d’Uber ne sont pas des indépendants et lui sont liés par un contrat de travail. Uber n’a pas manqué de protester, arguant que ses chauffeurs « ont clairement exprimé leur souhait de rester indépendants, de conserver leur flexibilité et d’être leur propre patron »*. Uber sous-entend ainsi que le droit du travail auquel sont soumis ses employés ne serait pas assez flexible et les empêcheraient de se sentir « leur propre patron ». Mais si on examine un peu les règles suisses en matière d’organisation du travail et le pouvoir de direction de l’employeur, on se rend compte qu’en réalité, notre droit permet de laisser une liberté énorme aux travailleurs.

Oui, le droit suisse est flexible… si l’employeur le veut bien

En effet, si notre droit du travail confère à l’employeur le droit de dicter l’organisation, le lieu, les outils et l’exécution du travail, les horaires, les vacances, le comportement et le code vestimentaire des travailleurs, il ne l’y oblige pas. Un employeur qui souhaite laisser ses employés s’organiser eux-mêmes, fixer leurs priorités et objectifs, travailler depuis chez eux (ou depuis n’importe quel autre endroit), prendre le chemin qu’ils souhaitent pour aller effectuer leurs tâches, refuser une tâche, choisir leurs horaires, eh bien, il le peut. Selon le droit suisse, un employeur peut très bien donner des directives détaillées comme ne pas en donner du tout. En outre, le droit suisse du travail connaît le « travail sur appel improprement dit », une forme de travail sur appel qui permet au travailleur de refuser une mission lorsque l’employeur veut lui en confier une. Difficile d’accorder une plus grande flexibilité !

Or, même s’il pourrait accorder une très grande liberté de choix et d’organisation à son personnel, Uber a fait le choix d’au contraire le soumettre à un corset de règles ultrastrictes, ainsi qu’à un contrôle continu et pointilleux. Ainsi, Uber donne à ses chauffeurs des directives extrêmement détaillées sur la façon dont le travail doit être exécuté : itinéraire, modèle de voiture, aspect du véhicule, façon de conduire, temps de réaction, etc. Tout fait l’objet de directives précises, dont le respect est scrupuleusement évalué… et sanctionné. Comme l’a établi le TF (mais aussi d’autres enquêtes dans d’autres pays, comme celle-ci), les chauffeurs Uber n’ont pas le droit de refuser des courses (ou ils sont virés), de se connecter trop rarement à l’application (ou ils sont virés), de s’écarter de l’itinéraire imposé (ou ils sont virés), ni de démarcher leur propre clientèle ou de fixer leurs tarifs (ou ils sont virés). Si Uber voulait de la liberté et de la flexibilité pour ses chauffeurs, eh bien elle n’aurait qu’à. Personne, et certainement pas le droit suisse du travail, n’oblige Uber à être aussi tatillonne et directive, mais elle a fait le choix de l’être quand même. Alors qu’elle ne vienne pas accuser le droit suisse !

Mais alors, me direz-vous, avec une pareille flexibilité, peut-on encore vraiment parler de salariés ? La réponse est sans équivoque oui. En effet, même si Uber utilisait toute la flexibilité dont elle peut disposer, ses chauffeurs travailleraient pour elle et pas pour compte propre, ne fixeraient pas leurs tarifs et continuerait à exécuter une tâche imposée par Uber : transporter des passagers d’un point a à un point b, en respectant certaines règles de conduite et de comportement. Par ailleurs tout cela se ferais sous la marque Uber (on ne dit d’ailleurs plus « Je commande un taxi », mais : « je commande un Uber »). Et si Uber voulait vraiment « employer » de vrais indépendants, elle devrait alors totalement renoncer à tout son arsenal de directives tatillonnes et de contrôles algorithmiques.

On ne transige pas avec la sécurité et la protection de la santé

En revanche, ce qui n’est pas flexible dans notre droit du travail (heureusement !), ce sont les règles de protection des travailleurs, de protection de la santé publique et qui concernent l’affiliation aux assurances sociales. Ces règles reposent sur un intérêt public qui l’emporte sur la liberté économique tant des employeurs, qui doivent traiter correctement leurs employés même si ça leur coûte cher, que de ces derniers, qui pourraient être frustrés de ne pas pouvoir « travailler plus pour gagner plus » et qui doivent parfois renoncer à leur « indépendance » contre leur gré. Parmi ces règles, il y en a plusieurs qui ont pour but d’éviter des dépenses sociales :

  • en garantissant une rémunération minimale des travailleurs (salaire minimum, remboursement des frais professionnels, paiement du salaire lors de travail sur appel),
  • en évitant qu’ils ne soient privés de revenu parce qu’ils sont dans l’incapacité de travailler (paiement du salaire en cas de maladie, assurance invalidité), au chômage (assurance-chômage) ou à la retraite (AVS, prévoyance professionnelle).

D’autres ont pour but d’éviter une explosion des coûts de la santé (repos, vacances). D’autres visent à protéger la population en limitant le nombre d’accidents (horaires de travail limités, pauses régulières, respect des règles de sécurité routière). Du point de vue d’Uber, ces règles n’ont qu’un défaut : elles coûtent cher. Mais elles permettent notamment à la collectivité de faire des économies. Et, dans tous les cas, ce ne sont pas ces règles-ci qui empêchent les chauffeurs de se sentir « leur propre patron ». Car un patron a aussi des responsabilités envers son entreprises, mais aussi envers la collectivité.

 

Cette histoire révèle deux choses à propos d’Uber.

  1. En réalité, ce qui dérange Uber, ce n’est pas le côté contraignant du droit du travail en matière d’organisation du travail et de liberté laissée aux employés. En effet, Uber aurait tout loisir de laisser beaucoup plus de flexibilité à ses chauffeurs et surtout à moins contrôler leurs moindres faits et gestes. Ce qui dérange vraiment Uber, c’est plutôt le côté contraignant pour l’employeur, qui doit rémunérer correctement ses employés, leur accorder vacances et congés payés, protéger leur santé et leur personnalité, les payer lorsqu’ils sont malades, les assurer correctement aux assurances sociales (et éviter ainsi que ce ne soit les contribuables qui passent à la caisse en cas de lacune de prévoyance nécessitant un recours à l’aide sociale ou aux prestations complémentaires…).
  2. Cette défaite devant le TF ne va pas seulement être couteuse pour Uber, qui va devoir payer d’énormes sommes à ses chauffeurs et aux assurances sociales. Elle a surtout pour défaut de faire s’effondrer son modèle d’affaire comme un château de carte. Car si Uber a eu autant de succès, c’est parce qu’elle a pu être plus flexible et moins chère que ses concurrents, qui, eux respectent la loi et paient ce qu’ils doivent, notamment aux assurances sociales et au fisc. En effet, le modèle d’affaire d’Uber repose essentiellement sur le non-respect des lois fiscale (en témoigne le montant d’impôt très faible payé en France l‘an passé), du travail, en matière d’assurance sociale ou de régulation des transports et sur le report sur la collectivité des coûts que cela génère. Quand on ne respecte pas les règles auquel ses concurrents sont soumis, il est facile d’être moins cher. Mais ces pratiques portent un nom : la concurrence déloyale.

On le voit, lorsqu’il s’agit de laisser une grande liberté d’organisation aux employés, le droit suisse du travail est suffisamment flexible. Il suffit que l’employeur le veuille. En revanche, lorsqu’un intérêt public commande de protéger les travailleurs, la santé publique et les finances publiques, il n’y a pas de raison de se plier aux désirs des entreprises, fussent-elles des licornes-disruptives-4.0-etc. comme Uber. La proposition du PLR de créer un nouveau contrat de pseudo-indépendant est donc aussi inutile que nuisible et ne peut en réalité n’avoir qu’une seule conséquence : diminuer la protection des personnes concernées et reporter les coûts sur la collectivité.

 

 

*Probablement que, lorsque les chauffeurs en question réaliseront que, parce qu’ils bénéficient d’un contrat de travail, ils pourront exiger d’Uber une rémunération conforme au salaire minimum genevois, un droit à des vacances, le droit au paiement de leur salaire en cas de maladie, le paiement de leur salaire pendant leur délai de congé, le remboursement de leurs frais professionnels (essence, amortissement, taxes et entretien de leur véhicule, etc.) et ce sur rétroactivement sur les cinq dernières années (10 ans pour les frais), ils se réjouiront qu’Uber leur doive autant d’argent. Ils se réjouiront aussi d’être assurés à l’assurance-chômage, ce qui est impossible en tant qu’indépendant.

08/03/2022

Libérer les hôtels de la tutelle de booking.com est-il une entrave à la liberté contractuelle ?

Réponse : oui. Mais c’est une entrave à la liberté contractuelle vraiment justifiée. Qui plus est par des arguments en faveur du libre marché et de la concurrence efficace. Il y a donc de quoi être surpris quand on voit à quel point la frange la plus (ultra)libérale du Parlement fédéral est vent debout contre cette proposition (la « lex booking.com »). Ce qui est aussi très surprenant, c’est que, dans ce dossier, le PLR tient une position hostile aux PME suisses, à l’innovation et à la souveraineté numérique. Mais reprenons depuis le début.

La plateforme de réservation en ligne booking.com est désormais un géant de la technologie. Et comme pour beaucoup de ces géants, dont les fameux GAFAM, sa taille énorme et son pouvoir sur le marché lui permettent de se comporter en monopoliste, et donc de dicter ses conditions, fussent-elles léonines, aux entreprises qui passent par elle. Les hôteliers, notamment en Suisse, sont nombreux à être de facto forcés de faire appel aux services de booking.com. Car sinon, ils auraient grand mal à attirer de la clientèle, respectivement perdraient celle qui, par facilité, passe exclusivement par cette plateforme pour réserver ses vacances. Le choix est simple : si figurer sur booking.com ne garantit pas le succès, ne pas y figurer vous condamne. Consciente de cet immense pouvoir, la plateforme exige des hôteliers qui font appel à ses services qu’ils lui réservent leurs tarifs les plus avantageux. Elle leur interdit donc de proposer d’autre rabais aux clients qui, par exemple, réserveraient leur chambre directement par le site internet de l’hôtel. Pieds et poings liés, ces hôtels ne sont plus maîtres de leurs prix.

Mettre un terme aux abus de position dominante

Heureusement, les chambres fédérales viennent de mettre le holà à ce qui n’est rien d’autre qu’un abus de position dominante. De manière fort surprenante, les plus libéraux des élus, notamment au PLR, se sont opposés à ce qu’ils considèrent comme « une entrave à la liberté contractuelle ». Certes, c’en est une, il n’y a pas à tortiller. Mais elle est justifiée par un intérêt public et pas des moindres : le bon fonctionnement du marché et de la libre concurrence. Bizarre que ceux qui se disent libéraux n’y aient pas été sensibles.

En effet, la concurrence fonctionne rarement bien lorsqu’un des acteurs du marché se trouve en position dominante, voire de quasi-monopole. Dans le cas des réservations d’hébergements touristiques, les pratiques de booking.com empêchent une bonne partie de la concurrence sur les prix, car, pour bénéficier des meilleurs, il faut forcément passer par cette plateforme. Et son impact et si important que tous sont forcés de faire appel à ses services : les clients, qui veulent une offre la plus large possible, et les prestataires, qui veulent le plus de clientèle possible. A l’inverse, qui renonce à passer par booking.com aura moins de choix (du point de vue des clients), ou moins de revenus (du point de vue des prestataires). Bref, deux situations fort peu compatibles avec une économie de marché. Un seul acteur est donc en mesure de dicter les prix et de réguler l’offre tout en ayant la possibilité d’étouffer la concurrence. Tout cela n’est pas très libéral. Par ailleurs, cette pratique empêche pratiquement toute innovation en matière d’offre. Il est donc plutôt étonnant que le PLR ne s’en offusque pas.

Pour permettre la concurrence il faut… des règles !

Même dans une économie de marché fondée sur la libre concurrence, il existe des règles contre ces abus. D’ailleurs, même les plus fanatiques du libre-marché admettent que, sans règles de cette sorte, un marché ne peut pas fonctionner à satisfaction, car les abus de position dominante créent des distorsions et, au final, annihilent la concurrence. La « Lex Booking » en passe d’être adoptée permet de rétablir une saine concurrence loyale. Cela passe certes par une limitation de la liberté contractuelle, mais cette liberté n’était de toute façon que très relative, pour ne pas dire réservée à une seule des parties au contrat. En effet, les hôteliers ne sont en réalité pas libres de faire appel aux services de booking.com et ne sont donc pas en mesure de traiter d’égal à égal avec la plateforme. Comme cette dernière peut leur imposer unilatéralement ses conditions, difficile de parler de « liberté » contractuelle.

Protéger les faibles ? Essentiel, même dans une économie libérale

En outre, protéger la partie la plus faible d’un contrat est relativement courant en droit suisse, qui fait pourtant partie des droits considérés comme les plus libéraux. En droit du travail, du bail ou en matière de crédit à la consommation, le législateur a considéré que la « partie faible » au contrat (le travailleur, le locataire ou le consommateur) n’était pas en mesure de discuter d’égal à égal avec son partenaire contractuel et mérite donc protection. Il y a donc un intérêt public à restreindre la liberté contractuelle, sachant que cette liberté est systématiquement en faveur de la partie la plus forte, qui est en mesure d’imposer ses conditions.

Et le droit de la concurrence ?

Certes, on pourrait me rétorquer que le droit des cartels est déjà censé protéger de tels abus, car il permet expressément de lutter contre les abus de position dominante. Mais ce sont des procédures très longues et incertaines. Et, en matière de technologie, le temps joue en faveur des gros acteurs capables d’imposer leurs conditions aux marchés, quelles qu’elles soient. Par exemple, lorsque les autorités de la concurrence étatsuniennes jugèrent que Microsoft avait abusé de sa position dominante en plaçant systématiquement son navigateur internet (explorer) au détriment du leader du marché (Netscape), le concurrent lésé avait déjà été pratiquement exclu du marché et presque fait faillite… S’il fallait attendre que de nombreux hôtels lésés par les pratiques anticoncurrentielles de booking.com s’adressent aux tribunaux et que ceux-ci tranchent ces cas, la plateforme aurait eu le temps de monopoliser encore plus le marché de la réservation en ligne et d’éliminer toute concurrence, au détriment des consommateurs... et de ces PME que sont les hôtels suisses (pour qui le PLR a décidément bien peu de considération).

Souveraineté numérique

Cette histoire a aussi le mérite de mettre des enjeux de souveraineté numérique sur la table. En décidant de réguler une plateforme comme booking.com, la Suisse fait le choix d’être souveraine et d’appliquer ses propres règles à l’économie numérique, en suivant des objectifs qui lui sont propres et qu’elle a librement choisi. Elle fait le choix de ne pas courber l’échine face aux règles que des grandes entreprises tentent d’imposer grâce à leur taille et leur pouvoir sur le marché, sans aucune procédure démocratique ni respect de l’intérêt public. Et c’est une sacrée bonne nouvelle.

17/08/2021

Quand les algorithmes sélectionnent, embauchent… et licencient

Comme le révélait récemment le « Tages-Anzeiger », les algorithmes sont de plus en plus utilisés lors de l’embauche de nouveaux collaborateurs par des entreprises suisses (comme la Migros, La Poste, les CFF, Crédit Suisse, Axpo, Helsana ou encore UBS) . Il existe en effet un nombre croissant d’outils informatiques qui permettent de trier les dossiers de candidatures, de les évaluer, voire de mener un entretien d’embauche via un « chatbot » ou même un véritable robot. Dans certains cas, cela a lieu sans aucune intervention humaine.

Si elle facilite grandement la tâche des employeurs et leur fait économiser un temps considérable, en particulier ceux qui font face à un très grand nombre de candidatures pour les postes qu’ils mettent au concours, l’utilisation d’algorithmes ne va pas sans poser des problèmes de droit du travail. J’avais traité cette question (avec celle du licenciement prononcé par un algorithme… dont je reparlerai une autre fois), dans un article scientifique paru l’an dernier (« Quand les algorithmes embauchent et licencient », in Müller/Rudolph/Schnyder/von Kaenel/Waas (éd.), Festchrift für Wolfgang Portmann, Zurich 2020 ). En voici un résumé (pour les références complètes, se reporter au texte original).

 

  1. Les nouveaux instruments numériques pour trier, sélectionner et interroger les candidats à l’embauche

Un nombre croissant d’employeurs fait appel à des algorithmes plus ou moins « intelligents » pour identifier les candidats potentiels, solliciter leur postulation, répondre à leurs questions, trier les candidatures, voire mener les premiers entretiens d’embauche. Certains de ces outils remplissent toutes ces fonctions à la fois, comme le chatbot « Mya » utilité par Adecco. Voici quelques-unes de ces fonctions.

 

  • Identifier des candidats potentiels

Les services de « sourcing » prospectent  sur les réseaux pour identifier des personnes qu’une entreprise pourrait recruter. Charge ensuite à elle de procéder au recrutement en tant que tel. Ces services passent en revue de nombreux sites, notamment des réseaux sociaux, et tentent ainsi d’identifier des personnes externes à l’entreprise dont le profil pourrait l’intéresser. Ces personnes n’ont pas postulé ni même l’intention de le faire. Ce service trouve ensuite leurs coordonnées. Comme il ne s’agit pas encore d’une phase précontractuelle, les règles du contrat de travail ne s’appliquent pas. En revanche, la Loi sur la protection des données est applicable et cette méthode la viole largement. En effet, le « sourceur » établit de véritables profils de personnalité (art. 3 let. d LPD, respectivement du « profilage » selon la LPD révisée), souvent sur la base d’information inexactes (qui devraient être corrigée selon l’art. 5 LPD), le tout sans le consentement explicite des intéressés (art. 4 al. 5 LPD) et sur la base de données dont la collecte avait un autre but (principe de finalité, art. 4 al. 3 et 4 LPD). Par ailleurs, le scannage généralisé des données personnelles de toute la population pouvant être potentiellement être engagée par les clients du « sourceur » est en contradiction avec le principe de proportionnalité (art. 4 al. 2 LPD).

 

  • Trier et sélectionner les dossiers de candidature

Il existe de nombreuses solutions d’« applicant tracking system » (système de suivi des candidatures) qui permettent de scanner les dossiers de candidatures reçus et de déterminer s’ils conviennent. Certains de ces systèmes informent même les candidats de leur classement par rapport à d’autres candidats.

Par exemple, la plateforme d’offres d’emploi monster.com ne transmets un dossier de candidature à un employeur potentiel que lorsque celui-ci reçoit le feu vert du logiciel maison « 6sense ». Du moment que la personne qui soumet un dossier le fait à l’intention d’un employeur en particulier, il faut partir de l’idée qu’elle fait une véritable une postulation ; l’employeur potentiel est alors soumis aux obligations dites précontractuelles dont je reparlerai plus bas.

A l’instar de « 6sense », de nombreux outils permettent aux employeurs de trier les candidatures et d’en sélectionner certaines. Certains, comme Text-Analysis ou Sentiment-Analysis (Watson/IBM) analysent les CV et établissent un profil de la personne qui postule. D’autre, comme Tone-Analyser prétendent être capable de décrypter les sentiments présents dans un texte.

Certains outils se disent capables de prévoir l’adéquation de l’employé potentiel avec les attentes de l’employeur (« matching ») : au moyen d’un calcul de probabilité des performances, ils tentent de démontrer si le candidat sera productif et s’il s’intégrera à la culture d’entreprise. Tous les fournisseurs de telles solutions prétendent qu’elles permettent de réduire le roulement du personnel (turnover) et d’améliorer la productivité. C’est toutefois lors de l’emploi de tels outils que le risque de discrimination par réplication des profils majoritaires dans l’entreprise est le plus élevé, les algorithmes auto-apprenants ayant tendance à s’inspirer des données qu’ils ont eu initialement à disposition.

LinkedIn a développé un outil qui, grâce au « machine learning », serait capable d'apprendre les besoins d’un recruteur et d'identifier automatiquement les candidats pertinents, en se basant sur l’historique des interactions. Dans de nombreux cas, il arrive que ce soient les algorithmes qui décident, seuls, de rejeter définitivement la candidature ou au contraire de la conserver pour les étapes suivantes du recrutement.

D’autres employeurs utilisent les algorithmes pour trier les candidatures au moyen de tests psychologiques. Ainsi, pour certains postes pour débutants chez Unilever, les premières phases de recrutement sont entièrement automatisées : les postulants reçoivent automatiquement un test psychologique mené par une intelligence artificielle dont le résultat décidera de la suite qui sera donnée à leur candidature.

 

  • Répondre aux questions des employés potentiels

Il existe plusieurs solutions de chatbot programmés pour répondre aux questions les plus fréquentes que posent les personnes qui envisagent de postuler auprès d’un employeur. Il existe notamment AskRH, qui fonctionne avec l’API « conversation » de Watson/IBM. Cela permet aux employés de se renseigner par exemple sur les conditions de travail en vigueur et ainsi d’éviter des postulations qui ne mèneront à rien.

 

  • Confier l’entretien d’embauche à une IA ou un robot

Il arrive même que l’entretien d’embauche se fasse grâce au truchement d’une IA, voire d’un véritable robot. Cela va d’une conversation téléphonique avec un chatbot (comme le proposent Precire, HireVue ou VideoBio), qui ne sert parfois qu’à établir un profil de personnalité du candidat, à un véritable entretien d’embauche, à distance face à un avatar humanoïde voire en présence d’un vrai robot. Il y a par exemple « Sophie », capable de poser des questions au candidat et de l’évaluer à l’aune de ses réactions et réponses. Il y a aussi « Zara », utilisée par Manpower, qui est d’abord utilisé pour effectuer un premier tri lors de recrutement massif, mais aussi dans le cadre de véritables entretiens. Il y a encore « Matilda », et « Vera », censés trier les CV, établir un profil de personnalité du candidat, déterminer sa motivation et sa compatibilité avec le poste mis au concours, le tout pour plusieurs milliers de profils par jour.

 

  1. Les risques d’une sélection par les algorithmes
    • Le risque de discrimination

Le risque principal de l’emploi d’algorithmes lors du recrutement de personnel est la discrimination. En effet, même s’ils ont la réputation (largement usurpée comme on le verra ci-après) d’être objectifs, neutres et rationnels, les algorithmes n’en comportent pas moins de nombreux biais, notamment en raison des biais contenus dans les bases de données qu’ils utilisent ou qui ont servi à les entraîner, par exemple « foutaise à l’entrée, foutaise à la sortie » (« garbage in, garbage out »). En effet, ces bases sont composées des données disponibles (p. ex. les employés actuels d’une entreprise), alors qu’avant l’essor du numérique, elles étaient constituées d’échantillons représentatifs. Il y a aussi la discrimination statistique, lorsqu’un algorithme attribue automatiquement certaines caractéristiques un profil parce qu’il procède à une généralisation sur la base d’autres critères, par exemple lorsqu’il considère que tous les habitants d’un quartier sont peu productifs parce tous les travailleurs précédemment engagés habitant ce quartier se sont révélés être moins productifs que la moyenne. Les biais peuvent aussi résulter d’un pur calcul économique de l’algorithme, qui rejette les candidatures féminines parce qu’il considère que leur rapport coût-efficacité est moins bon. Certains algorithmes ne font enfin que reproduire les biais des humains qui les ont programmés (p. ex. le sexisme ambiant de certaines entreprises technologiques dont le personnel est majortairement composé d’hommes).

Parmi les exemples tristement célèbres, on trouve le logiciel de reconnaissance faciale de Google qui qualifiait de « gorilles » des photos de personnes afro-américaines. Ou celui de Microsoft « face API » qui dû être corrigé après que 93% des erreurs concernaient des personnes dont la couleur de peau est sombre, parce que sa base de données d’entraînement était surtout composée d’image d’hommes blancs. Plus récemment, un étudiant de l’EPFL a démontré que les algorithmes de Twitter pratiquent eux-aussi la discrimination à grande échelle.

Il existe aussi des exemples de biais en matière de recrutement de personnel :  un algorithme d’analyse de CV d’Amazon pour faciliter le recrutement attribuait souvent de mauvaises notes aux candidatures féminines pourtant en adéquation avec les postes à repourvoir. Il a aussi été démontré par une étude de l’Université de Carnegie-Mellon que l’algorithme de Google avait tendance à ne présenter aux chercheuses d’emploi des offres moins qualifiées ou moins bien payés que celles présentées aux hommes de profil équivalent.

Chez Unilever, la sélection par algorithmes de certains employés se fait au moyen de tests qui utilisent les résultats des meilleurs employés comme valeur de référence. Il y a donc un risque réel de pénaliser certains candidats. Cela dit, les résultats présentés par Unilever tendant à montrer une amélioration de la diversité des profils (cf. ci-après).

La discrimination de certaines catégories de travailleurs peut aussi être voulue par l’employeur, qui paramètre sciemment ses algorithmes de sélection, par exemple pour qu’ils excluent les candidatures d’un certain âge.

  • L’illusion de l’objectivité

Bien des concepteurs et des utilisateurs prétendent qu’une sélection opérée par des algorithme est plus objective et rationnelle que celle qui est le fait d’humains et qu’elle serait même capable d’objectiviser ce qui est par nature subjectif. Par exemple, Manpower prétend que l’analyse des émotions et du sourire par Zara est « objective ». Or, s’il est vrai l’usage d’algorithmes et de données permet d’éviter bon nombre de biais « typiquement humains », cela n’est souvent qu’une illusion d’objectivité et de rationalité. Comme évoqué ci-dessus, les algorithmes peuvent eux-mêmes générer des biais. En outre, contrairement à ce que bon nombre de personne croient, les données ne sont pas en soi rationnelles, neutres et objectives parce qu’elles recensent des faits sous forme de chiffres. En effet, toute base de données n’est d’une part qu’un reflet partiel de la société, un défaut encore plus marqué lorsque les données utilisées se fondent sur une entreprise dont le personnel est peu diversifié. D’autre part, une base de données est toujours le fruit d’un choix de critères, qui lui, est forcément subjectif.

  1. Les chances d’une sélection par les algorithmes
    • Les biais cognitifs

Les sciences cognitives ont identifié depuis plusieurs décennies des écarts systématiques et réguliers par rapport à des choix considérés comme « rationnels ». Ces erreurs sont non seulement fréquentes, mais de direction constante, c’est-à-dire non aléatoire. En d’autres termes, elles ont pour conséquences que ceux qui les commettent se trompent toujours de la même manière et tombent toujours dans les mêmes pièges. Elles sont qualifiées de « biais cognitifs ». Certains de ces biais peuvent avoir des conséquences dévastatrices lorsqu’ils influencent la décision d’engager ou non quelqu’un. Il existe par exemple le « biais du champion » qui pousse à tenir pour vrai ce qui est dit par une personne connue et admirée pour ses succès et donc à s’y fier aveuglément ou le « biais d’intuition », qui pousse les dirigeants à se fier à leur instinct, indépendamment des faits. Il y a aussi le « biais de stéréotype », qui consiste à associer certains métiers à un sexe en particulier (coiffeuse, agent de police).

  • Racisme, sexisme et autres discriminations

De nombreuses expériences de postulations fictives ont montré que de nombreux employeurs se laissent influencer par des préjugés sexistes, racistes ou dus à l’âge lors de l’embauche de nouveaux travailleurs.

  • Les algorithmes en tant que moyen pour surmonter ces biais

Une sélection effectuée par des algorithmes permettra d’éviter ces discriminations, pour autant qu’ils soient correctement paramétrés et qu’ils ne se fondent pas sur d’autres critères entraînant des discriminations. Selon Unilever, l’utilisation d’algorithmes pour certains processus de sélection aurait permis d’augmenter la diversité des profils, tant au niveau de l’origine ethnique, sociale que géographique des candidats. Une étude de la Harvard Business Review a par ailleurs montré que la sélection effectuée par des algorithmes donne de meilleurs résultats que celle effectuée par des managers connaissant certes très bien leur métier et leur entreprise, mais se fiant surtout à leur intuition et se laissant distraire par des détails : les candidats sélectionnés par algorithmes ont ensuite de meilleures évaluations de leurs supérieurs, sont plus souvent promus et assimilent mieux par la formation. Une autre étude a aussi montré que certaines analyses de personnalité sont plus précises lorsqu’elles sont le fait d’algorithmes travaillant sur la base de traces numériques comme des activités sur les réseaux sociaux que lorsque des humains se livrent aux mêmes analyses en se basant sur des questionnaires de personnalité.

  • L’amélioration de la productivité et la diminution du roulement du personnel (turnover)

Le recrutement effectué l’aide d’algorithmes peut aussi inclure un élément prédictif. Les employeurs en espèrent une meilleure prévisibilité de la productivité des travailleurs qu’ils recrutent et de la durée de la relation contractuelle qui les liera à ceux-ci. L’algorithme est ainsi censé déterminer si le salarié va rester longtemps dans l’entreprise, s’il s’adaptera à sa culture et au poste qu’on va lui confier.

 

  1. Quelques principes pour garantir la légalité des algorithmes

Réguler l’usage des algorithmes est une chose, contrôler que leur utilisation est conforme aux règles en est une autre. Et ce contrôle peut être très ardu. En effet, un algorithme est souvent une « boîte noire », un mécanisme dont il est impossible de connaître le fonctionnement exact. Cette absence de transparence est souvent justifiée par la propriété intellectuelle, mais elle est aussi due au fait que les personnes disposant de compétences suffisantes pour être capable de comprendre leur fonctionnement exact sont fort peu nombreuses.

Toutefois, comprendre le fonctionnement d’un algorithme utilisé dans le cadre d’une relation de travail est nécessaire dans de nombreux cas, notamment lorsque le travailleur est en droit d’obtenir une explication détaillée de son employeur (ou d’un employeur potentiel), comme les motifs du congé à remettre par écrit (art. 335 al. 2 CO) ou en cas de soupçon de discrimination à l’embauche liée au sexe (art. 8 al. 1 LEg). S’il fonde sa « décision » sur celle de l’algorithme, l’employeur devra en expliquer de manière transparente et compréhensible le fonctionnement, en particulier les éventuelles mesures pour éviter biais et discriminations. Il devra le cas échéant renseigner un tribunal de manière détaillée. Et, même lorsqu’il reprend telle quelle et fait sienne la « décision » de l’algorithme, l’employeur ne saurait se contenter de « j’ai décidé de suivre la proposition de l’algorithme », sans en détailler le contenu. En effet, se fier, voire se soumettre à un tel résultat n’est pas le motif qui justifie le congé ou le refus d’embauche, mais le processus qui a conduit à l’élaboration des motifs. S’il veut rester un décideur, l’employeur aura donc lui aussi intérêt à connaître le fonctionnement des algorithmes à qui il délègue la préparation de certaines de ses décisions.

La recherche a commencé à préciser les conditions nécessaires à l'usage d'algorithmes respectueux des droits fondamentaux. Voici les critères qu’ils devraient remplir :

  • Responsabilité : pour tout système algorithmique, il doit y avoir une personne ayant le pouvoir de faire face à ses effets indésirables ;
  • Explicabilité : toute décision produite par un algorithme devrait être expliquée aux personnes concernées ;
  • Exactitude : les sources d'erreur doivent être identifiées, consignées et comparées ;
  • Auditabilité : les algorithmes doivent être développés pour permettre à des tiers d'en sonder et d'en revoir le comportement ;
  • Justiciabilité : pour éviter les biais des décisions automatisées, les algorithmes qui prennent des décisions au sujet des individus doivent être évalués pour que leurs effets discriminatoires puissent être mesurés.

Il existe aussi des solutions techniques pour corriger les biais des algorithmes, comme compléter ou de redresser les bases de données en le reconstituant à l’aide de modèles statistiques.

La nouvelle LPD fait un premier pas en prévoyant une obligation d’information de la personne concernée et la possibilité pour celle-ci d’exposer son point de vue en cas de décision individuelle automatisée (art. 19 nLPD). Ce projet est malheureusement très en-deça des principes précédemment évoqués et reste donc très insuffisant. Il va aussi beaucoup moins loin que le nouveau règlement général sur la protection des données (RGPD) européen, dont l’art. 22 confère en principe le droit de ne pas être l’objet d’une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, produisant des effets juridiques la concernant ou l'affectant de manière significative. Le RGPD prévoit aussi des sanctions dissuasives ainsi que des dommages-intérêts, dont pourraient bénéficier les personnes victimes de discrimination suite à une décision automatisée, comme un non-engagement sur proposition ( voire décision) d’un algorithme. L’employeur soumis au RGPD a aussi l’obligation de réduire les risques de discrimination, notamment au moyen d’une « analyse d’impact sur la protection des données ».

 

  1. Une machine pour représenter l’employeur ?

Conclure un contrat ou lui mettre un terme sont des actes juridiques qui nécessitent une manifestation de volonté. Un employeur (qu’il s’agisse d’une personne physique ou morale) peut se faire représenter (au sens des art. 32ss. CO) par une personne physique dotée des droits civils (art. 12 CC) pour valablement conclure un contrat ou émettre la manifestation de volonté unilatérale de donner le congé. Peuvent ainsi signer un contrat de travail ou une modification de ce contrat avec un employé, les organes exécutifs qui disposent du pouvoir de représentation, ainsi que toutes les personnes qui peuvent valablement représenter l’entreprise dans les actes juridiques avec des tiers. Si le contrat n’a pas été conclu par une personne dument autorisée à représenter l’employeur et que ce dernier ne le ratifie pas, il n’est pas conclu.

Lorsque ce n’est pas une personne physique ou morale (algorithme, IA, robot) qui prend la décision d’engager ou de donner le congé, cela doit être ratifié par une personne physique habilitée à représenter l’employeur. En effet, pour agir en qualité de représentant, il faut la personnalité juridique, ce que ni un algorithme, ni un robot, ni une intelligence artificielle n’a… ni n’aura, en tout cas dans un proche avenir (le Parlement fédéral a notamment refusé cette proposition de l’ancien conseiller national Mathias Reynard).

 

  1. La discrimination à l’embauche en droit suisse du travail
    • Les obligations précontractuelles de l’employeur

Même s’ils finissent par ne pas être liés par un contrat de travail, un employeur et les personnes qui postulent à un emploi sont liées par des obligations précontractuelles qui vont au-delà des règles usuelles de la bonne foi. Ainsi, l’art. 328 CO sur la protection de la personnalité du travailleur s’applique déjà lors de la phase précontractuelle, même si au final aucun contrat n’est conclu (quelle qu’en soit la raison). L’art. 328b, qui autorise l’employeur à ne traiter que des données personnelles en liens avec la relation de travail s’applique lui aussi pendant cette phase précontractuelle.

L’employeur potentiel ne peut donc pas pratiquer de discrimination à l’embauche. Il ne peut pas non plus poser certaines questions au candidat ou rechercher certaines informations à son sujet.

  • La discrimination à l’embauche en droit privé
    • En fonction du sexe

L’art. 3 al. 2 de la Loi sur l’égalité (LEg) prohibe la discrimination en fonction du sexe, y compris lorsqu’elle est indirecte. Cela est aussi valable pour la discrimination à l’embauche, qui, si elle ne donne pas à la victime de droit à être embauchée, donne le droit à une indemnité. Une personne qui n’a pas été engagée et se prévaut d’une telle discrimination peut demander à celui qui ne deviendra pas son employeur qu’il motive sa décision par écrit (art. 8 al. 1 LEg). Cette régale rend à notre sens plus nécessaire encore la généralisation des critères d’explicabilité et de responsabilité des algorithmes : l’employeur qui fait recours à de tels outils doit être le cas échéant en mesure d’expliquer que cela ne conduit pas à des résultats discriminatoires.

Il faut enfin relever l’art. 3 al. 3 LEg, qui autorise expressément les « mesures appropriées visant à promouvoir dans les faits l'égalité entre femmes et hommes ». L’emploi d’algorithmes dans le but de favoriser la diversité des sexes lors de nouvelles embauches sera donc licite.

 

  • En fonction d’autres critères (origine ethnique, âge, opinions politiques, handicap, orientation sexuelle)

L’art. 8 al. 2 de la Constitution fédérale (Cst.) stipule que « Nul ne doit subir de discrimination du fait notamment de son origine, de sa race, de son sexe, de son âge, de sa langue, de sa situation sociale, de son mode de vie, de ses convictions religieuses, philosophiques ou politiques ni du fait d'une déficience corporelle, mentale ou psychique. » Ce droit fondamental ne s’applique toutefois pas strictement aux rapports de travail de droit privé (contrairement à l’al. 3 du même article consacré à l’égalité entre les sexes). Il n’existe ainsi pas de droit général à l’égalité de traitement en droit suisse du travail. Le Tribunal fédéral a notamment rappelé récemment que l’interdiction de discrimination directe visée par la loi sur l'égalité ne tient pas compte de l’orientation sexuelle. La liberté de contracter qui en découle n’est toutefois pas illimitée, notamment lorsque le travailleur (potentiel) est atteint dans ses droits personnels ou sa considération sociale, par exemple en cas de traitement discriminatoire sans motif justificatif.

L’art. 328 CO interdit donc toute discrimination à l’embauche motivée par un des critères évoqués à l’art. 8 al. 2 Cst. C’est par exemple le cas de la discrimination à l’embauche fondée sur un motif raciste. La sanction pour l’employeur qui la commet sera en principe une indemnité pour tort moral, mais ne saurait conduire à une obligation de contracter.

  • En fonction du lieu de domicile ou de la nationalité

Le lieu de domicile est une donnée personnelle facile à trouver et à traiter. C’est la source de nombreuses discriminations causées par des algorithmes. En effet, ceux-ci peuvent facilement faire des corrélations entre le critère « lieu de domicile » et un autre critère, même s’il n’y a en réalité pas de lien de causalité. Un exemple très connu est celui de la solvabilité : il suffit d’habiter dans un quartier où vivent de nombreux mauvais payeurs pour être soi-même classé dans cette catégorie par des organismes qui prétendent analyser la solvabilité, ce qui peut avoir des conséquences néfastes sur la vie quotidienne, comme des difficultés à obtenir un prêt bancaire ou à conclure un bail à loyer.

En matière de droit du travail, l’Accord sur la libre circulation des personnes (ALCP) prohibe la discrimination des travailleurs ressortissants des Etats membre de l’Union Européenne (art. 7 ALCP et art. 9 par. 1 de l’annexe 1 ALCP). Les algorithmes de sélection devront donc être paramétrés afin de ne pas aboutir à l’exclusion de travailleurs ressortissants de certains Etats. Cependant, comme les « mesures d’accompagnements » prévoient que l’interdiction de discrimination ne saurait conduire à de la sous-enchère salariale, il conviendra aussi d’éviter que ces algorithmes ne privilégient les ressortissants de certains de ces Etats, notamment au détriment des travailleurs indigènes, au motif que ceux-là accepteraient des conditions salariales moindres. En effet, un logiciel qui donnerait systématiquement la priorité à des travailleurs étrangers nettement moins bien rémunérés que des travailleurs indigènes contribuerait à une sous-enchère certainement abusive et en tout cas répétée, ce que justifierait les interventions des autorités prévues aux art. 360a ss CO. Si c’est l’employeur – et non l’algorithme – qui prend la décision finale d’engager, l’utilisation d’un tel algorithme pourrait constituer un indice de l’existence de sous-enchère abusive et répétée. Une telle discrimination pourrait en outre contrevenir aussi aux mesures de mise en œuvre de l’art. 121a Cst. (« préférence indigène »).

  • Les conséquences de la discrimination à l’embauche

En cas de discrimination à l’embauche, le travailleur victime n’a pas de droit à être engagé. Si la discrimination est liée au sexe, la victime pourra prétendre à une indemnité au titre de l’art. 5 al. 2 LEg. Dans les autres cas, elle aura droit à des dommages-intérêts et/ou une indemnité pour tort moral.

  • Les informations que l’employeur potentiel n’a pas le droit de recueillir

Lors d’un entretien d’embauche, un employeur potentiel, qui est légitimé à poser toute question directement liée au rapport de travail, n’a pas le droit de poser certaines questions qui violent la personnalité du candidat. C’est notamment le cas des questions liées aux opinions politiques et religieuses, à une grosses ou un projet de grossesse, à la situation familiale, au cercle d’amis, aux activités extra-professionnelles, etc. Et, s’il les pose tout de même, le candidat a le droit de ne pas répondre, voire de mentir. Certaines questions ayant trait à l’état de santé du candidat ou d’éventuels antécédents pénaux ne sont admissibles que lorsque cela peut avoir un impact sur l’exécution du travail.

Quant aux recherches sur le candidat et son passé, en particulier à propos de son activité sur les réseaux sociaux, il s’agit d’une pratique de plus en plus courante. Elle permet en effet à l’employeur d’obtenir des informations auxquelles il ne devrait pas avoir accès dans le cadre d’une postulation, car elles ne font pas partie des informations en lien avec la relation de travail qu’il est en droit d’obtenir. Ces informations sont pourtant d’autant plus faciles à obtenir qu’elles sont, en particulier les publications sur les réseaux sociaux, publiques ou en tout cas accessibles à un grand nombre de personnes. En outre, de nombreux services spécialisés, du « background check » aux analyses de solvabilité, permettent aux employeurs d’obtenir des informations qui peuvent leur sembler pertinentes sur un candidat. Toutefois, lorsqu’il mène de recherches de son propre chef (ou les externalise), l’employeur est soumis aux mêmes obligations précontractuelles que lors d’un entretien d’embauche. Il doit donc s’abstenir de rechercher des informations qui n’ont aucun lien avec la future relation de travail ou qui lui donnerait la réponse à des questions qu’il n’a pas le droit de poser. Comme il y a fort à parier que toute recherche fondée sur les activités en ligne d’une personne mènera fatalement à de telles informations, l’employeur doit renoncer à de telles recherches et à faire appel à des services spécialisés qui les font à sa place. Si une information comme un antécédent pénal ou en matière de poursuite et faillite s’avère avoir un lien avec la future activité, l’employeur doit demander au candidat de lui fournir l’information sous la forme d’un extrait de casier judiciaire ou de registre des poursuites, mais ne saurait mener lui-même de telles investigations. En revanche, l’employeur est habilité à consulter les informations à caractère professionnel que le candidat a lui-même mis en ligne, notamment sur les réseaux sociaux à vocation professionnelle comme linkedin, xing ou encore les réseaux d’alumni des hautes écoles.

Lorsque c’est un algorithme qui mène un entretien ou effectue des recherches sur un candidat, il convient donc de garantir qu’il ne posera pas de question interdite, respectivement ne mènera pas de recherches illicites. Si la problématique des questions semble assez simple à régler (il suffit de paramétrer le logiciel qui mène l’entretien pour qu’il ne les pose pas), celles des recherches est plus ardue. S’il est facile pour l’employeur de ne pas faire usage d’un service qui effectuera de telles recherches à l’aide d’algorithmes, il est beaucoup plus difficile de prévoir ce que pourrait faire une IA en charge du processus de sélection. En effet, celle-ci pourrait, de son propre chef suite à son processus d’apprentissage, décider de mener de telles recherches sur le compte des personnes qu’elle va sélectionner. Il importe donc de paramétrer ces IA pour qu’elles ne mènent pas de recherches illicites sur le compte des candidats et s’en tiennent aux informations que l’employeur est légalement en droit d’obtenir.

  1. En guise de conclusion

L’usage d’algorithmes et d’IA pour sélectionner les candidats et trier leurs dossiers comporte de nombreux avantages pour les employeurs : gain de temps, évitement de certains biais typiquement humains (biais cognitifs, racisme) et, dans certains cas, gains de productivité et diminution du taux de roulement. Mais cela ne les libère pas de leurs devoirs envers leurs potentiels futurs collaborateurs. Même si c’est un algorithme qui effectue la sélection, l’employeur reste soumis aux obligations du droit du travail. Et c’est à lui que revient la décision d’engager ou pas le candidat. D’une part parce qu’une machine n’est pas (encore) capable de conclure valablement un contrat, mais aussi parce que les algorithmes et les bases de données dont ils se servent subissent eux-aussi des biais, des erreurs et des lacunes. Pour éviter de commettre une discrimination à l’embauche, l’employeur doit faire en sorte de les éviter. Il doit aussi veiller à ce que ces algorithmes puissent être audités et expliqués, le cas échéant devant un tribunal. Il en va de sa responsabilité, mais aussi de son libre-arbitre. En effet, un décideur qui se fie aveuglément à ce qui lui propose ou impose un algorithme ne décide pas ; il obéit.

D’une manière générale, il convient de ne pas se laisser bercer par l’illusion d’objectivité, de neutralité et de rationalité que certains confèrent aux machines. Même si elles donnent l’apparence d’être libérées des « travers » humains que sont la subjectivité ou les émotions, elles n’en ont pas moins été créées et développées par des humains, qui leur ont souvent transmis leurs défauts. Quant aux données qui les alimentent, il s’agit aussi de constructions humaines, fondées sur des choix et des jugements humains.