Quand l’intelligence artificielle se retrouve au tribunal

Retrouvez le dossier complet
Travailler avec l’IA

L’IA (fictive) Optima déployée au sein d’une banque (fictive, elle aussi) aurait provoqué de nombreux problèmes au sein de l’entreprise : destruction d’emplois, discrimination à l’embauche… Est-elle pour autant responsable ? Son procès s’est tenu à Nice, fin juin.

Par Fabrice Dedieu— Publié le 27/09/2024 à 09h00

image
© Nicolas Ridou

Ce tribunal a presque tout d’un vrai. Assis autour d’une table recouverte d’une nappe noire, le président a enfilé son costume d’audience rouge, avec ses revers bordés d’hermine. À ses côtés, deux assesseurs, et à chaque coin de la salle, le procureur et l’avocate de la défense. Pourtant, ce 20 juin, nous ne sommes pas dans un bâtiment du ministère de la Justice, et le procès qui va s’ouvrir est fictif. Pour son colloque annuel, l’Association des avocats praticiens en droit social des Alpes-Maritimes a choisi de se pencher sur l’intelligence artificielle en entreprise et de se poser, avec ce procès, la question de la responsabilité.

Devant les 70 personnes réunies dans une salle du Campus Sud des métiers à Nice, le président du tribunal, Jean-Michel Hayat (par ailleurs président honoraire de la cour d’appel de Paris) prend la parole pour ouvrir l’audience et exposer les faits (fictifs) : « Nous sommes réunis aujourd’hui pour un procès pas banal. La prévenue du jour s’appelle Optima, un programme d’intelligence artificielle lancé en janvier 2021 au sein d’AlphaBanque. »

L’établissement bancaire l’aurait utilisée pour rationaliser les tâches de travail des chargés de clientèle et autres conseillers. Lors d’un plan de réduction des effectifs, Optima aurait été utilisée pour identifier les salariés susceptibles d’accepter une rupture conventionnelle, et ceux susceptibles d’être licenciés. Par la suite, lors d’une phase de recrutement, Optima aurait été utilisée pour sélectionner des candidats : des plaintes ont été déposées, l’IA aurait discriminé certains candidats selon l’âge, le sexe et l’origine ethnique.

“Optima est donc poursuivie pour destruction d’emplois, discrimination à l’embauche, manquement aux obligations de loyauté et de sécurité, harcèlement moral…”

Ensuite, AlphaBanque se serait servie d’Optima pour surveiller en temps réel la performance et le comportement des salariés, ce qui aurait provoqué une augmentation du stress et le développement de troubles anxieux chez les salariés.

Enfin, à la suite d’une fuite de données personnelles, Optima aurait vendu des données confidentielles à des entreprises tierces à des fins marketing.

Optima est donc poursuivie pour destruction d’emplois, discrimination à l’embauche, manquement aux obligations de loyauté et de sécurité, harcèlement moral, atteinte aux données personnelles et violation du secret professionnel.

La question des données

Représentée au procès sous la forme d’une image de femme projetée sur un mur, Optima est interrogée à plusieurs reprises sur ce qui lui est reproché. Elle répond : « En tant qu’intelligence artificielle, je fonctionne selon les paramètres définis par mes créateurs et mes administrateurs. Les analyses que j’ai faites, poursuit-elle, ont pu mener à des résultats biaisés. Mais c’est le produit des données, des algorithmes et des instructions programmés. Je n’ai pas de capacité à agir indépendamment de ces paramètres. Je n’ai pas de réelle indépendance ou autonomie. »

“On remarque que les candidats retenus par l’IA sont des hommes, jeunes, d’origine européenne. […] C’est le manque de vérification des données utilisées par l’IA qui a donné un recrutement discriminatoire. ”

Invitée à témoigner, la lanceuse d’alerte, jouée par Maître Mireille Damiano, souligne que le CSE d’AlphaBanque a bien été consulté lors de la mise en place de l’IA en 2021, conformément au code du travail, mais que celui-ci « n’avait pas la possibilité de savoir comment Optima allait être utilisée. C’est pourquoi il n’y a pas eu de contestation sur la manière dont elle a été mise en place ».

La lanceuse d’alerte soulève aussi la question des données utilisées par l’IA, concernant, par exemple, la discrimination à l’embauche : « On remarque que les candidats retenus par l’IA sont des hommes, jeunes, d’origine européenne. […] C’est le manque de vérification des données utilisées par l’IA qui a donné un recrutement discriminatoire. » L’expert, interprété par Maître Godefroy de Boiscuillé, appelé lui aussi à témoigner devant le tribunal, enfonce le clou : « Si on se trompe au moment où l’on nourrit la machine, celle-ci donnera des erreurs. Il y a toujours une influence humaine derrière un dommage causé par l’IA. »

« La relaxe s’impose »

Comme dans tout procès, vient le temps des réquisitions. Si, pour le procureur, incarné par Maître Olivier Romani, la culpabilité d’Optima ne fait aucun doute, l’avocate de la défense, que joue Me Cécile Schwal, voit les choses autrement : « Dans le procès de l’IA, la véritable cible est ailleurs. Ses actions dépendent des humains qui la contrôlent. Une IA responsable est bénéfique pour la société. La relaxe s’impose. »

À propos de l'auteur

Fabrice Dedieu
Journaliste

Alors, coupable ou innocente, Optima ? Pour le président, à l’issue des débats qui auront duré plus de deux heures, « le tribunal ignore les conditions dans lesquelles l’employeur a déployé Optima, les mises à jour, les outils pour la contrôler, la fréquence des contrôles ». Difficile de se convaincre de la culpabilité d’Optima… Ce qui l’amène à trancher : « Le tribunal ordonne un supplément d’information pour auditionner la personne morale AlphaBanque. Le dossier est renvoyé au prochain colloque. »