https://dcs.univ-nantes.fr/medias/photo/les-embarques-seminaire-affiche-200122-nouveau_1642171235819-png
  • Le 20 janvier 2022
    Campus Tertre
    Faculté de Droit et Sciences politiques de l'université de Nantes
    Salle 220
    false false
  • Jeudi 20 janvier 2022
    12h30 - 13h30

Séminaire d'accueil DCS - Organisé par Katia Barragan et Margo Bernelin

Séminaire d'accueil à DCS

Jeudi 20 janvier 2022 - 12h30-13h30
Ljupcho Grozdanovski
« L’Intelligence Artificielle vue sous l’angle de la justice procédurale en droit de l’UE »
 

L’Intelligence artificielle (IA) est au cœur des débats actuellement menés au sein de l’Union européenne (UE), le principal sujet étant celui de la régulation de systèmes intelligents dits à haut risque à savoir, des systèmes capables de causer d’actes dommageables avec peu ou sans intervention humaine (cf. AI Act, COM(2021) 206 final). Face au problème de la black box (i.e. des cas de décisions autonomes et automatisées inexplicables pour des agents humains), la doctrine a vite souligné l’importance de l’obligation de transparence qui pèse - ou devrait peser - sur les programmeurs et utilisateurs de tels systèmes. L’approche de régulation de risques (risk-based approach) suivie par le législateur de l’UE se traduit par la définition de standards aprioriques s’imposant aux processus de conception, de mise en circulation et d’utilisation de systèmes intelligents, le principal objectif étant de définir dès règles contraignantes dont le respect devrait conduire à protéger les agents humains. On a, toutefois, souvent omis la question de la protection (juridictionnelle) ex post : quelles garanties procédurales doivent être mises en place si, malgré les précautions prises, un dommage algorithmique finit par se réaliser ?

Cette question sera traitée sous l’angle de la justice procédurale et la théorie de la preuve en droit de l’UE par la présentation de deux études (CMLR, 2021 ; Réseaux, 2022). Même si elles portant sur des sujets différents, elles soulèvent, toutes deux, la question de savoir si les règles et principes de preuve en droit de l’UE permettent de faire face à l’inexplicabilité des décisions algorithmiques autonomes (et préjudiciables) et permettent, par-là, la garantie d’un niveau de protection juridictionnelle effective des justiciables dans les différends portant sur des ‘dommages algorithmiques’.

La première étude (CMLRev, 2021), porte sur les cas de discrimination algorithmique. En effet, lorsque des biais discriminatoires résultent de décisions algorithmiques opaques, leur existence, ainsi que leurs causes ne peuvent pas être aisément expliquées et donc, prouvées. Cela remet en cause l’effectivité du système de preuve en matière de non-discrimination en droit de l’UE, dès lors qu’en raison de l’opacité algorithmique, les parties n’ont pas d’accès aux faits leur permettant de soutenir leurs arguments. Sur le plan procédural, cela empêche que le débat probatoire se déroule conformément aux principes du contradictoire et d’égalité des armes. Afin de ‘lever’ le voile d’opacité algorithmique, cette étude propose deux solutions. D’abord, s’agissant des victimes de discrimination algorithmique, il est proposé la reconnaissance d’un droit procédural à la transparence, fondé sur une lecture conjointe du principe de non-discrimination et du règlement général sur la protection des données (RGPD). Ensuite, afin de garantir au mieux le principe d’égalité des armes, il est suggéré une extension des moyens de défense pour les défendeurs, afin de leur permettre d’argumenter (et de prouver) que des biais algorithmiques discriminatoires ont été développés par un algorithme ayant agi seul.

Une telle extension des moyens de défense paraît bienheureuse du point de vue de la justice procédurale : après tout, si un agent humain n’était l’auteur d’un acte dommageable, il faudrait qu’il puisse le prouver, même lorsque l’auteur réel de ce dommage était… une entité non-humaine. Conceptuellement, cela soulève une question centrale, mais épineuse en matière d’IA : faut-il reconnaître une forme d’agentivité (et, éventuellement, un statut juridique personnel) à des systèmes non-humains capable de ‘raisonnement’ ? Cette question est abordée dans la deuxième étude, signalée plus haut (Réseaux, 2022). Analysant les moyens procéduraux offerts par la directive dite ‘produits défectueux’ (85/374), cette dernière fait deux propositions majeures. D’abord, que pour la preuve de la responsabilité de fait (accountability), soit appliquée la logique de responsabilité pour faute, laissant aux programmeurs, utilisateurs et déployeurs de systèmes ML la possibilité de réfuter la présomption d’agentivité humaine, en démontrant que la faute pour un dommage donné doit être placée sur un algorithme. Ensuite, s’agissant de la réparation d’un dommage algorithmique (liability), il est proposé que l’obligation de réparation soit attribuée suivant une logique d’acceptation de risques, pour les systèmes ML à ‘haut risque’ de préjudice, ou une logique de force majeure, pour tout dommage algorithmique non-encore survenu en pratique.