L’intelligence artificielle et le renforcement des stéréotypes en droit pénal

L’intelligence artificielle et le renforcement des stéréotypes en droit pénal

Introduction

À l’entame de cet article, il est important de mentionner que l’intelligence artificielle offre des avantages notables à la fois au gouvernement et au public. Néanmoins, son utilisation demeure controversée en raison des biais et de la discrimination qu’elle peut renforcer. Ces biais se retrouvent notamment dans les algorithmes et dans les données comme tels. Plus particulièrement, cela pose un problème dans le système de justice pénale, lequel soumet déjà les minorités raciales et les populations vulnérables à des accusations disproportionnées et à des stéréotypes injustes. Il en résulte une exacerbation de la discrimination et davantage de contrôle, de préjugés et de sanctions restreignant les droits de ces personnes, tant dans les atteintes à leur vie privée qu’à leur liberté, indépendamment des intentions (Sara M. Smyth).

Cela dit, nous allons tenter de répondre à la question suivante : Est-ce que la communauté juridique devrait utiliser l’intelligence artificielle dans le domaine du droit pénal?

 

L’intelligence artificielle et la police prédictive

L’intelligence artificielle se réfère à des algorithmes ainsi qu’à l’apprentissage automatique permettant d’analyser les données ou les big data. Les big data visent à recueillir assez d’informations pour « trouver des connexions et des corrélations inattendues, ce qui peut aider à faire des prédictions exceptionnellement précises sur l’avenir » (TRADUCTION, Jonas Lerman). À l’échelle internationale, la prise de décision automatisée est utilisée dans les domaines de la santé, de l’administration et de l’environnement alors qu’en occident, la police numérique est déjà à notre portée (Annette Vestby & Jones Vestby). « La police prédictive est devenue un terme englobant toute approche de lutte contre la criminalité qui s’appuie sur les technologies de l’information (généralement des données et des analyses de cartographie de la criminalité), la théorie de la criminologie, les algorithmes prédictifs et l’utilisation de données pour améliorer la répression de la criminalité dans les rues » (TRADUCTION, Andrew Guthrie Ferguson). L’évaluation des risques, plus spécifiquement le modèle numérique du terrain (Risk terrain modeling), est le fondement des outils de police prédictive. Une autre technologie existante est PredPol. Celle-ci permet de prédire des activités criminelles dans certaines régions spécifiques, et ce, dans des espaces aussi restreints que 500 pieds carrés.

 

Applications de l’intelligence artificielle dans les tribunaux

Parallèlement, les juges sont les gardiens des droits et libertés des justiciables. Ils doivent s’assurer que les avantages d’admettre certaines preuves l’emportent sur les préjudices que celles-ci pourraient causer (R v Abbey, 2017 ONCA 640). L’adoption de preuves générées par les technologies prédictives pourrait engendrer de l’injustice, des dilemmes moraux et un manque d’éthique. Les préjugés potentiels ne seraient que transférés des humains vers des algorithmes biaisés. Dernièrement, un rapport de la Faculté de droit de l’Université de Toronto, associée au Citizen Lab et à l’International Human Rights Program, a été publié au sujet de certaines pratiques policières canadiennes utilisant les algorithmes. Somme toute, le rapport confirme que la police numérique « est susceptible de violer les droits de la personne et les libertés fondamentales » (TRADUCTION, Kate Robertson et al.). Plusieurs recommandations sont suggérées, lesquelles veulent d’une part, encadrer juridiquement l’utilisation des algorithmes par les forces de l’ordre et d’autre part, limiter leur emploi.

 

En outre, les autochtones sont actuellement surreprésentés dans le système de justice pénale. Ils sont vulnérables aux lacunes de la police numérique. De manière générale, les juges doivent s’assurer que leurs décisions ne mènent pas à davantage de discrimination (R c Ipeelee, 2012 CSC 13, para 67). Aux États-Unis, les technologies de l’intelligence artificielle sont actuellement utilisées pour déterminer les peines appropriées, évaluer les risques de mise en liberté sous caution ou de libération conditionnelle ainsi que de déterminer les classifications de logement pour les détenus (Gideon Christian). L’algorithme du programme COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) est utilisé par les cours américaines afin de déterminer les probabilités qu’une personne prévenue devienne récidiviste. Or, COMPAS a démontré que les prévenus de race noire étaient davantage susceptibles d’être jugés à tort avec un taux de récidive élevé comparativement à ceux de race blanche (Sara M. Smyth).

 

D’après l’article 7 et l’alinéa 11(d) de la Charte canadienne des droits et libertés, une personne accusée a des droits fondamentaux tels que celui de confronter un témoin dans le cadre d’un procès ou encore, le droit à une peine individualisée et basée sur des informations précises la concernant. L’utilisation de l’intelligence artificielle et des big data ne permet pas cela et viole ainsi les droits constitutionnels garantis.

 

Loi sur l’intelligence artificielle et les données (LIAD)

C’est en juin 2022 que le projet de loi C-27 de la Loi sur l’intelligence artificielle et les données (LIAD) a été déposé par le gouvernement fédéral pour tenir compte de l’économie numérique. Le préambule du projet de loi C-27 énonce que la conception, le développement et le déploiement de systèmes d’intelligence artificielle au-delà des frontières provinciales et internationales devraient être conformes aux normes nationales et internationales afin de protéger les individus contre tout préjudice potentiel. Bien que la LIAD tente d’établir des exigences applicables à l’échelle nationale, il n’en demeure pas moins que le Canada est un état fédéral : les pouvoirs sont répartis entre un gouvernement fédéral et des gouvernements provinciaux et territoriaux. Le libellé du préambule démontre d’ailleurs que le gouvernement fédéral est conscient de ses limites en matière de compétences. Notamment, certains outils relatifs aux technologies de l’intelligence artificielle ne s’intègrent pas bien dans la constitution canadienne. Par exemple, le gouvernement fédéral a la compétence juridique en matière de droit pénal, de banques, d’échanges et de commerce, de navigation et de transport maritime. Cependant, le fédéral n’aurait pas la compétence concernant la protection des données en tant que droit de la personne (Teresa Scassa). À noter que des provinces souhaitent déjà encadrer par voie législative l’utilisation de l’intelligence artificielle, ce qui pose un problème au niveau des compétences des articles 91 et 92 de la Loi constitutionnelle de 1982. Essentiellement, la constitutionnalité du projet de loi C-27 est controversée et pourrait facilement être contestée.

 

Conclusion

En somme, bien que l’intelligence artificielle soit un outil de choix, tant pour le gouvernement que pour le public (ex. : secteur de la santé et gestion administrative), l’utilisation de cette technologie par la communauté juridique demeure controversée et surtout risquée dans le domaine du droit pénal. La question du partage des compétences est aussi à considérer puisque la constitution canadienne prévoit la répartition des pouvoirs entre l’État, les provinces et les territoires. Par surcroît, la légifération de l’intelligence artificielle n’est pas claire pour l’instant, principalement en ce qui a trait à la Loi sur l’intelligence artificielle et les données (LIAD). Les discriminations diverses basées sur la vulnérabilité de certaines populations raciales et autres sont grandement à craindre. Les preuves découlant des technologies prédictives pourraient mener à davantage d’accusations fallacieuses, ce qui est nuisible à l’administration de la justice. Les droits des individus doivent absolument être protégés. Pour ces raisons, le système de justice pénale doit être prudent avant de faire intervenir l’intelligence artificielle de manière usuelle.