L’IA au service de l’immigration canadienne : Chinook, un outil controversé
L’utilisation de l’intelligence artificielle et d’outils technologiques dans les processus décisionnels par Immigration, Réfugiés et Citoyenneté Canada (IRCC)
Le Canada fait face à une demande d’immigration sans cesse croissante, ce qui a entraîné, invariablement depuis déjà plusieurs années, un volume élevé de demandes et, par conséquent, des retards de traitement importants. Un nombre limité d’agents d’IRCC sont disponibles pour traiter ces demandes. Aujourd’hui, on parle de plus de deux millions de demandes de toutes catégories confondues, qui seraient en cours de traitement. Ces facteurs combinés ont conduit à des situations où les agents ne disposent souvent que de quelques minutes pour examiner les formulaires et documents soumis par les demandeurs de visas et rendre une décision sur une demande d’immigration.
Face à cette situation et dans une quête impérieuse d’efficacité, IRCC a conçu et déployé de nouveaux outils technologiques ayant pour vocation première d’aider les agents à prendre des décisions plus rapidement. IRCC admet utiliser l’outil Chinook depuis 2018 pour le traitement des demandes de résidence temporaire. Cet outil a été développé dans le but d’améliorer l’efficacité du traitement des demandes, mais son développement et sa capacité à exécuter certaines fonctions analytiques ont soulevé plusieurs questions éthiques.
Fonctionnement de Chinook
Basé initialement sur Microsoft Excel et présentement en voie d’être déployé sur une plateforme Cloud, Chinook extrait et présente des renseignements conservés dans le Système mondial de gestion des cas (SMGC) de manière plus conviviale et plus facile d’accès, il extrait des informations précises selon certains indicateurs, et il offre une représentation visuelle différente aux agents chargés de rendre les décisions.
Chinook n’est pas en soi un outil d’intelligence artificielle pur, mais plutôt une forme d’interface qui attire néanmoins l’attention des agents décisionnels sur certains éléments d’un dossier, sans nécessairement apporter le contexte ou les nuances qu’une analyse plus approfondie du dossier pourrait révéler. Il exécute certaines fonctions analytiques basées sur des critères ou des indicateurs. Chinook peut, par exemple, utiliser des mots-clés pour souligner certaines considérations favorables, mais il peut aussi aller jusqu’à générer des motifs de refus standardisés. L’outil n’autogénère pas d’indicateurs ; ceux-ci sont désignés par IRCC.
Parallèlement aux fonctionnalités de Chinook, IRCC utilise également certains systèmes d’analyse et d’automatisation avancés qui fonctionnent indépendamment de ce dernier, et qui peuvent également catégoriser les demandes selon leur niveau de « complexité », et ainsi indiquer aux décideurs quels sont les dossiers nécessitant une attention particulière.
Ces systèmes permettent, par exemple, d’identifier les demandes justifiant un traitement simplifié, comme celles des demandeurs de visas de visiteurs pour lesquels une demande similaire a déjà été approuvée au cours des 10 dernières années, et visent ainsi à améliorer l’efficacité du processus. Ils identifient également les demandes complexes qui nécessiteraient une analyse plus approfondie. Comme pour Chinook, IRCC mentionne que le système en soi ne rend aucune décision ; il envoie le dossier à un agent qui déterminera si le demandeur est admissible au Canada et prendra la décision définitive.
Questions éthiques et juridiques
La Cour fédérale s’est déjà penchée à quelques reprises sur l’utilisation de Chinook. Elle a reconnu qu’en soi, l’utilisation de Chinook dans le processus décisionnel ne constitue pas une décision déraisonnable ni une atteinte à l’équité procédurale, dans la mesure où c’est une personne qui a rendu la décision et non le système de manière autonome, et que cette décision n’est pas déraisonnable en soi (cas Haghshenas v. Canada). La supervision humaine est absolument nécessaire…
Lire la suite sur le site de BCF Avocats d’affaires | Version EN