|

Vous avez des questions ou des commentaires à propos de ce rapport ? Contactez-nous !
Téléchargez le texte intégral du rapport.
Téléchargez la fiche de travail.
Cliquez sur chaque titre ci-dessous pour voir son contenu.
En août 2023, le conseil exécutif de la Canadian Association of Law Libraries/Association canadienne des bibliothèques de droit (CALL/ACBD) a approuvé une proposition visant à créer un nouveau groupe de travail sur les normes en matière d’IA (GTIA). Ce groupe a été créé à titre de sous-comité du comité de liaison avec les fournisseurs (CLF).
Le présent guide est régi par la licence Creative Commons CC BY-NC-SA 4.0.
Les membres du comité sont les suivants :
Ce groupe est bien placé pour donner des conseils sur le sujet, car ses membres cumulent des dizaines d’années d’expérience quant à l’utilisation d’outils de recherche juridique électroniques dans la pratique du droit.
Le groupe de travail a mené de nombreuses consultations afin de préparer ses recommandations. Ces consultations ont réuni des membres de la CALL/ACBD, des professionnels du droit, des représentants de fournisseurs et des professionnels de domaines connexes.
Le présent guide a pour but d’orienter les consommateurs avertis qui établiront des normes et des attentes de base que tous les fournisseurs de solutions de recherche et rédaction juridiques (RRJ) basées sur l’IA s’efforceront d’atteindre.
Comme le soulignent de nombreux barreaux au Canada 1, les titulaires de licence qui utilisent l’intelligence artificielle ont des responsabilités éthiques et professionnelles à cet égard. Par conséquent, ce guide a été rédigé pour aider les utilisateurs. Ces utilisateurs comprennent les bibliothécaires de droit, les juges, les avocats, les administrateurs, les parajuristes, les greffiers, les professeurs et les étudiants. Le public et d’autres utilisateurs, comme les législateurs ou décideurs, peuvent également trouver des informations utiles dans ce guide.
Les utilisateurs doivent savoir ce qu’ils doivent rechercher et ce qu’ils doivent demander par rapport aux applications d’IA conçues pour aider à la RRJ. À savoir :
Pour les utilisateurs qui évaluent un système particulier à des fins d’approvisionnement ou autres, un encadré est présenté à la fin de chaque section afin de leur permettre d’attribuer un pointage en fonction des critères et d’ajouter des notes. Un tableau récapitulatif des pointages figure également à la fin du document, permettant ainsi aux utilisateurs d’obtenir des résultats pondérés. Un tableur Excel a aussi été conçu dans le but d’accompagner ce guide.
Les renseignements que renferme le présent guide ne sont donnés qu’à titre informatif aux utilisateurs et fournisseurs d’IA. Ils ne constituent nullement des conseils juridiques. Toute personne utilise les produits d’IA à ses propres risques et doit faire preuve de diligence raisonnable pour déterminer toute responsabilité liée à leur utilisation. Les personnes ayant contribué à la rédaction du présent guide n’offrent aucune garantie quant à l’exactitude et à la fiabilité des renseignements présentés ni quant à tout autre contenu connexe fourni.
Ce guide vise à compléter d’autres lignes directrices et pratiques exemplaires qui peuvent être fournies dans les instructions relatives à la pratique, les règles de déontologie, les lois, les normes, les critères et les politiques.
Il ne prétend pas aborder tous les enjeux de nature éthique possibles liés aux systèmes d’IA, comme les préoccupations relatives à l’environnement, les droits de la personne, etc. Les utilisateurs sont invités à se renseigner sur ces questions.
[Traduction] mathématiques et informatique. Une procédure ou un ensemble de règles utilisés dans le calcul et la résolution de problèmes ; un ensemble d’opérations mathématiques ou logiques clairement défini permettant d’exécuter une tâche particulière. 2
Intelligence artificielleLa technologie de l’information qui exécute des tâches pour lesquelles il faut habituellement faire appel à l’intelligence biologique, comme comprendre le langage parlé, apprendre des comportements ou résoudre des problèmes 3.
Système d’intelligence artificielle (système d’IA) 4Un système d’intelligence artificielle est tout système informatique utilisant des algorithmes d’intelligence artificielle5.
DonnéesRenseignements structurés et non structurés qui sont recueillis, stockés et analysés pour faciliter la prise de décision.
Étiquetage des données :
[Traduction] Dans le domaine du machine learning, l’étiquetage des données est le processus consistant à identifier des données brutes (images, fichiers texte, vidéos, etc.) et à ajouter une ou plusieurs étiquettes informatives et pertinentes pour apporter du contexte qui va renseigner le modèle de machine learning. Les étiquettes peuvent, par exemple, indiquer si une photo contient un oiseau ou une voiture, quels mots ont été prononcés dans un enregistrement audio ou si une radiographie comporte une tumeur. L’étiquetage des données est nécessaire pour divers cas d’utilisation, notamment la vision par ordinateur, le traitement automatique des langues naturelles et la reconnaissance de la parole6.
Aussi connu sous les termes « barrière de l’information » et « pare-feu », il s’agit de sauvegardes procédurales utilisées par les organisations afin d’empêcher l’échange de renseignements confidentiels entre des services, des équipes ou des personnes dont les interactions pourraient entraîner un conflit d’intérêts ou un manquement à l’éthique. Ces barrières sont conçues pour protéger les renseignements confidentiels, maintenir la confidentialité avec les clients et préserver l’intégrité des pratiques professionnelles en veillant à ce que seul le personnel autorisé ait accès à certains renseignements.
Modèles de fondation[Traduction] Les modèles de fondation sont des modèles d’intelligence artificielle (IA) entraînés sur un ensemble de données très vaste et varié et peuvent accomplir un large éventail de tâches générales. Ils servent d’éléments de base ou de composantes à la création d’applications plus spécialisées.7
IA générativeL’intelligence artificielle générative (IA générative) fait partie d’un sous-ensemble de l’IA qui utilise des modèles avancés pour générer de nouveaux contenus comme du texte, des images, des vidéos et des fichiers audio sur la base d’entrées utilisateur. Ces modèles, qui sont habituellement des algorithmes d’apprentissage profond, apprennent des modèles et des structures à partir de vastes bases de données et utilisent ces connaissances pour générer du contenu original.
HallucinationUne réponse d’IA générative est considérée comme une hallucination lorsqu’elle est incorrecte ou infondée. En d’autres mots, on dit qu’un système d’IA hallucine s’il fait une fausse déclaration ou affirme à tort qu’une source appuie une déclaration8 [traduction libre].8
Grands modèles de langage (LLM)[Traduction] Un algorithme d’apprentissage profond qui utilise des quantités massives de paramètres et de données d’entraînement pour comprendre et prédire du texte. Ces modèles sont basés sur l’intelligence artificielle générative et peuvent effectuer diverses tâches de traitement du langage naturel en dehors de la simple génération de texte, notamment la révision et la traduction de contenu. Les LLM visent à produire le résultat le plus probable pour un mot donné9."
Apprentissage automatique (machine learning) (ML)L’apprentissage automatique est une branche de l’intelligence artificielle qui vise à permettre aux ordinateurs et aux machines d’imiter la façon dont les humains apprennent, de réaliser des tâches de manière autonome et d’améliorer leur rendement et leur précision grâce à l’expérience acquise et en étant exposés à de nouvelles données10.
Apprentissage semi-supervisé
“« Apprentissage machine qui utilise à la fois des données étiquetées et des données non étiquetées durant l’entraînement 11."
Apprentissage supervisé
“Apprentissage machine qui utilise uniquement des données étiquetées durant l’entraînement”12."
Apprentissage non supervisé
[Traduction] Des algorithmes d’apprentissage automatique sont utilisés pour analyser et regrouper des ensembles de données non étiquetées. Ceux-ci identifient des modèles cachés dans les données sans intervention humaine (d’où le terme « non supervisé »)13.
“L’apprentissage par renforcement (RL) est une technique de machine learning qui entraîne les logiciels à prendre des décisions en vue d’obtenir les meilleurs résultats. Elle imite le processus d’apprentissage par tâtonnements employés par les êtres humains pour atteindre leurs objectifs. Les actions logicielles qui contribuent à la réalisation de votre objectif sont renforcées, tandis que les actions qui nuisent à celle-ci sont ignorées14."
ModèleUn modèle d’IA est un programme qui analyse des données afin d’identifier des schémas ou d’effectuer des prédictions15.
Traitement du langage naturel (NLP)“Le traitement automatique du langage naturel (NLP) est un sous-domaine de l’informatique et de l’intelligence artificielle qui utilise le machine learning pour permettre aux ordinateurs de comprendre et de communiquer en langage humain16."
Requête(Voir également Entrée utilisateur.)
RésultatsRésultat produit par un système d’IA en réponse à une requête.
Génération améliorée par récupération d’information (GARI)La GARI est une technique d’intelligence artificielle qui peut améliorer la qualité des résultats générés par l’IA générative en permettant aux grands modèles de langage d’accéder à des ensembles de données spécialisés (p. ex., des bases de données juridiques primaires ou secondaires) en dehors de leurs sources de données d’apprentissage.
Entrée utilisateurInstructions ou données fournies par un utilisateur à un système d’IA et que celui-ci utilise pour générer des résultats 17 (Voir également Requête.)
FournisseurUne personne physique ou morale, une autorité publique, une agence ou tout autre organisme qui commercialise ou fournit l’accès à un système d’IA.18
Tous les documents relatifs à la commercialisation et aux produits doivent être rédigés dans un langage clair.
Commercialisation
Les déclarations faites dans le cadre de la commercialisation doivent être véridiques, exactes et transparentes. Elles doivent refléter de manière réaliste les avantages et les risques présentés par le produit.
Lorsque des résultats d’enquêtes sont utilisés pour commercialiser le produit, les fournisseurs doivent communiquer les questions posées et la méthodologie utilisée.
Documents destinés aux utilisateurs éventuels
Les fournisseurs doivent mettre à la disposition des utilisateurs éventuels des documents qui décrivent de manière transparente tous les aspects du système d’IA, comme indiqué dans le présent guide.
Documents destinés à aider les utilisateurs abonnés
Les fournisseurs doivent mettre à la disposition des utilisateurs abonnés des documents qui décrivent de manière transparente tous les aspects du système d’IA, comme indiqué dans le présent guide.
En outre, les utilisateurs abonnés doivent avoir accès à des conseils sur l’utilisation du produit.
Les documents et conseils doivent être accessibles à partir du produit (p. ex., une page d’aide).
Les documents doivent décrire les types de soutien offerts à l’utilisateur comme, entre autres, un service de soutien en temps réel fourni par une vraie personne.
Pointage lié aux Documents sur la commercialisation et les produits : 0 à 5 (0 - le produit ne répond pas du tout aux exigences ; 5 - meilleur pointage possible.)
Notes:
Les utilisateurs doivent être conscients que la plupart, voire la totalité, des applications d’IA pour la RRJ sont créées sur des modèles de fondation entraînés sur le réseau ouvert Internet. Les applications de RRJ doivent être conçues sur une collecte transparente de sources d’informations juridiques. Les fournisseurs doivent fournir des renseignements clairs sur les points suivants :
1. Quelles sont les sources de données utilisées par le système d’IA ? En voici des exemples :
2. La portée de chaque ensemble de données est-elle fournie ? Elle doit au minimum inclure, le cas échéant :
3. Quelles données ne sont PAS incluses dans la production des résultats ? Par exemple, l’IA utilise-t-elle ou non certains contenus d’abonnés ? Les contenus de non-abonnés sont-ils exclus ?
4. Les différents services proposés dans le cadre du produit précisent-ils également la portée des données (telle que décrite ci-dessus) sur lesquelles chaque service est entraîné et à partir desquelles les résultats sont produits ?
5. Des normes de qualité des données ont-elles été établies et consignées ?
BiaisQuelles sont les mesures prises, s’il y a lieu, pour atténuer les biais provenant de sources de données ? Voir également la section Biais ci-dessous.
Pointage lié à la Transparence des données 0 à 5 (0 - le produit ne répond pas du tout aux exigences ; 5 - le meilleur résultat possible.)
Notes:
Les données sur lesquelles un système d’IA a été entraîné ont une incidence sur la précision, la validité et la pertinence des résultats produits par l’IA. Les fournisseurs doivent divulguer les données utilisées par leurs outils, ainsi que les mécanismes de contrôle de la qualité mis en place pour évaluer les résultats et prévenir les erreurs. Lorsque ces renseignements ne sont pas connus par les modèles de fondation, le fournisseur doit clairement l’indiquer. Les renseignements portant sur ces points doivent inclure :
1. Sur quelles données l’IA est-elle entraînée ? Par exemple, les données d’entraînement sont-elles limitées au contenu des bases de données juridiques (si oui, lesquelles) ou proviennent-elles de ressources externes ou du réseau ouvert Internet ? L’utilisateur peut-il connaître toutes les sources utilisées pour l’entraînement ? Quelles lacunes ont été identifiées dans les données d’entraînement qui pourraient contribuer à des hallucinations ou à des résultats anormaux ?
2. L’utilisateur a-t-il été prévenu que des hallucinations ou des résultats incomplets ou non pertinents pourraient découler de lacunes dans les données d’entraînement spécialisées ?
3. Les entrées des utilisateurs sont-elles utilisées comme données pour entraîner le système d’IA ? Si oui, les données sont-elles anonymisées ou dépersonnalisées ? Le fournisseur offre-t-il la possibilité de refuser ?
4. Les résultats du système d’IA sont-ils utilisés pour l’entraîner ?
5. L’étiquetage des données a-t-il été effectué par des humains, par un autre système d’IA ou par une combinaison des deux ? Décrivez tout processus, toute norme ou toute politique ayant trait au processus d’étiquetage.
Biais
Quelles sont les mesures prises, s’il y a lieu, pour atténuer les biais provenant des données d’entraînement et des processus d’entraînement ? Voir également la section Biais ci-dessous.
Pointage lié aux Données utilisées pour l’entraînement : 0 à 5 (0 - le produit ne répond pas du tout aux exigences ; 5 - le meilleur résultat possible.)
Notes:
Les fournisseurs doivent fournir une description détaillée du système d’IA, notamment les éléments décrits ci-dessous. Lorsque ces renseignements ne sont pas connus pour les modèles de fondation, le fournisseur doit clairement l’indiquer.
Algorithmes
Sur quelles méthodes et quels algorithmes reposent l’entraînement et le fonctionnement du système d’IA (p. ex., traitement du langage naturel, GARI, type d’apprentissage [p. ex., apprentissage semi-supervisé], modèles de transformateurs, etc.) ? Voici des exemples de questions connexes à poser :
1. Comment fonctionnent les algorithmes ?
a. De quelle manière les algorithmes hiérarchisent-ils le contenu des ensembles de données dans la production des résultats ? Par exemple :
i. Les décisions judiciaires sont-elles hiérarchisées en fonction de leur valeur de précédent, du traitement judiciaire, de la compétence et/ou du niveau, de leur récence, de leur fréquence de citation, etc. ?
ii. De quelle manière le système d’IA hiérarchise-t-il les sources primaires par rapport aux sources secondaires, lorsque ces dernières sont incluses dans les données ?
b. De quelle manière les algorithmes déterminent-ils la pertinence des sources dans la production des résultats ? Par exemple :
i. Peuvent-ils analyser les faits afin de déterminer si et dans quelle mesure un cas spécifique s’applique à une situation juridique donnée, et si oui, comment procèdent-ils ?
ii. Comment interprètent-ils les sources comme les décisions judiciaires, les lois et les mots précis qui y figurent ?
iii. De quelle manière le contenu rédactionnel, la classification et le balisage de propriété exclusive affectent-ils la pertinence ?
iv. De quelle manière les sources secondaires sont-elles hiérarchisées, y compris celles comportant des points de vue contradictoires de différents auteurs et des résultats d’études contradictoires ?
2. Comment sont entraînés les algorithmes ? Par exemple :
a. Apprentissage supervisé, non supervisé, semi-supervisé, par renforcement, ou une combinaison de ceux-ci ?
b. Quel est le processus d’entraînement ? Quelles sont les normes d’examen ? Quel est le degré de profondeur de l’examen ?
c. Dans quelle mesure et de quelle manière de vraies personnes sont-elles impliquées ? Par exemple :
i. Sont-ils avocats, experts en la matière, analystes de données ou autres ?
ii. Quelles sont les méthodes utilisées pour minimiser les erreurs ?
3. Sur quels produits de tiers ou d’IA le système d’IA repose-t-il (p. ex., GPT-5, DeepSeek) ? Dans quelle mesure le produit tiers est-il entraîné sur des données spécialisées ou spécifiques à un sujet ?
a. À quel moment et dans quelle mesure l’algorithme s’appuie-t-il sur un entraînement par des tiers plutôt que sur un entraînement local ou spécialisé ?
b. Le système d’IA repose-t-il sur plusieurs produits tiers ? Combien de produits et quels sont-ils ?
c. Fait-il davantage appel à un produit tiers qu’à un autre ? Dans quelle mesure et dans quelles situations ?
Pointage lié à la Transparence des algorithmes : 0 à 5 (0 - le produit ne répond pas du tout aux exigences ; 5 - meilleur pointage possible.)
Notes:
Facteurs liés aux résultats
Les fournisseurs doivent faire preuve de transparence quant à la manière dont les résultats du système d’IA sont testés, notamment :
1. En quoi consiste un résultat adéquat par rapport à un résultat inadéquat ?
a. Quelles sont les mesures de contrôle de la qualité mises en place pour garantir un résultat adéquat ?
b. De quelle manière détermine-t-on si le résultat est adéquat ? Qui est responsable de cette décision ?
c. Le contrôle de la qualité est-il continu ? À quelle fréquence les résultats sont-ils testés ?
d. À quelle fréquence les mesures de contrôle de la qualité sont-elles révisées et mises à jour ?
e. Que se passe-t-il lorsqu’un résultat est jugé inadéquat ?
f. À quel moment et de quelle manière les algorithmes ou systèmes d’IA sont-ils mis à jour lorsque les résultats sont jugés inadéquats ? Quelles sont les mesures prises entre la découverte d’un résultat insuffisant et la mise à jour suffisante de l’algorithme ou du système d’IA ? Par exemple :
i. À quelle fréquence les contrôles de la qualité sont-ils effectués ? Qui les exécute et avec quel niveau d’expertise ?
ii. Quel est le niveau ou le type de problème qui déclenche une mise à jour ou une révision des algorithmes ou du système d’IA ?
iii. Quel niveau ou type de problème entraîne une suspension temporaire du système d’IA ? Quand et comment les utilisateurs sont-ils informés des problèmes actuels ou passés (y compris ceux signalés par d’autres utilisateurs) ?
g. Que doit faire un utilisateur lorsqu’il constate un résultat inadéquat ? (Par exemple, le fournisseur sollicite-t-il les commentaires des utilisateurs ?)
2. Les outils de test et les résultats des tests sont-ils accessibles ? À quelle date ont-ils été réalisés ? Dans quelle mesure les résultats des tests reflètent-ils la configuration actuelle du système ?
Pointage lié aux Facteurs liés aux résultats : 0 à 5 (0 - le produit ne répond pas du tout aux exigences ; 5 - meilleur pointage possible.)
Notes:
Hallucinations
Pour les systèmes d’IA générative :
1. De quelle manière le fournisseur définit-il les hallucinations ? Existe-t-il des types d’hallucinations qui ne sont pas reconnus par le fournisseur ? Voir, par exemple, notre définition de l’hallucination ci-dessus.
2. Le fournisseur précise-t-il que des hallucinations sont possibles ? Si oui, de quels types ?
3. Quel pourcentage des résultats est hallucinatoire ? Ce pourcentage varie-t-il en fonction du type de requête ou de tâche demandée à l’IA (et si oui, comment) ? Ce pourcentage varie-t-il en fonction du type d’hallucination en question (et si oui, comment) ?
4. Quels sont les contrôles mis en place pour prévenir les hallucinations ?
5. Que doit faire un utilisateur lorsqu’une hallucination est identifiée (p. ex., le fournisseur sollicite-t-il les commentaires de ses utilisateurs sur les cas d’hallucinations) ?
Biais
1. Quelles mesures ont été prises pour créer des algorithmes qui réduisent et éliminent les biais et la discrimination ?
2. Dans quelle mesure et de quelle manière les vraies personnes participent-elles à la réduction et à l’élimination des biais dans les algorithmes, les données et les résultats ?
Voir également la section Biais ci-dessous.
Pointage lié aux Hallucinations 0 à 5 (0 - le produit ne répond pas du tout aux exigences ; 5 - meilleur pointage possible.)
Notes:
1. Le produit comporte-t-il des instructions pour conseiller les utilisateurs sur la manière d’interagir efficacement avec le système d’IA (p. ex., les meilleures pratiques pour formuler des requêtes) ?
2. Le matériel de formation et les documents sont-ils offerts dans divers formats (p. ex., vidéos, tutoriels interactifs, listes de vérification, guides) ?
3. La compétence est-elle clairement mentionnée dans l’interaction (p. ex., par une requête particulière ou des options de préfiltrage ou de postfiltrage) ?
4. Le système d’IA permet-il aux utilisateurs de créer des profils réutilisables ou partageables sur leurs comptes ?
5. Le système d’IA permet-il aux utilisateurs de créer des bibliothèques de requêtes ou d’enregistrer ou de réutiliser les entrées utilisateur ?
6. Le système d’IA fournit-il des renseignements sur d’autres cas ou questions connexes à explorer ?
7. Le système d’IA apprend-il à partir des entrées utilisateur (p. ex., à partir des requêtes, des commentaires des utilisateurs sur les résultats, etc.) ? Si oui, comment ?
Pointage lié aux Entrées utilisateur, requêtes et ingénierie de requêtes : 0 à 5 (0 - le produit ne répond pas du tout aux exigences ; 5 - meilleur pointage possible.)
Notes:
Crédibilité des résultats
1. De quelle manière le système d’IA réagit-il s’il ne peut pas produire de résultat ? L’IA indique-t-elle clairement qu’elle ne peut pas fournir de résultat, affiche-t-elle un message d’erreur ou génère-t-elle toujours un résultat ?
2. Un indicateur de confiance est-il fourni ? Si oui, comment est-il calculé ?
Attribution des résultats de l’IA générative19
Le fournisseur fournit-il suffisamment de renseignements pour citer les résultats générés par l’IA, compte tenu des exigences des barreaux, des directives pratiques des tribunaux, etc., en matière d’attribution des résultats générés par l’IA ?
Sources de références
1. Les références sont-elles systématiquement fournies20 Si ce n’est pas le cas, un rappel ou un indicateur est-il fourni pour inciter les utilisateurs à vérifier les résultats ?
2. Les sources sont-elles objectivement reconnaissables et vérifiables ?
Voir également la section Transparence des algorithmes – Biais
Pointage lié aux Résultats 0 à 5 (0 - le produit ne répond pas du tout aux exigences ; 5 - meilleur pointage possible.)
Notes:
1. Le matériel de formation, les conditions d’utilisation, les rappels ou les avertissements du système comprennent-ils les éléments suivants ?
a. Une mention indiquant que les résultats doivent être vérifiés par l’utilisateur, étant donné que :
i. Les résultats ne sont pas exhaustifs ou documentés ;
ii. Les résultats dépendent en partie des données fournies par l’utilisateur ;
iii. Les résultats peuvent varier en fonction des modifications apportées à l’algorithme, des mises à jour des données ou de l’apprentissage supplémentaire du système.
b. Une déclaration des responsabilités professionnelles, y compris le niveau de responsabilité du fournisseur ou son rôle dans ce domaine.
c. Les utilisateurs devront-ils payer pour chaque recherche ? Si oui, les organisations peuvent-elles demander l’affichage d’un portail payant afin d’éviter des frais accessoires ?
2. Le fournisseur fournit-il des documents démontrant le respect des lois et des règlements applicables à ce système d’IA ?
Pointage lié à la Gestion des risques connexes : 0 à 5 (0 - le produit ne répond pas du tout aux exigences ; 5 - meilleur pointage possible.)
Notes:
1. Le fournisseur explique-t-il comment les données de l’utilisateur seront utilisées et protégées, notamment :
a. Quels sont les types de données recueillies (p. ex., requêtes, entrées utilisateur, adresses IP, renseignements personnels [nom, organisation, courriel, microphone ou caméra, etc.]) ? Si des données peuvent être obtenues à partir d’un microphone ou d’une caméra, est-il possible de désactiver ces fonctionnalités ?
b. À quelles fins serviront les données de l’utilisateur (p. ex., vente à des tiers, mesures internes) ?
c. Qui est « propriétaire » des données de l’utilisateur une fois qu’elles ont été recueillies ?
d. Le système d’IA apprend-il à partir des entrées utilisateur ? Si oui, les données sont-elles anonymisées ou dépersonnalisées ? Le fournisseur offre-t-il la possibilité de refuser ?
e. Qui peut accéder aux entrées utilisateur (p. ex., le personnel informatique du fournisseur ou des développeurs tiers en LLM) ?
i. Quelles sont les restrictions d’accès aux données de l’utilisateur ?
f. Quelle est la politique de conservation des données pour les entrées utilisateur et les résultats ?
g. Quelle est la politique de conservation des données pour le contenu téléchargé ?
h. L’utilisateur peut-il demander la suppression de ses données ou une suppression manuelle est-elle possible ?
i. Quel est le pays d’hébergement des serveurs ?
j. Par quels pays transitent les données de l’utilisateur ?
k. De quelle manière les données reçues sous forme de commentaires des utilisateurs sont-elles protégées ?
l. De quelle manière le fournisseur définit-il la violation des données ?
m. De quelle manière le fournisseur surveille-t-il les violations des données ?
n. Le risque de violation des données a-t-il été évalué et, si oui, comment ce risque est-il mesuré? 21
o. De quelle manière les utilisateurs seront-ils informés en cas de violation des données ?
2. Pour les systèmes d’IA qui s’intègrent à d’autres applications ou logiciels, y compris, mais sans s’y limiter :
a. les suites bureautiques telles que Microsoft Office ou Google Workspace ;
b. les systèmes de gestion de documents ;
c. les outils de facturation et de finance.
Le fournisseur explique-t-il dans quelle mesure et/ou comment les murs éthiques ou autres mécanismes de conflit ou de sécurité seront transférés afin de veiller à ce que les utilisateurs ne puissent voir que le contenu auquel ils sont autorisés à accéder ? À quelle fréquence les murs éthiques ou autres mécanismes de conflit ou de sécurité seront-ils synchronisés entre les systèmes ?
Lorsque les murs éthiques ou autres mécanismes de conflit ou de sécurité ne peuvent pas être transférés, l’outil permet-il la mise en place de mesures de sécurité personnalisées ? De quelle manière sont-elles gérées ?
Pointage lié à la Confidentialité : 0 à 5 (0 - le produit ne répond pas du tout aux exigences ; 5 - meilleur pointage possible.)
Notes:
1. Existe-t-il une politique régissant l’utilisation des données protégées par le droit d’auteur utilisées par le système d’IA ?
2. Existe-t-il une politique régissant le téléchargement par les utilisateurs de contenus protégés par le droit d’auteur vers le système d’IA ?
3. Quelles sont les mesures prises par le fournisseur pour protéger les utilisateurs contre toute violation involontaire du droit d’auteur lors de l’utilisation de contenus produits par le système d’IA ?
4. Le fournisseur confirme-t-il que les éléments protégés par le droit d’auteur ont été utilisés avec autorisation ? Lorsque ces renseignements ne sont pas connus par les modèles de fondation, le fournisseur doit clairement l’indiquer.
5. Les citations ou les attributions sont-elles mises à la disposition des utilisateurs en même temps que les résultats ?
6. Le fournisseur autorise-t-il les auteurs et les fournisseurs de contenu sous licence à refuser que leur contenu soit utilisé par des systèmes d’IA ?
Pointage lié au Droit d’auteur 0 à 5 (0 - le produit ne répond pas du tout aux exigences ; 5 - meilleur pointage possible.)
Notes:
1. Le fournisseur reconnaît-il l’existence de biais dans le système d’IA et le risque de perpétuer ou d’aggraver ces biais ?
2. Quelles sont les mesures prises par le fournisseur pour mettre en évidence ou atténuer les biais dans le système d’IA ? Lorsque ces renseignements ne sont pas connus par les modèles de fondation, le fournisseur doit clairement l’indiquer. Par exemple :
a. Le fournisseur avertit-il les utilisateurs que les résultats peuvent être basés sur des données d’entraînement ou des algorithmes biaisés ?
b. Le fournisseur fait-il preuve de transparence quant à la manière dont les sources sont classées ou hiérarchisées ? L’IA présente-t-elle des points de vue différents quant aux autorités sur lesquelles elle s’appuie et/ou qu’elle cite, en particulier en ce qui concerne les sources secondaires ?
c. Le fournisseur identifie-t-il les mesures prises ou les garde-fous technologiques mis en place pour minimiser les biais algorithmiques ?
d. Le fournisseur donne-t-il des renseignements sur la manière dont il inclut, le cas échéant, des groupes diversifiés dans le développement et les tests de ses produits ?
e. À quel moment et de quelle manière les algorithmes ou systèmes sont-ils mis à jour lorsque les résultats s’avèrent problématiques ? Quelles sont les mesures prises entre la découverte d’un résultat problématique et la mise à jour suffisante de l’algorithme ou du système ? Par exemple :
- À quelle fréquence les contrôles de la qualité sont-ils effectués ? Qui les exécute et avec quel niveau d’expertise ?
- Quel est le niveau ou le type de problème qui déclenche une mise à jour ou une révision des algorithmes ou du système ?
Quel niveau ou type de problème entraîne une suspension temporaire du système d’IA ? Quand et comment les utilisateurs sont-ils informés des problèmes actuels ou passés (y compris ceux signalés par d’autres utilisateurs) ?
3. Le fournisseur garantit-il que le système d’IA respecte toutes les exigences législatives et réglementaires et se conforme aux normes internationales pertinentes ?
4. Le système d’IA bloque-t-il certaines requêtes ? Si oui, dans quelles circonstances ?
Les utilisateurs doivent être particulièrement vigilants quant aux biais des outils qui prétendent discerner les caractéristiques subjectives d’un document, par exemple la véracité, le ton et le sarcasme.
Voir également les sections suivantes :
Transparence des algorithmes – Biais
Transparence des données – Biais
Pointage lié aux Biais 0 à 5 (0 - le produit ne répond pas du tout aux exigences ; 5 - meilleur pointage possible.)
Notes:
1. Le fournisseur dispose-t-il d’une politique publique, tant pour les auteurs que pour les commentaires générés à l’interne, concernant l’utilisation de l’IA dans la création, la mise à jour ou la modification de produits de commentaires ?
2. L’éditeur indique-t-il clairement comment l’IA est utilisée dans la création, la mise à jour ou la modification de produits de commentaires ?
3. Dans de telles situations, comment l’utilisation de l’IA est-elle attribuée ? Voir, par exemple : COAL-RJAL Editorial Group, Canadian Open Access Legal Citation Guide /Guide canadien de la référence juridique en accès libre (RJAL) Institut canadien d’information juridique, 2024 CanLIIDocs 830, en ligne : https://canlii.ca/t/7nc6q section 8.
Pointage lié aux Commentaires juridiques générés par l’IA : 0 à 5 (0 - le produit ne répond pas du tout aux exigences ; 5 - meilleur pointage possible.)
Notes:
| Critères | Pointage | Pondération |
|---|---|---|
| Documents sur la commercialisation et les produits | ||
| Transparence des données | ||
| Données utilisées pour l’entraînement (données d’entraînement) | ||
| Transparence des algorithmes | ||
| Entrées utilisateur, requêtes et ingénierie de requêtes | ||
| Résultats | ||
| Gestion des risques connexes | ||
| Confidentialité | ||
| Droit d’auteur | ||
| Biais | ||
| Commentaires juridiques générés par l’IA |
1 Par exemple, les barreaux de l’Alberta, de la Colombie-Britannique, du Manitoba, de l’Ontario, de Terre-Neuve-et-Labrador, des Territoires du Nord-Ouest, de la Nouvelle-Écosse, de l’Île-du-Prince-Édouard, du Québec et de la Saskatchewan ont publié des directives sur l’utilisation de l’IA. Le gouvernement du Canada a publié son Code de conduite volontaire sur le développement et la gestion responsable des systèmes d’IA générative avancée (Innovation, Sciences et Développement économique Canada, septembre 2023), en ligne : : https://ised-isde.canada.ca/site/isde/fr/code-conduite-volontaire-visant-developpement-gestion-responsables-systemes-dia-generative-avances [perma.cc/EAF7-QP8R].
2 Oxford English Dictionary, (dernière consultation le 4 septembre 2025), en ligne : https://www.oed.com/dictionary/algorithm_n?tab=meaning_and_use&tl=true [perma.cc/8FR9-P94S].
3Secrétariat du Conseil du Trésor du Canada, Directive sur la prise de décisions automatisée (dernière modification le 25 avril 2023), en ligne : https://www.tbs-sct.canada.ca/pol/doc-eng.aspx?id=32592#appA. [perma.cc/NCS8-NHYJ].
4 Étant donné que ce document examine une variété de produits d’IA reposant sur différentes technologies, nous utilisons le terme « système d’IA » à moins qu’un sujet ne traite d’un type particulier de modèle d’IA.
5 Définition tirée de La Déclaration de Montréal pour un développement responsable de l’intelligence artificielle (Université de Montréal, 2018), en ligne : https://declarationmontreal-iaresponsable.com/wp-content/uploads/2023/01/UdeM_Decl_IA_Resp_LA_Declaration_FR_web_4juin2019.pdf> [perma.cc/WX8P-UD9E].
6 Amazon Web Services, « Qu’est-ce que l’étiquetage des données ? » (dernière consultation le 7 mars 2025), en ligne : https://aws.amazon.com/what-is/data-labeling/#:~:text=In%20machine%20learning%2C%20data%20labeling,model%20can%20learn%20from%20it [perma.cc/YDB9-W6DH].
7 Rina Diane Caballar, « What are foundation models? » (dernière consultation le 26 août 2025), en ligne : https://www.ibm.com/think/topics/foundation-models [perma.cc/8ET5-FUHF].
8 Varun Magesh et al., « Hallucination-Free ? Assessing the Reliability of Leading Ai Legal Research Tools » (2025) J Empirical Leg Stud 1, en ligne : https://doi.org/10.1111/jels.12413 at 8.
9 Britannica « large language model » (last accessed 28 February 2025), en ligne : (2025). https://www.britannica.com/topic/large-language-model [perma.cc/R7G4-YYSV].
10 Adapté du site IBM, « Qu’est-ce que le machine learning ? » (dernière consultation le 28 février 2025), en ligne : https://www.ibm.com/think/topics/machine-learning [perma.cc/J7FH-M3YQ] et UC Berkeley School of Information, « What is Machine Learning (ML)? » (26 juin 2020), en ligne : https://ischoolonline.berkeley.edu/blog/what-is-machine-learning [perma.cc/PST3-K73E].
11 ISO/IEC, Concepts et terminologie relatifs à l’intelligence artificielle, ISO/IEC 22989:2022(fr) ) https://www.iso.org/obp/ui/fr/#iso:std:iso-iec:22989:ed-1:v1:fr . [perma.cc/3CRX-Y96Z].
12 Idem
13 IBM, « Supervised versus unsupervised learning: What’s the difference? » (dernière consultation le 7 mars 2025), en ligne : https://www.ibm.com/think/topics/supervised-vs-unsupervised-learning. [perma.cc/G2WL-39CR].
14 Amazon Web Services, « Qu’est-ce que l’apprentissage par renforcement ? » (dernière consultation le 14 mars 2025), en ligne : https://aws.amazon.com/what-is/reinforcement-learning [perma.cc/8N52-U3YR].
1515 Adapté du site IBM, « Qu’est-ce qu’un modèle IA ? » (dernière consultation le 7 mars 2025), en ligne : https://www.ibm.com/fr-fr/think/topics/ai-model#:~:text=Un%20mod%C3%A8le%20IA%20d%C3%A9signe%20un,d%C3%A9cisions%20sans%20intervention%20humaine%20ult%C3%A9rieure [perma.cc/T6BK-39W9].
16 IBM, « Qu’est-ce que le NLP ? » (dernière consultation le 14 mars 2025), en ligne : https://www.ibm.com/fr-fr/think/topics/natural-language-processing [perma.cc/5TBQ-W3LL].
17 Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle et modifiant les règlements (CE) n° 300/2008, (UE) n° 167/2013, (UE) n° 168/2013, (UE) 2018/858, (UE) 2018/1139 et (UE) 2019/2144 et les directives 2014/90/UE, (UE) 2016/797 et (UE) 2020/1828 PE/24/2024/REV/1 JO L, 2024/1689, 12.7.2024 (en vigueur le 1er août 2024), en ligne : https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=OJ%3AL_202401689 [perma.cc/26Y7-HQ4L]. [EU Act].
18 Adapté de la définition de « déployeur » dans la Loi de l’UE, idem.
19 Certaines directives de pratique des tribunaux et autres lignes directrices exigent une attribution claire lorsque l’IA est utilisée pour générer du contenu. Les questions recommandées ci-dessous sont destinées à aider à répondre à ces exigences. Voir, par exemple, Directive de pratique Objet : Utilisation de l’intelligence artificielle dans les documents judiciaires, (Cour du Banc du Roi du Manitoba, 23 juin 2023), en ligne : https://https://www.manitobacourts.mb.ca/site/assets/files/2045/practice_direction_-_use_of_artificial_intelligence_in_court_submissions_fr.pdf [perma.cc/X4DY-595A] et Avis aux parties et à la communauté juridique : L’utilisation de l’intelligence artificielle dans les instances judiciaires (Cour fédérale du Canada, 7 mai 2024), en ligne : https://www.fct-cf.gc.ca/Content/assets/pdf/base/FC-Updated-AI-Notice-FR.pdf [perma.cc/F54B-N29G]. COAL-RJAL Editorial Group, Canadian Open Access Legal Citation Guide /Guide canadien de la référence juridique en accès libre (RJAL) Institut canadien d’information juridique, 2024 CanLIIDocs 830, en ligne : https://canlii.ca/t/7nc6q, (version française à venir). Présente des exemples de citations à utiliser lorsque les utilisateurs citent des résultats générés par l’IA.
20 Certains chercheurs qualifient les résultats présentés sans source pour appuyer une affirmation de « résultats non fiables ». Voir, par exemple, Magesh et al, supra note 8, pages 6, 7 et 27.
21 Voir, par exemple, Commissariat à la protection de la vie privée du Canada, « Évaluer si une atteinte à la vie privée présente un risque réel de préjudice grave pour un individu (dernière consultation le 11 août 2025), en ligne : https://www.priv.gc.ca/fr/sujets-lies-a-la-protection-de-la-vie-privee/protection-des-renseignements-personnels-pour-les-entreprises/atteintes-et-mesures-de-securite/atteintes-a-la-vie-privee-dans-votre-entreprise/rrdpg-outil/ [perma.cc/RX5N-Z6NG].
Le codage de ce site Web a été partiellement généré par Microsoft Co-Pilot™.
Dernière mise à jour par ADemers le 7 novembre 2025.