Avis de la CNCDH du 7 avril 2022 relatif à l'impact de l'intelligence artificielle sur les droits fondamentaux (A - 2022 - 6) (JO 17/04/2022)
Lien Legifrance
Le présent avis a été adopté à l'unanimité de l'assemblée plénière de la Commission nationale consultative des droits de l'homme (CNCDH).
Résumé
"Alors que les recherches sur l'intelligence artificielle (IA) et la mise en œuvre de ses applications pratiques se développent, la réglementation actuelle demeure lacunaire pour endiguer les atteintes possiblement majeures aux droits fondamentaux. Dans le contexte de l'adoption prochaine de la proposition de règlement de l'UE sur le sujet, et des travaux en cours au sein du Conseil de l'Europe, la CNCDH invite les pouvoirs publics à promouvoir un encadrement juridique ambitieux en la matière.
Elle recommande, d'une part, d'interdire certains usages de l'IA jugés trop attentatoires aux droits fondamentaux, tels que le scoring social ou l'identification biométrique à distance des personnes dans l'espace public et les lieux accessibles au public. D'autre part, elle recommande de faire peser sur les utilisateurs d'un système d'IA des exigences en mesure de garantir le respect des droits fondamentaux : une étude d'impact, une consultation des parties prenantes, une supervision du système tout au long de son cycle de vie. La CNCDH appelle enfin à reconnaître des droits aux personnes ayant fait l'objet d'une décision impliquant un algorithme, notamment le droit à une intervention humaine dans le processus de décision, ou encore un droit au paramétrage des critères de fonctionnement du système d'IA."
Synthèse des recommandations
1 : Privilégier, dans la communication institutionnelle, une terminologie plus neutre et objective que l'expression « intelligence artificielle », telle que « systèmes algorithmiques d'aide à la décision » (SAAD).
2 : Renforcer, au sein de la proposition de règlement de l'Union européenne relatif à l'IA, les dispositions propres à assurer la mise en place d'un cadre juridique contraignant, garant du respect effectif des droits fondamentaux. De surcroît, la CNCDH recommande l'adoption, dans le cadre du Conseil de l'Europe, d'une « Convention 108+ de l'IA ».
3 : Prendre en compte une approche fondée sur les droits de l'Homme dans les réformes en cours, dès lors qu'elles entendent garantir le respect des droits fondamentaux.
4 : Interdire le recours aux interfaces de choix dès lors qu'elles ont pour objet ou pour effet de manipuler, à leur détriment, les utilisateurs en exploitant leurs vulnérabilités.
5 : Interdire tout type de notation sociale (« social scoring ») mis en place par les administrations ou par toute entreprise, publique ou privée.
6 : Interdire l'identification biométrique à distance des personnes dans l'espace public et les lieux accessibles au public, en admettant par exception son utilisation, dès lors que celle-ci est strictement nécessaire, adaptée et proportionnée pour la prévention d'une menace grave et imminente pour la vie ou la sécurité des personnes et celle des ouvrages, installations et établissements d'importance vitale.
7 : Poursuivre et approfondir la réflexion afin d'identifier les apports et les limites d'une utilisation de l'IA dans le cadre des procédures juridictionnelles.
8 : Interdire les technologies de reconnaissance des émotions, en admettant par exception leur utilisation dès lors qu'elles visent à renforcer l'autonomie des personnes, ou plus largement l'effectivité de leurs droits fondamentaux.
9 : L'utilisateur d'un système d'IA évalue l'impact du recours à ce système sur les droits fondamentaux et, en cas de risques identifiés, procède à leur évaluation en tenant compte de la probabilité et de la gravité de ces derniers. L'étude d'impact devrait inclure au minimum
10 : En fonction des risques engendrés par un système d'IA sur les droits fondamentaux dans un contexte d'usage particulier, assurer préalablement à la décision d'y recourir, une consultation des parties prenantes, selon des modalités adaptées, en incluant par exemple les représentants du personnel et, plus largement, les personnes visées par le système d'IA.
11 : Mettre en place une supervision du système d'IA, selon une procédure susceptible de varier selon les risques d'atteintes aux droits fondamentaux tels qu'identifiés par l'étude d'impact, afin de maintenir une vigilance en continu de la part de l'utilisateur à l'égard des effets du système, notamment ses effets discriminatoires.
12 : Favoriser les investissements publics dans la conception d'outils de formation et d'information accessibles au plus grand nombre.
13 : Organiser des consultations nationales sur le modèle des Etats généraux de la bioéthique organisés par le Comité consultatif national d'éthique.
14 : L'Education nationale renforce la formation des élèves aux enjeux techniques, politiques et sociétaux de l'intelligence artificielle et de proposer, à cette fin, des supports pédagogiques à destination des enseignants.
15 : - garantir une intervention humaine pour le contrôle des décisions individuelles issues d'un système d'IA selon des modalités correspondant au niveau de risque de ce dernier ;
- en assurer l'effectivité par une formation appropriée et une information de l'intervenant sur les caractéristiques du système, sans lui imposer de contrainte particulière lorsqu'il s'écarte de la préconisation issue du système d'IA ;
- assurer aux usagers du service public le maintien systématique d'un accès alternatif à un agent humain.
16 : Reconnaître au bénéfice des utilisateurs des systèmes d'IA un droit au paramétrage de leurs critères, notamment afin de déterminer la sélection et la présentation des contenus reçus, et plus généralement dans l'hypothèse des interactions humain-machine.
17 : Informer systématiquement les personnes lorsqu'elles sont exposées ou amenées à interagir avec un système d'IA et, lorsqu'elles font l'objet d'une décision, que cette dernière se fonde, le cas échéant, en partie ou totalement sur un traitement algorithmique.
18 : Garantir à la personne concernée un droit au réexamen, par un être humain, de toute décision individuelle fondée totalement, ou même en partie, sur un traitement algorithmique, dès lors qu'elle emporte des conséquences significatives pour elle.
19 : Les administrations communiquent sous une forme intelligible les informations sur le fonctionnement de l'algorithme, ainsi que sur la part éventuellement prise par une intervention humaine dans le processus de décision. Mener une réflexion s'agissant de l'extension de cette obligation aux organismes privés.
Rubriques : médias, télécommunications, informatique / droit, justice et professions juridiques