La Commission du droit de l’Ontario (LSO) et la Commission des droits de l’homme de l’Ontario (OHRC) ont publié lundi un rapport de fond sur l’évaluation de l’impact sur les droits de l’homme (HRIA) sur l’élaboration de l’IA lundi.
Le rapport sert de revue de suivi du cadre Hria initial de la LSO et de l’OHRC qui a été créé comme un outil pour aider les développeurs de l’IA à respecter les obligations des droits de l’homme en fournissant un formulaire d’évaluation standardisé. Au cœur de la Hria, l’appel pour garantir que les droits de l’homme restent à la pointe de chaque étape du développement, en se concentrant principalement sur les obligations entourant les biais et la discrimination en Ontario. Le rapport de fond s’appuie sur Hria en fournissant plus d’informations et de conseils sur l’utilisation et la mise en œuvre de HriAs autodéclarés, ainsi que sur les avantages et les limites du système.
Bien que la fourniture de HRIA pour le développement de l’IA ne soit pas encore légalement requise en Ontario, la loi sur la sécurité numérique et la fiducie numérique, de 2024, exige qu’un cadre de responsabilité soit développé pour l’utilisation de l’IA dans le secteur public. En outre, la loi fédérale sur l’intelligence artificielle et les données fédérales obligerait les organisations à rendre compte de tout biais potentiel dans les systèmes d’IA «à fort impact» avant d’être libérés. Que les HriAs en tant que cadre deviennent ou non une exigence légale, les obligations fondamentales des droits de l’homme restent les mêmes.
La question de la réglementation de l’IA reste un sujet controversé dans le monde. En février, les dirigeants mondiaux se sont réunis pour le sommet de l’action de l’IA et, en septembre 2024, l’ONU a publié le rapport d’IA pour l’humanité gouvernant qui se réfère également directement aux questions de biais et de discrimination, ce qui signifie une attitude mondiale d’optimisme prudent envers la technologie émergente.