Le traitement du dossier chez Unia montre également que même si une personne est consciente du préjudice, le préjudice individuel peut être vécu comme insignifiant, ou du moins comme trop minime par rapport aux coûts que peut entraîner sa contestation. Cela concerne les coûts financiers, mais aussi la charge psychosociale, l’investissement en temps, etc. Par conséquent, l’individu est moins susceptible de contester la pratique problématique.
Le Belge législation anti-discrimination fournit un cadre législatif pour lutter contre la discrimination. Malheureusement, cela n’est pas toujours facile à appliquer en raison de la liste fermée des caractéristiques protégées (telles que les caractéristiques raciales, l’orientation sexuelle, etc.), alors qu’avec l’IA, il existe des corrélations aléatoires.
Il existe également plusieurs initiatives législatives européennes :
De Loi sur l’IA (Artificial Intelligence Règlement) est le règlement de l’Union européenne qui doit protéger les citoyens belges et européens contre les impacts néfastes de l’IA. La loi sur l’IA a été adoptée par le Conseil de l’Union européenne le 21 mai 2024. Le règlement associe des règles spécifiques à des catégories d’applications d’IA : les pratiques d’IA présentant des risques inacceptables sont interdites. Par ex. le score social (un système d’IA détermine un score en fonction de votre comportement (social) qui influence votre accès aux services ou les prix que vous payez pour ceux-ci), les techniques subliminales, manipulatrices ou trompeuses ou les systèmes d’IA avec reconnaissance des émotions sont interdits à l’école ou au travail . Les systèmes présentant des risques élevés sont soumis à des règles strictes, telles que des obligations de déclaration, d’enregistrement dans une base de données de l’UE, une surveillance humaine et, dans certains cas, une analyse d’impact sur les droits fondamentaux. Cela inclut certains systèmes utilisés dans l’éducation, le lieu de travail, les services privés et publics essentiels, la biométrie, etc. La plupart des applications comporteront un risque limité ou minime. Dans ce cas, les obligations de transparence s’appliquent principalement et doivent informer l’utilisateur.
Le règlement s’applique directement dans chaque État membre et entrera en vigueur progressivement.
Il AI-Verdrag (Convention-cadre sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit) du Conseil de l’Europe souligne l’importance de la protection des droits de l’homme dans le développement et la mise en œuvre de systèmes d’IA. Il fournit un cadre pour garantir l’égalité de traitement, la non-discrimination et le respect de la dignité humaine dans toutes les applications de l’IA. Il a été adopté le 17 mai 2024 par le Conseil des ministres.
IA et intersectionnalité
Les systèmes d’IA prennent souvent une décision basée sur une combinaison de plusieurs caractéristiques protégées. Prenons, par exemple, une femme en fauteuil roulant appartenant à une minorité ethnique ou un homme gay plus âgé.
Avec les systèmes d’IA, il ne sera pas clair quelles caractéristiques ont été les plus importantes dans une décision et cela peut donc être le cas. discrimination intersectionnelle. Différents critères de discrimination interagissent alors simultanément et deviennent indissociables par l’interaction avec un certain contexte qui rend quelqu’un plus vulnérable que d’autres dans le même contexte. Par exemple, une femme issue d’une certaine minorité ethnique peut être confrontée à un type de discrimination différent de celui d’un homme de la même minorité ethnique, ou à un type de sexisme différent de celui d’une femme blanche.
Bron : Union