Chatgpt, Mistral, Copilot, Chatbots, Spam Filtres, Systèmes de recommandation … L’intelligence artificielle (ou l’IA) est omniprésente dans notre vie quotidienne.
Dans le monde du travail, et en particulier dans le domaine des ressources humaines, l’IA est de plus en plus utilisée.
L’Union européenne a pris conscience de la taille de ce phénomène et a décidé de la réglementer pour s’assurer que les systèmes d’IA sont en sécurité dans l’UE et se conformer à la fois aux droits fondamentaux des citoyens et aux valeurs de l’UE. Bien qu’elle lutte contre les effets néfastes de ces systèmes, il souhaite également garantir un certain degré de certitude juridique pour faciliter les investissements et l’innovation dans ce domaine.
La nouvelle législation sur l’IA est entrée en vigueur le 1er août 2024, mais sera pleinement applicable à partir du 2 août 2026. Comme nous le verrons ci-dessous, la mise en œuvre ira progressivement.
1. Classification des systèmes d’IA basés sur les risques
Système d’IA: un système basé sur une machine conçue pour fonctionner avec différents niveaux d’autonomie et qui peut montrer l’adaptabilité après son utilisation, et que, pour des objectifs explicites ou implicites, dérivant de l’entrée reçue comment générer une sortie telle que les prédictions, Contenu, recommandations ou décisions qui peuvent influencer les environnements physiques ou virtuels.
L’IA offre de nombreux avantages économiques et sociaux, mais implique également des risques. C’est pourquoi le règlement IA a adopté une approche basée sur le risque: plus le risque est important, plus les règles sont strictes. Les systèmes d’IA sont classés comme suit:
1.1. Systèmes d’IA avec des risques inacceptables
Ils sont contraires aux normes et aux valeurs de l’UE et conduisent à des violations flagrantes des droits fondamentaux.
Cela comprend:
Systèmes d’identification biométrique à distance en temps réel dans les espaces publics; Systèmes d’IA utilisés pour une évaluation des personnes naturelles («score social»); Les systèmes d’IA qui utilisent des techniques subliminales ou des techniques manipulatrices ou trompeuses délibérément, dans le but ou l’effet de perturber considérablement le comportement des personnes ou d’un groupe de personnes.
1.2. Systèmes d’IA avec des risques élevés
Ils ont un effet négatif sur la sécurité ou les droits fondamentaux.
Dans le domaine de l’emploi et des ressources humaines, les systèmes d’IA présentant des risques élevés sont destinés à être utilisés:
pour placer des postes vacants ciblés, analyser et filtrer les demandes et évaluer les candidats; Pour prendre des décisions sur les relations liées au travail, la promotion ou la résiliation des relations contractuelles liées au travail; pour attribuer des tâches basées sur le comportement individuel ou les caractéristiques ou les caractéristiques personnelles; Ou pour surveiller et évaluer la performance et le comportement des personnes dans de telles relations.
Ces systèmes peuvent avoir des conséquences considérables pour les futures opportunités de carrière et les moyens de subsistance de ces personnes, ainsi que pour les droits des employés. Ils peuvent également maintenir des schémas de discrimination historiques (par exemple au détriment des femmes, de certains groupes d’âge, des personnes handicapées ou des personnes ayant une certaine origine raciale ou ethnique ou orientation sexuelle) ou peuvent également nuire à leurs droits fondamentaux sur la protection des données et confidentialité .
1.3. Systèmes d’IA avec des risques limités
Les risques de ces systèmes pour les droits des citoyens de l’UE sont considérés comme limités.
Cette catégorie comprend des chatbots en ligne et des systèmes d’IA utilisés pour générer ou manipuler des contenus d’image, d’audio ou de vidéo qui ressemblent à des personnes, des objets, des lieux, des entités ou des événements existants et pour une personne à tort authentique ou vrai peut ressembler (FAKES DEEL).
1.4. Systèmes d’IA avec un minimum de risques
Ce sont des systèmes qui ne sont pas un réel risque pour les droits des citoyens, tels que les filtres à spam.
2. Obligations liées aux systèmes d’IA
Le règlement enregistre des obligations spécifiques en fonction des différents types de systèmes d’IA et si vous agissez en tant que fournisseur, distributeur, importateur ou utilisateur de ces systèmes. Cet article ne traite que des obligations qui ont un impact sur les utilisateurs.
Il convient de noter que des règles spécifiques s’appliquent aux fournisseurs de modèles d’IA à des fins générales (telles que le chat GPT). En particulier, ils doivent fournir une documentation technique et des instructions pour une utilisation, se conformer à la directive sur les droits d’auteur et être un résumé du contenu utilisé pour la formation du modèle
2.1. Systèmes d’IA avec des risques inacceptables
Ces systèmes sont interdits et ne peuvent pas être utilisés, à l’exception des cas prévus par le règlement.
Cette interdiction de l’utilisation de systèmes d’IA avec des risques inacceptables commence le 2 février 2025.
2.2. Systèmes d’IA avec des risques élevés
Pour ces systèmes, la réglementation européenne fournit ce qui suit:
Son fonctionnement doit être suffisamment transparent pour permettre aux gestionnaires d’utilisateurs d’interpréter et d’utiliser la sortie d’un système de manière appropriée. Il doit y avoir des instructions utilisateur dans un format numérique ou autre conçu qui contiennent des informations concises, complètes, correctes et claires qui sont pertinentes, accessibles et compréhensibles pour les gestionnaires d’utilisateurs. Des mesures techniques et organisationnelles doivent être prises pour s’assurer qu’elles sont utilisées conformément aux instructions de l’utilisateur. La supervision humaine doit être attribuée aux personnes naturelles avec la compétence, l’éducation et la compétence nécessaires. Les gestionnaires d’utilisateurs doivent conserver les journaux générés automatiquement par ce système d’IA conserver dans la mesure stipulé dans l’union ou la loi nationale applicable, plus en particulier la loi de l’Union sur la protection des données personnelles. Avant qu’un système d’IA avec un risque élevé de travail ne soit utilisé ou utilisé, les gestionnaires d’utilisateurs qui sont des employeurs doivent informer les représentants des employés et les employés impliqués qu’ils seront soumis à l’utilisation du système d’IA avec des risques élevés. Lorsque les utilisateurs prennent des décisions sur la base d’un système d’IA pour prendre des décisions pour prendre des décisions concernant les personnes naturelles, ils doivent informer les personnes naturelles qu’ils sont soumis à l’utilisation d’un système d’IA avec des risques élevés.
Ces obligations doivent être respectées à partir du 2 août 2026.
2.3. Systèmes d’IA avec des risques limités
Les obligations d’informations et de transparence doivent être respectées:
Les utilisateurs d’un système d’IA qui génère ou manipule des images ou du contenu audio / vidéo doivent indiquer que le contenu a été généré ou manipulé par une IA. Cette obligation ne s’applique pas si l’utilisation est autorisée par la loi ou lorsque le contenu fait partie d’un travail ou d’un programme ou programme apparente, créatif, satirique, fictif ou analogique. Les utilisateurs d’un système d’IA qui génère ou traite le texte publié pour informer le public sur les questions d’intérêt public, doit annoncer que le texte a été généré artificiellement ou traité. Cependant, cette obligation ne s’applique pas si l’utilisation par la loi est autorisée ou lorsque le contenu généré par l’IA a subi un processus de test humain ou de contrôle éditorial et lorsqu’une personne naturelle ou légale est éditoriale de la responsabilité de l’annonce du contenu. À moins que les exceptions ne fournissent la loi, les utilisateurs d’un chatbot doivent être informés qu’ils communiquent avec un système d’IA conçu pour interagir directement avec eux.
Ces obligations doivent être respectées à partir du 2 août 2026.
2.4. Systèmes d’IA avec un minimum de risques
La réglementation européenne ne fournit pas d’obligation spécifique pour ces systèmes.
3. Quelle action devrait prendre les employeurs?
Les employeurs doivent identifier les systèmes d’IA qu’ils utilisent et dans quel but.
L’employeur doit donc vérifier:
Quel est son rôle d’utilisateur, fournisseur, importateur ou distributeur du système d’IA; Dans quelle catégorie de risque, le système tombe.
De cette façon, il peut cartographier ses obligations et préparer et mettre en œuvre un plan d’action.
En général, la réglementation européenne stipule que les utilisateurs des systèmes d’IA doivent prendre des mesures pour s’assurer que leur personnel et d’autres personnes impliqués dans le fonctionnement et l’utilisation des systèmes d’IA en leur nom, dans la mesure du possible, des connaissances suffisantes et de la compréhension de l’IA. À cette fin, ils doivent prendre en compte leurs connaissances techniques, leur expérience, leur éducation et leur formation et le contexte dans lequel les systèmes d’IA seront utilisés, ainsi qu’avec les personnes ou les groupes de personnes en ce qui Les systèmes seront utilisés.
Les employeurs devront prendre ces mesures pour assurer une connaissance suffisante de l’IA à partir du 2 février 2025.
Si l’employeur utilise des systèmes d’IA avec des risques élevés, comme pour le recrutement ou la gestion des employés, ou les systèmes d’IA avec des risques limités, il doit respecter les obligations associées à ces systèmes (voir points 2.2. Et 2.3).
Les employeurs qui n’utilisent pas encore les risques élevés du système d’IA doivent informer les représentants des employés et les employés impliqués. Le règlement stipule que ces informations doivent être fournies conformément aux règles, procédures et pratiques applicables dans l’État membre. Si l’utilisation d’un système d’IA avec des risques élevés remplit les conditions pour être considérée comme l’introduction d’une nouvelle technologie au sens du CAO n ° 39, le Conseil des travaux doit être informé et consulté.
4. AI ACT EN AVG?
Ces 2 réglementations européennes se complètent mutuellement pour garantir que le traitement des données personnelles est légal, honnête et transparent dans le contexte des systèmes d’IA.
La Data Protection Authority (GBA) explique cette complémentarité dans un brochure d’information Dans lequel le cadre juridique est expliqué et des directives pratiques sont données pour comprendre et se conformer aux exigences de l’AVG et de la réglementation de l’IA dans le développement et l’utilisation des systèmes d’IA.
Le GBA recommande, entre autres, les bonnes pratiques suivantes:
Transparence: expliquez clairement dans l’énoncé de protection des données comment les données personnelles sont collectées, utilisées et stockées dans le système d’IA; Traitement des données minimales: seule la quantité minimale de données personnelles requises pour l’utilisation du système d’IA peut être collectée et utilisée; Limitation de stockage: les données personnelles ne doivent pas être stockées plus longtemps que nécessaire, conformément aux objectifs justifiés sur lesquels le traitement est basé. 5. Sanctions
Les délinquants des règles de l’AIC peuvent recevoir des amendes qui peuvent être considérables: par exemple, des amendes administratives pouvant aller jusqu’à 35 000 000 EUR ou si le délinquant est une entreprise, jusqu’à 7% de son total de chiffre d’affaires annuel dans le monde pour le précédent Exercice, si c’est plus élevé.
Les sanctions s’appliquent à partir du 2 août 2025.
6. Que se souvenir?
À partir du 2 février 2025:
Les systèmes d’IA avec des risques inacceptables sont interdits; Les employeurs doivent prendre des mesures pour s’assurer que leurs employés ont une connaissance suffisante de l’IA.
À partir du 2 août 2026, les employeurs qui utilisent des risques élevés (point 2.2) ou des systèmes d’IA avec des risques limités (point 2.3.) Doivent respecter les obligations associées à ces systèmes.
Les employeurs qui n’utilisent pas encore les risques élevés du système d’IA doivent informer les représentants des employés et les employés impliqués. Si l’utilisation d’un système d’IA avec des risques élevés remplit les conditions pour être considérée comme l’introduction d’une nouvelle technologie au sens du CAO n ° 39, le Conseil des travaux doit être informé et consulté.
Une politique de modèle pour l’utilisation de l’IA dans les entreprises sera bientôt disponible.