Auteur: Jan Vanthournout (SD Worx)
À partir du 2 février 2025, chaque employeur européen doit prendre des mesures pour s’assurer que son personnel et d’autres personnes exploitent les systèmes d’IA en son nom et ont suffisamment de connaissances en IA et interdite pour les systèmes d’intermédiaire interdite du commerce avant le 2 février 2025 et / ou s’arrêter avec son utilisation . Bien que le cadre national d’application avec des amendes ne soit prêt que le 2 août 2025, il vaut mieux ne pas attendre jusque-là. SD WORX donne une interprétation et des conseils.
Jan Vanthournout, expert juridique de SD Worx: «Toutes les organisations belges doivent également avoir une politique de l’IA d’ici le dimanche 2 février et avoir leurs employés au courant des possibilités (admises) et des dangers pour l’organisation. Peu savent qu’un règlement européen est en phases et a été en vigueur pour tous les employeurs du 2 février. Chaque régulateur national doit garantir la conformité dans ce cadre et qui comprend des amendes; Nous connaîtrons la taille précise des amendes du 2 août 2025. Nous ne recommandons pas d’attendre jusque-là, car les amendes peuvent jouer avec un effet rétroactif.
Un règlement européen s’applique immédiatement et à tout le monde
L’évolution de l’intelligence artificielle (IA) est très rapide. Bien que l’IA offre de nombreux avantages économiques et sociaux, il implique également des risques. Avec la réglementation sur l’intelligence artificielle (réglementation de l’IA ou AI-ACT), l’Europe veut donc créer un cadre juridique uniforme pour: d’une part pour garantir le bon fonctionnement du marché interne et donc empêcher la fragmentation du marché; Stimuler et soutenir l’innovation et, en revanche, protéger les citoyens et les entreprises contre les effets néfastes des systèmes d’IA sur les droits fondamentaux tels que la démocratie, l’état de droit et l’environnement.
Que signifie une alphabétisation «adéquate» de l’IA?
L’alphabétisation de l’IA concerne les compétences, les connaissances et la compréhension que tous les membres de l’organisation, impliqués dans les systèmes d’IA, doivent être en mesure d’utiliser tous les systèmes et d’être conscients des opportunités et des risques de tous et des dommages possibles qu’elle peut causer.
«L’alphabétisation de l’IA ne signifie donc pas que chaque employé doit tout savoir sur l’IA. Le fait est que tous les membres de l’organisation impliqués dans les systèmes d’IA ont les connaissances et les compétences nécessaires pour prendre des décisions éclairées et reconnaître les risques et les dommages possibles “, explique Jan Vanthournout.
Qui sont les obligations concernant l’alphabétisation de l’IA
Tous les employeurs doivent prendre des mesures pour assurer un niveau suffisant d’alphabétisation de l’IA parmi leur personnel et d’autres personnes qui exploitent et utilisent des systèmes d’IA en leur nom. Il concerne tous les employés impliqués dans les systèmes d’IA, des fournisseurs aux utilisateurs finaux: ils doivent développer ces compétences, connaissances et compréhension. Il ne s’agit certainement pas seulement des gens.
La loi sur l’IA ne prescrit pas quelles mesures qu’un employeur devrait prendre pour s’assurer que toutes les personnes impliquées bénéficient d’une connaissance suffisante d’IA. Ce faisant, les employeurs devraient prendre en compte: les connaissances techniques, l’expérience, l’éducation et l’éducation de ces personnes; le contexte dans lequel les systèmes d’IA seront utilisés; Les personnes ou les groupes de personnes concernant lesquels les systèmes d’IA seront utilisés.
«L’employeur peut décider par lui-même les connaissances et les compétences dont les gens impliquaient ont besoin et comment ils acquièrent ces connaissances. Pensez-y, par exemple: une formation générale d’IA avec des connaissances de base, peut-être adaptée à différents groupes cibles (qu’est-ce que l’IA, quelles sont les limites, comment pouvez-vous reconnaître et prévenir les risques, etc.). Il peut impliquer des cours spécifiques axés sur des outils et des applications spécifiques; Coopération entre les équipes juridiques et techniques.
Une politique ou une politique d’IA est également obligatoire
L’employeur doit établir des directives claires pour l’utilisation de l’IA au sein de son organisation. Dans une politique d’IA, un employeur peut inclure, entre autres, quelles applications peuvent être utilisées par qui et comment.
«Dans cette politique, l’employeur peut également fournir la façon dont les employés et les sous-traitants peuvent rester suffisamment alphabétisés par l’IA. Considérez, par exemple, quelle est la procédure lorsque quelque chose change dans l’organisation ou dans les outils. Après tout, l’alphabétisation de l’IA n’est pas un fait statique. Si un employé modifie fonctionne, les outils qu’il utilise ou qu’il utilisera de nouveaux outils, alors en tant qu’employeur, vous devez vous assurer que l’employé reste suffisamment alphabétisé », explique Jan Vanthournout.
N’oubliez pas les systèmes IA interdits
À partir du 2 février 2025, la loi sur l’IA interdit une série de demandes d’IA. Ce sont des systèmes d’IA qui agissent contrairement aux normes et valeurs fondamentales européennes, par exemple en raison d’une violation des droits fondamentaux. Par exemple, les systèmes d’IA suivants sont interdits:
Systèmes d’IA pour la «notation sociale». Cela signifie que les systèmes d’IA évaluent les personnes en fonction de leur comportement social ou de leurs caractéristiques personnelles; Systèmes d’IA pour la reconnaissance des émotions sur le lieu de travail et dans l’éducation;
Les employeurs doivent identifier les systèmes d’IA interdits qu’ils utilisent, afin qu’ils puissent s’arrêter avant le 2 février 2025. À partir du 2 août 2025, les organisations interdites d’élaboration ou de déploiement d’amendes élevées, sur la base de la réglementation de l’IA. Ces amendes peuvent s’élever à 35 millions d’euros, ou, si le délinquant est une entreprise, jusqu’à 7% de son chiffre d’affaires annuel mondial pour l’exercice précédent, si cela est plus élevé.
Source: SD WORX