Aujourd’hui, la législation européenne sur l’intelligence artificielle (IA), le premier règlement global au monde sur l’intelligence artificielle, entre en vigueur. La loi sur l’IA vise à garantir que l’IA développée et utilisée dans l’UE soit fiable, avec des garanties pour protéger les droits fondamentaux des personnes. Le règlement vise à établir un marché intérieur harmonisé de l’IA dans l’UE, en encourageant l’adoption de cette technologie et en créant un environnement favorable à l’innovation et à l’investissement.
La loi sur l’IA introduit une définition prospective de l’IA, fondée sur une approche axée sur la sécurité des produits et les risques dans l’UE :
Risque minimal : la plupart des systèmes d’IA, tels que les systèmes de recommandation et les filtres anti-spam, entrent dans cette catégorie. Ces systèmes ne sont soumis à aucune obligation en vertu de la loi sur l’IA en raison de leur risque minimal pour les droits et la sécurité des citoyens. Les entreprises peuvent volontairement adopter des codes de conduite supplémentaires. Risque spécifique lié à la transparence : les systèmes d’IA tels que les chatbots doivent clairement indiquer aux utilisateurs qu’ils interagissent avec une machine. Certains contenus générés par l’IA, y compris les deep fakes, doivent être étiquetés comme tels, et les utilisateurs doivent être informés lorsque des systèmes de catégorisation biométrique ou de reconnaissance des émotions sont utilisés. En outre, les fournisseurs devront concevoir des systèmes de manière à ce que le contenu audio, vidéo, texte et images synthétiques soit marqué dans un format lisible par machine et détectable comme généré ou manipulé artificiellement. Risque élevé : les systèmes d’IA identifiés comme à haut risque devront se conformer à des exigences strictes, notamment des systèmes d’atténuation des risques, une haute qualité des ensembles de données, la journalisation des activités, une documentation détaillée, des informations claires sur les utilisateurs, une surveillance humaine et un niveau élevé de robustesse, de précision et de cybersécurité. Les bacs à sable réglementaires faciliteront l’innovation responsable et le développement de systèmes d’IA conformes. Ces systèmes d’IA à haut risque comprennent par exemple les systèmes d’IA utilisés pour le recrutement, ou pour évaluer si une personne a droit à un prêt, ou pour faire fonctionner des robots autonomes. Risque inacceptable : les systèmes d’IA considérés comme une menace claire pour les droits fondamentaux des personnes seront interdits. Cela comprend les systèmes ou applications d’IA qui manipulent le comportement humain pour contourner le libre arbitre des utilisateurs, tels que les jouets utilisant l’assistance vocale encourageant les comportements dangereux des mineurs, les systèmes qui permettent la « notation sociale » par les gouvernements ou les entreprises, et certaines applications de police prédictive. En outre, certaines utilisations des systèmes biométriques seront interdites, par exemple les systèmes de reconnaissance des émotions utilisés sur le lieu de travail et certains systèmes de catégorisation des personnes ou d’identification biométrique à distance en temps réel à des fins d’application de la loi dans les espaces accessibles au public (avec de rares exceptions).
Pour compléter ce système, la loi sur l’IA introduit également des règles pour les modèles d’IA dits à usage général, qui sont des modèles d’IA hautement performants conçus pour effectuer une grande variété de tâches, comme la génération de textes de type humain. Les modèles d’IA à usage général sont de plus en plus utilisés comme composants d’applications d’IA. La loi sur l’IA garantira la transparence tout au long de la chaîne de valeur et traitera des risques systémiques possibles des modèles les plus performants.
Application et mise en œuvre des règles de l’IA
Les États membres ont jusqu’au 2 août 2025 pour désigner les autorités nationales compétentes qui superviseront l’application des règles relatives aux systèmes d’IA et mèneront des activités de surveillance du marché. Le bureau de l’IA de la Commission sera le principal organe de mise en œuvre de la loi sur l’IA au niveau de l’UE, ainsi que l’autorité chargée de faire respecter les règles relatives aux modèles d’IA à usage général.
Trois organismes consultatifs soutiendront la mise en œuvre des règles. Le comité européen de l’intelligence artificielle veillera à une application uniforme de la loi sur l’IA dans tous les États membres de l’UE et servira d’organe principal de coopération entre la Commission et les États membres. Un groupe scientifique d’experts indépendants fournira des conseils techniques et des informations sur l’application de la loi. Ce groupe pourra notamment émettre des alertes à l’intention du bureau de l’IA sur les risques associés aux modèles d’IA à usage général. Le bureau de l’IA pourra également recevoir des conseils d’un forum consultatif, composé d’un ensemble diversifié de parties prenantes.
Les entreprises qui ne respectent pas les règles seront passibles d’amendes. Celles-ci pourraient atteindre 7 % du chiffre d’affaires annuel mondial en cas de violation d’applications d’IA interdites, jusqu’à 3 % en cas de violation d’autres obligations et jusqu’à 1,5 % en cas de fourniture d’informations incorrectes.
Prochaines étapes
La majorité des règles de la loi sur l’IA entreront en vigueur le 2 août 2026. Toutefois, les interdictions des systèmes d’IA considérés comme présentant un risque inacceptable s’appliqueront déjà après six mois, tandis que les règles relatives aux modèles d’IA dits à usage général s’appliqueront après 12 mois.
Pour combler la période de transition avant la mise en œuvre complète, la Commission a lancé le pacte sur l’IA. Cette initiative invite les développeurs d’IA à adopter volontairement les principales obligations de la loi sur l’IA avant les délais légaux.
La Commission élabore également des lignes directrices pour définir et détailler la manière dont la loi sur l’IA devrait être mise en œuvre et pour faciliter les instruments de corégulation tels que les normes et les codes de bonnes pratiques. La Commission a lancé un appel à manifestation d’intérêt pour participer à l’élaboration du premier code de bonnes pratiques à usage général en matière d’IA, ainsi qu’une consultation multipartite donnant l’occasion à toutes les parties prenantes de s’exprimer sur le premier code de bonnes pratiques au titre de la loi sur l’IA.
Arrière-plan
Le 9 décembre 2023, la Commission a salué l’accord politique sur l’IA Act. Le 24 janvier 2024, la Commission a lancé un ensemble de mesures visant à soutenir les startups et les PME européennes dans le développement d’une IA digne de confiance. Le 29 mai 2024, la Commission a dévoilé le bureau de l’IA. Le 9 juillet 2024, le règlement modifié de l’entreprise commune EuroHPC est entré en vigueur, autorisant ainsi la création d’usines d’IA. Cela permet d’utiliser des supercalculateurs d’IA dédiés à la formation de modèles d’IA à usage général (GPAI).
Les recherches indépendantes et fondées sur des données probantes menées en continu par le Centre commun de recherche (JRC) ont joué un rôle fondamental dans l’élaboration des politiques de l’UE en matière d’IA et dans la garantie de leur mise en œuvre efficace.