Bruxelles – The European Times – L’ombudswoman européen Teresa Anjinho a ouvert une enquête sur la façon dont la Commission européenne gère la transparence, l’inclusion et la responsabilité dans le développement de normes harmonisées pour l’intelligence artificielle (AI) – une pierre angulaire de la prochaine mise en œuvre de l’AIE de l’UE AI.
L’enquête, officiellement enregistrée en tant que cas 1974/2025 / MIK, suit une plainte par une organisation de la société civile qui a soulevé des inquiétudes concernant les pratiques opaques au sein des organismes de normalisation européens. Le plaignant a fait valoir que les groupes rédigeant les normes ne sont pas tenus de divulguer qui participe, et ils ne publient pas non plus le procès-verbal de la réunion, laissant le processus largement protégé du contrôle public.
Questions pour la commission
Dans le premier pas, les médiocre ont demandé à la Commission de clarifier:
les critères de composition et de sélection des groupes d’experts; les règles de transparence et de participation appliquées par le Comité européen pour la normalisation (CEN) et le Comité européen pour la normalisation électrotechnique (CENELEC); comment la Commission surveille et évalue le processus de normalisation; et quels mécanismes existent pour examiner et assurer l’équilibre entre les parties prenantes.
Son bureau a également demandé des documents internes concernant la surveillance de ces procédures par la Commission.
Pourquoi le problème est important
Les normes harmonisées fournissent une voie technique à la conformité légale dans la législation de l’UE. Une fois reconnus par la Commission, ils permettent aux entreprises de démontrer que leurs produits, services ou algorithmes répondent aux exigences réglementaires du bloc – devenant efficacement les passerelles vers le marché de l’UE.
La demande de normalisation de mai 2023 de la Commission a chargé CEN et CENELEC de traduire les principes de la loi sur l’IA en normes réalisables, garantissant que les normes résultantes minimisent les risques pour la sécurité et les droits fondamentaux. Cependant, ces organismes privés gèrent désormais les dimensions éthiques et sociales à fort impact généralement réservées aux décideurs, soulevant des questions sur la surveillance démocratique.
Un test pour la responsabilité de l’UE dans l’IA
L’enquête de l’ombudswoman reflète une préoccupation croissante que la normalisation technique – souvent considérée comme neutre – pourrait influencer la façon dont les systèmes d’IA interagissent avec les droits de l’homme et l’intérêt public à travers l’Europe. Ses résultats pourraient déterminer si la promesse de l’UE d’une «IA digne de confiance» est égalée par une gouvernance transparente et inclusive.


