Le Conseil de l'Union européenne a récemment publié une proposition de révision de la « Loi sur l'intelligence artificielle », incluant notamment une nouvelle disposition notable : l'interdiction explicite des outils d'« undressing » par IA, ainsi qu'un renforcement simultané des normes de traitement des données personnelles spécifiques. Cette mesure constitue une étape clé pour l'UE dans le processus de simplification du cadre réglementaire de l'IA et de construction d'un système législatif numérique complet. 
Selon le communiqué de presse du Conseil de l'UE, la nouvelle réglementation interdit explicitement « les pratiques d'IA impliquant la génération de contenus sexuels ou intimes non consentis ou de matériel d'abus sexuel sur enfants. » Cette clause vise directement les applications controversées de « déshabillage » par IA, ces outils malveillants qui utilisent la technologie d'intelligence artificielle pour synthétiser et générer des images nues ou pornographiques à partir de photos ordinaires. Cette interdiction fait écho aux mesures précédemment approuvées par le Parlement européen et devrait être formellement intégrée au texte final de la loi lors des prochaines négociations interinstitutionnelles.
Auparavant, la Commission européenne avait proposé de reporter l'entrée en vigueur des règles concernant les systèmes d'IA à haut risque et d'accorder des exemptions réglementaires à davantage de PME, afin d'équilibrer l'incitation à l'innovation et la prévention des risques. La proposition actuelle du Conseil de l'UE, tout en assouplissant certaines exigences, resserre les lignes rouges fondamentales liées aux droits individuels. Elle rétablit également l'obligation pour les fournisseurs de systèmes d'IA à haut risque de s'inscrire dans une base de données unique de l'UE, afin de garantir la traçabilité et la conformité tout au long du cycle de développement et de déploiement.
En matière d'utilisation des données, la proposition du Conseil de l'UE réaffirme le critère strict de nécessité pour le traitement des catégories particulières de données personnelles. Cela signifie que lors du développement de systèmes d'IA destinés à la détection et à la correction des biais, les développeurs doivent prouver que la collecte et l'utilisation de données sensibles sont absolument nécessaires et que l'objectif ne peut être atteint par des données anonymisées ou agrégées. Cette révision vise à renforcer la protection des informations sensibles telles que l'origine raciale, les opinions politiques, les données biométriques, et à prévenir une intrusion excessive dans la vie privée des individus lors du développement technologique.
L'accélération de cette proposition est étroitement liée à plusieurs incidents récents d'abus de l'IA. Depuis fin décembre 2025, le robot conversationnel Grok, propriété de la plateforme sociale X (anciennement Twitter), a été révélé capable de générer et de diffuser un grand nombre d'images intimes non consenties, suscitant une attention médiatique mondiale et une inquiétude des utilisateurs. La Commission européenne a ouvert une enquête formelle sur les plateformes concernées en janvier de cette année. Cet incident a mis en lumière l'urgence de réguler les contenus générés par l'IA et a fourni une base concrète à l'UE pour renforcer sa législation en la matière.
Par la suite, le Conseil de l'UE et le Parlement européen poursuivront leurs négociations sur ces amendements afin de finaliser l'ensemble du texte de la « Loi sur l'intelligence artificielle ». En tant que premier cadre juridique mondial visant à réguler de manière exhaustive l'intelligence artificielle, le processus d'adoption de cette loi fait l'objet d'une attention internationale soutenue. L'interdiction des outils d'« undressing » et le renforcement des normes de protection des données marquent une clarification supplémentaire de l'orientation législative de l'UE, qui cherche un équilibre entre le développement technologique et les droits individuels.









