Les États membres et le Parlement européen se sont entendus dans la nuit de mercredi à jeudi pour interdire dans l’UE les services d’intelligence artificielle (IA) permettant de « dénuder » des personnes sans leur consentement.
Cette initiative fait suite, notamment, à l’introduction il y a quelques mois d’une fonctionnalité dans Grok, l’assistant d’intelligence artificielle d’Elon Musk, qui permettait aux utilisateurs de lui demander de créer des montages hyperréalistes (ou deepfakes) d’adultes et d’enfants dénudés, à partir de photos réelles, et ce sans leur consentement. Cette affaire avait soulevé un tollé dans de nombreux pays et entraîné l’ouverture d’une enquête de l’UE.
Mardi, la Première ministre italienne Giorgia Meloni a vivement dénoncé de fausses photos d’elle générées par l’intelligence artificielle, qualifiant ces deepfakes d’« outil dangereux ». Selon le Parlement, la nouvelle interdiction européenne porte sur les systèmes permettant de créer des images, des vidéos et des sons à caractère pédopornographique, ou représentant les parties intimes d’une personne identifiable, ou la mettant en scène dans des activités sexuelles, sans son consentement.
IA à haut risque
La nouvelle réglementation s’appliquera à partir du 2 décembre 2026. À cette date, les IA devront donc être dotées de mesures de sécurité les empêchant de générer de tels contenus. Cette mesure a été adoptée dans le cadre d’une révision de la législation européenne sur l’IA, ou AI Act, une loi pionnière formellement adoptée il y a deux ans.
À cette occasion, les 27 États membres et les eurodéputés ont également accepté, comme le proposait la Commission européenne, de reporter l’entrée en vigueur de nouvelles règles visant à encadrer l’activité des systèmes d’intelligence artificielle dits à haut risque, c’est-à-dire ceux actifs dans des domaines sensibles comme la sécurité, la santé ou encore les droits fondamentaux. Ces règles étaient censées entrer en vigueur en août, mais la Commission a voulu donner plus de temps aux entreprises pour s’adapter à ce cadre totalement inédit.
Principale modification par rapport au projet de la Commission : les États membres et les eurodéputés ont adopté des dates fixes pour ce report, là où Bruxelles avait proposé un calendrier plus souple. Il s’agit du 2 décembre 2027 pour les systèmes à haut risque « autonomes », et du 2 août 2028 pour ceux intégrés à d’autres programmes ou produits.
Cet accord a été conclu alors que les craintes à l’égard des risques liés à l’intelligence artificielle ont été ravivées ces dernières semaines dans l’UE par Mythos, le nouveau modèle de la start-up américaine Anthropic, dont les capacités supposées en matière de cybersécurité nourrissent des inquiétudes.
YouTube propose à Hollywood un outil de détection des deepfakes
YouTube a proposé en avril aux célébrités et aux artistes d’Hollywood un outil gratuit de détection des deepfakes, renforçant ainsi la lutte contre les usurpations d’identité générées par l’intelligence artificielle. Le mois dernier, la plateforme vidéo de Google a lancé son outil de protection de l’image, qui aide à identifier les contenus dans lesquels un visage apparaît modifié ou généré à l’aide de technologies d’IA. Le projet visait d’abord les responsables gouvernementaux, les journalistes et d’autres personnalités politiques.
La plateforme étend désormais son accès aux acteurs et aux musiciens, via les agences de talents, les sociétés de management et les stars qu’elles représentent. L’outil permet de « rechercher des contenus générés par l’IA reprenant l’apparence d’un participant, comme un deepfake de son visage, et lui donne le pouvoir de les dénicher et d’en demander la suppression ».
Le développement de cet outil fait suite à des plaintes de personnalités américaines de premier plan dénonçant la lourdeur des procédures sur YouTube pour signaler et retirer un deepfake.
« Le fait que YouTube ouvre ses capacités de détection des deepfakes aux personnalités publiques marque un tournant dans la manière dont les plateformes abordent la protection de l’identité à l’ère de l’IA générative », estime Alon Yamin, directeur général et cofondateur de Copyleaks. « La technologie permettant de reproduire le visage, la voix et les mimiques d’une personne a avancé plus vite que les garde-fous qui l’entourent, créant un fossé que des acteurs malveillants exploitent déjà. »