L’Union européenne demande plus de transparence concernant les contenus générés à l’aide d’une intelligence artificielle
Alors que l’Union Européenne est sur le point d’adopter l’Artificial Intelligence Act[1] (aussi appelé « AI Act »), la Commission Européenne, le 5 juin 2023, a demandé aux plateformes de créer un label « Intelligence artificielle » pour signaler aux utilisateurs les contenus (textes, photos, audios ou vidéos) générés à l’aide d’une intelligence artificielle.
Préoccupée par les récentes utilisations de contenus générés artificiellement relayées sur les réseaux sociaux, comme les fausses images du pape François portant une doudoune blanche ou du Président Emmanuel Macron participant à une manifestation à Paris[2], la Commission juge aujourd’hui nécessaire d’identifier ces contenus pour lutter contre la désinformation en ligne.
Ainsi, elle demande aux signataires de son code de bonnes pratiques sur la désinformation du 16 juin 2022, la mise en place rapide d’un label « Intelligence artificielle ». En pratique, la vice-présidente de la Commission en charge des Valeurs et de la Transparence, Vera Jourova, a déclaré que les signataires susceptibles de diffuser du contenu généré à l’aide d’une intelligence artificielle doivent mettre en place des technologies permettant de reconnaître ce type de contenu et de le signaler comme tel aux utilisateurs.
Ce code de conduite, non contraignant, a été signé par 44 entreprises internationales, y compris les principales plateformes numériques telles que Facebook, Google, ou encore YouTube.
Dès le 25 août 2023, les nouvelles règles européennes sur les services numériques issues du Digital Services Act seront applicables aux plateformes en ligne et moteurs de recherches (dont les GAFAM).
Le DSA prévoit à cet effet « le recours à un marquage bien visible pour garantir qu’un élément d’information, qu’il s’agisse d’une image, d’un contenu audio ou vidéo généré ou manipulé, qui ressemble nettement à des personnes, à des objets, à des lieux ou à d’autres entités ou événements réels, et apparaît à tort aux yeux d’une personne comme authentique ou digne de foi, est reconnaissable lorsqu’il est présenté sur leurs interfaces en ligne, et, en complément, la mise à disposition d’une fonctionnalité facile d’utilisation permettant aux destinataires du service de signaler ce type d’information ».[3]
Ces acteurs pourront être condamnés par la Commission à une amende pouvant aller jusqu’à 6% de leur chiffre d’affaires mondial annuel au cours de l’exercice précédent en cas de non-conformité[4] et pourront voir leurs activités restreintes temporairement sur le marché européen en cas de violations graves et répétées au règlement[5].
L’AI Act veut quant à lui imposer une série d’obligations de transparence et de gouvernance pour certains systèmes d’intelligence artificielle, aux fournisseurs mais également aux utilisateurs d’intelligence artificielle. À ce titre, les utilisateurs d’un système d’intelligence artificielle générant des contenus (images, audios, vidéos) présentant une ressemblance avec des personnes, des objets, des lieux ou d’autres entités ou évènements existants et pouvant être perçus à tort comme authentique ou véridiques (« hypertrucage ») devront préciser que les contenus ont été générés ou manipulés artificiellement[6].
Ainsi, l’Union Européenne s’apprête à mettre en place le premier arsenal juridique encadrant le secteur de l’intelligence artificielle.
[1] Proposition de règlement sur l’intelligence artificielle, publiée le 21 avril 2021 par la Commission Européenne, le texte a été voté par le Conseil et devrait être voté par le Parlement européen mi-juin 2023.
[2] Images générées par Midjourney, une intelligence artificielle générative dans le domaine de l’imagerie.
[3] Article 35 1 k) du Règlement UE 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques (DSA).
[4] Article 52 paragraphe 3 du DSA.
[5] Articles 82 et 51 du DSA.
[6] Article 52 de la Proposition de règlement sur l’intelligence artificielle (AI Act).