L’UE appelle les géants de la technologie à étiqueter le contenu généré par l’IA

L’Union européenne s’efforce de devancer la prolifération rapide de la technologie de l’IA, et sa dernière initiative consiste à demander aux géants de la technologie comme Google, Meta, TikTok et Microsoft de commencer à étiqueter le contenu généré par l’IA sur ses services, dans le cadre des efforts de lutte contre la désinformation. en ligne.

Les membres de la Commission européenne, le bras exécutif de l’UE, ont appelé lundi 5 juin les géants de la technologie à commencer à étiqueter le contenu de l’IA sur une base volontaire, bien avant la législation qui le rendrait obligatoire.

L’UE travaille actuellement sur une loi sur l’IA qui établirait des règles pour l’utilisation de la technologie de l’IA dans l’union des 27 pays. Il fait face à un vote clé au Parlement européen la semaine prochaine, mais même s’il devait être adopté rapidement, ses dispositions n’entreraient probablement pas en vigueur avant 2026, Bloomberg rapports.

Dans l’intervalle, la vice-présidente de la Commission pour les valeurs et la transparence, Vera Jourova, a déclaré qu’elle demanderait aux 44 organisations qui ont signé le code de pratique volontaire de l’UE pour lutter contre la désinformation d’élaborer des lignes directrices distinctes pour traiter la désinformation générée par l’IA.

« Les signataires qui intègrent l’IA générative dans leurs services comme Bingchat pour Microsoft, Bard pour Google devraient intégrer les garanties nécessaires pour que ces services ne puissent pas être utilisés par des acteurs malveillants pour générer de la désinformation », a déclaré Jourova, cité par Politico.

« Les signataires qui disposent de services susceptibles de diffuser la désinformation générée par l’IA devraient à leur tour mettre en place une technologie pour reconnaître ce contenu et l’indiquer clairement aux utilisateurs. »

Les signataires du code de pratique incluent Google, Facebook et le propriétaire d’Instagram Meta, Microsoft, TikTok et Twitch.

Parmi les nombreuses préoccupations auxquelles l’UE vise à répondre, il y a la création de « deepfakes » qui pourraient mettre en scène des personnalités ou des citoyens privés disant ou faisant des choses qu’ils n’ont pas dites ou faites dans la vraie vie. Un bon exemple de cela est un deepfake de l’ancien président Barack Obama mettant en garde contre les dangers des deepfakes – avec des mots qu’il n’a jamais prononcés.

À la fin du mois dernier, une image de fumée apparemment générée par l’IA près du Pentagone à Washington, DC, accompagnée d’une affirmation selon laquelle une explosion avait eu lieu dans l’installation militaire, a provoqué une brève panique sur les marchés boursiers.

Pour l’industrie de la musique, un domaine de préoccupation immédiate est la prolifération de la musique qui s’approprie la voix d’un artiste connu dans une chanson générée par l’IA que l’artiste n’a jamais interprétée. Dans un de ces exemples, une piste générée par l’IA avec des voix de Drake et The Weeknd est devenue virale plus tôt cette année.

Il n’est pas clair si tous les opérateurs de moteurs de recherche et de sites de médias sociaux comme Facebook et TikTok disposent des outils nécessaires pour identifier le contenu généré par l’IA lorsqu’il apparaît, mais il est clair que beaucoup travaillent rapidement pour développer cette capacité.

Lors de sa conférence I/O en mai, Google a dévoilé un nouvel outil qui permet aux utilisateurs de vérifier si une image a été générée par l’IA, grâce à des données cachées intégrées dans des images générées par l’IA. Cet outil devrait être déployé au public cet été.

Le fabricant de logiciels d’édition d’images Adobe met en œuvre un outil appelé « informations d’identification de contenu » qui, entre autres, est capable de détecter quand une image a été modifiée par l’IA.

Des efforts similaires sont en cours parmi les entreprises du secteur de la musique. Le PDG de Believe, Denis Ladegaillerie, a déclaré en mai que la société travaillait avec des sociétés d’IA pour déployer des mécanismes de détection d’IA sur les plates-formes de Believe, et que ces outils devraient être en place d’ici un ou deux trimestres.

« Nous pensons que c’est une erreur de Twitter… Ils ont choisi la confrontation, ce qui a été très remarqué au sein de la Commission. »

Vera Jourova, Commission européenne

De plus, Twitter annoncé jeudi dernier (30 mai) qu’il déploie une fonctionnalité « Notes sur les médias » qui permettra aux utilisateurs de confiance d’ajouter des informations à une image, comme un avertissement qu’une image est générée par l’IA. Ce message apparaîtra même sur les doublons hébergés sur d’autres comptes Twitter. Twitter a cité les « images générées par l’IA » et les « vidéos en double » comme raisons de cette décision.

Cependant, contrairement à Adobe et Google, Twitter n’est pas signataire du Code de bonnes pratiques de l’UE. Le propriétaire Elon Musk aurait retiré le site de médias sociaux du groupe le mois dernier, suscitant une réponse sévère de la part de certains dirigeants d’EC.

« Les obligations demeurent », Thierry Breton, commissaire européen chargé du marché intérieur, dit dans un Tweet le 26 mai, disant à Twitter que « vous pouvez courir mais vous ne pouvez pas vous cacher ».

« Nous pensons que c’est une erreur de Twitter », a ajouté Jourova lundi, cité par Politique. « Ils ont choisi la confrontation, ce qui a été très remarqué à la Commission. »

Breton a noté qu’à partir du 25 août, le code de pratique ne sera plus volontaire, mais une obligation légale en vertu de la nouvelle loi sur les services numériques (DSA) de l’UE.

Dans le cadre de la DSA, les très grandes plates-formes en ligne (VLOP) comme Twitter et TikTok, et les moteurs de recherche largement utilisés comme Google et Bing, devront identifier les deepfakes – qu’il s’agisse d’images, d’audio ou de vidéo – avec des «marques proéminentes» ou faire face à de lourdes amendes .

Le Parlement européen travaille sur des règles similaires à appliquer aux entreprises générant du contenu d’IA dans le cadre de la loi sur l’IA, Politique rapports.

Les participants au Code de bonnes pratiques seront tenus de publier des rapports à la mi-juillet détaillant leurs efforts pour mettre fin à la désinformation sur leurs réseaux et leurs plans pour empêcher la désinformation générée par l’IA de se propager via leurs plateformes ou services, Politique ajoutée.L’industrie de la musique dans le monde