Que signifie la nouvelle loi sur l’IA de l’UE pour les startups technologiques et les titulaires de droits ?

MBW explique est une série de fonctionnalités analytiques dans lesquelles nous explorons le contexte derrière les principaux points de discussion de l’industrie musicale – et suggérons ce qui pourrait se passer ensuite.

CE QUI S’EST PASSÉ?

L’Union européenne a fait un grand pas en avant pour devenir la première grande juridiction dotée d’une loi complète guidant le développement de l’IA – et dans le processus, elle s’est potentiellement mise en place pour lutter contre les entreprises technologiques américaines.

Le Parlement européen, l’organe législatif de l’UE, a voté mercredi en faveur de la loi sur l’IA, un ensemble de nouvelles règles qui, entre autres, imposeraient des restrictions sur les outils d’IA générative comme ChatGPT.

Le projet de loi interdirait également un certain nombre de pratiques rendues possibles par l’IA, telles que la reconnaissance faciale en temps réel, les outils de police prédictive et les systèmes de notation sociale, tels que ceux utilisés par la Chine pour donner aux citoyens des scores en fonction de leur comportement public.

« [This is] la toute première législation horizontale sur l’IA au monde, qui, nous en sommes convaincus, établira un véritable modèle de gouvernance de ces technologies avec le juste équilibre entre le soutien à l’innovation et la protection des valeurs fondamentales », a déclaré Brando Benifei, membre du Parlement européen (député ) d’Italie, cité par Politico.

En vertu de la proposition de loi de l’UE, l’utilisation de l’IA serait évaluée en fonction du degré de risque encouru.

Pour les utilisations «à haut risque» – telles que l’exploitation d’infrastructures critiques comme l’énergie et l’eau, dans le cadre du système juridique, l’embauche, le contrôle des frontières, l’éducation et la prestation de services publics et les avantages gouvernementaux – les développeurs de technologies d’IA devront effectuer des évaluations des risques dans un processus le New York Times compare aux règles d’approbation des nouveaux médicaments.

En ce qui concerne les applications d’IA quotidiennes comme ChatGPT, la loi ne réglemente pas automatiquement leur utilisation, mais elle exige que les développeurs de « modèles de base » – ces applications d’IA qui s’entraînent sur d’énormes quantités de données – déclarent si les matériaux protégés par le droit d’auteur ont été utilisé pour former l’IA.

Cependant, comme le note Time Magazine, la réglementation ne répond pas aux attentes de certains militants, car elle n’oblige pas les développeurs d’IA à déclarer si des informations personnelles ont été utilisées dans la formation des modèles d’IA.


QUEL EST LE CONTEXTE ?

Depuis que ChatGPT a explosé sur la scène à la fin de l’année dernière, les gouvernements du monde entier se sont efforcés de s’adapter à la réalité que la technologie d’intelligence artificielle généralisée n’est pas juste au coin de la rue – elle est ici, et entre les mains des entreprises et des consommateurs le monde entier.

Cependant, alors que certains gouvernements, comme celui des États-Unis, partent essentiellement de zéro sur la législation sur l’IA, l’UE travaille sur la question depuis plus de deux ans à ce stade.

Mais cela n’en fait pas le premier à sortir de la réglementation. En avril, l’administration chinoise du cyberespace a publié son deuxième ensemble de règles guidant le développement et l’utilisation de l’IA.

Selon le premier ensemble de règles, tout contenu généré par l’IA doit être clairement étiqueté, et si l’image ou la voix de quelqu’un est utilisée, l’utilisateur de l’IA doit obtenir une autorisation préalable.

Le deuxième ensemble de règles obligerait les entreprises technologiques à soumettre des évaluations de sécurité de leurs technologies d’IA à un « département national d’information sur le réseau » avant que leurs services d’IA puissent être proposés aux consommateurs. Les règles créent également un mécanisme pour les plaintes des consommateurs concernant l’IA.

Dans ce contexte, les États-Unis – où une grande partie de la technologie de l’IA générative est en cours de développement – ​​semblent prendre du retard. Selon le Washington Post, les législateurs ne font que commencer à travailler sur la question et ne devraient pas entamer de discussions sur une législation spécifique avant l’automne.

Entre-temps, l’exécutif américain a fait quelques pas en avant, l’administration Biden publiant quelques idées pour une «déclaration des droits de l’IA» et le US Copyright Office lançant une initiative pour examiner les implications de l’IA en matière de droit d’auteur.

S’il est probable que les réglementations sur l’IA dans différents pays verront une certaine convergence au fur et à mesure de leur développement, une exception semble être le Japon, qui espère devenir un acteur majeur de l’IA en adoptant une approche plus laxiste pour réglementer le domaine.

Lors d’une audition publique fin avril, le ministre japonais de l’Éducation, de la Culture, des Sports, de la Science et de la Technologie, Keiko Nagaoka, a déclaré que, de l’avis du gouvernement, les lois japonaises sur le droit d’auteur n’interdisent pas l’utilisation de l’IA de formation sur du matériel protégé par le droit d’auteur.

C’est un signe que le Japon utilise peut-être certains principes de la théorie des jeux pour attirer les entreprises qui développent l’IA. Donner aux développeurs d’IA plus de latitude qu’ils n’en auraient aux États-Unis ou en Europe pourrait les inciter à s’installer au Japon.


QUE SE PASSE-T-IL MAINTENANT ?

La proposition de loi sur l’IA de l’UE passera maintenant à l’étape du « trilogue » de l’élaboration de la législation de l’UE, où les fonctionnaires négocieront une forme finale de la loi, après des négociations avec la Commission européenne, représentant la branche exécutive du gouvernement, et le Conseil européen, qui représente les différents États membres de l’UE.

Ce processus devra être achevé d’ici janvier si la loi doit entrer en vigueur avant le prochain tour des élections législatives européennes l’année prochaine. En attendant, le projet de loi risque de rassembler partisans et opposants.

Parmi les partisans probables figurent des sociétés d’enregistrement de musique, dont certaines ont récemment exprimé leurs inquiétudes concernant les modèles d’IA utilisant des pistes protégées par le droit d’auteur pour s’entraîner à créer de la musique.

Ils soutiendront probablement cette partie de la législation de l’UE qui oblige les développeurs d’IA à divulguer l’utilisation de matériel protégé par le droit d’auteur lors de la formation de modèles d’IA. Cependant, la règle exige la divulgation – elle n’interdit pas catégoriquement l’utilisation de matériel protégé par le droit d’auteur pour la formation. Cela signifie que certains titulaires de droits pourraient faire pression à l’avenir pour des restrictions plus strictes sur le développement de l’IA.

« [This is] la toute première législation horizontale sur l’IA au monde, qui, nous en sommes convaincus, établira un véritable modèle de gouvernance de ces technologies avec un juste équilibre entre le soutien à l’innovation et la protection des valeurs fondamentales.

Brando Benifei, député européen

Mais cette même règle pourrait mettre l’UE sur la voie d’un conflit avec certains développeurs d’IA. Sam Altman, PDG du fabricant de ChatGPT OpenAI, a averti le mois dernier que son entreprise pourrait se retirer de l’Europe si la loi proposée était trop stricte. Cependant, il est revenu sur ces commentaires quelques jours plus tard.

Néanmoins, ce n’est un secret pour personne que les grands modèles de langage – la technologie fondamentale derrière les applications d’IA – s’entraînent sur de grands volumes de matériel, et il pourrait être difficile pour les développeurs de faire le tri entre les matériaux sources protégés par le droit d’auteur et non protégés par le droit d’auteur.

Outre les titulaires de droits et les entreprises technologiques, d’autres parties prenantes voudront avoir leur mot à dire sur la législation avant son adoption. Comme le rapporte Time, le Conseil européen devrait défendre les intérêts des forces de l’ordre, qui souhaitent une exemption des règles d’évaluation des risques de la loi sur l’IA de l’UE pour leurs propres utilisations de la technologie de l’IA.


UNE DERNIÈRE PENSÉE…

Les nouvelles règles de l’UE ont suscité beaucoup de discussions sur le rôle émergent de l’Europe en tant que leader mondial dans le développement de la politique numérique.

Le vote sur la loi sur l’IA « consolide la position de l’Europe en tant que régulateur technologique mondial de facto, établissant des règles qui influencent l’élaboration des politiques technologiques dans le monde et des normes qui se répercuteront probablement sur tous les consommateurs », a déclaré le Washington Post.

« Ce moment est extrêmement important », a déclaré Daniel Leufer, analyste principal des politiques d’Access Now, à Time. « Ce que l’Union européenne dit constituer un risque inacceptable pour les droits de l’homme sera considéré comme un modèle dans le monde entier. »

Cette réputation d’être à l’avant-garde du droit numérique a vraiment commencé avec le règlement général sur la protection des données (RGPD) de l’UE, un ensemble de règles destinées à protéger la vie privée des personnes en ligne qui est entré en vigueur en 2018. Bien qu’il ne concerne que les citoyens de l’UE, dans le monde sans frontières monde en ligne, il a effectivement obligé les entreprises et les organisations du monde entier à adapter leurs politiques de confidentialité au droit de l’UE – et la plupart l’ont fait.

Cependant, la réglementation de l’IA est un territoire inexploré, et certains acteurs de l’industrie technologique craignent que l’UE ne réglemente excessivement le secteur, ce qui pousserait les entreprises d’IA hors d’Europe et vers des juridictions aux règles plus laxistes, comme le Japon, et peut-être les États-Unis, pourrait s’avérer être.

« Ce qui m’inquiète, c’est la manière [the law is] construit », a déclaré Robin Rohm, co-fondateur et PDG de la startup berlinoise d’intelligence artificielle Apheris, à Sifted dans une récente interview. « Nous mettrons beaucoup de bureaucratie inutile sur les entreprises qui innovent rapidement. »

Piotr Mieczkowski, directeur général de Digital Poland, l’a dit ainsi : « Les startups iront aux États-Unis, elles se développeront aux États-Unis, puis elles reviendront en Europe en tant qu’entreprises développées, des licornes, qui pourront pour payer des avocats et des lobbyistes… Nos entreprises européennes ne fleuriront pas, car personne n’aura assez d’argent pour embaucher suffisamment d’avocats.

Si la loi sur l’IA entraîne effectivement un retard de l’Europe dans le développement de l’IA et d’autres technologies numériques avancées, cette réputation d’établissement de règles mondiales pourrait tomber à l’eau.

Mais en attendant, les parties prenantes cherchant à influencer le développement de la loi sur l’IA voudront peut-être réserver un vol, non pas pour Washington, mais pour Bruxelles.L’industrie de la musique dans le monde