Pourquoi je viens de démissionner de mon travail dans l’IA générative.

MBW Views est une série d’articles d’opinion exclusifs rédigés par d’éminents personnalités de l’industrie musicale… avec quelque chose à dire. L’article suivant est un peu différent des articles habituels à la première personne que nous publions : il s’agit en quelque sorte d’une lettre de démission publique.

Ed Newton-Rex est l’une des figures les plus marquantes de l’évolution de l’IA générative dans le domaine musical.

L’entrepreneur basé en Californie a fondé Jukedeck, une plateforme pionnière d’IA en matière de création musicale, il y a plus de dix ans, avant de la vendre à TikTok/ByteDance en 2019. Il est ensuite devenu directeur produit du laboratoire d’IA interne de TikTok, avant de devenir directeur produit de l’application musicale. Voisey (vendu à Snap fin 2020).

Depuis l’année dernière, Newton-Rex travaille chez Stability AI, siège du créateur d’images génératif d’IA, Stable Diffusion. L’année dernière, Stability AI a levé 101 millions de dollars pour une valorisation de 1 milliard de dollars.


Newton-Rex a eu un impact important chez Stability AI en relativement peu de temps.

En tant que vice-président de l’audio au sein de l’entreprise, il a dirigé le développement de Stable Audio, une plateforme de création musicale générative d’IA formée sur la musique sous licence en partenariat avec les titulaires de droits. Le mois dernier, Stable Audio a été nommée l’une des « meilleures inventions de 2023 » par Time.

Malgré ce succès, Newton-Rex vient de quitter son poste chez Stability pour une question de principe.

Lui-même compositeur classique publié, Newton-Rex a toujours été, tout au long de sa carrière, convaincu de l’importance du droit d’auteur pour les artistes, les auteurs-compositeurs et les titulaires de droits.

Comme il l’explique ci-dessous, le respect personnel de Newton-Rex pour le droit d’auteur s’est quelque peu heurté à celui de son employeur ces dernières semaines, après que Stability AI ait plaidé en faveur de « l’utilisation équitable » du matériel protégé par le droit d’auteur pour alimenter l’IA générative dans le cadre d’une soumission au US Copyright. Bureau. (Comme le souligne Newton-Rex, plusieurs autres grandes sociétés d’IA générative partagent la position de Stability à ce sujet.)

Un autre contexte récent : la décision de Newton-Rex de démissionner de Stability AI intervient alors que le débat sur la « récolte » de musique protégée par le droit d’auteur par les plateformes d’IA générative devient encore plus bruyant.

La semaine dernière, la superstar Bad Bunny a exprimé sa fureur face à un morceau généré par l’IA qui reproduit artificiellement le son de sa voix, ainsi que celle de Justin Bieber et Daddy Yankee.

Le créateur présumé de ce morceau, qui compte plus de 22 millions d’écoutes sur TikTok, s’appelle FlowGPT.

Dans un message en réponse à Bad Bunny publié sur TikTok, FlowGPT a proposé de laisser l’artiste réenregistrer le morceau généré par l’IA « gratuitement avec tous les droits… mais n’oubliez pas de créditer FlowGPT ».

Pire encore : si l’équipe de Bad Bunny parvenait à supprimer le morceau des plateformes numériques, FlowGPT menaçait : « Je devrai télécharger une nouvelle version ».

Passons à Ed…


J’ai démissionné de mon rôle de dirigeant de l’équipe audio chez Stability AI, car je ne suis pas d’accord avec l’opinion de l’entreprise selon laquelle la formation de modèles d’IA génératifs sur des œuvres protégées par le droit d’auteur constitue un « usage équitable ».

Tout d’abord, je tiens à dire qu’il y a beaucoup de gens à Stability qui réfléchissent profondément à ces questions. Je suis fier que nous ayons pu lancer un produit de génération de musique IA de pointe formé sur des données de formation sous licence, partageant les revenus du modèle avec les titulaires de droits. Je suis reconnaissant à mes nombreux collègues qui ont travaillé là-dessus avec moi et qui ont soutenu notre équipe, et particulièrement à Emad de nous avoir donné l’opportunité de le construire et de l’expédier. Je suis reconnaissant pour mon séjour chez Stability et, à bien des égards, je pense qu’ils ont un point de vue plus nuancé sur ce sujet que certains de leurs concurrents.

Mais malgré cela, je n’ai pas pu changer l’opinion dominante sur l’usage équitable au sein de l’entreprise.

« Je ne vois pas comment l’utilisation d’œuvres protégées par le droit d’auteur pour former des modèles d’IA génératifs de cette nature peut être considérée comme une utilisation équitable. »

Cela est devenu clair lorsque le Bureau américain du droit d’auteur a récemment invité le public à formuler des commentaires sur l’IA générative et le droit d’auteur, et Stability a été l’une des nombreuses sociétés d’IA à répondre. La soumission de 23 pages de Stability incluait ceci sur sa page d’ouverture :

« Nous pensons que le développement de l’IA constitue une utilisation acceptable, transformatrice et socialement bénéfique du contenu existant, protégé par un usage équitable ».

Pour ceux qui ne sont pas familiers avec « l’utilisation équitable », cela prétend que la formation d’un modèle d’IA sur des œuvres protégées par le droit d’auteur ne porte pas atteinte au droit d’auteur sur ces œuvres, et peut donc être effectuée sans autorisation et sans paiement. Il s’agit d’une position assez courante dans de nombreuses grandes sociétés d’IA générative et dans d’autres grandes entreprises technologiques qui construisent ces modèles – c’est loin d’être une vision propre à Stability. Mais c’est une position avec laquelle je ne suis pas d’accord.

Je ne suis pas d’accord car l’un des facteurs déterminant si l’acte de copie constitue un usage loyal, selon le Congrès, est « l’effet de l’utilisation sur le marché potentiel ou la valeur de l’œuvre protégée par le droit d’auteur ». Les modèles d’IA générative d’aujourd’hui peuvent clairement être utilisés pour créer des œuvres qui concurrencent les œuvres protégées par le droit d’auteur sur lesquelles ils sont formés. Je ne vois donc pas comment l’utilisation d’œuvres protégées par le droit d’auteur pour former des modèles d’IA génératifs de cette nature peut être considérée comme une utilisation équitable.

« Des entreprises valant des milliards de dollars forment, sans autorisation, des modèles d’IA génératifs sur les œuvres des créateurs, qui sont ensuite utilisés pour créer de nouveaux contenus qui, dans de nombreux cas, peuvent rivaliser avec les œuvres originales. Je ne vois pas comment cela peut être acceptable.

Mais en mettant de côté pour un instant l’argument de l’utilisation équitable – puisque « l’utilisation équitable » n’a pas été conçue avec l’IA générative à l’esprit – former des modèles d’IA générative de cette manière est, pour moi, une erreur. Des entreprises valant des milliards de dollars forment, sans autorisation, des modèles d’IA génératifs sur les œuvres des créateurs, qui sont ensuite utilisés pour créer de nouveaux contenus qui, dans de nombreux cas, peuvent rivaliser avec les œuvres originales. Je ne vois pas comment cela peut être acceptable dans une société qui a mis en place l’économie des arts créatifs de telle sorte que les créateurs dépendent du droit d’auteur.

Pour être clair, je suis partisan de l’IA générative. Cela présentera de nombreux avantages – c’est pourquoi j’y travaille depuis 13 ans. Mais je ne peux que soutenir une IA générative qui n’exploite pas les créateurs en formant des modèles – qui pourraient les remplacer – sur leur travail sans autorisation.

Je suis sûr que je ne suis pas la seule personne au sein de ces sociétés d’IA générative à ne pas penser que l’affirmation d’une « utilisation équitable » est juste pour les créateurs. J’espère que d’autres prendront la parole, en interne ou en public, afin que les entreprises comprennent que l’exploitation des créateurs ne peut pas être la solution à long terme en matière d’IA générative.

Ed Newton-Rex