« Les métadonnées constituent le point faible de l’industrie ; à l’ère de l’IA, le coût des demi-mesures est bien plus élevé.

MBW Views est une série d’articles d’opinion rédigés par d’éminents personnalités de l’industrie musicale… avec quelque chose à dire. L’éditorial MBW suivant provient du fondateur de Deviate Digital, Sammy Andrews.


Il ne se passe pas un jour sans que j’aie plusieurs conversations sur l’IA dans la musique.

J’ai récemment voyagé au (le plus excellent) marché de la musique de Bogotá en Colombie et j’ai été fasciné d’entendre en personne les conversations mondiales, tout en étant parfaitement conscient de la législation potentielle, parfois hyperlocale.

Vous pouvez être sûr que peu importe où vous vous trouvez dans le monde, les managers, les labels, les DSP, les éditeurs, les artistes, les auteurs-compositeurs, les spécialistes du marketing, les équipes financières et les sociétés ont tous des points de vue, mais de plus en plus, ils sont rarement alignés de manière percutante.

Certains voient l’IA comme un outil créatif et opérationnel véritablement utile. D’autres y voient un siphon sur les redevances et les droits. Les deux perspectives ont du mérite.

Le défi pour l’industrie mondiale à l’heure actuelle est d’aller au-delà des opinions concurrentes et de commencer à construire des systèmes qui fonctionnent réellement, sans pour autant étouffer le potentiel technologique des gouvernements pour leurs pays.

La première étape consiste à abandonner le faux récit en noir et blanc et à examiner plus attentivement et plus attentivement la manière dont l’IA est réellement utilisée. Lorsqu’elle participe à une production dirigée par l’homme, en générant des tiges, en nettoyant une voix ou en gérant le mastering, la paternité reste humaine.

Les questions portent alors sur les contributions et la divulgation : les droits à la ressemblance ont-ils été accordés ? Les données de formation ont-elles été obtenues légalement ? Le rôle de l’IA a-t-il été déclaré ?

Certaines plateformes ont déjà rendu cela obligatoire. YouTube exige que les créateurs signalent le contenu synthétique réaliste. TikTok a commencé à intégrer des informations d’identification de contenu qui voyagent avec l’audio. Meta étiquette les médias synthétiques dans l’ensemble de ses services. La divulgation n’est plus une question de marque ; c’est devenu une conformité.

La sortie entièrement native de l’IA est une autre affaire. Aux États-Unis, les œuvres sans paternité humaine ne sont pas protégées par le droit d’auteur, ce qui supprime les redevances légales et l’exclusivité. Les droits ne peuvent être revendiqués que par le biais de contrats, de marques commerciales ou des conditions de la plateforme.

La Chine a reconnu certains produits de l’IA pour lesquels l’apport humain est considéré comme créatif, tout en imposant des règles d’étiquetage contraignantes aux développeurs et aux distributeurs.

Le Royaume-Uni s’accroche toujours à une clause désuète sur les « œuvres générées par ordinateur » qui ne répond guère aux réalités d’aujourd’hui.

Le Japon et Singapour autorisent de larges exceptions à l’exploration de textes et de données pour la formation, mais ils restent flous sur la manière dont les résultats sont traités.

Le résultat est une mosaïque de régimes juridiques dans lesquels la même piste peut être protégée dans un pays et tomber dans le domaine public dans un autre.

Les DSP réagissent, mais extrêmement lentement. L’une des plus grandes sociétés a supprimé des dizaines de millions de pistes au cours de l’année écoulée pour suspicion de fraude ou de manipulation. Il prépare actuellement des règles plus strictes sur l’usurpation d’identité, des filtres anti-spam pour étouffer les téléchargements massifs en double et les divulgations d’IA effectuées via les métadonnées DDEX.

Ces mesures reconnaissent l’ampleur du problème, mais leur efficacité dépendra entièrement de leur exécution. Les filtres doivent bloquer la manipulation sans pénaliser les artistes légitimes, et les divulgations doivent circuler de manière cohérente tout au long de la chaîne. Sans cela, l’apparence du progrès risque de n’être qu’une façade.

La question la plus complexe et non résolue est celle de savoir ce qui est considéré comme « assez humain ». Un rappeur sur des rythmes générés par l’IA, un groupe utilisant l’IA pour le mixage, une voix peaufinée avec des outils génératifs ; chacun implique différents niveaux d’intervention de la machine.

À l’heure actuelle, il n’existe aucun seuil universellement ni même accepté au niveau national. Laisser les plateformes définir cela de manière indépendante risque de créer un environnement fragmenté dans lequel les règles passent d’un service à l’autre. Ce dont l’industrie a besoin, c’est d’un cadre partagé, développé avec les titulaires de droits, les créateurs et les régulateurs, qui puisse être appliqué de manière cohérente dans toutes les sociétés, les DSP et les licences.

La vérification est un autre maillon faible. PRS a introduit des contrôles « Connaissez votre client », mais la plupart des distributeurs ne l’ont pas fait. Sans normes d’intégration cohérentes, les acteurs frauduleux peuvent migrer librement entre les services.

Les programmes de partenaires privilégiés et les marques de vérification semblent crédibles mais ne signifient rien sans une véritable diligence raisonnable et des conséquences pour ceux qui autorisent le spam.

Cette faiblesse explique en partie pourquoi Deezer signale désormais chaque jour plus de 30 000 titres entièrement générés par l’IA, soit près d’un tiers de tous les nouveaux téléchargements, avec jusqu’à 70 % des flux de ces titres signalés identifiés comme frauduleux.

Ces téléchargements n’encombrent pas seulement les plateformes, ils faussent les pools de redevances. D’autres services sont restés silencieux, et ce manque de transparence est en soi un problème. Si des flux sont siphonnés, les titulaires de droits doivent en connaître l’ampleur afin de mener leurs activités en conséquence.

L’impact ne se limite pas à l’Europe ou à l’Amérique du Nord. En Amérique latine, les musiciens protestent contre ce qu’ils décrivent comme une inondation d’IA, se plaignant que leurs catalogues soient ensevelis sous des morceaux synthétiques sur Spotify, Deezer et YouTube Music.

« L’IA est mondiale, mais les systèmes permettant de la gouverner sont fragmentés. »

Au-delà des redevances, ils sont confrontés à l’usurpation d’identité et à l’érosion de leur visibilité. La leçon est évidente : l’IA est mondiale, mais les systèmes permettant de la gouverner sont fragmentés, et les artistes des marchés en développement sont souvent confrontés aux perturbations les plus graves.

Les métadonnées offrent des réponses partielles. L’ISRC reste neutre en termes de processus et ne devrait pas, à mon avis, être divisé en codes « humain » et « IA », mais il ne capture pas la provenance. DDEX a tenté de résoudre ce problème avec ERN v4.3.1, qui introduit des indicateurs facultatifs pour indiquer quand un enregistrement ou une contribution a été effectuée entièrement ou partiellement avec l’IA générative.

Cela intègre la divulgation dans la même chaîne d’approvisionnement qui régit déjà les données de diffusion, les droits et les prix. Du côté du contenu, les informations d’identification C2PA permettent d’intégrer la provenance dans les fichiers audio, tandis que ISCC crée des empreintes digitales qui aident à détecter les doublons et à gérer la fraude.

Ce sont des outils utiles, mais ils sont incomplets. Les champs DDEX sont facultatifs, ils ne nécessitent pas la divulgation du modèle ou du fournisseur spécifique et ils laissent le terme « partiellement » indéfini.

Un certain élan est en train de se créer. Universal Music Group et Beggars Group se sont engagés à utiliser ces standards, et les distributeurs commencent à les suivre. En mai de cette année, SonoSuite a mis à niveau ses flux Spotify vers ERN 4.3 dans le cadre de son statut de fournisseur privilégié. En juin, Revelator a fait de même.

La mise en œuvre commence mais, jusqu’à ce que l’adoption soit universelle, les avantages resteront limités. Les métadonnées ont toujours été le point faible du secteur ; À l’ère de l’IA, le coût des demi-mesures est bien plus élevé.

Les réponses politiques divergent. La loi européenne sur l’IA est désormais en vigueur, et les obligations de transparence seront étoffées par des actes délégués plus tard cette année.

Le Bureau américain du droit d’auteur a tenu bon sur la paternité humaine, tandis que les poursuites judiciaires contre les développeurs d’IA s’accumulent, créant des règlements qui fournissent des garde-fous partiels mais peu de véritable clarté.

Le Royaume-Uni a lancé une exception en matière de formation avec une option de non-participation pour les titulaires de droits, mais sans transparence obligatoire des ensembles de données, la non-participation est effectivement inapplicable.

La résistance se construit. En septembre, le syndicat des musiciens a adopté une motion au Congrès des syndicats exigeant un projet de loi sur l’IA prévoyant une protection plus forte des droits d’auteur et une rémunération équitable pour les créateurs.

La Chine a déjà imposé des règles contraignantes exigeant un étiquetage à la fois visible et intégré du contenu synthétique. L’OMPI, malgré des années de consultations, n’a pas réussi à proposer des normes applicables.

Pendant ce temps, les tribunaux aux États-Unis et en Europe sont toujours aux prises avec la question fondamentale : la formation sur des œuvres protégées par le droit d’auteur sans consentement constitue-t-elle une violation, ou non ?

Les données sur la formation en matière de licences restent le déficit structurel. Les accords individuels ne peuvent pas évoluer. Les licences collectives constituent le seul modèle viable, mais la plupart des sociétés ont hésité et ont laissé les éditeurs se lancer dans des actions en justice et les labels conclure des accords bilatéraux.

Le STIM suédois a innové en proposant une licence collective d’IA pour les créateurs qui y participent, exigeant une technologie d’attribution telle que Sureel pour suivre la manière dont les œuvres influencent les résultats et rendre les flux de revenus vérifiables en temps réel. Cela peut devenir un modèle pour d’autres.

Dans le même temps, l’arrivée de modèles axés sur l’entreprise, comme Stable Audio 2.5 de Stability AI, montre que des cadres de licence robustes ne constituent pas un besoin théorique, mais une nécessité commerciale.

Il convient de rappeler que l’IA n’est pas seulement un perturbateur, elle est également utilisée pour remédier aux faiblesses existantes de l’industrie. BMG, en collaboration avec Google Cloud, a lancé StreamSight, un outil conçu pour accélérer la prévision des redevances et rendre les processus de paiement plus transparents.

Cela illustre le double avantage de l’IA : la même technologie qui menace de submerger le système est également déployée pour le moderniser.

« Avant que quiconque se précipite pour légiférer ou réécrire les contrats, l’industrie devrait se demander si elle est prête à jeter des pierres sur les maisons de verre. »

L’IA fait désormais partie de la création musicale. Parfois c’est un outil de studio, parfois un collaborateur, parfois le compositeur principal. La tâche n’est pas de le rejeter mais de l’intégrer dans des systèmes qui protègent l’attribution et la valeur. Cela nécessite une divulgation claire, une vérification plus rigoureuse, un contrôle efficace de la fraude et des licences évolutives.

Le vrai risque n’est pas que l’IA submerge l’industrie. Le véritable risque est que les systèmes qui sous-tendent la musique enregistrée restent fragmentés. Des normes existent mais sont appliquées de manière incohérente. Les lois progressent mais ne sont pas alignées. Les plateformes se mobilisent mais hésitent encore à publier les données qui prouveraient leur efficacité.

Et avant que quiconque se précipite pour légiférer, étiqueter ou réécrire les contrats, l’industrie devrait se demander si elle est prête à jeter des pierres sur les maisons de verre. Les catalogues sont déjà remplis de métadonnées incohérentes, de crédits manquants et, dans certains cas, de titres portant des empreintes digitales d’IA dont personne n’a admis l’existence – et à certains endroits, je soupçonne que la législation aurait un impact disproportionné sur certains genres, comme l’électronique.

Des entreprises comme Uhmbrella offrent désormais la possibilité d’auditer des catalogues entiers, en analysant les enregistrements à la recherche d’une implication de l’IA, de lacunes dans les métadonnées ou de contenu génératif non étiqueté. Si les labels, les éditeurs et les distributeurs ne nettoient pas d’abord leurs propres étagères, ils risquent d’établir de nouvelles règles sur un terrain fragile.

Essayer d’imposer l’ordre tout en ignorant ce qui existe déjà dans le système est une invitation à des redevances mal réparties, à des responsabilités cachées et à des luttes inutiles avec les artistes.

À moins que ces lacunes ne soient affrontées de front, la confiance dans le streaming s’affaiblira encore davantage et l’IA continuera de révéler à quel point les fondations de cette industrie étaient déjà fragiles.


Cet article a été initialement publié dans le dernier numéro (T3 2025) de la publication trimestrielle premium de MBW, Music Business UK, qui est maintenant disponible.

MBUK est disponible dans le cadre d’un abonnement MBW+ – détails ici.

Tous les abonnés physiques recevront une édition numérique gratuite avec chaque numéro.