Musique : les artistes vont pouvoir "empoisonner" leurs œuvres pour que les algorithmes ne puissent plus s’en inspirer
On a tous entendu les reprises improbables d’Adèle ou du groupe Oasis où ce n’est pas eux qui chantent, mais une intelligence artificielle. Tout est généré par l'IA. En 2024, c’est devenu très simple. Il existe des dizaines d’outils permettant de générer de la musique dans le style de n’importe qui. Des chansons souvent créées sans le consentement des artistes et surtout sans aucune compensation.
Une sorte de brouilleur
Des scientifiques de l’université du Tennessee ont créé HarmonyCloak. Un outil capable de transformer sa voix ou sa musique, mais uniquement pour l’intelligence artificielle. En fait, l’outil rajoute des sons inaudibles pour nous, les humains, mais parfaitement étudiés pour tromper les algorithmes de l’intelligence artificielle. L’idée est donc de s’en servir pour empoisonner sa musique avant de la publier sur internet. Quand les géants de l’IA iront balayer le web et les plateformes pour entraîner leurs algorithmes, ils récupéreront des voix et des musiques complètement maquillées. Du coup, elles seront impossibles à imiter. Cela devrait les obliger à demander l’autorisation s’ils veulent avoir accès à une version "propre" parfaitement exploitable. Le même type d’outil existe également pour les images. Ce ne sera malheureusement efficace que pour les prochaines œuvres publiées sur internet. Pour les existantes, malheureusement, il est trop tard. Elles ont déjà été pillées par les intelligences artificielles.
Lancez la conversation
Connectez-vous à votre compte franceinfo pour commenter.