L'industrie de la musique pourrait être l'une des prochaines grandes perturbations de l'IA

L’industrie de la musique pourrait être l’une des prochaines grandes perturbations de l’IA

Crédit : Shutterstock

Ces dernières années ont vu une explosion des applications de l’intelligence artificielle dans les domaines créatifs. Une nouvelle génération de générateurs d’images et de texte offre des performances impressionnantes résultats. Désormais, l’IA a également trouvé des applications dans la musique.

La semaine dernière, un groupe de chercheurs de Google a sorti MusicLM-un générateur de musique basé sur l’IA qui peut convertir des invites de texte en segments audio. C’est un autre exemple du rythme rapide de l’innovation en quelques années incroyables pour l’IA créative.

Alors que l’industrie de la musique continue de s’adapter aux perturbations causées par Internet et les services de streaming, la façon dont l’IA pourrait changer la façon dont nous créons et expérimentons la musique suscite beaucoup d’intérêt.

Automatisation de la création musicale

Un certain nombre d’outils d’IA permettent désormais aux utilisateurs de générer automatiquement des séquences musicales ou des segments audio. Beaucoup sont gratuits et open source, comme Google Magenta boîte à outils.

Deux des approches les plus familières dans la génération de musique par IA sont :

  1. continuationoù l’IA continue une séquence de notes ou de données de forme d’onde, et

  2. harmonisation ou accompagnementoù l’IA génère quelque chose pour compléter l’entrée, comme des accords pour accompagner une mélodie.

Semblables à l’IA générant du texte et des images, les systèmes d’IA musicale peuvent être formés sur un certain nombre d’ensembles de données différents. Vous pouvez, par exemple, prolonger une mélodie de Chopin en utilisant un système entraîné dans le style de Bon Jovi, comme le montre magnifiquement OpenAI’s MuseNet.

De tels outils peuvent être une grande source d’inspiration pour les artistes atteints du « syndrome de la page blanche », même si l’artiste lui-même donne l’impulsion finale. La stimulation créative est aujourd’hui l’une des applications immédiates des outils d’IA créatifs.

Mais là où ces outils pourraient un jour être encore plus utiles, c’est dans l’extension de l’expertise musicale. Beaucoup de gens peuvent écrire une mélodie, mais moins savent manipuler habilement les accords pour évoquer des émotions, ou comment écrire de la musique dans une gamme de styles.

Bien que les outils d’IA musicale aient du chemin à parcourir pour faire de manière fiable le travail de musiciens talentueux, une poignée d’entreprises développent des plates-formes d’IA pour la génération de musique.

Boum prend le chemin minimaliste : les utilisateurs sans expérience musicale peuvent créer une chanson en quelques clics puis la réarranger. Aiva a une approche similaire, mais permet un contrôle plus fin ; les artistes peuvent éditer la musique générée note par note dans un éditeur personnalisé.

Il y a cependant un hic. Les techniques d’apprentissage automatique sont notoirement difficiles à contrôler, et générer de la musique à l’aide de l’IA est un peu un coup de chance pour l’instant ; vous pouvez parfois trouver de l’or en utilisant ces outils, mais vous ne savez peut-être pas pourquoi.

Un défi permanent pour les personnes qui créent ces outils d’IA est de permettre un contrôle plus précis et délibéré sur ce que produisent les algorithmes génératifs.

De nouvelles façons de manipuler le style et le son

Les outils d’IA musicale permettent également aux utilisateurs de transformer une séquence musicale ou un segment audio. Google Magenta Traitement du signal numérique différentiable la technologie de bibliothèque, par exemple, effectue le transfert de timbre.

Timbre est le terme technique désignant la texture du son – la différence entre un moteur de voiture et un sifflet. Le transfert de timbre permet de modifier le timbre d’un segment audio.

Ces outils sont un excellent exemple de la façon dont l’IA peut aider les musiciens à composer des orchestrations riches et à obtenir des sons complètement nouveaux. En premier Concours de chanson IAtenu en 2020, studio de musique basé à Sydney Vallée étrange (avec qui je collabore), a utilisé le transfert de timbre pour faire entrer des koalas chantants dans le mix.

Le transfert de timbre s’inscrit dans une longue histoire de techniques de synthèse devenues des instruments à part entière.

Démonter la musique

La génération et la transformation de la musique ne sont qu’une partie de l’équation. Un problème de longue date dans le travail audio est celui de la « séparation des sources ». Cela signifie être capable de décomposer un enregistrement audio d’une piste en ses instruments séparés.

Bien qu’elle ne soit pas parfaite, la séparation des sources alimentée par l’IA a parcouru un long chemin. Son utilisation est susceptible d’être un gros problème pour les artistes; dont certains n’aimeront pas que d’autres puissent « crocheter la serrure » sur leurs compositions.

Pendant ce temps, les DJ et les artistes de mashup auront un contrôle sans précédent sur la façon dont ils mixent et remixent les morceaux. Démarrage de la séparation à la source Audioshake affirme que cela fournira de nouvelles sources de revenus aux artistes qui permettent d’adapter plus facilement leur musique, comme pour la télévision et le cinéma.

Les artistes devront peut-être accepter que cette boîte de Pandore a été ouverte, comme ce fut le cas lorsque les synthétiseurs et les boîtes à rythmes sont arrivés et, dans certaines circonstances, ont remplacé le besoin de musiciens dans certains contextes.

Mais surveillez cet espace, car les lois sur le droit d’auteur offrent aux artistes une protection contre la manipulation non autorisée de leur travail. Cela est susceptible de devenir une autre zone grise dans l’industrie de la musique, et la réglementation pourrait lutter pour suivre.

De nouvelles expériences musicales

La popularité des playlists a révélé à quel point nous aimons écouter de la musique qui a une utilité « fonctionnelle »comme se concentrer, se détendre, s’endormir ou s’entraîner.

La start-up Endel a fait de la musique fonctionnelle alimentée par l’IA son modèle commercial, créant des flux infinis pour aider à maximiser certains états cognitifs.

La musique d’Endel peut être reliée à des données physiologiques telles que la fréquence cardiaque d’un auditeur. Son manifeste s’appuie fortement sur les pratiques de pleine conscience et fait la proposition audacieuse que nous pouvons utiliser « les nouvelles technologies pour aider notre corps et notre cerveau à s’adapter au nouveau monde », avec son rythme effréné et anxiogène.

D’autres start-up explorent également la musique fonctionnelle. Aimi examine comment les producteurs de musique électronique individuels peuvent transformer leur musique en flux infinis et interactifs.

L’application d’écoute d’Aimi invite les fans à manipuler les paramètres génératifs du système tels que « l’intensité » ou la « texture », ou à décider quand une chute se produit. L’auditeur s’engage avec la musique plutôt que d’écouter passivement.

Il est difficile de dire combien de choses lourdes l’IA fait dans ces applications – potentiellement peu. Même ainsi, ces avancées guident les visions des entreprises sur la façon dont l’expérience musicale pourrait évoluer à l’avenir.

L’avenir de la musique

Les initiatives mentionnées ci-dessus sont en conflit avec plusieurs conventions, lois et valeurs culturelles établies de longue date concernant la façon dont nous créons et partageons la musique.

Les lois sur le droit d’auteur seront-elles renforcées pour garantir que les entreprises qui forment des systèmes d’IA sur les œuvres d’artistes indemnisent ces artistes ? Et à quoi servirait cette compensation ? De nouvelles règles s’appliqueront-elles à la séparation à la source ? Les musiciens utilisant l’IA passeront-ils moins de temps à faire de la musique, ou feront-ils plus de musique que jamais auparavant ?

S’il y a une chose qui est certaine, c’est le changement. Au fur et à mesure qu’une nouvelle génération de musiciens grandit, immergés dans les possibilités créatives de l’IA, ils trouveront de nouvelles façons de travailler avec ces outils.

De telles turbulences n’ont rien de nouveau dans l’histoire de la technologie musicale, et ni les technologies puissantes ni les conventions permanentes ne devraient dicter notre avenir créatif.

Fourni par La Conversation