Génération de musique en boucle.

Le nouveau projet d'Adobe veut conquérir la musique générative

Que cette année nous verrons des applications infinies de l’IA générative n’est un secret pour personne. Nous sommes familiers avec la génération de texte et d'images et nous aidons à la génération synthétique de vidéo. Et la musique aussi. Nous avons déjà vu plusieurs expériences liées à la génération de clips audio par, entre autres, Google, Microsoft et Meta, donc ce n'était qu'une question de temps avant qu'Adobe, la société derrière Photoshop et Illustrator, annonce sa propre technologie.

Projet MusicGenAI Contrôle. C'est le nom du projet sur lequel Adobe travaille et qui a été annoncé lors du Hot Pod Summit qui a eu lieu cette semaine. Ce système fait partie de Firefly, la famille de modèles d'intelligence artificielle d'Adobe, et son fonctionnement semble assez simple : il suffit d'indiquer à l'IA ce que l'on recherche via du texte et l'IA le génère.

« Musique de tension ». Comme la grande majorité des outils d’IA générative, Project MusicGen AI fonctionne à travers le texte. L'utilisateur n'a qu'à saisir ce dont il a besoin, comme « musique de tension », « happy beat », « soft jazz » ou « ambiance chill » et l'IA s'occupe du reste. Non seulement cela, mais le modèle est également capable d'ajuster l'audio en fonction de l'audio de référence, afin que vous puissiez prolonger la durée d'un clip.

Une des choses qui n'a pas encore été montrée est l'interface de l'outil

Et maintenant, édition. Il est possible (et probable) que le résultat généré par l'IA ne soit pas exactement ce que nous recherchons, c'est pourquoi l'outil nous permet d'éditer le son. Toujours en utilisant du texte, on peut convertir l'audio généré en audio de référence, ajuster le tempo, la structure, ajouter des motifs répétitifs (pour les refrains par exemple), augmenter ou réduire l'intensité ou simplement créer une boucle (idéal pour la musique de fond dans une vidéo). ).

Génération de musique en boucle.

Le Photoshop de la musique. La capacité d'édition est ce qui différencie le modèle Adobe des autres propositions disponibles ou en développement. Selon Nicholas Bryan, chercheur scientifique principal chez Adobe Research :

« L'une des choses les plus intéressantes de ces nouveaux outils est qu'ils ne se contentent pas de générer de l'audio, mais qu'ils l'élèvent au niveau de Photoshop en donnant aux créateurs le même type de contrôle approfondi pour façonner, ajuster et éditer leur audio. une sorte de contrôle au niveau des pixels pour la musique. »

Sony annonce le Beatles Cinematic Universe : le modèle Marvel s'étend à toute l'industrie jusqu'à des extrêmes inhabituels

Pour l'instant, une enquête. C’est ce qu’est ce projet en ce moment, une enquête. Nous ne savons pas si Adobe a l'intention de le lancer commercialement ou s'il sera disponible sous forme de démonstration d'une manière ou d'une autre, bien qu'en regardant les récentes initiatives de l'entreprise, on s'attend à ce que nous voyions cette IA intégrée dans l'un de ses produits plus tôt que prévu. plus tard. On peut penser à Première ou Audition, sans aller plus loin. Question de temps.

Images | Unsplash, Adobe

À Simseo | La meilleure chanson pour tester les performances de votre casque, selon un chercheur du son qui l'utilise depuis 35 ans