Découvrez les incroyables outils GenAI de Google pour créer de la musique en un clin d’œil !

Google dévoile MusicFX, un outil de génération de musique amélioré

Google a annoncé aujourd’hui MusicFX, une mise à niveau de MusicLM, l’outil de génération de musique que Google a lancé l’année dernière. MusicFX peut créer des morceaux de musique jusqu’à 70 secondes de longueur et des boucles musicales, offrant ce que Google prétend être une génération de musique « de meilleure qualité » et « plus rapide ».

MusicFX est disponible dans le AI Test Kitchen de Google, une application qui permet aux utilisateurs d’essayer des systèmes expérimentaux alimentés par l’IA développés par les laboratoires de l’entreprise. Techniquement, MusicFX a été lancé pour certains utilisateurs en décembre – mais maintenant il est disponible pour tous.

Une amélioration par rapport à son prédécesseur

Tout comme son prédécesseur, MusicFX permet aux utilisateurs de saisir une description textuelle (« deux guitares à cordes de nylon jouant dans un style flamenco ») pour décrire la chanson qu’ils souhaitent créer. L’outil génère par défaut deux versions de 30 secondes, avec des options pour allonger les morceaux (jusqu’à 50 ou 70 secondes) ou pour les boucler automatiquement en les reliant.

Une nouveauté est l’ajout de suggestions de mots descripteurs alternatifs. Par exemple, si vous tapez « style country », vous pourriez voir une liste déroulante avec des genres comme « style rockabilly » et « style bluegrass ». Pour le mot « accrocheur », la liste déroulante pourrait contenir « détendu » et « mélodique ».

De nombreuses recommandations

En dessous du champ de saisie pour la description, MusicFX propose un nuage de mots présentant des recommandations supplémentaires pour des descriptions pertinentes, des instruments et des tempos à ajouter (par exemple, « avant-garde », « rapide », « excitant », « batterie 808 »).

Dans mes tests rapides, les échantillons générés par MusicFX étaient… corrects. Honnêtement, les outils de génération de musique deviennent tellement avancés qu’il est difficile pour moi de faire la différence entre les résultats. L’état actuel de la technologie produit des morceaux d’une grande netteté et d’une grande clarté, mais qui tendent vers l’ennui, le manque d’inspiration et l’absence de mélodie marquante.

Peut-être est-ce à cause du trouble affectif saisonnier (SAD en anglais) qui me touche, mais l’une des descriptions que j’ai utilisées était « une chanson de musique house avec des rythmes funky, dansante et entraînante, avec une ambiance estivale sur un toit ». MusicFX a livré la marchandise, et les morceaux n’étaient pas mauvais, mais je ne peux pas dire qu’ils se rapprochent des meilleurs sets de DJ que j’ai récemment entendus.

Génération de paroles

Google a également lancé TextFX, un outil de génération de paroles, dans son AI Test Kitchen. Comme MusicFX, TextFX était déjà disponible pour un petit groupe d’utilisateurs, mais il est maintenant plus largement disponible et amélioré en termes d' »expérience utilisateur et de navigation », selon Google.

TextFX a été créé en collaboration avec Lupe Fiasco, l’artiste rap et producteur de disques. Il est alimenté par PaLM 2, l’un des modèles d’IA de génération de texte de Google, et « [s’inspire] des techniques lyriques et linguistiques [que Fiasco] a développées tout au long de sa carrière », explique Google dans l’application AI Test Kitchen.

Des questions en suspens

Avec MusicFX et TextFX, Google montre qu’il investit massivement dans les technologies de musique basées sur l’IA. Cependant, je me demande si sa préoccupation de suivre la tendance plutôt que de traiter les questions difficiles entourant la musique basée sur l’IA lui sera bénéfique à long terme.

De plus en plus, des morceaux faits maison qui utilisent l’IA pour créer des sons et des voix familiers, susceptibles d’être considérés comme authentiques, ou du moins assez proches, deviennent viraux. Les maisons de disques ont rapidement signalé les morceaux générés par l’IA aux plateformes de streaming comme Spotify et SoundCloud, invoquant des problèmes de propriété intellectuelle. Elles ont généralement remporté leurs batailles. Cependant, il n’y a toujours pas de clarté sur le fait de savoir si la musique « deepfake » viole les droits d’auteur des artistes, des maisons de disques et des autres détenteurs de droits.

Un juge fédéral a statué en août que l’art généré par l’IA ne peut pas être protégé par le droit d’auteur. Cependant, le Bureau du droit d’auteur des États-Unis n’a pas encore pris de position, commençant récemment à solliciter l’avis du public sur les questions de droit d’auteur liées à l’IA. Il n’est pas non plus clair si les utilisateurs pourraient se retrouver en difficulté s’ils tentent de commercialiser de la musique générée dans le style d’un autre artiste.

Google tente de trouver un équilibre délicat pour déployer les outils de musique basés sur l’IA du côté de YouTube, en testant des modèles d’IA créés par DeepMind en partenariat avec des artistes tels que Alec Benjamin, Charlie Puth, Charli XCX, Demi Lovato, John Legend, Sia et T-Pain. Cela en dit plus que certains concurrents de Google dans le domaine de l’IA, comme Stability AI, qui estime que « l’utilisation équitable » justifie la formation sur du contenu sans la permission du créateur.

Mais avec les maisons de disques qui poursuivent les fournisseurs d’IA pour les paroles protégées par le droit d’auteur utilisées dans les données d’entraînement et les artistes qui expriment leur mécontentement, Google a du pain sur la planche – et cela ne l’empêche pas d’avancer.

Partagez votre opinion

Ce site utilise Akismet pour réduire les spams. Découvrez comment les données de vos commentaires sont traitées.