Project Music GenAI Control è un nuovo tool di IA generativa di Adobe Research per la generazione e la modifica di musica ancora nelle prime fasi di sviluppo. Questo strumento, sviluppato in collaborazione con i colleghi della University of California e della School of Computer Science della Carnegie Mellon University, consente ai creator di generare musica a partire da richieste di testo e di avere a disposizione un controllo fine per modificare l’audio in base alle proprie esigenze.

Il nuovo strumento inizia con una richiesta di testo alimentata da un modello di IA generativa, un metodo che Adobe utilizza già in Firefly. L’utente inserisce una richiesta di testo, come “rock potente” o “jazz triste” per generare musica. Una volta che la musica viene creata, l’editing viene integrato direttamente nel flusso di lavoro.

Con una semplice interfaccia utente, gli utenti possono trasformare l’audio generato in base a una melodia di riferimento, regolare il tempo, la struttura e gli schemi di ripetizione di un brano musicale, ma anche scegliere quando aumentare e diminuire l’intensità dell’audio, estendere la lunghezza di una clip, remixare una sezione e generare un loop ripetibile a piacere.

Invece di editare manualmente la musica esistente per creare intro, outro e audio di sottofondo, Project Music GenAI Control potrebbe aiutare gli utenti a creare esattamente i brani di cui hanno bisogno, risolvendo i problemi del flusso di lavoro end-to-end.

“Uno degli aspetti più interessanti di questo tool di IA generativa è che non si limita a generare l’audio, ma offre ai creator un controllo profondo per modellare, regolare e modificare l’audio come Photoshop fa con le immagini. È una sorta di controllo a livello di pixel per la musica” spiega Nicholas Bryan, Senior Research Scientist di Adobe Research e uno dei creatori del tool.