I pionieri del tema Gen Ai ricorderanno che, ben prima del rilascio di ChatGPT, OpenAI aveva sviluppato due modelli di generazione musicale: si chiamavano MuseNet (2019) e Jukebox (2020). Da tempo immemore non sono disponibili pubblicamente per gli utenti tramite il chatbot, ma la tregua potrebbe essere agli sgoccioli. Secondo quanto filtrato nella notte su più media americani, OpenAI starebbe infatti lavorando a un sistema di intelligenza artificiale capace di creare musica, collaborando con studenti della Juilliard School per annotare spartiti e costruire i dataset necessari all’addestramento dei modelli. L’azienda starebbe introducendo nuovi prodotti con rapidità, espandendosi oltre i servizi principali di chatbot. Un modello musicale di AI che permetta agli utenti di OpenAI di generare musica, come tracce vocali o strumentazioni, andrebbe oltre ciò che ChatGPT e i modelli esistenti di OpenAI possono fare. Se chi usa ChatGPT può chiedere al chatbot di scrivere testi, progressioni di accordi o schemi di rime nello stile di un artista specifico, non può creare una canzone completa come fanno altri generatori di musica come quelli sviluppati da Suno e Udio. A marzo OpenAI ha inoltre lanciato altri modelli di AI che generano audio, ai quali questa nuova tecnologia probabilmente si sovrapporrà nella generazione musicale, come le voci: i modelli audio aggiornati di riconoscimento vocale (speech-to-text) e sintesi vocale (text-to-speech) rilasciati dall’azienda di Altman sono stati concepiti per generare agenti vocali in settori come il servizio clienti. Lo sviluppo intorno alla musica suona coerente con altre due novità per Open AI: la creazione di un feed sociale in stile X all’interno di ChatGPT, dove gli utenti possono condividere come usano il chatbot e funzionalità sociali utili per condividere qualsiasi contenuto, inclusi eventuali brani musicali creati dagli utenti tramite OpenAI; ed il lancio della sua app video Sora, capace di generare video brevi simili a quelli di TikTok interamente con l’intelligenza artificiale (la app ha raggiunto un milione di download in meno di cinque giorni). L’interesse non è solo tecnologico ma strategico. Un motore musicale integrato in ChatGPT o in Sora aprirebbe a nuovi modelli di business, anche pubblicitari: agenzie e creatori potrebbero usarlo per ideare jingle, sonorizzare video o comporre colonne sonore personalizzate. OpenAI potrebbe così unire creatività e monetizzazione, mantenendo gli utenti più a lungo all’interno del suo ecosistema — che oggi conta oltre 800 milioni di persone nel mondo. La mossa arriva mentre la società, valutata 500 miliardi di dollari, cerca di recuperare terreno rispetto a Google, che a maggio ha presentato la seconda generazione del suo modello musicale Lyria, disponibile tramite Google Cloud e già impiegato nella creazione di sound design per campagne pubblicitarie. Con l’espansione verso l’audio, OpenAI punta a un modello sempre più integrato in cui il nuovo progetto musicale sarebbe il segnale di una maturazione definitiva: dal testo al suono, e dal chatbot al creatore multimediale. OpenAI diventerebbe un luogo in cui si scrive, si compone e si produce, tutto senza uscire dall’ambiente ChatGPT. Una suggestione non troppo dissimile da quanto abbiamo raccontato a proposito della “everything app”. Circa il tema delle strategie di sviluppo ed espansione dei modelli di AI generativa musicale, lunedì 27 ottobre MusicBiz pubblicherà un approfondimento riguardo le ultime novità e le prospettive di crescita di Suno, considerata dai principali osservatori internazionale la start-up dell'anno nel segmento dell'intelligenza artificiale musicale.