Rocco Tanica vanta una lunga e approfondita frequentazione dell’intelligenza artificiale generativa. Pioniere dell’interazione uomo - macchina con il libro “Non siamo mai stati sulla terra” (pubblicato dal Saggiatore nel 2022), il compositore, tastierista e autore (nonché parte del nucleo storico degli Elio e le Storie Tese) da tempo offre ai propri follower, sui social, versioni “alternative” realizzare con l’AI - o “canzoni fatte meglio”, come le chiama lui - di hit che vanno da “Come mai” degli 883 ad “Africa” dei Toto, passando per “Michelle” dei Beatles ed “Every Breath You Take” dei Police. Poi, alla vigilia dello scorso Ferragosto, su Spotify è apparso un “Te Deum” attribuito a Rocco Tanica e alla Berliner Barockorchester und Choir, dove in scaletta figura il brano "Hey Judex" e dove - nel bel mezzo di "Te aeternum patrem" - irrompe uno speaker a pronunciare l’iconica frase - ripresa anche da Frank Zappa per una canzone di “Broadway the Hard Way” - “Elvis has just left the building”. Un divertissement, uno scherzo o un esperimento? O nessuna di queste cose? Quando Rockol l’ha chiamato per chiederglielo, Tanica era alle prese con del caffè solubile ammuffito e con un fortissimo raffreddore, nonostante i 30 gradi (molto) abbondanti segnati dai termometri a Milano e dintorni. Quadretto apparentemente partorito da una nuova release particolarmente lisergica di Midjourney, ma assolutamente reale. Per quanto riguarda il “Te Deum”, invece... Il “Te Deum” a che punto si colloca nella tua esplorazione dell’intelligenza artificiale? Tra esperimenti lontanamente imparentati – ad esempio le orchestrazioni scritte ed eseguite per Elio e le Storie Tese – e l’influenza che le tecnologie AI hanno esercitato su di me negli ultimi anni; per “La terra dei cachi”, “La canzone mononota” e “Dannati forever” avevo lavorato con Antonello Aguzzi [alias Jantoman, tastierista e membro degli EelST, ndr] - per "La terra dei cachi" anche con Feiez [Paolo Panigada, polistrumentista degli EelST scomparso nel '98, ndr] - realizzando tutto “a mano” su sequencer e utilizzando campionamenti di singoli strumenti organizzati per timbro e ruolo in orchestra. Quelle parti sarebbero poi state eseguite dai musicisti di Sanremo, per cui dovevamo essere precisi e attendibili in fase di scrittura. La direzione del maestro Peppe Vessicchio garantì l’ottima riuscita dell’impresa in tutte e tre le circostanze. Con l’introduzione dell’intelligenza artificiale generativa in campo audio si sono aggiunte gustose funzioni e soluzioni, che tuttavia ho adottato solo in parte. In questo caso non mi interessava che l’AI agisse in assoluta autonomia, ma che “imparasse” dalla mia scrittura musicale. Per il “Te Deum” ho lavorato con il collega Massimo Costa [musicista, ingegnere del suono, docente al Conservatorio di Milano e creatore del sito ostiglia.art, ndr]. Siamo partiti con temi per pianoforte; in testa avevo l’inarrivabile “Clavicembalo ben temperato” e relativi preludi e fughe polifoniche di Bach: se devo fare il megalomane, mi sono detto, meglio ispirarsi a quelli bravi. Ho armonizzato i miei temi e lavorato su un minimo di contrappunto [nella prassi musicale odierna, “il contrappunto è l’arte di combinare con una data melodia una o più melodie. Nella polifonia, il contrappunto è dato dalla sovrapposizione delle melodie in senso orizzontale, mentre le relazioni tra note in senso verticale costituiscono l’armonia.”] Che modello di AI generativa hai utilizzato? Mettiamola così: ti dirò quasi tutto ma non tutto, se no poi A) mi copiano, B) io guadagno meno soldi e C) non mi posso più permettere un tenore di vita superiore alle mie possibilità; diciamo che mi paragono a un discreto chef che cucina volentieri per gli altri ma non rivela gli ingredienti per intero, spero di non essere vituperato per questo. Nell’ordine: quando produco quelli che chiamo “giochini” su Instagram – cioè variazioni sul tema di canzoni famose o assemblaggio di scemenze mie – utilizzo Suno e Udio. Però ci sono almeno altri quattro o cinque software simili che si equivalgono (Soundraw, Aiva ecc.) e le cui caratteristiche - nelle versioni pro con funzioni avanzate - sono molto simili e consentono di raggiungere risultati in breve tempo. Ma se si ricercano soluzioni più ardite e “mirate” i migliori sono quelli menzionati, Udio in particolare. Il grosso del lavoro è stato però successivo, con un’AI “non pubblica” sviluppata da Massimo Costa, Ali-i. Abbiamo dato in pasto alla macchina un’enorme quantità di materiale sonoro settecentesco, sinfonie, corali, concerti per solista e orchestra, prestando particolare attenzione all’organico orchestrale e al suono: volevamo che la macchina ne comprendesse i parametri, con particolare attenzione ai “Te Deum” e ai lavori per orchestra e coro di Charpentier, Lully, Handel, Bach. A questo processo è poi seguita l'elaborazione da parte dell’AI delle melodie iniziali abbozzate al piano e sviluppate in modo “essenziale” con Udio. èE' stato come dire alla macchina: hai imparato la lingua? Ora traduci. Una volta ottenuto un output stereo bilanciato siamo passati alla definizione degli strumenti. Costa, attraverso Ali-i, ha ulteriormente istruito il modello con terabyte e terabyte di materiale, in questo caso non più musica edita ma campioni di singoli strumenti tratti da vastissime librerie sonore. In sostanza, ha insegnato alla sua AI come il suono naturale e le singole note degli strumenti sono originati indipendentemente dal genere eseguito; e poi la moltitudine di varianti possibili a seconda del tocco, dell’esecutore, del volume eccetera. In questo modo, facendo leggere all’AI il nostro materiale (che aveva seguito l’iter pianoforte > trascrizione > esecuzione con synth > passaggio in Udio > training di Ali-i) Ali-i ha suddiviso il tutto per strumenti assegnando a ciascuno il suono più naturale possibile. Una sorta di missaggio al contrario: tracce separate ottenute a partire da due canali stereo. È stato un modo per evitare che l’AI “cadesse” nello stilema e nello stereotipo? Quello è un rischio che si evita procedendo per tentativi, tenendo le orecchie aperte e non facendosi prendere dall’entusiasmo per il risultato facile, come accade ad esempio con Midjourney per le illustrazioni, Runway per il video, i vari GPT per la scrittura: il 90% dei risultati è plausibile, ma ciò non implica che sia anche formalmente corretto e godibile. E io in questo senso sono molto esigente. Il mio “Te Deum” è una composizione ibrida, uno “scambio di pareri” con l’AI così come era accaduto per illibro che ho pubblicato nel 2022, “Non siamo mai stati sulla terra”. È tutto un provare, buttare, insistere, buttare di nuovo, conservare, editare: ci sono brani che duravano in origine fino a cinque-sei volte quelli pubblicati; ma a me piace andare di mannaia e tenere solo l’indispensabile. È curioso, perché nella percezione comune l’AI è vista essenzialmente come scorciatoia. Nella tua visione, al contrario, la chiave - da parte dell’artista - pare sia la gestione dei prompt… Quella del prompt è una disciplina che non si improvvisa, va studiata e compresa. Una parola, o l’ordine delle parole usate, possono cambiare radicalmente il risultato finale. Affinare i prompt significa trovare una strada propria; e proprio perché non rivelo tutti-tutti i miei trucchi, non pubblico mai i prompt. E quando lavoro online scelgo sempre la modalità “privata”. La scelta dell’ambito classico per questa operazione è stata dettata da istanze tecnico-artistiche? Ti dirò: non appena ha iniziato a frullarmi in testa l’idea di lavorare su brani classici ho subito pensato a un’emulazione del “Te Deum” di Marc-Antoine Charpentier; almeno il preludio lo conosciamo tutti molto bene con un nome diverso, “la sigla dell’Eurovisione”. “Te Deum laudamus” è una preghiera cristiana di ringraziamento, eseguita in occasioni solenni e attribuita secondo la leggenda a Sant'Agostino e Sant'Ambrogio, i Mogol-Battisti dell’alto Medioevo; ma il vero autore è quel volpone di San Niceta vescovo. Ha una struttura fissa, composta da dieci brani; io volevo ispirarmi alla versione che preferisco, quella di Charpentier appunto. E così ho fatto, utilizzando i dieci brani canonici, uno strumentale e nove con coro. Il testo è quello originale: i brani del “Te Deum” sono riferiti al primo versetto del relativo frammento di preghiera ripetuto variamente; tale reiterazione consente ai grandi come Charpentier, Bach, Mozart, Handel di organizzare le singole frasi in decine di possibili combinazioni, organizzando le melodie all'interno e intorno a se stesse, in una specie di danza. Ecco: loro, quelli bravi, sapevano fare tutto da soli. Io, autonomo solo in parte, ho lavorato con un musicista-ingegnere, la sua intelligenza naturale e l’intelligenza artificiale. Quando si parla di AI generativa quello del training è un tema centrale, del quale - in genere - si occupano più che altro gli avvocati. In questo esperimento, invece, il training ha avuto un ruolo centrale sotto il profilo artistico e creativo… Quando si utilizzano Suno, Udio eccetera si dispone di un training che è stato fatto a monte; il passo avanti è stato di aver addestrato con Costa un modello di AI personalizzata che lui aveva concepito in origine per il restauro delle immagini. Lui sta continuando a istruire la macchina in diverse discipline, grafica, video, sintesi vocale; la musica è stata una delle ultime in ordine di tempo. Lavorare con Costa è come disporre di una sconfinata biblioteca ricchissima di informazioni che si possono consultare, integrare e utilizzare. Negli stessi giorni in cui tu stavi presentando il tuo “Te Deum”, in Germania una canzone completamente realizzata con l'intelligenza artificiale, “Verknallt in einen Talahon” di Butterbro, è finita nelle classifiche di vendita, diventando un caso? E’ giusto e fisiologico che sia successo? È giusto, fisiologico, inevitabile, e anche etico secondo me. Il malumore nei confronti delle AI da parte di certi miei colleghi musicisti mi stupisce perché è tardivo e denota scarsa conoscenza dell’evoluzione del mezzo. L'utilizzo dell’AI generativa così come lo stiamo vivendo in questi giorni non è che la versione più rapida e con maggiori possibilità di di personalizzazione di qualcosa che è in uso da decenni. La musica dance è basata sul riutilizzo di campioni e sulla sintesi sonora. Ci sono anche dischi italiani “insospettabili”, ritenuti fra le massime espressioni della cultura popolare tradizionale, assemblati su Digital Performer nei primi anni ’90 ma percepiti come la crème de la crème del pop acustico. Il panorama della produzione musicale da decenni a questa parte coinvolge sempre meno musicisti che suonano in tempo reale – in favore di strumenti emulati e altre legittime scorciatoie tecnologiche. Prendersela con l’AI generativa musicale è come indignarsi perché toglie spazio al sistema Midi, o arrabbiarsi con le lampadine perché hanno surclassato le candele, o con la fotografia digitale perché si stava meglio col dagherrotipo; ammesso che sia vero, per coerenza bisognerebbe dare prima la colpa ai rullini Kodak, e così a ritroso. Se l'intelligenza artificiale è immorale, allora sono immorali anche i Kraftwerk e i Depeche Mode, che usavano i sequencer già negli anni ‘80. Cosa avevano di naturale i sequencer? Con l’intelligenza artificiale il talento e l’abilità dell’artista resteranno dirimenti? Per essere sinceri, diciamo che in questo caso è più facile che ottenga risultati credibili anche chi non capisce un cazzo. Però il talento fa la differenza, almeno per chi lo sa cogliere. Nella maggior parte dei casi quando lavoro con le AI lo dichiaro espressamente; spesso invece faccio lo gnorri proprio perché non voglio un ascolto prevenuto. Se un brano, uno scritto, un’illustrazione valgono qualcosa lasciano un segno nella memoria e nella fantasia, che siano prodotti “naturalmente” o no. Ti racconto questa: quando ho scritto il libro con l’AI il mio primo obiettivo era di mettere insieme racconti vari, eccentrici ma consistenti, che potessero interessare a prescindere dalla tecnica di scrittura. Al primo editore a cui l’ho presentato ho incautamente rivelato il mio metodo, e quello mi ha liquidato con un “A chi vuoi che interessi un libro scritto da una macchina?”, dimostrando peraltro una scarsa comprensione del testo e dell’intenzione. Al secondo editore, Il Saggiatore, ho presentato il materiale così com’era, senza aggiungere altro. Solo quando i miei interlocutori si sono detti interessati alla sostanza degli scritti e alla loro pubblicazione ho spiegato i retroscena; ciò ha addirittura accresciuto l’interesse per quella che all’epoca era una novità assoluta, e io ho avuto la conferma di avere trovato una controparte tanto sensibile e attenta quanto lungimirante. Non mi interessano i numeri da circo ma mi piace sorprendere. Con Massimo Costa abbiamo lavorato in segreto, facendo ascoltare il “Te Deum” sia a persone competenti di musica classica, sia a neofiti . Quando un buon numero di ascoltatori l’ha definito “bella musica”, noi ci siamo detti “Bene, questo è il risultato, non importa come ci siamo arrivati”. Il punto, quindi, è disinnescare il pregiudizio, senza farsi influenzare da come un’opera è stata realizzata? Sì, almeno in una prima fase. Ma ritengo che a un certo punto si debba confessare: per questo nell’album ho disseminato degli indizi, a partire dalla copertina, che mi ritrae mentre dirigo un’orchestra che non c’è, in un luogo dove non sono stato. Anche i nomi dei musicisti nascondono un piccolo enigma rivelatore. È un gioco, ma fatto nel rispetto di chi ascolta. Se il lavoro è una schifezza, ho fallito. Se non lo è ho raggiunto lo scopo. La causa che vede contrapposte le major a Suno e Udio promette di definire il concetto di fair use dei cataloghi musicali nei processi di training dei modelli di AI generativa. Tu, personalmente, daresti il tuo catalogo in pasto ai loro modelli per l’addestramento? Certo; sia perché ci guadagnerei e sia perché tanto non c’è rimedio, siamo realistici. Inoltre non c’è bisogno del mio catalogo, anche perché con la funzione di upload Suno e Udio permettono a chiunque di caricare materiale per i processi di training ed elaborazione: è esattamente ciò che ho fatto col mio lavoro. Ogni elemento che i modelli di AI generativa producono rientra a far parte dei loro processi di training ulteriore, ad anello, ogni nuova creazione presuppone uno sviluppo di materiali-esempio preesistenti. Il fatto è che le normative legali sono sempre in ritardo rispetto all’attualità: quando le major avranno vinto la causa contro Suno e Udio arriverà un modello open-source che permetterà di fare le stesse cose di prima. Ma voglio precisare: io pago un sacco di soldi ogni mese per utilizzare questi servizi; se sapessi che una parte di quei soldi viene fatta confluire in un fondo comune destinato agli aventi diritto – compositori, autori – ne sarei solo contento. Bisogna pacificarsi col fatto che non c’è limite alla tecnologia, e che questo particolare tipo di tecnologia diventerà sempre più accessibile e immediata da utilizzare. A fare la differenza sarà sempre la capacità dell’operatore: l'intelligenza artificiale non è la morte della creatività, è la moltiplicazione delle possibilità. Personalmente, di fronte alle chance offerte dall’AI provo un senso di emozione e meraviglia come di fronte alla cupola del Brunelleschi: mi sento Stendhal che fa il Grand Tour in Italia e gli viene la sindrome di Stendhal. Viviamo in un momento storico favoloso, che personalmente paragono al Rinascimento per portata e impatto. Si capisce che mi piacciono le AI? Se non si è capito ricomincio.