Suoni, pause, silenzi. La musica è punteggiatura dell’anima, linguaggio vivo che non smette di evolversi. Negli anni Ottanta, fu la rivoluzione dei sintetizzatori, che riproducevano le onde sonore grazie agli oscillatori elettronici. Dallo scorso dicembre, il nuovo “adiacente possibile” della musica contemporanea ha espresso le sue prime parole: “Hello world”. Un titolo che riprende il linguaggio di programmazione per il primo album mainstream realizzato in collaborazione con un software di intelligenza artificiale: quindici canzoni composte da Skygge, pseudonimo dell’autore francese Benoit Carré, in collaborazione con Flow Machines, un set di tool online, sviluppato nel progetto omonimo di ricerca, finanziato dal Settimo Programma Quadro Ue 2007-2013 e coordinato da Francois Pachet, già direttore del Sony Computer Science Laboratory di Parigi, da settembre a capo dello Spotify Creator Technology Research Lab.

Ma come funziona? Flow Machines si basa sul machine learning: l’apprendimento automatico, supervisionato o non, attraverso gli algoritmi artificiali. Questi algoritmi vengono programmati per minimizzare il numero di errori compiuti nel processo decisionale, quindi imparare nel tempo, e per riconoscere tra milioni di dati le correlazioni ricorrenti, gli schemi più frequenti, le regolarità, ovvero, i pattern. Tra gli algoritmi di apprendimento supervisionato (dagli umani) ci sono: le reti neurali artificiali, che come quelle naturali sono plastiche, cioè cambiano i pesi delle loro connessioni a seconda delle informazioni ricevute nella fase di apprendimento; oppure i classificatori basati sul margine o sulla vicinanza, che usano alcune caratteristiche degli oggetti per identificarli. Fra gli algoritmi non supervisionati, sono invece famosi i metodi di clustering, che raggruppano gli oggetti con caratteristiche simili.

L’utente di Flow Machines può scegliere dal database una serie di spartiti a cui ispirarsi: ognuno contiene, come da tradizione, una partitura melodica, una musicale e una armonica. Può quindi selezionare una serie di registrazioni che determineranno le texture sonore su cui eventualmente intervenire. Le texture sono le trame musicali ricorrenti, che vengono separate e remiscelate insieme da Flow Machines in un mesh up scientifico che produce la melodia con i parametri richiesti. Un esempio? Dal pattern di “Michelle” dei Beatles, in un contesto differente, è nata nel 2016 la prima canzone di Flow Machines, “Daddy’s Car”.

Dalla combinazione di basi, armonie e voci diverse possono nascere composizioni indefinite: «La creatività nella musica? È saper riconoscere un pattern, e inserirlo in un altro contesto», ha affermato Pachet durante la conferenza conclusiva del progetto Kreyon, che ha elaborato un modello teorico-statistico sulle dinamiche di innovazione, l’urna di Polya con triggering. Un modello che, non a caso, è stato verificato anche su database musicali. Perché, siano supervisionati o meno, anche gli algoritmi del machine learning funzionano per processi statistici di stima delle relazioni tra le variabili, meccanismi di inferenza “se, allora”: per calcolare la probabilità di transizione di stato in un sistema, il modello più usato è il processo stocastico markoviano che, da A a B, prende in considerazione A ma non come ad A ci si è arrivati. Una condizione chiamata, non a caso, “in assenza di memoria”. Tutt’al più, viene modificato prendendo in considerazione solo alcuni eventi della storia di A, nel modello “a memoria definita”. Per il riconoscimento vocale, il procedimento più usato è il modello di Markov nascosto, in cui gli stati A e B non si vedono ma vengono dedotti dai loro prodotti osservabili.

Pachet ha riformulato il modello “nascosto” come un problema di soddisfazione di vincoli: le differenti texture che vengono selezionate hanno proprio la funzione di vincolare il risultato finale ed ottimizzarlo a partire dalle richieste. L’urna di Polya con triggering del progetto Kreyon invece è “a memoria indefinita”, basato cioè su correlazioni a più a lunga portata, che tengono conto dell’intera storia del sistema: cosa succederebbe se venisse applicato al machine learning musicale? Una domanda che potrebbe trovare presto risposta, visto che il coordinatore di Kreyon, Vittorio Loreto, ha preso il posto di Pachet al Sony Laboratory.

Ma la melodia è solo una sequenza di suoni strutturati in modo compiuto? E il ritmo una successione ordinata in base ad una frequenza? Il dialogo tra orecchio naturale e intelligenza artificiale è solo agli esordi. Fino all’ultimo beat.