Stai leggendo: {{ currentArticle.title }}

IL PROGETTO

Arte per non umani: la musica e i video di Lorem


Tempo Libero
24 gen 2019, 15:12
Lorem - 3402 Selves

Volti sintetici, che l’intelligenza artificiale crea a partire da migliaia di tratti somatici raccolti, elaborati, studiati per essere riprodotti. Musica sintetica, generata da una rete neurale che, come il cervello, impara i rudimenti di uno strumento, ad esempio una batteria e lo suona sempre meglio fino ad adattare in seguito il ritmo alle immagini. Ne nasce un video autonomo, che va oltre la volontà di qualcuno in carne ed ossa. Uno si domanda: e a questo punto l’uomo cosa ci sta a fare? 

Bella domanda. L’uomo c’è per dare o ricevere riconoscimenti, potrebbe essere la risposta. Proprio come accaduto con Lorem, progetto di intelligenza artificiale bresciano ideato da Francesco D’Abbraccio e premiato alla Galleria Nazionale di Roma in Re:Humanism, una call dedicata alla ricerca artistica nel campo dell’intelligenza artificiale. Dopo avere superato la selezione iniziale, il musicista (ex Aucan) e designer (Frames, Krisis Publishing) si è ritrovato tra i dieci progetti finalisti per i quali, oltre al premio, è prevista una mostra in aprile. 

Per provare a capire cos’è Lorem, possiamo immaginare il device di Her, il film di Spike Jonze, Hal 9000 di Odissea nello spazio o la stessa Siri sull’iPhone: un’intelligenza al nostro servizio che possiamo educare in un rapporto quotidiano fino a consentirle, negli immaginari distopici, di sostuituirci. Nel caso specifico la rete neurale è creata da zero, messa al mondo e poi fatta crescere attraverso una serie di elaboratori collegati. Il lavoro di D’Abbraccio attorno a Lorem si è sviluppato negli scorsi anni in una piattaforma collaborativa con artisti che lavorano nel campo dell’intelligenza artificiale (Mario Klingemann, Damien Henry), videoartisti (Karol Sudolski, Mirek Hardiker) ed esperti in ingegneria informatica (Luca Pagan, Nicola Cattabiani).

 

 

L’obiettivo finale era educare Lorem a diventare un produttore di musica, video e parole, anche queste a partire da un patrimonio di migliaia di libri: ne è nato così Adversarial Feelings, un disco umano e non umano che ha ricevuto ora il riconoscimento a Roma. Online si trovano una serie di video in cui, oltre alle persone, si vedono ad esempio anche paesaggi sintetizzati, in un dialogo tra realtà reale e realtà virtuale.

«Abbiamo usato una rete neurale Gan - spiega D’Abbraccio, dove Gan sta per generative adversarial networks -. La rete ha imparato a produrre immagini fotorealistiche a partire da un archivio di migliaia di fotografie di celebrità e, grazie ad un algoritmo progettato in collaborazione con Nicola Cattabiani, a montarle perfettamente a tempo con la musica. Nessun editing è stato dunque fatto sul video automatico».

 

 

L’essere umano dà la scintilla, guida il nuovo essere, se ne prende cura attraverso «reti neurali deep, hardware modificati ed errori programmati che vengono usati per indirizzare dispositivi informativi verso comportamenti estetici autonomi e complessi», dice D’Abbraccio. Ci siete ancora? La creatura apprende e si sviluppa, un po’ come in Her, mentre noi ci sentiamo come davanti al monolite di Kubrick, aspettando ad esempio il giorno in cui queste macchine si innamoreranno tra loro. O noi di loro.  

 

 

Articoli in Tempo Libero

Lista articoli