Quattro giorni, 157 attività e progetti al SONAR+D, con più di 400 speakers ed espositori, 5.5000 professionisti registrati e un audience da 150 paesi.
Numeri importanti, inglobati tutti in una sensazione condivisa di euforia, curiosità e novità. E il Sonar finisce per essere un festival dove le proposte attese si sovrappongono a quelle che – essenzialmente – è dispiaciuto retrocedere. Ce n’è per artisti, designers, ingegneri, scienziati, musicisti, programmatori, che si fondono nel pubblico alla stregua di speakers e espositori partecipanti. Una macchina di riflessione sul futuro dell’incontro fra arte e tecnologia, che si interroga su quale vantaggio reciproco si possa manifestare.
“The role of the artists in the AI revolution. Creativity beyond Human creativity” è il panel con cui si è aperto il Sonar + D, dettandone la temperatura. La questione è domandarsi sul futuro dell’arte ai tempi della AI, sul ruolo di artisti e curatori, sulla resistenza delle immagini nel junk space techno capitalista e soprattutto su un rapporto di valore biunivoco, per non cadere nella prostituzione dell’arte alla macchina.
Tanto da risultare persino fuorviante domandarsi se nasce prima l’idea artistica o il mezzo, perché l’una non esiste senza l’altro, finendo per essere le due facce di Giano Bifronte – una volta al passato, l’altra al futuro, ma inscindibili. E la cosa fondamentale resta la tensione fra il creatore e il medium.
Il ruolo dell’artista sta nell’amplificare un possibile messaggio.
Google AMI è un programma di Google, che riunisce artisti e ingegneri per realizzare progetti utilizzando la Machine Intelligence. Le opere sono sviluppate seguendo le pratiche attuali degli artisti e mostrate in gallerie, biennali, festival. Diretto da Kenric Mcdowell, produttore techno gnostico e curatore di MI a Google Research, con un passato che affonda nel Fluxus e l’Arte Povera da un lato e dal Multimedia Design nell’altra – ci racconta di un potenziale enorme di “reshaping”. E’ indubbio che la digitalizzazione abbia ormai cambiato il nostro cervello, il nostro modo di concepire, formulare associazioni e ricordare e pensare arte. L’interazione con l’AI nn fa che estendere i limiti del possibile in nuovi codici percettivi e sensoriali e in nuove infrastrutture e sistemi sociali.
Kenric ha iniziato il suo speech parlando della diretta proporzionalità che intercorre fra l’uso del linguaggio verbale e i comportamenti non linguistici come l’uso della tecnologia, la manipolazione di strumenti, ricerche virtuali, aritmetica e musica. Alcune tecniche di costruzione paleolitiche risultano determinate meno da vincoli fisici e funzionali, che dalla condivisione di strutture sintattiche astratte e contenuti semantici.Una relazione comprovata dai maggiori neuro scienziati. Lo scarto ora è che la tecnologia non gioca più solo sul piano della vista (l’effetto visivo), ma anche del cervello – di quello artificiale si intende (l’elaborazione del dato).
Quali nuovi modi cognitivi l’AI crea? Principalmente immagini e linguaggi allucinati, stati in perenne transizione e modelli sovra dimensionati.
Kenric ci presenta due meravigliosi progetti: un road trip con l’AI poeta artista Ross Goddwin, dove le immagini del viaggio captate da una camera di sorveglianza vengono tradotte tramite codice in poesia, e l’assimilazione, ad opera di Refik Anadol, dell’intero archivio del SALT Museum di Istanbul – precisamente 1.7 milioni di documenti – in un tunnel iconografico 3D in un movimento senza soluzione. Imagine the library of Babel in a pocket…E’ l’AI che incorpora le infrastrutture e sistemi sociali, quasi con naturalezza esponendoci a nuovi modi cognitivi e percettivi.
E’ questo cervello artificiale capace di rendere possibile soluzioni fino ad ora solo immaginate. Sognate, per l’appunto, perché Deep Dream entra a gamba tesa in molti progetti, sia di VR che di danza – tanto da ripensare i movimenti intimi del danzatore Botoh Kaoru Okumura, offrendoci sia scenari trasognanti che domande sui nostri futuri sci-fi dreams.
[youtube id=”ys7I-VK4ogE” width=”620″ height=”360″]
Memo Akten, artista in residenza a Google AMI, ci ha parlato del suo fascino per la fisica quantistica e i viaggi multi dimensionali in spazio e tempo che permette . Nel lavoro FIGHT in VR, commissionato da STRP Eindhoven, presente nell’area Realities + D ci catapulta in una di questi esperimenti in trasformazione, lavorando sulla rivalità binoculare. La mente conscia percepisce solo una delle due immagini e alterna la loro visione a seconda dell’occhio che domina la vista. Incuriosisce la possibilità che il nostro occhio ha di plasmare il reticolato 3D che si dipana davanti, da divenire il creatore di una nuova immagine a propria volontà e somiglianza. E’ l’atto creativo del fruitore che emerge e che detta lo scarto fra la visione in VR/AR e una visione tradizionale. Niente male pure l’esperienza di AR proposta da Daito Manabe e Motoi Ishibashi di Rhizomatiks Research: nata dallo sviluppo di “Border”, un pezzo fatto con la compagnia di danza giapponese EVENEPLAY, permette di sovrapporre alla realtà fisica un altro layer virtuale, così da aumentare – letteralmente – i punti prospettici da cui osserviamo il mondo.
“Perception and creation are indeed two ends of one kaleidoscope” ha affermato in un suo articolo KenricMcDowell. E aggiungerei “and they alternate each other”.
Esse interagiscono particolarmente nella musica. Douglas Eck e Adam Roberts hanno messo a punto il sotfware Magenta, un progetto del Google Brain Team, partito dalla domanda “possiamo usare il machine learning per creare musica e arte avvincenti?” “E se si, come?” Con Magenta, vogliono sviluppare algoritmi che possono imparare come generare arte e musica, potenzialmente creando bei contenuti artistici e musicali, randomicamente da sé.
E’ la “Pro(fessionist)-Am(ateur) Revolution” di cui hanno ben parlato Charles Leadbeater e Paul Miller ne loro libro “The Pro-Am Revolution How enthusiasts are changing our economy and society”.
Tante tantissime le start up per la musica o Midi Controller presentati nella sezione Start Up Garden e Market Lab.
L’AI guarda anche al passato e riscrive il mito: “Artificial Muse” è il primo affresco murale disegnato da un network neurale. Una prova di come l’AI può essere un partner creativo nei processi artistici.
C’è una rivoluzione creativa bella viva e dall’altra parte la Maria-robot progettata dal professor Rotwang è rinata dalle sue ceneri ed ora è in piena funzione. E spinge ancora una volta gli operai a scontrarsi con le macchine, spaventati da un destino prossimo in cui i lavori umani saranno presi dalle AIs.
Qual è l’obiettivo dell’umanità? Cosa ci vuole a restare umani nell’era del digitale? “Consciousness is the evolution’s solution to dealing with big data” / “La consapevolezza è la soluzione dell’evoluzione per affrontare grandi dati” citando Memo Akten.
immagini: (cover 1 – 4) Courtesy of Refik Anadol (2) The eye of Wordcar was an Axis M3007 surveillance camera (3) Output, or poetry, from Ross Goodwin’s RNN-LSTM (5) nereacoll – sonar+d.