Disciplinare il rumore urbano è questione assai dibattuta, a seconda dei paesi e degli ambiti sono state identificate o simulate una serie di proposte.
Sul territorio europeo, l’esposizione al rumore in primo luogo si interfaccia con la conservazione del patrimonio artistico, al fine di evitare danni dovuti alle vibrazioni meccaniche del suolo provocate tanto dai moti geologici naturali quanto dal traffico cittadino e da eventuali fonti di rumore industriale e/o edilizio. Per proteggere i beni culturali e costruire modelli matematici dinamici predittivi, si procede a collegare varie parti del monumento in questione a diversi sismografici per analizzare le serie temporali di vibrazioni rilevate per minuto, secondo, o frazione di secondo e ipotizzare cosa potrebbe succedere se venisse posto in condizioni acustiche improvvisamente differenti, esempio se si aprisse un cantiere stradale proprio vicino a esso.
Per limitare il rumore automobilistico, a Parigi nel 2019 sono stati testati per diversi mesi dispositivi Autovelox del rumore vicino a bar affollati nelle aree di intrattenimento, e altri sono stati installati nei punti di ritrovo dei motociclisti. Dotati di microfoni che misurano i livelli di decibel ogni decimo di secondo al passaggio di una moto o di un’auto particolarmente rumorosa, identificano il veicolo e assegnano una multa.
A New York, ad un team di scienziati newyorkesi, la strada più percorribile sembra quella di affidare la regolamentazione del rumore cittadino ad un’intelligenza artificiale, in grado di esercitare quel giusto grado di innovazione e fascino sul controllo di un aspetto urbano sottovalutato, e favorire un controllo diffuso e a tappeto di diverse aree cittadine. SONYC è una collaborazione quinquennale avviata nel 2016 tra la città di New York, la New York University e la Ohio State University, che sta istruendo una AI perché aiuti a ridurre l’inquinamento acustico. Come? Ai cittadini e agli scienziati viene chiesto di ascoltare clip sonore di dieci secondi raccolte da sensori intorno alla città e identificare ciò che sentono. Per collaborare all’istruzione dell’algoritmo gli utenti hanno una serie di opzioni di suoni fra cui scegliere (es. motore di piccola cilindrata, cane che abbaia, motore fermo dell’ambulante….). Queste informazioni, insieme alla visualizzazione dello spettrogramma dell’audio, sono poi date in pasto a un algoritmo che impara a identificare meglio le fonti di rumore da solo. Una migliore comprensione dell’inquinamento acustico si traduce in migliori strumenti per combatterlo.
Possiamo imparare molto dallo spazio circostante, ascoltandolo di più, in un processo di ascolto collettivo. Dalle cime delle montagne alle profondità dell’oceano, i biologi stanno sempre più piantando registratori audio per origliare discretamente i gemiti, le grida, i fischi e i canti di balene, elefanti, pipistrelli e soprattutto uccelli e avere informazioni su come calamità naturali colpiscono gli essere viventi che ivi si collocano. I dati audio sono preziosi perché contengono quantità di informazioni fondamentali sulle interazioni fra individui e gruppi nella cacofonia urbana, sulle modalità di accoppiamento, sull’influenza dell’inquinamento acustico e luminoso sulle specie aviarie, sulle misure di salvaguardia di specie in habitat minacciati. I dati chiaramente devo essere letti, interpretati e analizzati da una AI, per migliaia di dati al giorno. Stefan Kahl, un esperto di apprendimento automatico presso il Center for Conservation Bioacoustics della Cornell e la Chemnitz University of Technology in Germania, ha costruito BirdNET, uno dei più popolari sistemi di riconoscimento del suono degli uccelli usato ad oggi. Un team guidato da Connor Wood, ecologista e ricercatore post-dottorato della Cornell University, nella Sierra Nevada sta utilizzando BirdNET per studiare come le abitudini degli uccelli siano cambiate con l’accorciarsi delle ore di buio notturno e silenzio urbano, a causa dell’inquinamento luminoso e acustico generato dalle attività umane. Dalla quantità di registrazioni pre-etichettate disponibili e naturalmente dall’area studiata di riferimento dipende il grado e la qualità di apprendimento di ogni sistema. BirdNET al momento può identificare circa 3.000 specie che si trovano in Europa e Nord America ma non funziona altrettanto in aree asiatiche, dove per cercare di catturare i richiami di uccelli compromessi serve disseminare a tappeto registratori e istruire altri algoritmi di apprendimento automatico sviluppati localmente.
Mentre i nostri corpi e i nostri sensi diventano siti di sorveglianza, le nuove tecnologie ibride offrono nuove capacità fisiche e permettono di estendere o riappropriarsi di limiti sensoriali. La vulnerabilità dei nostri sensi, sottoposti ad un inquinamento insistente che li svigorisce, è accompagnata altresì da un progresso dell’industria biomedica che vuole supplire ai punti sensoriali di vulnerabilità umana. Il rapporto fra tecnologie, implantologia, arte sta divenendo sempre più promiscuo al punto da far ipoteticamente considerare interventi chirurgici di implantologia e innovazioni di biotecnologia applicata all’arte delle vere e proprie performance. Va detto che il dubbio era già stato insinuato con alcuni interventi di body art negli anni ’80.
Nel 2019 a Londra, un gruppo di utenti con impianto cocleare è stato coinvolto nella realizzazione di un’installazione sonora dell’artista e compositore Tom Tlatlim.
Tonotopia: Listening Trough Cochlear Implants (2019) è una installazione audio-video sviluppata da Tom Tlalim, in seguito alla residenza presso il Victoria &Albert Museum di Londra, durante la quale ha condotto una serie di dialoghi con utenti di impianti cocleari, confluiti poi nella mostra alla John Lyons Charity Community Gallery. Gli utenti di impianti cocleari sono diventati i co-autori dell’installazione audiovisiva finale composta da Tom Tlalim, artista musicista la cui ricerca esplora l’ascolto tecnologicamente esteso, quindi il rapporto che suono e tecnologia hanno con l’identità soggettiva.
Gli impianti cocleari (IC) permettono alle persone profondamente sorde di percepire il suono in modo digitale e, poiché sono progettati principalmente per il parlato, gli impianti non trasmettono accuratamente l’altezza musicale e i suoni dinamici. Questa condizione rende difficile agli utenti di IC ascoltare la musica e altri suoni complessi, ma si rivela un dato artisticamente e acusticamente interessante ai fini della co-progettazione di arte sonora per gli utenti di IC. Il progetto Tonotopia si è avvalso ed è stato arricchito da incontri e approfondimenti sullo sviluppo delle biotecnologie mediche a fini acustici, fra cui ci sembra opportuno segnalare quello con il Dr. Wenhui Song, Lettore di Biomateriali presso il Dipartimento di Nanotecnologia dell’UCL, circa la produzione di organi umani su misura con la stampa 3D, e la ricerca di dispositivi acustici in piezo-nanofibre per la realizzazione di una coclea artificiale. In quest’ultimo caso il tessuto sarebbe attraversato da fili conduttivi, capaci di accumulare corrente, si spera abbastanza per stimolare le cellule epiteliali.
Negli ultimi anni è stata l’intelligenza artificiale a voler occupare i punti di vulnerabilità lasciati da alterazioni uditive e spazi inquinati da rumori. Sono stati, ad esempio, messi a punto una serie di apparecchi acustici sviluppati con sensori e A.I. che permettono di filtrare i rumori prodotti dall’esterno, di tradurre fino a 27 lingue e di funzionare anche come dispositivi di monitoraggio della salute (LIVIO AI); di accordare i suoni in accordo con l’ambiente esterno (SoundSense); o di isolare specifici segnali in una massa di rumori (Google hearing aid). Così come pure sono stati sviluppati otoscopi in versione smart compatibili con Apple e Android, ovvero app che permettono di agire da otoscopio a partire da foto e video dell’apparato uditivo. (CellScope, TYM Otoscope,TitoCare’s). In un futuro, forse non troppo lontano, ci aspettiamo che la ricerca biocibernetica appronti dispositivi di impianto, non più cocleari, ma celebrali con la trasmissione diretta alle zone uditive della corteccia celebrale.
Immagini: (cover 1) Tom Tlalim, «Tonotopia», 2019, intervista con Ed Rex, fermo immagine da video (2) Tom Tlalim, «Tonotopia», 2019. Tonotopia al friday-late-sonic-boom-february-2019 (3) Tom Tlalim, «Tonotopia», 2019, fermo immagine da video (immagine di Tom Tlalim) (4) Tam Tlalim, «Tonotopia», 2019, intervista con Seohye Lee, fermo immagine da video
Possono i dispositivi tecnologici correggere gli effetti dell’inquinamento acustico e dell’obsolescenza dei nostri sensi? è parte di «Il Corpo eterno. I sensi umani come laboratorio del potere, fra crisi ecologica e trans umanesimo» di Elena Giulia Abbiatici. Progetto realizzato grazie al sostegno dell’Italian Council (IX edizione 2020), programma di promozione internazionale dell’arte italiana della Direzione Generale Creatività Contemporanea del Ministero per i Beni e le Attività Culturali e per il Turismo.
Articoli precedenti:
E.G.Abbiatici, Intervista a Abinadi Meza, Arshake 20.02.2022
E.G. Abbiatici, Intervista al Prof. Mario Mattia, Arshake, 23.11.2021
E.G. Abbiatici, La componente politica del rumore nelle pratiche artistiche dell’ultimo secolo: Pt. I ( 14.10.2021) e Pt. II, (14.10.2021)
E.G. Abbiatici, L’olfatto come senso trascendente. Il ruolo del naso nella società del corpo eterno, Arshake, 02.08.2021
E.G.Abbiatici, Per una bio-politica degli odori,Pt.I (20.07.2021) e Pt. II (22.07.2021)
E.G. Abbiatici, Nasi (artificiali) eccellenti, Arshake, 04.05.2021
E.G. Abbiatici, Sotto al naso, Arshake, 03.03.3021
Partner di progetto: Arshake, FIM, Filosofia in Movimento-Roma, Walkin studios-Bangalore, Re: Humanism, Unità di ricerca Tecnoculture – Università Orientale di Napoli, GAD Giudecca Art District-Venezia, Arebyte (Londra), Sciami (Roma).Progetto realizzato grazie al sostegno dell’Italian Council (IX edizione 2020), programma di promozione internazionale dell’arte italiana della Direzione Generale Creatività Contemporanea del Ministero per i Beni e le Attività Culturali e per il Turismo.