Un software trasforma dati visivi in note per chi non vede: bastano pochi minuti per imparare a orientarsi nello spazio
MILANO – Musica per gli occhi, per vedere attraverso le note. Lo promette il progetto EyeMusic di ricercatori della Hebrew University di Gerusalemme, i cui primi risultati sono stati pubblicati sulla rivista Restorative Neurology and Neuroscience: grazie a un software, è possibile trasformare ciò che si vede in note musicali che guidano nello spazio chi è cieco, per riconoscere oggetti e compiere gesti consapevoli.
EYEMUSIC – Si tratta di un cosiddetto “strumento di sostituzione sensoriale”, ma stavolta bisogna ammettere che c’è un po’ di poesia in più rispetto al solito. Lo strumento consiste in un paio di occhiali speciali a cui sono fissate telecamere (ma c’è pure una telecamerina portatile che può essere puntata a mano dove serve) che scansionano l’immagine che si propone di fronte agli occhi di chi lo indossa: lo fanno continuamente, da destra a sinistra, indicando con un segnale sonoro quando ricomincia la scansione del campo visivo. I pixel-oggetti che compaiono più in alto nella scansione sono associati a un tono musicale più alto, quelli in basso a un tono grave; la posizione del pixel visivo sull’asse orizzontale dell’immagine è segnalata dal tempo che intercorre fra il segnale di inizio della scansione e la nota che lo rappresenta (in altri termini, più l’oggetto è spostato a destra più passa il tempo fra la “battuta d’attacco” e la nota); quindi, la brillantezza del pixel-oggetto è resa dal volume della nota. Ultimo tocco geniale i colori, indicati dall’uso di diversi strumenti: il canto rappresenta il bianco, la tromba il blu, il violino il giallo, il silenzio il nero e così via. Del tutto non invasivo, EyeMusic crea quello che Amir Amedi, il suo inventore, chiama un “paesaggio sonoro”: «Le note sono assemblate in modo da dare suoni melodiosi: ci siamo confrontati anche con musicisti e il risultato è un’esperienza musicale piacevole», dice Amedi, e chiunque può valutare se sia così ascoltando alcuni esempi sul sito del laboratorio.
ESPERIMENTO – Tutto molto suggestivo e interessante, ma funziona davvero nella vita reale? Amedi ha dimostrato che è così chiedendo a 18 volontari bendati di compiere specifici movimenti guidati da EyeMusic, mettendo a confronto i risultati ottenuti con quanto era possibile sotto una guida visiva. All’inizio è stato fatto un breve periodo di “allenamento”, insegnando ai partecipanti come riconoscere oggetti semplici o vicini, per esempio un quadrato bianco o un quadrato bianco accanto a uno blu. Una volta imparato come funziona lo strumento (occorre meno di mezzora, stando al ricercatore), ai partecipanti è stato chiesto di toccare su un apposito tablet un quadrato bianco che di volta in volta si trovava in diverse posizioni nello spazio: un test è stato fatto da bendati, sotto la guida di EyeMusic; quindi la prova è stata ripetuta mettendo il braccio sotto una copertura opaca, in modo che si vedesse lo schermo ma non ci fosse un feedback diretto dalla mano. «I volontari hanno utilizzato le informazioni uditive per ricostruire in maniera abbastanza precisa la rappresentazione dello spazio – riferisce il ricercatore –. Questo indica che tale rappresentazione, nel cervello, non dipende strettamente dalla modalità sensoriale con cui si riceve l’informazione spaziale; inoltre, significa che con poco allenamento si può imparare a usare i suoni come guida per “vedere”». Le applicazioni possibili per i non vedenti sono considerevoli: Amedi fa notare che con uno strumento simile un cieco può scegliere una mela rossa da un vassoio di mele verdi senza farsi aiutare da nessuno. Di certo adesso occorre perfezionare il metodo: un conto è capire se abbiamo di fronte un quadrato bianco a destra o sinistra, tutt’altro è apprezzare la complessità di ciò che arriva nel campo visivo, riuscendo comunque a interagire con l’esterno senza aiuti di altro genere.
Fonte: Corriere della Sera.it
17/09/2012