La sfida tra uomo e computer Un gruppo di ricerca sugli aspetti etici

Un team di ricercatori incaricato di proporre le regole per arginare il primato delle macchine sull’essere umano



È possibile che Donald Trump, all’improvviso, compaia in video e parli fluentemente olandese? Oppure, siamo sicuri che condannare qualcuno sulla base di un algoritmo sia davvero una decisione “neutrale”? E ancora, cosa succederebbe se una macchina a guida autonoma scambiasse un semaforo verde per uno stop? No, non è il solito film di fantascienza.


È l’argomento di cui si occuperà “Ai4Eu”, progetto europeo con un budget di 20 milioni di euro che coinvolgerà 79 centri di ricerca nel vecchio continente. Se l’obiettivo è quello di realizzare una piattaforma europea sulle nuove tecnologia, l’European Center for Living Technology di Ca’ Foscari avrà un compito specifico: realizzare, per un finanziamento di circa 450 mila euro, il primo «osservatorio europeo sull’etica dell’intelligenza artificiale» con sede proprio a Venezia.

L’obiettivo è monitorare, segnalare, studiare e correggere gli usi distorti della tecnologia. Anzi, di quelle branche dell’intelligenza artificiale che prendono il nome di machine learning e deep learning. E cioè, semplificando: la capacità delle macchine di imparare e interagire con la realtà. A dirigere l’osservatorio sarà Marcello Pelillo, professore di Computer Science e direttore dell’Eclt: «Il mondo, ormai, va in quella direzione. E l’Europa si è resa conto di essere indietro nella ricerca sull’intelligenza artificiale, rispetto ai colossi Usa e Cina».

Tra i principali problemi di cui si occuperà l’osservatorio veneziano c’è l’opacità della tecnologia. «Anche tra gli esperti» spiega Pelillo, «esiste il problema di giustificare il come e il perché una macchina prenda una certa decisione».

C’è un esempio concreto, capitato di recente e riportato dalla stampa. Un ragazzo afroamericano inserisce su Google Foto una foto in compagnia della sua ragazza. Il programma interagisce applicando una “tag” (etichetta) in automatico. Solo che, ingannato, al posto di “ragazzo e ragazza” elabora la parola “gorilla”. Ne scoppia un caso: accuse di discriminazione, scuse ufficiali. Eppure, il problema è ancora lì e risolverlo, ammette il professore, è difficile: troppi i numeri in ballo. «Per il momento l’unica soluzione che ha trovato Google è eliminare le situazioni ambigue».

C’è poi la neutralità. Possibile che le macchine, al contrario degli uomini, non abbiano pregiudizi? «In realtà» dice Pelillo, «si nutrono di dati che possono incorporare pregiudizi, quando forniti dall’uomo». È il caso di una recente condanna da parte di un tribunale del Wisconsin. La sentenza si basava sul sistema informatico Compas. Il sospetto verso gli afroamericani, secondo uno studio di Pro Publica, era circa il doppio rispetto ai bianchi.

Per non parlare delle fake news. L’intelligenza artificiale, infatti, è in grado di far dire ciò che si vuole a chiunque. Lo dimostra un video in cui si vede Trump parlare perfettamente in olandese grazie a una ricostruzione digitale della sua mimica applicata a un doppiaggio. Un gioco che potrebbe trasformarsi in un rischio per la sicurezza mondiale. «Ecco perché il nostro compito» conclude Pelillo, «sarà di monitorare gli usi dell’intelligenza artificiale, ricavare linee guida, segnalare le distorsioni e produrre report». —



Tartellette di frolla ai ceci con kiwi, avocado e yogurt

Casa di Vita
La guida allo shopping del Gruppo Gedi