Le facce create artificialmente con l'intelligenza artificiale dei deepfake sono indistinguibili da quelle degli esseri umani reali. Anzi, a dire il vero, le persone credono che siano più reali i volti artificiali. Che sono in grado anche di ingannare osservatori più esperti. Lo dimostrano i test condotti dai ricercatori della Lancaster University e della University of California che hanno utilizzato la rete generativa avversaria, StyleGan2, sviluppata dai laboratori di Nvidia, con cui si possono produrre immagini deepfake.

I risultati dei loro esperimenti, che danno la misura di quanto sia progredita la tecnologia IA in questo campo, sono stati pubblicati sulla rivista Pnas. Sophie Nightingal e Hany Farid, autori della ricerca, hanno coinvolto centinaia di persone, reclutate su Amazon Turkle, chiedendo loro di valutare e classificare vari volti, alcuni dei quali realizzati sinteticamente tramite IA, indicando quali fossero quelli reali e quelli falsi. Inaspettatamente, i partecipanti ai test hanno formulato risposte tali da considerare più affidabili (valutazione media) le facce artificiali. In modo particolare, i volti delle donne, create dall'intelligenza artificiale, più degli uomini sono sembrati più veri agli occhi di chi è stato chiamato a giudicarli.

I ricercatori sostengono che le facce generate grazie a StyleGan2, disponibili tra l'altro su GitHub , siccome sono modellate sulle caratteristiche dell'uomo medio, possono più facilmente trarre in inganno. L'intelligenza artificiale dei deepfake, secondo Sophie Nightingal e Hany Faridè, è diventata così sofisticata da superare lo scoglio del cosiddetto effetto uncanny valley, punto limite della somiglianza all'umano di una creazione sintetica passato il quale si provoca una sensazione di inquietudine e di rigetto che portano al riconoscimento dell'artificiale. La conseguenza è che possono aumentare i rischi di un uso malevolo della tecnologia. I deepfake audio, video e di foto, oltre a mezzo di divertimento e miglioramento dell'attività, sono già diventati strumento di revenge porn, manipolazione propagandistica e frode. In un mondo digitale in cui tutto può essere oggetto di falsificazione il pericolo è che anche la realtà, soprattutto se scomoda, possa essere messa in discussione.

E' necessario pertanto, a giudizio dei ricercatori, rafforzare i meccanismi di salvaguardia a difesa degli utenti. Che riguardano sia limiti e norme più restrittive contro la facilità di accesso ai sistemi deepfake e di loro impiego nelle applicazioni sia l'introduzione di dispositivi tecnici più efficaci per il riconoscimento e l'adozione di codici etici e linee guida per chi produce contenuti digitali e chi li pubblica e distribuisce.
L'inquietante traguardo di Clearview AI: "Entro l'anno 100 miliardi di foto nel database, ogni essere umano sarà identificabile"
