
Alla fine, è stata bocciata la ricerca sul software in grado di predire i comportamenti criminali di una persona attraverso la tecnologia di riconoscimento facciale.
L'editore Springer ha respinto il testo, elaborato da docenti e studenti con titolo dottorale della Harrisburg University, che migliaia di accademici, ricercatori ed esperti di intelligenza artificiale hanno contestato, mobilitandosi per impedirne la pubblicazione.
Dalla faccia al crimine
Nella pagina di presentazione del documento, prima della sua mancata approvazione, si descrive lo sviluppo del programma, stile Minority Report, come un mezzo per aiutare le forze di polizia a prevenire il crimine. Il software basato sulle reti neurali riuscirebbe nel suo obiettivo con una accuratezza pari all'80 per cento, e, secondo quanto dichiara chi lo ha realizzato, senza contenere distorsioni dovute a pregiudizi che portano a errori nella capacità di rilevare possibili minacce.
«Si sa che le tecniche di apprendimento automatico – sostengono gli autori di "A Deep Neural Network Model to Predict Criminality Using Image Processing" – possono svolgere meglio di un essere umano attività come il riconoscimento facciale o delle emozioni. E la ricerca mostra quanto è potente questa tecnologia che dall'analisi di un volto umano è in grado di rintracciare elementi utili a identificare atteggiamenti criminali».
Lettera aperta
Che un sistema di intelligenza artificiale possa dedurre tratti ed eventuali atti di criminalità da una faccia è argomento però oggetto di severa critica. Si spiega così la reazione del gruppo Coalition for Critical Technology che in una lettera aperta all'editore Springer ha richiesto e ottenuto la reiezione della controversa ricerca. Nella missiva, i firmatari esprimono la loro preoccupazione per uno scritto le cui premesse sono infondate scientificamente e invalidate da un'ampia messe di studi. D'altra parte, è impossibile che algoritmi di machine learning siano neutri e depurati completamente dai pregiudizi razziali. Anche perché i dati su cui si alimentano e attingono, a partire dalle statistiche ufficiali di paesi come gli Stati Uniti, contengono alla base distorsioni e deviazioni di questo tipo. Pertanto, un software predittivo in ambito criminale non potrà che riflettere i pregiudizi sottostanti al sistema giudiziario.
Il pericolo – si avverte inoltre nella lettera - è che sotto il manto dell'intelligenza artificiale possano ripresentarsi pseudoscienze come la fisiognomica e la frenologia. O addirittura risorga una moderna "scienza della razza" che utilizzi la pretesa oggettività e neutralità degli algoritmi per riperpetuare ingiustizie e discriminazioni.
Nel 2016, ad esempio, ricercatori della Università Jiao Tong di Shanghai hanno cercato di accreditare un software di intelligenza artificiale come strumento per predire la criminalità dalla mera analisi facciale, dovendo tuttavia scontrarsi con la dura replica critica degli scienziati di Google e Princeton University.
A più riprese, l'efficacia della tecnologia di riconoscimento facciale è stata messa in discussione e sono stati provati abusi ed errori. Recente è il caso di un cittadino Usa, arrestato per un crimine che non aveva commesso a causa delle indicazioni sbagliate di un algoritmo.
Amazon è stata invece costretta a sospendere l'autorizzazione all'impiego della sua piattaforma Rekognition da parte delle forze di polizia americana, in seguito alle crescenti polemiche sulla tecnologia di riconoscimento facciale.
Polemiche con cui anche l'editore Springer ha dovuto fare i conti, assumendo la decisione di non pubblicare la ricerca della Harrisburg University che non ha passato il vaglio della revisione partitaria.