In evidenza
Sezioni
Magazine
Annunci
Quotidiani GNN
Comuni

E ora anche l'Unione Europea si prepara a mettere al bando la sorveglianza di massa

Mentre la Cina e gli Stati Uniti si contendono la leadership nel campo dell’intelligenza artificiale, il Vecchio Continente punta tutto sull’etica

2 minuti di lettura

Dopo aver tracciato la strada relativa alla privacy e alla protezione dei dati con il GDPR, l’Unione Europea affronta il tema della sorveglianza di massa e dell’etica dell’intelligenza artificiale. È da tempo che queste misure bollono in pentola, ma secondo la bozza di una proposta di legge europea (divulgata per prima da Politico) la UE sarebbe sul punto di varare nuove norme per mettere al bando le tecnologie digitali impiegate per la sorveglianza di massa e a multare pesantemente le aziende che sviluppano software non conformi alle norme stesse.

Il primato della politica
Mentre Cina e Stati Uniti si contendono il primato nel campo dell’intelligenza artificiale e sviluppano nuovi strumenti di sorveglianza (a partire dal riconoscimento facciale), l’Europa – rimasta fuori dalla corsa – cerca di rafforzare la sua immagine di potenza politica che mette davanti a tutto i diritti civili e la libertà dei cittadini. Le nuove norme potrebbero essere presentate ufficialmente già la prossima settimana, dopodiché dovranno iniziare il lungo percorso parlamentare durante il quale potranno subire significative modifiche.

Nel complesso, le leggi previste nella bozza mostrano come l’Unione Europea punti a mettere al bando “i sistemi utilizzati per manipolare il comportamento umano o sfruttare informazioni relative a individui, o gruppi di individui, per effettuare pratiche di social scoring o di sorveglianza indiscriminata” (con l’eccezione di alcuni utilizzi a scopi di sicurezza pubblica). Per impiegare nei luoghi pubblici i sistemi di identificazione biometrica – come appunto il riconoscimento facciale – sarà invece necessario ottenere autorizzazioni particolari. Le applicazioni di intelligenza artificiale considerate ad alto rischio (auto autonome, chirurgia a distanza e altre) dovranno inoltre essere ispezionate da terze parti per assicurarsi che i dati impiegati per l’addestramento non siano vittima del pregiudizio algoritmico.

Regole che si applicheranno a tutte le aziende che operano sul suolo continentale, indipendentemente dalla loro provenienza. Nel caso in cui le società venissero meno alle norme previste dall’Unione Europea – o non cooperassero con gli enti nazionali che saranno incaricati di fornire le certificazioni – potrebbero essere soggette a multe pari al 4% del fatturato globale (la stessa soglia prevista dal GDPR). Le norme, in ogni caso, non si applicano alle tecnologie i cui utilizzi sono esclusivamente militari.

Un passo avanti
Si tratta indubbiamente di un passo avanti, che mostra come l’Unione Europea continui a essere all’avanguardia sul tema cruciale dell’etica digitale e del rispetto della privacy, e che la distingue nettamente dalle due superpotenze rivali che, anche negli Stati Uniti, hanno fatto fino a oggi un uso molto disinvolto delle tecnologie per la sorveglianza di massa (ma le cose stanno iniziando a cambiare).

Alcuni limiti di queste nuove norme europee saltano però subito all’occhio: il fatto che la sorveglianza di massa sia vietata “con l’eccezione di alcuni utilizzi a scopo di sicurezza pubblica” rischia di lasciare aperta la porta proprio a quegli abusi che si vogliono evitare. C’è di più: «La descrizione dei sistemi di intelligenza artificiale che devono essere proibiti è troppo vaga e il linguaggio utilizzato poco chiaro», ha spiegato a The Verge l’analista Daniel Leufer. «Segnalare che un sistema non possa modificare il comportamento umano è troppo impreciso: come può una legislazione nazionale decidere se è stato un sistema a causare un cambiamento nel comportamento?».

Fare chiarezza
Altri esperti hanno sottolineato il rischio che le certificazioni e i controlli finiscano per penalizzare ulteriormente le società europee attive nel campo dell’intelligenza artificiale e la necessità che queste norme non soffochino l’innovazione e non causino dei colli di bottiglia burocratici. «Dobbiamo essere molto chiari nelle nostre regolamentazioni», ha affermato il responsabile del comitato europeo sull’intelligenza artificiale Dragos Tudorache, «spiegando in quali situazioni gli ingegneri e le aziende devono richiedere l’approvazione dei regolatori e in quali invece possono farne a meno». Per il momento, si tratta soltanto di una bozza: il compito davvero difficile sarà trasformarla in una legge in grado di superare tutti i limiti già evidenziati.