L’intelligenza artificiale e le regole

Lo scorso 11 maggio 2023 le commissioni Internal Market e Civil Liberties del Parlamento Europeo hanno approvato il testo «di compromesso» del regolamento sull’AI proposto dalla Commissione Europea. Poco importa che i «problemi» fossero gli stessi che da sempre affliggono, per esempio, i motori di ricerca o che avessero origine in una mal compresa modalità di utilizzo del software, equiparato contro ogni logica ad un oracolo senziente. 

La proposta

La fretta è sempre cattiva consigliera e nel caso della proposta di regolamento sull’AI questo è particolarmente vero, perché la sottovalutazione degli aspetti tecnici e politici connessi a questa tecnologia si è manifestata a partire dalle scelte di sistema e fino alla scrittura delle singole norme. Partendo dalle fondamenta, il primo punto critico riguarda la scelta di assoggettare la Scienza alla politica.

La seconda è che, à la Trofym Lysenko, il Parlamento UE si arroga il diritto di decidere per legge cosa siano scienza e tecnologia o come debbano essere definite.

Meredith Whittaker al Wired Next Fest 2023 Trentino: «La privacy è un diritto umano»

Eppure, oggi tutto funziona sulla base di questi software «diversamente intelligenti» ma non per questo meno pericolosi o capaci di provocare danni anche catastrofici, dall’errore di una diagnosi medica alla caduta di un aereo. Eppure, questa sarebbe stata una opzione abbastanza semplice per affrontare il problema della responsabilità connessa ai programmi che funzionano grazie all’AI. La scelta del regolamento, invece, è andata verso l’ennesima applicazione del «principio di precauzione» e dunque dell’imposizione dell’onnipresente «analisi del rischio». Si tratta di un elemento che causa grande incertezza nella valutazione del come dovrebbero funzionare software, hardware e servizi basati su AI.

Colpa di chi li usa

Blame the user, in altri termini, come da sempre accade nel mondo del software. Il divieto più rilevante e controverso riguarda l’identificazione biometrica basata su AI anche per finalità di polizia che, salvo improbabili modifiche non sarà consentita a nessuno Stato membro. Se, infatti, da un lato il Parlamento Europeo intende bloccare l’uso di una tecnologia di sorveglianza percepita come troppo pericolosa per i diritti fondamentali, nello stesso tempo la Commissione Europea sta spingendo per l’adozione del client side scanning cioè dell’imposizione di sistemi di «perquisizione preventiva automatizzata» di smartphone e computer prima che il contenuto di una comunicazione sia cifrato e spedito in nome della «tutela dei minori» al costo di una inaccettabile intrusione sistematica e continua nell’uso quotidiano dei sistemi di comunicazione. Non si può dunque dire, in senso assoluto, che in ambito europeo sia stata rifiutata l’idea di costruire una società del controllo.

L’Europa

Anzi, a guardare il progetto di costruzione di un enorme data-base biometrico da usare per gestire gli ingressi nella UE verrebbe da pensare che schedatura e sorveglianza di massa siano oramai un fatto compiuto anche all’interno dell’Unione Europea e che il «sacrificio» del riconoscimento biometrico basato su AI rappresenti quasi una perdita accessoria nell’economia complessiva del sistema di controllo in corso di realizzazione. Fuori dalle tecnicalità giuridiche, in altri termini, c’è il concreto pericolo che il divieto di utilizzo dell’AI nelle attività di polizia rimanga lettera morta se gli Stati membri non decideranno di intervenire autonomamente. Se, infatti, le decisioni politiche in materia di sorveglianza e sicurezza devono essere assunte a livello nazionale, è ancora possibile suscitare un dibattito pubblico esteso che, in ciascun Paese, metta le forze politiche di fronte alla responsabilità di decidere quali debbano essere i limiti ai diritti delle persone, e di assumere direttamente la responsabilità della scelta, senza potersi nascondere dietro il tradizionalissimo «ce lo ha chiesto l’Europa».

Back To Top