L'Ue contro la sorveglianza di massa, l'intelligenza artificiale sia etica

BRUXELLES - Grande Fratello? No, grazie. Nel nuovo capitolo dell'eterna sfida tra uomo e tecnologia, la Commissione europea delimita il campo d'azione dell'intelligenza artificiale (AI) e mette al centro la tutela dei diritti fondamentali e dei valori Ue. Che non possono essere sacrificati nemmeno sull'altare di una corsa economica con Stati Uniti e Cina che per il Continente vale 20 miliardi di investimenti all'anno da qui al 2030. Nel disegno di legge presentato da Bruxelles, non c'è spazio per la sorveglianza di massa e nemmeno per tutte quelle tecnologie che manipolano il comportamento umano per eludere il libero arbitrio e sfruttare i più vulnerabili. Chi proverà a introdurre sul mercato europeo dispositivi non conformi potrebbe incorrere in sanzioni fino al 6% del fatturato.

Se, insomma, è giusto non stigmatizzare una tecnologia diventata sempre più importante per l'intera società, il futuro dell'Ue non ha niente a che vedere con lo stivale che calpesta il volto umano nel '1984' di George Orwell. Perché l'AI dev'essere "etica" e "i cittadini meritano tecnologie di cui possono fidarsi", ha sintetizzato la presidente della Commissione Ue, Ursula von der Leyen. E, poiché tutto ruota intorno alla fiducia, l'uso negli spazi pubblici dei sistemi di identificazione biometrica, come il riconoscimento facciale, sarà "vietato in linea di principio", ha scandito la vicepresidente Ue, Margrethe Vestager. Una linea, però, un po' troppo sottile per alcuni: sono infatti previste deroghe - legate alla sicurezza pubblica, alla lotta al terrorismo e alla ricerca di bambini dispersi o di criminali - che fanno già affilare le armi ad eurodeputati e lobbisti in vista del dibattito che attende la proposta nei prossimi mesi prima che l'iter legislativo si compia.

Davanti al lato oscuro dell'AI, l'approccio usato dalla Commissione si basa sui "diversi livelli di rischio", rappresentati in un'ideale piramide al cui apice si trovano una manciata di sistemi da bandire perché portatori di un "rischio inaccettabile" per i diritti fondamentali dell'Ue. Si tratta di tutti quei dispositivi che manipolano i comportamenti, come i videogame che usano l'assistente vocale per incoraggiare i minori ad azioni pericolose, così come sistemi di "punteggio sociale" adottati dai governi per classificare gli individui. Al gradino sottostante, ci sono poi tutte le applicazioni "ad alto rischio", che dovranno rispondere a severi obblighi e ottenere un'autorizzazione dai magistrati prima di raggiungere il mercato. Oltre al riconoscimento facciale, si parla in questo caso di dispositivi usati in infrastrutture critiche (trasporti), che potrebbero mettere a rischio la vita e la salute dei cittadini; software per determinare l'accesso all'istruzione (punteggio agli esami) o a una posizione lavorativa (scansione dei cv); sistemi per la valutazione della solvibilità dei cittadini o, ancora, applicazioni usate per vagliare domande d'asilo o documenti di viaggio. Il rischio è invece classificato come "limitato" per servizi come i chatbot, che avranno obblighi di trasparenza specifici, e "minimo" per applicazioni come i filtri antispam.

Scongiurato il pericolo di abusi, l'Ue è il "primo Continente a dare linee guida" in materia, ha detto il commissario Thierry Breton che, da responsabile del Mercato interno, non vuole perdere né investitori né il treno dei dati industriali. Proprio ora che la tecnologia può essere d'aiuto nella ripresa economica e per sostenere il cambiamento climatico. Le società che vogliono usare le applicazioni di intelligenza artificiale dovrebbero "venire nell'Ue" perché sapranno "cosa fare, come farlo" e con chi, ha detto il francese, precisando che l'Europa darà loro regole, strumenti e infrastrutture. Via libera di Parlamento Ue e Stati membri permettendo.

© RIPRODUZIONE RISERVATA