La prima bozza di legge sull’applicazione dell’AI della Commissione Europea.

La Commissione Europea ha rilasciato la prima bozza della legge sull’applicazione dell’intelligenza artificiale, per regolamentarne l’uso.

Sono state definite 4 fasce di rischio:

Rischio inaccettabile

Divieto di usi particolarmente dannosi, che contravvengono ai valori dell’UE poiché violerebbero i diritti fondamentali (ad esempio il social scoring così come attuato in Cina, lo sfruttamento delle vulnerabilità dei bambini, l’uso di tecniche subliminali e – a parte diverse eccezioni per le forze dell’ordine – i sistemi di identificazione biometrica come il riconoscimento facciale, a distanza e in tempo reale, in aree pubblicamente accessibili).

Rischio elevato

Un numero limitato di sistemi AI che determinano un impatto potenzialmente negativo sulla sicurezza delle persone o sui loro diritti fondamentali, per cui vengono richiesti stringenti requisiti (obbligo a usare dataset di alta qualità, creazione di adeguata documentazione tecnica, tenuta di registri, trasparenza e fornitura di informazioni agli utenti, supervisione umana e robustezza, precisione e sicurezza informatica). *

Rischio limitato

Sistemi di AI per i quali sono imposti specifici requisiti di trasparenza, ad esempio quando c’è un chiaro rischio di manipolazione (pensiamo all’uso di chatbot). In quei casi la trasparenza impone che gli utenti siano consapevoli di stare interagendo con una macchina.

Rischio minimo

Tutti gli altri sistemi AI possono essere sviluppati e utilizzati nel rispetto della legislazione esistente, senza ulteriori obblighi legali. Secondo il documento, la stragrande maggioranza dei sistemi di intelligenza artificiale attualmente utilizzati nell’UE rientrano in questa categoria. I fornitori di tali sistemi possono scegliere, su base volontaria, di applicare i requisiti per un’AI affidabile e aderire a codici di condotta volontari.

*In caso di violazione le autorità nazionali potranno avere accesso alle informazioni necessarie per indagare se l’uso del sistema di AI è stato realizzato rispettando la legge. Questo significa, in parole povere, che se un Paese dell’Unione dovesse ravvisare una violazione in un sistema di intelligenza artificiale statunitense, cinese o russo, le autorità di detto Paese potranno esaminare tutta la documentazione tecnica, inclusi i dataset utilizzati, che a volte sono considerati dalle aziende, a ragione, un segreto industriale.

Il testo prevede multe fino al 6% del fatturato mondiale annuale per chi infrange le regole.

Mentre Stati Uniti, Cina e Russia lavorano per ottenere risultati sempre più precisi e innovativi, l’Europa insiste sui rischi, sull’etica e sulla necessità di elaborare un’IA che sia umano-centrica, e dopo aver armonizzato il regolamento alla Carta dei diritti fondamentali dell’UE, alla proposta di Regolamento sulla governance dei dati e con la Direttiva macchine, passa la palla ai legislatori dei singoli Paesi.

L’applicazione per il riconoscimento facciale

L’Europa ha adottato un approccio più cauto rispetto alle altre potenze mondiali: molte associazioni, oltre 116 membri del Parlamento europeo e cittadini si sono scagliati contro le tecnologie di riconoscimento facciale e le loro applicazioni controverse. L’iter di approvazione del regolamento sarà ancora lungo e pieno di potenziali modifiche.

Le prime reazioni alla bozza sono opposte fra chi teme troppe limitazioni alle applicazioni e un aumento della burocrazia tale da renderla quasi “nemica della crescita”, e chi invece ritiene queste norme ancora troppo permissive (tra dimenticanze, approcci ambigui ecc) e chiede regole più ferree per la sua applicazione.

Un esempio di ambiguità lo fornisce l’articolo 5.1.d. (sugli usi considerati proibiti): un giudice potrà autorizzarne l’uso del riconoscimento facciale da remoto e in tempo reale (di norma sempre proibito) per prevenire minacce specifiche, sostanziali e imminenti (come, per esempio, in sospetto di un attacco terroristico).

Il garante della privacy europeo ha valutato il testo come troppo permissivo: se da un lato proibisce il riconoscimento facciale in tempo reale, di fatto lo permette “post facto”, quindi limitando solo parzialmente le intrusioni nella vita privata dei cittadini. Inoltre, il documento proibisce l’uso di questa tecnologia da parte delle forze dell’ordine ma non di altre organizzazioni e imprese private.

L’Unione Europea ha compiuto il primo passo verso la regolamentazione di una materia così complicata e dinamica, che verrà applicata anche alle aziende che non risiedono nell’Unione ma che producono o distribuiscono sistemi usati dai cittadini dell’UE. Non resta che vedere come reagiranno i paesi con un settore AI già molto avanzato, come per esempio gli Stati Uniti.

Artificial Intelligence Act completo  https://ec.europa.eu/newsroom/dae/items/709090

Leave a Reply

Overace

HQ & Factory
Corso Casale 297/bis
10132 – Turin – Italy

info@overacegroup.com

Close Bitnami banner
Bitnami