Intelligenza artificiale: arriva il regolamento dell’ue

Il 21 aprile scorso l’ue ha approvato la proposta di regolamento sull’intelligenza artificiale per garantire “fiducia e eccellenza e salvaguardare i diritti dei cittadini.

La Commissione Ue, il 21 aprile scorso, ha approvato la proposta di Regolamento sull’intelligenza artificiale.

Un’iniziativa, che si inserisce in un contesto di grande fermento a livello dell’Unione e del Consiglio d’Europa, stabilita per garantire “fiducia e eccellenza”, con un occhio ai diritti e uno al mercato, che cresce velocemente e chiede sostegno. L’obiettivo cardine è quello di tracciare un punto di equilibrio tra opposte esigenze: quella di preservare un livello di tutela elevato dei diritti e delle libertà individuali e quella di non scoraggiare e deprimere lo sviluppo e l’evoluzione delle tecnologie emergenti.

I sistemi di IA promettono, da un lato, importantissimi avanzamenti e benefici di grande impatto, dall’altro possono incidere sui diritti degli individui, sulle loro libertà e sulla capacità di autodeterminazione.

La proposta, pertanto, si ispira al paradigma regolatorio di uno dei pilastri della normativa europea volta a fronteggiare (soprattutto) le sfide dell’innovazione digitale, ossia il Regolamento generale sulla protezione dei dati personali (l’ormai noto Gdpr).

Le nuove norme, dunque, saranno uniformi su tutto il territorio europeo, seguono un approccio basato sul rischio.

La norma prevede che:

• alcuni sistemi di AI ritenuti a rischio inaccettabile saranno vietati. Esempi sono assistenti vocali che incoraggiano i ragazzi a compiere azioni e il social scoring. Entrambi investono i comportamenti umani e rischiano di manipolare. Rientrano nel divieto tutti quei sistemi che manipolando opinioni decisioni; che sfruttano e prendono di mira le vulnerabilità delle persone; nonché quelli che mirano alla sorveglianza di massa;

• altri sistemi considerati ad “alto rischio” sono sottoposti a norme prescrittive che riprendono l’approccio accountability del GDPR: risk assessment; alta qualità dei datasets; tracciabilità dei risultati; documentazione dettagliata; supervisione umana; alto livello di robustezza, sicurezza e accuratezza. Sono considerate applicazioni ad alto rischio: quelle che operano nelle infrastrutture critiche; i sistemi usati per determinare l’accesso a istituzioni educative o di formazione, o per valutare gli studenti; l’applicazione di IA nella chirurgia assistita da robot; sistemi usati per lo screening o il filtraggio delle candidature di lavoro; sistemi per valutare l’affidabilità creditizia delle persone; sistemi di valutazione dell’affidabilità delle informazioni fornite da persone fisiche per prevenire, investigare o prevenire reati; sistemi per il trattamento e l’esame delle domande di asilo e visto; sistemi per assistere i giudici in tribunale.

Oltre a vietare in via generale l’utilizzo di sistemi che presentano un livello di rischio non accettabile, la proposta individua una serie adempimenti a cui sottoporre i sistemi che invece presentano un rischio elevato: per esempio, meccanismi di valutazione e mitigazione dei rischi; misure che garantiscano un controllo umano; obblighi di documentazione sulle caratteristiche dei prodotti. Per questi tipi di sistemi, sono altresì previsti obblighi diversi in capo a fornitori e a utilizzatori. In coerenza con lo stesso approccio già ricordato sono inoltre previsti obblighi di trasparenza applicabili a sistemi che presentano un rischio limitato.

Per sistemi di AI a “basso impatto” come le Chatbots, infatti, sarà necessario rendere esplicito all’utente che la sua interfaccia è un sistema operativo non umano. Non rientrano nell’ambito del futuro regolamento i sistemi caratterizzati da un rischio minimo, che in quanto tali non incidono o incidono in misura risibile sui diritti o sulla sicurezza degli individui.

La piena operatività e disponibilità sul mercato delle soluzioni contraddistinte da rischi elevati è così rimessa, in consonanza con lo spirito del Gdpr e della normativa sulla sicurezza dei prodotti, al positivo superamento di una valutazione di conformità a priori. Non si tratta, però, di valutazioni destinate a rappresentare un «via libera» incondizionato, in quanto le varie soluzioni saranno periodicamente oggetto di verifiche in considerazione della rapidità dei mutamenti tecnologici.

Essendo l’IA dinamica e in continua evoluzione, infatti, si dovrà procedere a periodiche valutazioni di impatto e assessment per accertare, dopo una fase di learning dell’algoritmo.

Va inoltre specificato che a livello europeo, sarà istituito un board dove siederanno rappresentanti della Commissione e degli stati membri, mentre a livello nazionale ogni paese dovrà designare (o istituire) una autorità di controllo con il compito di monitorare l’applicazione del futuro regolamento. Sono inoltre previste delle sanzioni con finalità di deterrenza, che potranno raggiungere, per le violazioni più gravi, l’importo massimo di 30 mln di euro o il 6% del fatturato globale annuo. A supervisionare l’applicazione delle nuove regole saranno le Autorità nazionali di controllo sul mercato e l’European Artificial Intelligence board.