GUARDA I NOSTRI CORSI GRATUITI >>> ISCRIVITI SENZA IMPEGNO

Legge sull’IA dell’Unione Europea: elementi chiave dell’accordo

Legge sull’IA dell’Unione Europea: elementi chiave dell’accordo

L’Unione Europea (UE) ha raggiunto un accordo provvisorio tra il Consiglio e il Parlamento, definendo le prime regole globali per l’utilizzo dell’Intelligenza Artificiale (IA).

Questo documento, una volta ratificato, sarà il primo di questo genere, stabilendo un precedente significativo nella regolamentazione dell’IA. Gli aspetti salienti di questo accordo offrono una panoramica chiara delle norme proposte, progettate per garantire sicurezza e rispetto dei principi dell’UE nei sistemi di IA immessi sul mercato europeo e utilizzati nell’UE.

Definizioni e ambito

Una delle prime considerazioni dell’accordo riguarda la definizione di un sistema di IA, cercando di fornire criteri chiari per distinguere l’IA da software meno avanzato. Allineandosi all’approccio dell’OCSE, l’accordo chiarisce che la legge sull’IA non si applica a settori al di fuori del diritto comunitario, evitando interferenze con le competenze nazionali in materia di sicurezza. Settori come quelli esclusivamente per uso militare o di ricerca e innovazione per scopi non professionali sono altresì esclusi dall’applicazione della legge.

Classificazione dei sistemi di IA e divieti

Il cuore dell’accordo è rappresentato dalla classificazione dei sistemi di IA in base al rischio. Sistemi ad alto rischio, capaci di causare gravi violazioni dei diritti fondamentali o altri rischi significativi, sono sottoposti a obblighi più stringenti. Divieti sono posti su pratiche come manipolazione cognitiva, riconoscimento delle emozioni sul posto di lavoro e categorizzazione biometrica per dedurre dati sensibili.

Eccezioni per le forze dell’ordine

Riconoscendo le esigenze delle forze di polizia, l’accordo presenta modifiche per preservare la capacità di utilizzare l’IA in operazioni vitali. Emergenze consentono l’uso di strumenti ad alto rischio senza valutazione di conformità, ma garanzie vengono introdotte per proteggere i diritti fondamentali. L’uso della biometria a distanza è limitato e sottoposto a criteri rigorosi.

Governance e sanzioni

Una nuova architettura di governance è prevista, con un ufficio IA nella Commissione responsabile della supervisione di modelli avanzati e dell’applicazione delle regole. Un comitato scientifico e un comitato per l’IA contribuiranno all’implementazione delle norme. Le sanzioni, inizialmente proposte come percentuali del fatturato, saranno proporzionate e avranno massimali adattati per PMI e start-up.

Trasparenza e tutela dei diritti fondamentali

L’accordo enfatizza la trasparenza, richiedendo una valutazione d’impatto sui diritti fondamentali prima dell’entrata sul mercato di sistemi ad alto rischio. Registrazione obbligatoria per gli utenti di sistemi ad alto rischio, inclusi soggetti pubblici, è un punto chiave. Le violazioni della legge possono essere segnalate e trattate attraverso le procedure delle autorità di vigilanza.

Misure a sostegno dell’innovazione

Le disposizioni per sostenere l’innovazione sono state modificate, offrendo un quadro favorevole e permettendo il test di sistemi in condizioni reali. PMI e start-up beneficeranno di deroghe limitate per ridurre gli oneri amministrativi.

Entrata in vigore e prossimi passi

L’accordo prevede che la legge sull’IA si applichi due anni dopo l’entrata in vigore, con alcune eccezioni. I prossimi passi includono la revisione tecnica del testo e l’approvazione da parte dei rappresentanti degli Stati membri prima dell’adozione formale.

In sintesi, questo accordo provvisorio rappresenta un passo significativo verso una regolamentazione globale dell’IA, promuovendo un approccio europeo che potrebbe stabilire uno standard a livello mondiale, analogamente a quanto fatto con il GDPR.

Leggi anche:

I.A. INTELLIGENZA ARTIFICIALE: I ROBOT SANNO PENSARE?

Truffe vocali basate sull’Intelligenza Artificiale: come difendersi