Notizie Notizie Mondo AI Act, cosa contiene la legge sull’intelligenza artificiale

AI Act, cosa contiene la legge sull’intelligenza artificiale

12 Dicembre 2023 10:44

Dopo un meeting a Bruxelles durato più di 36 ore i legislatori europei hanno trovato un accordo, il primo quadro concreto di norme per regolamentare il campo dell’intelligenza artificiale (AI), rinchiuse nell’AI Act. E’ stato proprio il commissario europeo al Mercato Interno, Thierry Breton ad annunciare l’accordo su X (ex Twitter), definendolo “accordo storico”.

AI, cosa contiene la nuova legge

L’AI Act prevede una serie di obblighi per i sistemi ad alto rischio, tra cui quello di una valutazione dell’impatto sui diritti fondamentali. Pertanto specifichiamo che non c’è nulla di definitivo e se tutto va bene l’accordo entrerà in vigore tra due anni.

La legge europea assicura che i diritti e le libertà siano al centro dello sviluppo di questa tecnologia rivoluzionaria, garantendo un bilanciamento tra innovazione e protezione. Il principio alla base come nel caso della GDPR, si legge nella nota del PE, è quello della responsabilizzazione e dell’autovalutazione. Tutte le società del settore che operano all’interno dell’UE devono essere in grado di dimostrare che il modo in cui sono arrivati a sviluppare la tecnologia non danneggia i diritti fondamentali degli esseri umani e non costituisca un rischio per le persone.

Inoltre, specifica la nota del PE, l’AI Act adotta un approccio “basato sul rischio” per regolamentare l’AI, concentrandosi sulle applicazioni con il maggior potenziale di danno umano. Questo quadro di normative storico mira a stimolare gli investimenti e l’innovazione sull’intelligenza artificiale in Europa, specifica la nota del Parlamento europeo. La legge sull’intelligenza artificiale è un’iniziativa legislativa che ha il potenziale di promuovere lo sviluppo e l’adozione di un’intelligenza artificiale sicura e affidabile nel mercato unico dell’UE da parte di attori sia privati che pubblici.

Le eccezioni

Ci sono delle eccezioni per cui la legge sull’IA non verrà applicata, come ad esempio ai sistemi utilizzati esclusivamente per scopi militari, di difesa o sicurezza nazionale. Allo stesso modo, l’accordo prevede che il regolamento non si applichi ai sistemi di IA utilizzati per soli fini di ricerca e innovazione, o a persone che utilizzano l’IA per motivi non professionali. Per il resto l’UE chiede a tutti gli sviluppatori di sistemi di IA per scopi generali, modelli potenti con un’ampia gamma di usi possibili a soddisfare dei requisiti di trasparenza di base, a meno che non siano forniti gratuitamente e open source.

Requisiti di trasparenza e protezione dei diritti fondamentali

La legislazione europea richiede i seguenti requisiti per le società AI che vorrebbero operare all’interno dell’UE:

  • Avere una politica di utilizzo accettabile
  • Mantenere informazioni aggiornate su come hanno addestrato i loro modelli
  • Riportando un riepilogo dettagliato dei dati utilizzati per addestrare i propri Modelli
  • Avere una politica per rispettare la legge sul copyright

Gli elementi principali dell’accordo

Tra i punti principali dell’accordo c’è quello di permettere il riconoscimento facciale solo in casi limitati. I legislatori hanno concordato una serie di salvaguardie e ristrette eccezioni per l’uso di sistemi di identificazione biometrica in spazi accessibili al pubblico a fini di applicazione della legge, previa autorizzazione giudiziaria e per elenchi di reati rigorosamente definiti. Rispetto alla proposta iniziale della Commissione europea, i principali elementi della nuova legge sull’IA sono così riassunti:

  • Norme sui modelli di IA di carattere generale ad alto impatto che possono causare rischi sistemici in futuro, nonché sui sistemi di IA ad alto rischio
  • Un sistema di governance rivisto con alcuni poteri esecutivi a livello dell’UE
  • Estensione dell’elenco dei divieti ma con la possibilità di utilizzare l’identificazione biometrica a distanza da parte delle forze dell’ordine negli spazi pubblici, fatte salve le garanzie.
  • Una migliore tutela dei diritti attraverso l’obbligo per gli utilizzatori di sistemi di IA ad alto rischio di effettuare una valutazione d’impatto sui diritti fondamentali prima di mettere in uso un sistema di IA

La politica delle sanzioni

Il documento si conclude con le multe per le società non conformi alla legge europea, che vanno da 35 milioni di euro o il 7% del fatturato globale a 7,5 milioni o l‘1,5% del fatturato, a seconda della violazione e delle dimensioni dell’azienda.