Intelligenza artificiale - Ai act

Via libera definitivo all’unanimità del Consiglio Ue all’AI Act, la legge europea sull’intelligenza artificiale che disciplina lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di IA in Ue. La legge, la prima al mondo in materia, detta una serie di obblighi a fornitori e sviluppatori di sistemi di IA in base ai diversi livelli di rischio identificati.

Le nuove regole saranno applicabili a due anni dall’entrata in vigore, con l’eccezione dei divieti, che scatteranno dopo sei mesi, dei controlli sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e degli obblighi per i sistemi ad alto rischio (36 mesi).

Cos’è l’AI Act?

L’AI Act è una proposta di regolamento presentata dalla Commissione Europea il 21 aprile 2021, con l’obiettivo di creare un quadro normativo armonizzato e proporzionato per l’intelligenza artificiale (IA) nell’Unione Europea. Il regolamento si basa sul principio che l’IA deve essere sviluppata e utilizzata in modo sicuro, etico e rispettoso dei diritti fondamentali e dei valori europei. Gli obiettivi principali dell’AI Act sono:

  • Creare un mercato unico per l’IA, facilitando la libera circolazione e il riconoscimento dei sistemi di IA conformi alle norme dell’UE.
  • Aumentare la fiducia nell’IA, assicurando che i sistemi di IA siano affidabili, trasparenti e responsabili.
  • Prevenire e mitigare i rischi dell’IA, vietando o limitando l’uso di sistemi di IA ad alto rischio.
  • Sostenere l’innovazione e l’eccellenza nell’IA, attraverso incentivi e finanziamenti per lo sviluppo di sistemi sicuri ed etici.

Classificazione dei sistemi di IA

L’AI Act introduce una classificazione dei sistemi di IA in base al loro livello di rischio per la sicurezza e i diritti delle persone, suddividendoli in quattro categorie:

  • Rischio inaccettabile: Sistemi vietati perché contraddicono i valori fondamentali dell’UE. Esempi includono sistemi di manipolazione del comportamento umano o di “scoring sociale”.
  • Rischio elevato: Sistemi che possono avere un impatto significativo sui diritti fondamentali o sulla sicurezza. Sono soggetti a rigorosi obblighi e requisiti. Esempi includono sistemi usati per il reclutamento del personale o per applicazioni giudiziarie.
  • Rischio limitato: Sistemi che richiedono requisiti di trasparenza, consentendo agli utenti di sapere che stanno interagendo con un sistema di IA. Esempi includono chatbot e deepfake.
  • Rischio minimo o nullo: Sistemi che non hanno impatti diretti sui diritti fondamentali. Non sono soggetti a obblighi normativi specifici. Esempi includono sistemi per videogiochi o filtri fotografici.

Obblighi per sviluppatori e utilizzatori

Gli obblighi variano a seconda del tipo di rischio del sistema di IA:

  • Sistemi ad alto rischio: Devono soddisfare requisiti riguardanti la qualità dei dati, la documentazione tecnica, la supervisione umana, la robustezza, la sicurezza e la precisione. Sono soggetti a valutazione del rischio, gestione della qualità e certificazione da parte di organismi indipendenti.
  • Sistemi a rischio limitato: Devono rispettare requisiti di trasparenza, informando gli utenti delle caratteristiche e delle limitazioni del sistema.
  • Sistemi a rischio minimo o nullo: Non sono soggetti a obblighi specifici, ma devono rispettare le leggi generali applicabili all’IA.

Impatto sull’innovazione

L’AI Act promuove lo sviluppo responsabile dell’IA attraverso:

  • Un quadro normativo armonizzato, che riduce la frammentazione del mercato interno e aumenta la fiducia degli utenti e degli investitori.
  • Sostegno alla ricerca e all’innovazione, finanziando progetti focalizzati sulla qualità e l’impatto sociale dell’IA.
  • Diffusione delle migliori pratiche e conoscenze, attraverso centri di competenza e innovazione.
  • Istituzione di un comitato europeo per l’IA, per assistere nella implementazione e aggiornamento dell’AI Act.

Tutela dei diritti

L’AI Act garantisce la sicurezza e l’eticità dell’IA attraverso:

  • Requisiti per i sistemi ad alto rischio, che assicurano il rispetto dei diritti fondamentali.
  • Meccanismi di supervisione umana, per monitorare e intervenire sui sistemi di IA.
  • Divieto di sistemi ad alto rischio inaccettabile, che violano i valori fondamentali dell’UE.
  • Sistema di governance armonizzato, che coinvolge autorità nazionali, Commissione Europea, e società civile.
  • Promozione di una cultura dell’IA responsabile, incoraggiando partecipazione, trasparenza e responsabilità.

Definizione e ambito di applicazione

La definizione di “sistema di IA” secondo l’AI Act include sistemi automatizzati che mostrano capacità di adattamento e generano output come previsioni, contenuti, raccomandazioni o decisioni che influenzano ambienti fisici o virtuali. L’AI Act si applica ai fornitori e operatori di IA nell’UE, e anche a quelli situati in paesi terzi se l’output è utilizzato in Europa.

Eccezioni e impatto globale

Il regolamento non si applica a sistemi di IA per scopi militari, di difesa o di sicurezza nazionale, e attività di ricerca e sviluppo scientifico. Il successo del GDPR ha ispirato l’AI Act a creare uno standard di riferimento globale per la regolamentazione dell’IA, influenzando anche le normative di altri paesi.

L’AI Act rappresenta un traguardo importante per l’Europa, stabilendo regole innovative e tempestive per l’IA. Nonostante alcune critiche, l’approccio dell’Unione Europea è coraggioso e ambizioso, ponendo al centro la protezione dei diritti fondamentali e il sostegno all’innovazione.

____________________________________________

Leggi le notizie di Piazza Borsa

Per restare sempre aggiornato, segui i nostri canali social FacebookTwitter e LinkedIn