AI Act, stop ai sistemi di intelligenza artificiale a rischio: come prepararsi ed evitare sanzioni

L’Unione Europea accelera sulla regolamentazione dell’Intelligenza Artificiale. Dal 2 febbraio 2025  sono entrati in vigore i divieti previsti dall’AI Act, il regolamento europeo che disciplina l’uso dell’IA per garantirne uno sviluppo sicuro ed etico. Alcuni sistemi considerati particolarmente rischiosi per i diritti fondamentali e la sicurezza non potranno più essere commercializzati, attivati o utilizzati nei […] L'articolo AI Act, stop ai sistemi di intelligenza artificiale a rischio: come prepararsi ed evitare sanzioni proviene da Economy Magazine.

Feb 5, 2025 - 05:35
 0
AI Act, stop ai sistemi di intelligenza artificiale a rischio: come prepararsi ed evitare sanzioni

L’Unione Europea accelera sulla regolamentazione dell’Intelligenza Artificiale. Dal 2 febbraio 2025  sono entrati in vigore i divieti previsti dall’AI Act, il regolamento europeo che disciplina l’uso dell’IA per garantirne uno sviluppo sicuro ed etico. Alcuni sistemi considerati particolarmente rischiosi per i diritti fondamentali e la sicurezza non potranno più essere commercializzati, attivati o utilizzati nei Paesi dell’UE.

Questa stretta riguarda in particolare l’IA manipolativa, il social scoring, i sistemi di polizia predittiva basati su profilazioni soggettive, la categorizzazione biometrica di dati sensibili, il riconoscimento delle emozioni nei luoghi di lavoro e nelle scuole e lo scraping non mirato di immagini per il riconoscimento facciale.

Sanzioni fino a 35 milioni di euro per i trasgressori

Le imprese che non rispetteranno le nuove disposizioni rischiano sanzioni estremamente severe: dal 2 agosto 2025, le autorità europee potranno imporre multe fino a 35 milioni di euro o al 7% del fatturato globale dell’azienda, applicando le sanzioni anche retroattivamente. Inoltre, i sistemi vietati saranno ritirati dal mercato.

“Dal 2 febbraio scorso sono diventate applicabili le previsioni dell’AI Act che vietano l’immissione sul mercato, la messa in servizio o l’uso nell’Unione di sistemi di IA inaccettabili in quanto eccessivamente lesivi dei diritti fondamentali”, spiegano Stephanie Rotelli e Costantino Monteleone, avvocati fondatori di Cosmo Legal Group.

“Parliamo di tecnologie – precisa Rotelli – che utilizzano tecniche subliminali o manipolative, che sfruttano la vulnerabilità delle persone – per età, disabilità o altre condizioni – o che riguardano il social scoring, la polizia predittiva e la categorizzazione biometrica per dedurre dati sensibili. A queste si aggiungono i sistemi di riconoscimento delle emozioni in contesti lavorativi o educativi”.

Secondo gli esperti legali, le aziende dovranno agire con tempestività: Le imprese europee e italiane – spiega Monteleone – devono adottare al più presto strategie di compliance, che comprendano una mappatura dei sistemi di IA utilizzati o prodotti, la loro eventuale eliminazione o adeguamento se rientrano nelle pratiche vietate, un monitoraggio periodico e un costante aggiornamento in linea con le linee guida delle autorità competenti”.

Obbligo di formazione per chi usa l’IA in azienda

Oltre ai divieti, il regolamento impone un altro obbligo fondamentale: la formazione del personale. Tutte le imprese che sviluppano o utilizzano sistemi di Intelligenza Artificiale dovranno garantire che i propri dipendenti, inclusi quelli in outsourcing, acquisiscano competenze adeguate sull’IA, sui suoi rischi e sulle sue opportunità.

“Le nuove regole dell’AI Act – sottolineano Rotelli e Monteleone – impongono a fornitori e utilizzatori professionali di sistemi di IA di alfabetizzare il proprio personale, anche in caso di esternalizzazione”,. “Questo significa che le aziende dovranno implementare piani di formazione per garantire che il personale abbia le competenze necessarie per comprendere il funzionamento, i vantaggi e i rischi dell’IA”.

Anche se l’AI Act non stabilisce sanzioni precise per chi non rispetta quest’obbligo, ogni Stato membro dell’UE – Italia inclusa – potrà introdurre misure per far sì che le imprese si adeguino.

Quali sistemi di IA saranno vietati?

L’articolo 5 dell’AI Act elenca le tecnologie che non potranno più essere impiegate nel territorio dell’Unione. Tra queste:

  • Sistemi che influenzano in modo subliminale o manipolativo il comportamento delle persone, inducendole a prendere decisioni dannose.
  • Strumenti che sfruttano la vulnerabilità di specifici gruppi (per età, disabilità o status socioeconomico) con potenziali conseguenze negative.
  • Meccanismi di social scoring, che classificano le persone in base al loro comportamento sociale o a caratteristiche personali.
  • Sistemi di polizia predittiva che valutano il rischio di reato basandosi esclusivamente su dati biometrici o profili psicologici.
  • Software di riconoscimento delle emozioni in ambienti lavorativi o scolastici, tranne in contesti di sicurezza o sanitari.
  • Algoritmi che classificano gli individui sulla base della razza, delle opinioni politiche, delle convinzioni religiose o dell’orientamento sessuale, utilizzando dati biometrici.
  • Banche dati di riconoscimento facciale costruite con immagini prelevate senza consenso da internet o da telecamere di sorveglianza.
  • Identificazione biometrica remota “in tempo reale” in spazi pubblici, salvo per indagini su crimini gravi o minacce alla sicurezza.

Come prepararsi ed evitare sanzioni?

Le aziende devono iniziare subito ad adeguarsi, analizzando i sistemi di IA in uso, valutandone il rischio e adottando strategie per la conformità normativa. Oltre a eliminare eventuali strumenti vietati, sarà essenziale rispettare i requisiti di trasparenza, gestione del rischio e documentazione previsti dall’AI Act.

Per molte imprese questo significa investire in nuovi processi operativi, migliorare le misure di sicurezza e governance e potenziare la formazione interna per garantire un utilizzo responsabile dell’Intelligenza Artificiale.

“L’AI Act segna una svolta importante nella regolamentazione dell’Intelligenza Artificiale, spingendo le aziende verso un utilizzo più sicuro e responsabile di queste tecnologie”, concludono Rotelli e Monteleone.

Con l’entrata in vigore delle nuove regole, l’UE mira a bilanciare innovazione e tutela dei diritti fondamentali, tracciando un modello normativo che potrebbe influenzare anche altri Paesi nel mondo.

L'articolo AI Act, stop ai sistemi di intelligenza artificiale a rischio: come prepararsi ed evitare sanzioni proviene da Economy Magazine.