La normativa mira a promuovere un'IA affidabile e antropocentrica, garantendo un elevato livello di protezione su 3 specifici ambiti: salute, sicurezza e diritti fondamentali.
L'AI ACT si applicherà in modo graduale:
- 2 febbraio 2025: Disposizioni generali (Capo I) e divieti di pratiche di IA ritenute nocive (Capo II)
- 2 agosto 2025: Governance, monitoraggio del mercato, requisiti di trasparenza (Capo III, sezione 4; Capo V; Capo VII; Capo XII; Articolo 78)
- 2 agosto 2026: Piena applicazione del Regolamento, inclusi i requisiti specifici per i sistemi di IA ad alto rischio (Capo III, sezioni da 1 a 3; Capo IV; Capi da VI a XI)
- 2 agosto 2027: Obblighi relativi ai sistemi di IA ad alto rischio connessi a prodotti disciplinati da altre normative UE (Articolo 6, paragrafo 1)
In particolare, i sistemi di IA ad alto rischio dovranno ottenere la Marcatura CE prima di essere immessi sul mercato o continuare ad essere commercializzati.
Sarà quindi fondamentale agire tempestivamente per evitare interruzioni dell'attività.
In ERSG adottiamo un approccio che si fonda su 3 steps: