Si tratta di una normativa auspicata da tempo, che mira a disegnare una disciplina da applicarsi direttamente e uniformemente in tutti gli Stati membri al fine di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l'innovazione. Il principio base è quello di regolamentare l’IA seguendo un approccio basato sul rischio (rischio minimo, rischio alto e rischio inaccettabile), per cui tanto maggiore è il rischio che i sistemi IA possano violare i diritti fondamentali e la sicurezza, più severe e restrittive sono le regole.
In particolare, nella categoria dei sistemi di IA che presentano un rischio inaccettabile - in quanto tali espressamente vietati - rientrano, ad esempio, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l'estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso, per creare banche dati di riconoscimento facciale.
Sono vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.
Le regole sono innanzitutto quelle del rispetto della diversità, non discriminazione ed equità.
Con "diversità, non discriminazione ed equità" si intende che i sistemi di IA devono essere sviluppati e utilizzati in modo da includere soggetti diversi e promuovere la parità di accesso, l'uguaglianza di genere e la diversità culturale, evitando nel contempo effetti discriminatori e pregiudizi ingiusti, vietati dal diritto dell'Unione o nazionale. Con "benessere sociale e ambientale" si intende, invece, che i sistemi di IA devono essere sviluppati e utilizzati in modo sostenibile e rispettoso dell'ambiente e in modo da apportare benefici a tutti gli esseri umani, monitorando e valutando gli impatti a lungo termine sull'individuo, sulla società e sulla democrazia.
Anche le forze dell’ordine non potranno fare ricorso ai sistemi di identificazione biometrica, tranne in alcune situazioni specifiche espressamente previste dalla legge. L'identificazione "in tempo reale" potrà essere utilizzata solo se saranno rispettate garanzie rigorose, ad esempio se l'uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa. Gli usi ammessi includono, tra gli altri, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico. L'utilizzo di questi sistemi a posteriori è considerato ad alto rischio. Per questo, per potervi fare ricorso, l'autorizzazione giudiziaria dovrà essere collegata a un reato.
Oltre alla classificazione dei sistemi di IA a seconda del rischio, il Regolamento introduce anche norme specifiche per i sistemi di IA per finalità generali. Questi ultimi dovranno soddisfare determinati requisiti di trasparenza e rispettare le norme UE sul diritto d'autore durante le fasi di addestramento dei vari modelli. I modelli più potenti, che potrebbero comportare rischi sistemici, dovranno rispettare anche altri obblighi, ad esempio quello di effettuare valutazioni dei modelli, di valutare e mitigare i rischi sistemici e di riferire in merito agli incidenti.
IA generativa, come ChatGPT ad esempio, non sarà classificata "ad alto rischio", ma dovrà comunque rispettare requisiti di trasparenza e la legge europea sul diritto d'autore dell'UE oltre che i seguenti vincoli:
• rivelare se il contenuto è stato generato da un'intelligenza artificiale
• progettare il modello in modo da impedire la generazione di contenuti illegali
• pubblicare riepiloghi dei dati citando i diritti d'autore impiegati per l'addestramento.
Inoltre, le immagini e i contenuti audio o video artificiali o manipolati (i cosiddetti "deepfake") dovranno essere chiaramente etichettati come tali.
A riguardo la piattaforma YouTube ha già annunciato importanti aggiornamenti alle sue politiche, per gestire in modo responsabile i contenuti generati dall'intelligenza artificiale (IA) sulla sua piattaforma. L'azienda sta introducendo nuovi obblighi di divulgazione per i creatori, etichette sui video AI e nuovi strumenti per richiedere la rimozione dei deepfake.
Gli spettatori vedranno nuove etichette che indicano quando un video contiene materiale AI o alterato. Le etichette saranno particolarmente evidenti per argomenti sensibili come elezioni e conflitti. I creatori che non rispettano gli obblighi di divulgazione potrebbero subire la rimozione dei contenuti o altre sanzioni.
La piattaforma sta anche procedendo per richiedere la rimozione di video generati con l'IA. Gli utenti potranno segnalare i deepfake che imitano una persona identificabile senza permesso. Anche le etichette discografiche potranno richiedere la rimozione dei contenuti musicali AI che imitano senza autorizzazione la voce di un artista.