I confini dell’intelligenza artificiale secondo la Commissione UE

Il 13 giugno 2024 il Parlamento europeo e il Consiglio dell’Unione Europea hanno adottato il Regolamento (UE) 2024/1689, noto come AI Act, che introduce regole comuni sull’intelligenza artificiale in tutti gli Stati membri. Il regolamento è entrato in vigore il 1° agosto 2024 con l’obiettivo di promuovere un uso sicuro e affidabile dell’IA, garantendo il rispetto dei diritti fondamentali, della democrazia e dello Stato di diritto.

Il 2 febbraio 2025 è scattata una delle sue disposizioni più importanti: il divieto di determinate pratiche di intelligenza artificiale, considerate incompatibili con i valori dell’Unione e con la tutela della persona. Si tratta di sistemi ritenuti talmente pericolosi da essere vietati in modo assoluto, senza eccezioni. Il divieto è previsto dall’articolo 5 dell’AI Act e si applica direttamente, senza bisogno di leggi nazionali di recepimento.

Per aiutare cittadini, imprese e pubbliche amministrazioni a comprendere meglio quali siano queste pratiche vietate e come riconoscerle, la Commissione europea ha pubblicato il 4 febbraio 2025 una bozza delle Linee guida interpretative, come previsto dall’articolo 96 del Regolamento. Si tratta di un documento tecnico pensato per garantire un’applicazione uniforme e coerente dei divieti in tutti i Paesi membri.

Le Linee guida chiariscono in modo dettagliato il significato delle disposizioni dell’articolo 5. Le pratiche proibite riguardano soprattutto l’uso dell’IA in contesti che possono manipolare le persone, sfruttarne la vulnerabilità o violarne la dignità. Ecco alcuni esempi chiariti nelle Linee guida:

1. Manipolazione subliminale del comportamento umano

Sono vietati i sistemi che usano tecniche al di sotto della soglia della percezione consapevole, come segnali sonori impercettibili o stimoli visivi rapidi, per influenzare in modo nascosto le decisioni o i comportamenti delle persone. È il caso, ad esempio, di un'applicazione che suggerisce comportamenti di acquisto o di voto sfruttando segnali subliminali.
 

2. Sfruttamento della vulnerabilità di gruppi specifici

L’IA non può essere progettata o usata per approfittare della fragilità di soggetti vulnerabili, come bambini, anziani, persone con disabilità o in condizioni socio-economiche difficili. Questo divieto si applica quando il sistema induce comportamenti dannosi sfruttando, ad esempio, l’età, la salute o la condizione sociale della persona. Le Linee guida chiariscono che è vietato, ad esempio, utilizzare un assistente vocale che convinca i bambini a fare acquisti, oppure promuovere prodotti sanitari ingannevoli a persone con disabilità cognitive. Anche la pressione psicologica sugli anziani o l’induzione all’acquisto di servizi finanziari dannosi verso chi è in difficoltà economica rientrano tra i casi vietati. Il criterio chiave è l’abuso consapevole di una vulnerabilità, con effetti potenzialmente gravi.

3. Punteggio sociale dei cittadini

È espressamente vietato l’uso di IA per classificare le persone sulla base del loro comportamento, del rispetto delle regole o di caratteristiche personali. Non è ammesso creare “graduatorie morali” o sociali per decidere l’accesso a servizi, benefici o opportunità, come ad esempio concedere prestiti solo a chi ha uno “score” elevato derivante da comportamenti monitorati online.

4. Riconoscimento biometrico in tempo reale negli spazi pubblici

Il riconoscimento facciale o altri sistemi biometrici usati in tempo reale su larga scala nei luoghi pubblici sono vietati, salvo in casi eccezionali e ben regolati (per esempio, per la ricerca di una persona scomparsa o la prevenzione di una minaccia terroristica, previa autorizzazione giudiziaria). Questo significa che non è lecito monitorare costantemente una piazza, una stazione o un aeroporto per identificare e classificare i passanti.

5. Riconoscimento delle emozioni sul lavoro o a scuola

È vietato usare l’intelligenza artificiale per analizzare lo stato emotivo delle persone in luoghi come scuole, università, ambienti di lavoro o colloqui di selezione. Le Linee guida chiariscono che tecnologie che valutano attenzione, stress, motivazione o stanchezza — spesso tramite il volto, la voce o il linguaggio del corpo — ledono la dignità personale e possono creare ambienti opprimenti e disumanizzanti. Anche se presentate come strumenti per migliorare la produttività o l’apprendimento, queste applicazioni generano forme di sorveglianza emotiva che violano il diritto alla riservatezza interiore e all’autodeterminazione.

6. Creazione di basi di dati biometrici attraverso la raccolta indiscriminata di immagini

È vietato costruire sistemi di identificazione biometrica usando immagini raccolte da internet o da telecamere di sorveglianza senza il consenso degli interessati. Le Linee guida specificano che ciò vale anche quando le immagini sono teoricamente “pubbliche”, come le foto pubblicate sui social media.

I divieti si applicano a chiunque sviluppi, venda o utilizzi sistemi di IA: dalle grandi aziende informatiche alle start-up, dalle amministrazioni pubbliche agli enti di ricerca. Anche le imprese più piccole e gli enti locali devono conformarsi, soprattutto se impiegano strumenti di intelligenza artificiale per decisioni che incidono sui diritti delle persone.

La responsabilità non riguarda solo chi “costruisce” l’algoritmo, ma anche chi lo utilizza nella pratica. Questo significa, ad esempio, che una scuola o un datore di lavoro che adotta un sistema vietato risponde direttamente della violazione.

Il Regolamento prevede anche obblighi di trasparenza. Ad esempio, sarà necessario informare gli utenti quando interagiscono con un sistema di IA, specie se si tratta di chatbot, assistenti virtuali o avatar realistici. In molti casi, gli utenti avranno il diritto di sapere se una decisione è stata presa da un algoritmo, e di chiedere una spiegazione comprensibile.

Inoltre, ogni Stato membro dovrà istituire un’autorità nazionale di vigilanza e un punto di contatto per le segnalazioni. I cittadini che ritengono di essere vittime di una pratica vietata potranno segnalare l’abuso e ottenere tutela, anche attraverso vie legali.

Queste norme segnano una svolta: l’intelligenza artificiale entra pienamente nel diritto, con limiti chiari e vincolanti. Non tutto ciò che è tecnicamente possibile è anche giuridicamente lecito. L’obiettivo dell’Unione Europea è favorire lo sviluppo dell’IA, ma solo a condizione che questa rispetti i diritti fondamentali e la dignità della persona.

Per le famiglie, per i cittadini, per chi lavora, studia, viaggia o accede a servizi pubblici, queste nuove regole rappresentano una tutela concreta contro i rischi dell’automazione incontrollata. Le tecnologie possono aiutare, ma non devono invadere la sfera privata o sostituire il giudizio umano nei momenti decisivi della vita.

Il lavoro della Commissione proseguirà nei prossimi mesi con l’adozione formale delle Linee guida in tutte le lingue ufficiali dell’Unione.

Allegati

Ok
Questo website usa solamente cookies tecnici per il suo funzionamento. Maggiori dettagli