La tutela dell’identità digitale del minore alla prova dell’intelligenza artificiale

di avv. Massimo Osler

Negli ultimi anni, grazie all'aumento della potenza di calcolo, alla disponibilità di grandi quantità di dati (big data) e a tecniche avanzate, come l'apprendimento automatico (machine learning) e le reti neurali, l'intelligenza artificiale ha fatto enormi progressi, al punto da essere diventata oramai parte integrante di molti aspetti della nostra vita, magari senza che ne siamo completamente consapevoli.

L'uso di internet e della tecnologia digitale è diventato così pervasivo che le nuove generazioni non si possono più definire nativi digitali, ma mobile born, ossia bambini che crescono immersi in dispositivi mobili onnipresenti e accessibili fin dai primi anni di vita.

L’espressione suggerisce, infatti, l’idea che spesso i bambini imparano a interagire con la tecnologia digitale ancor prima di camminare: la facilità d'uso dei touch screen e l'accessibilità intuitiva delle tecnologie mobili fanno sì che possano approcciarsi ad esse, navigando su internet, guardando video, giocando o utilizzando applicazioni educative, fin dalla più tenera età.

Tali interazioni precoci, continue e quotidiane non sono utilizzi neutri, ma lasciano traccia. Invero, attraverso l'uso di social media, app e navigazione online, che include non solo contenuti esplicitamente condivisi (come foto e video), ma anche dati invisibili, come la cronologia di navigazione, preferenze di acquisto e interazioni con le pubblicità, l’IA è in grado di effettuare la raccolta e la conservazione delle tracce digitali, ovvero di tutti i dati relativi alla navigazione che, attraverso l’uso di algoritmi sempre più sofisticati, consentono di creare profili digitali utilizzabili non solo per scopi commerciali (come la personalizzazione di pubblicità e prodotti) ma anche per influire su aspetti più significativi della vita della persona e, in particolare, del minore in formazione: un profilo basato su comportamenti o scelte giovanili, infatti, rimane per sempre e concorre a definire gli aspetti della sua identità digitale, con impatti irreversibili.

Se i dati raccolti sono permanenti, sempre accessibili e aggiornati nel tempo, ogni decisione presa oggi da un bambino o da un adolescente, che non ha ancora la piena consapevolezza delle sue conseguenze, potrà influenzare il modo in cui lo stesso verrà percepito in futuro: le sue preferenze, inclinazioni e potenzialità potranno essere elaborate da soggetti terzi e utilizzate a diversi fini; si pensi alla profilazione del rischio assicurativo e sanitario, alla selezione degli studenti da parte delle università o dei lavoratori da parte di un’azienda.

A ciò si aggiunga che tra i pericoli conseguenti alla creazione di un'identità digitale precoce vi è anche un altro aspetto di rilevante importanza. L’IA può comportare il rischio di ridurre la capacità stessa dei giovani di ridefinire la loro identità nel corso del tempo, vincolandoli a percezioni o aspettative conseguenti a scelte e informazioni registrate quando erano ancora bambini o ragazzi e limitando, pertanto, la loro autonomia di descriversi di volta in volta in modo consapevole e di autodeterminarsi liberamente.

Invero, se l’accesso a internet, la libera navigazione tra i motori di ricerca e i social network, oltre all’uso delle applicazioni, appaiono libere e incondizionate, in realtà offrono – in modo crescente - contenuti personalizzati, creando delle bolle on line – c.d. echo chambres – all’interno delle quali una persona viene esposta principalmente a informazioni, opinioni e contenuti che riflettono e rafforzano le proprie convinzioni e idee preesistenti, senza offrire un confronto con prospettive diverse o contrarie, rendendo difficile l'apertura ad alternative ed enfatizzando la radicalizzazione e polarizzazione delle proprie idee.

L'accumulo di dati fin dall'infanzia ha, quindi, il potenziale di creare una vera e propria prigione digitale, in cui le informazioni raccolte nel corso della crescita possono ancorare a percorsi di vita predefiniti, con il rischio che l'accesso e l'uso incontrollato di questi dati possano limitare le scelte di carriera, l’educazione e persino la libertà di espressione dei futuri adulti, che si troveranno vincolati da un passato digitale immutabile e condizionante.

In questo contesto, l’intelligenza artificiale, rappresentata da quell’insieme di “sistemi basati su macchine che, dati una serie di obiettivi definiti dall’uomo, possono fare previsioni e raccomandazioni o prendere decisioni che influenzano ambienti reali o virtuali” è divenuta il mezzo principe con cui viene plasmato il profilo digitale dell’essere umano, in ragione della sua capacità di interagire con noi e di agire sul nostro ambiente, direttamente o indirettamente, giungendo finanche ad operare in modo autonomo, adeguando il suo comportamento al contesto (Cfr. definizione di intelligenza artificiale contenuta in Policy guidance on AI for children - 2021, UNICEF, p. 16).

Il corretto utilizzo dell’IA rappresenta, quindi, una delle sfide più significative per garantire la tutela dei minori nell'era digitale in quanto, se da un lato questo strumento offre opportunità senza precedenti per migliorare l'apprendimento, la salute e il benessere, dall’altro pone rischi considerevoli legati alla potenziale violazione di diritti fondamentali, quali il diritto alla privacy, alla sicurezza, alla non discriminazione e non, da ultimo, alla libertà di autodeterminazione, quale processo di confronto e di scambio di idee e posizioni diverse.

Uno dei primi tentativi globali di introdurre da parte dell’ordinamento un quadro giuridico chiaro che individui i limiti dell’utilizzo di sistemi di intelligenza artificiale, ove questi comportino rischi significativi per i diritti fondamentali dei cittadini, è rappresentato dal Regolamento europeo (UE) 2024/1689, noto anche come Artificial Intelligence Act, pubblicato in Gazzetta Ufficiale UE il 12.07.2024.

Il principale obiettivo della normativa de qua è quello di bilanciare l’utilizzo dei sistemi di intelligenza artificiale con la protezione dei diritti fondamentali dei cittadini dell'UE, e viene perseguito anzitutto classificando i sistemi di IA in più livelli, che vengono determinati in base al rischio che rappresentano per i diritti e la sicurezza delle persone.

Affinché un sistema di IA sia conforme al regolamento, il medesimo deve infatti garantire un livello elevato di protezione dei diritti sanciti dalla Carta dei diritti fondamentali dell'Unione europea, tra cui particolare accento è posto con riferimento al diritto di non essere discriminati (con conseguente divieto di utilizzare algoritmi che riproducono o amplificano bias o pregiudizi sociali), al diritto alla salute, alla sicurezza e alla riservatezza del cittadino.

Al livello di rischio più alto sono classificati i sistemi di IA il cui utilizzo rappresenta un rischio inaccettabile per la sicurezza, i diritti fondamentali e la libertà delle persone e che, pertanto, sono vietati dal regolamento. Tra questi rilevano, ad esempio, i sistemi di IA atti a manipolare il comportamento umano, a consentire il calcolo del cd punteggio sociale da parte delle autorità pubbliche, ovvero quelli che utilizzano il riconoscimento facciale in tempo reale in spazi pubblici per scopi di sorveglianza (salvo eccezioni limitate).

Al secondo livello si trovano i sistemi di IA ad alto rischio, che presentano un impatto significativo sui diritti fondamentali e sulla sicurezza delle persone e che pertanto, per poter essere utilizzati, devono rispettare rigidi requisiti di trasparenza, sicurezza e gestione dei dati. Alcuni esempi includono i sistemi di IA utilizzati per la gestione delle infrastrutture critiche (come l'energia o i trasporti) ovvero quelli impiegati in ambito educativo e per la valutazione degli studenti.

A seguire, il regolamento prende in considerazione i sistemi di IA a rischio limitato, che devono rispettare obblighi minori di trasparenza (ad esempio informare l'utente che sta interagendo con un sistema di intelligenza artificiale, affinché lo stesso possa assumere decisioni informate, come è previsto nel caso di chatbot o assistenti virtuali) e, infine, i sistemi di IA a basso rischio o senza rischio, che non rappresentano un pericolo significativo per la sicurezza o i diritti fondamentali e che, pertanto, possono essere utilizzati quasi liberamente (tra questi rilevano, tra tanti, le applicazioni come i filtri antispam o gli algoritmi di raccomandazione per contenuti video e musica).

Il regolamento de quo sarà soggetto ad un’applicazione graduale negli Stati membri, a seconda della tipologia di rischio considerato. Invero, la maggior parte delle norme inizierà ad applicarsi il 02.08.2026, salvo i divieti dei sistemi di IA a rischio inaccettabile, che entreranno in vigore già dopo sei mesi dalla predetta pubblicazione del Regolamento.

Con specifico riferimento ai cittadini minori di età, il regolamento – nei considerando n. 28 e n. 48 – evidenzia la necessità di misure di protezione che tutelino questa “fascia vulnerabile della popolazione” dai rischi conseguenti all’utilizzo dell’intelligenza artificiale, sottolineando come la tutela dei diritti fondamentali dei bambini e adolescenti sia sancita, oltreché dall’art. 24 della Carta dei diritti fondamentali dell'Unione Europea, anche dalla Convenzione delle Nazioni Unite sui diritti dell'infanzia e dell'adolescenza, oltreché ulteriormente sviluppata, proprio con specifico riferimento alle tecnologie digitali, dall'Osservazione Generale n. 25 della Convenzione ONU dell'infanzia e dell'adolescenza, in cui viene espressamente prevista la necessità di tenere conto delle vulnerabilità dei minori e di fornire la protezione e l’assistenza necessarie al loro benessere.

Si evidenzia, poi, come nel corso degli ultimi anni la tutela dei diritti fondamentali dei minori nel mondo digitale si stia sviluppando anche attraverso interventi, posti in essere in particolar modo dalla Commissione Europea, indirizzati ad incrementare le azioni di alfabetizzazione digitale, affinché a bambini e ragazzi sia insegnato ad interagire in maniera consapevole con i sistemi di intelligenza artificiale e a proteggersi dai rischi che tali attività possono comportare in tema di tutela della via privata, sicurezza online, discriminazione e manipolazione psicologica da parte di algoritmi allenati ad influenzare le esperienze online dei minori.

A livello sovranazionale, la Commissione Europea lavora da anni per garantire che lo sviluppo e l'uso degli strumenti digitali, compresa l'intelligenza artificiale, rispettino i diritti fondamentali dei minori.

Documenti come la “Strategia dell'UE sui diritti dei minori 2021-2024” di data 24.3.2021 sottolineano l'importanza di proteggere i giovani nell'ambiente digitale sviluppando la loro capacità di valutare criticamente i contenuti online, rilevare la disinformazione e i contenuti illeciti, bilanciando così lo sviluppo tecnologico con la tutela dei diritti.

Tali azioni di alfabetizzazione digitale si rinvengono, altresì, nel cd “Piano d'azione per l'istruzione digitale 2021-2027”, pubblicato dalla Commissione in data 30.9.2020, volto specificamente a contrastare la disinformazione, con particolare attenzione alla formazione di bambini e ragazzi.

Di recente, poi, con raccomandazione del 23.4.2024 denominata “Sullo sviluppo e il rafforzamento dei sistemi integrati di protezione dei minori nell'interesse superiore del minore” la Commissione è tornata sull’argomento evidenziando come “particolare attenzione dovrebbe essere dedicata alle iniziative di sensibilizzazione sulle nuove sfide per la sicurezza e il benessere dei minori poste dall'intelligenza artificiale, dai mondi virtuali, dall'esposizione eccessiva ai contenuti digitali, dalle minacce digitali (come l'incitamento all'odio, il bullismo online, le molestie, l'abuso sessuale su minori, l'adescamento e i contenuti violenti) o da strategie di marketing aggressive, anche introducendo garanzie di protezione dei minori fin dalla progettazione”.

Di notevole interesse è, infine, il rapporto pubblicato dalla Commissione Europea nel 2022, denominato "Artificial Intelligence and the Rights of the Child: towards an Integrated Agenda for Research and Policy” (Intelligenza artificiale e diritti del bambino: verso un’agenda integrata per la ricerca e la politica), finalizzato ad attuare politiche per sviluppare un approccio integrato che garantisca l’utilizzo dell’intelligenza artificiale nel rispetto dei diritti di bambini e adolescenti.

Il documento propone, a tal fine, un'agenda integrata che, da un lato, promuove i benefici dell’IA, rappresentati dalle maggiori opportunità di apprendimento e sviluppo per i bambini, e, dall’altro, intende mitigare i rischi legati alla violazione della protezione dei dati e alla discriminazione che possono conseguire dall'uso di sistemi di raccomandazione, chatbot e robot, e pertanto influenzare la vita e le scelte dei minori in modi significativi.

I requisiti imprescindibili per un’IA a prova di minore sono rappresentati, anzitutto, dal rispetto del principio di minimizzazione nell’utilizzo di tali strumenti: la tecnologia IA, infatti, deve essere intesa come una risorsa limitata, con conseguente necessità di effettuare scelte strategiche e sistemiche per sviluppare i relativi servizi, sia a livello pubblico che privato; vi è poi il requisito dell’inclusione e della non discriminazione, secondo cui l’intelligenza artificiale deve essere supportata da una tecnologia idonea a garantire che non vi si riflettano sistematicamente pregiudizi discriminatori dovuti alla qualità dei dati e degli algoritmi su cui si basano i relativi sistemi; il requisito del rispetto della protezione dei dati  e della sicurezza, secondo cui i sistemi di IA debbono permettere ai minori di controllare il modo in cui i loro dati personali vengono utilizzati dalla tecnologia dell’IA e le implicazioni che ne conseguono; i requisiti di trasparenza, chiarezza e responsabilità, finalizzati ad informare in modo chiaro e completo e, altresì, a responsabilizzare gli utenti minorenni, limitando derive di eccessiva fiducia o sfiducia nei sistemi di intelligenza artificiale fondate sulla disinformazione.

Non si tratta, pertanto, solamente di una questione di conoscenza e di utilizzo degli strumenti tecnologici, ma del tipo di approccio con cui i minori debbono rapportarsi agli stessi.

Da tale punto di partenza si sono sviluppate, altresì, le nuove linee guida ministeriali per l'insegnamento dell'educazione civica a partire dall'anno scolastico 2024/2025, di cui al DM n. 183/2024, sottoscritto dal Ministro dell’Istruzione lo scorso 07.09.2024 in applicazione di quanto prescritto dalla Legge n. 92/2019.

La Legge n. 92/2019, che ha introdotto l’insegnamento dell’educazione civica nelle scuole italiane, prevede che i minori acquisiscano competenze in tema di cittadinanza digitale. Le nuove linee guida del 2024 rafforzano questo concetto, includendo per la prima volta specifici riferimenti all’intelligenza artificiale come parte integrante delle competenze necessarie per i giovani cittadini, affinché gli studenti comprendano l’importanza di concetti come identità digitale e imparino a gestire in modo consapevole l’interazione con strumenti tecnologici avanzati, prevedendo specificamente “…approfondimenti in tema di privacy e tutela dei propri dati e identità personale [e, attesa] … la rapida evoluzione tecnologica nel campo dell'Intelligenza Artificiale, riguardante tutti gli ambiti e temi finora menzionati, suggerisce adeguati approfondimenti in merito”.

In conclusione, la normativa qui evidenziata mira alla protezione dei minori, specialmente in un contesto in cui i cd mobile born sono esposti a tecnologie intelligenti fin dall'infanzia, cercando soluzioni volte a tutelare bambini e adolescenti su due fronti: da un lato, aumentando la consapevolezza digitale dei minori; dall'altro, limitando l’uso di sistemi di intelligenza artificiale ad alto rischio, che presentano minacce significative per i diritti fondamentali dei minori e, in generale, di tutti i cittadini.

 

Allegati

Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio - pubblicato in GU dell’Unione Europea in data 12.07.2024

Artificial Intelligence and the Rights of the Child: towards an Integrated Agenda for Research and Policy, 2022

Linee guida 2024 per l'insegnamento dell'educazione civica a partire dall'anno scolastico 2024/2025

 

Allegati

Ok
Questo website usa solamente cookies tecnici per il suo funzionamento. Maggiori dettagli