IA e infanzia: un rapporto che richiede una urgente e precisa regolamentazione

di Avv. Massimo Osler

I minori sono profondamente immersi in ambienti digitali in cui l’intelligenza artificiale agisce in modo pervasivo, spesso invisibile, contribuendo a modellare comportamenti, relazioni e processi educativi.

L’adozione di tali sistemi di IA da parte dei minori pone questioni fondamentali sul piano giuridico, etico e psicologico, che richiedono una risposta urgente e multidisciplinare, in quanto l’introduzione di dispositivi intelligenti negli ambienti educativi e familiari è in grado di influenzare lo sviluppo cognitivo e sociale dei minori.

Secondo il dossier “Il bambino al centro” (Telefono Azzurro e BVA Doxa, 2025), la quasi totalità dei minori tra i dodici e diciotto anni (96%) utilizza lo smartphone e il 93% ne possiede uno. L’utilizzo medio è di circa 2,7 ore giornaliere ma il 49% supera le 4 ore quotidiane. Le principali problematiche rilevate dai minori stessi sono rappresentate dalle fake news (40%), che vengono messe al primo posto tra gli argomenti su cui gli stessi vorrebbero più informazioni per potersi difendere, e, a seguire, il tema della privacy e dati personali (34%), del cyberbullismo (32%) e del grooming (31%). Dal punto di vista dei genitori, invece, il 26% ritiene di non avere adeguate competenze sui pericoli e rischi online.

Inoltre, va sottolineato che a tali rischi sono esposti anche i bambini in tenera età, sia in ambito familiare che scolastico.

Basti pensare all’impiego di IA emotiva nei giocattoli e nei dispositivi digitali a loro destinati.

Studi recenti (McStay e Rosner, 2024) hanno analizzato l’accettabilità e i rischi legati a giocattoli interattivi capaci di rilevare e reagire agli stati emotivi del bambino, attraverso biosensori, riconoscimento facciale o vocale e analisi comportamentale, evidenziandone le principali criticità, rappresentate dalla datificazione intensiva dell’infanzia, mediante la raccolta di dati biometrici e affettivi a fini commerciali; dalla manipolazione affettiva, essendo il giocattolo in grado di modificare il proprio comportamento per ottenere attenzione o acquisti.

A ciò si aggiunga la vulnerabilità informativa dei genitori, spesso ignari delle logiche tecnologiche sottese a detti dispositivi e, infine, dall’assenza di standard progettuali etici e di autorità regolatorie specializzate.

L’utilizzo degli algoritmi – che, come è noto, si caratterizzano per un’intrinseca opacità procedurale – può inoltre determinare anche in ambito scolastico una vera e propria riproduzione automatica delle disuguaglianze sociali, minando il principio di equità.

Durante la pandemia da COVID-19, in sostituzione degli esami in presenza, l’autorità britannica per la valutazione degli studenti ha adottato un algoritmo (Ofqual) per determinare i voti finali degli studenti.

Tale sistema, pur con l’intento di standardizzare le valutazioni, si è fondato principalmente sui risultati storici delle diverse scuole di provenienza: nell’algoritmo, infatti, veniva inserita non solo la storia scolastica di ogni studente, ma anche la media ottenuta in anni precedenti dagli studenti della scuola di provenienza. Ciò ha comportato che venivano automaticamente assegnati voti più alti agli studenti provenienti da scuole che tradizionalmente avevano conseguito risultati migliori, penalizzando in modo sistematico gli studenti meritevoli appartenenti a istituti pubblici o situati in contesti socio-economicamente svantaggiati. Viceversa, ha favorito gli studenti provenienti da scuole private o d’élite, con risultati storici positivi.

In tal modo, l’algoritmo ha così operato una riproduzione automatica delle disuguaglianze sociali, ignorando le competenze e abilità individuali, in violazione del principio di equità.

Oltre all’effetto discriminatorio, il sistema ha mostrato un’evidente mancanza di trasparenza, posto che le logiche algoritmiche non erano pubbliche né comprensibili, generando opacità e sfiducia, al punto che il governo britannico ha ritirato il sistema di valutazione basato sul predetto algoritmo.

Questo episodio ha assunto un valore paradigmatico nel dibattito internazionale, evidenziando l’urgenza di coinvolgere le autorità competenti sin dalla progettazione dei sistemi (by design); di evitare l’utilizzo di modelli statistici basati su dati storici che amplificano disuguaglianze pregresse; di garantire trasparenza e verificabilità; di subordinare ogni processo decisionale automatizzato al rispetto dei diritti fondamentali.

Ulteriori episodi analoghi si sono verificati in Svizzera, ove alcuni algoritmi di selezione scolastica hanno penalizzato studenti vulnerabili, e sistemi di proctoring adottati per la didattica a distanza, hanno mostrato bias nei confronti di studenti con disabilità o stranieri.

Parallelamente, l’utilizzo di IA nei social media ha contribuito alla diffusione di contenuti negativi, generando effetti dannosi sulla salute mentale, autostima e benessere psico-affettivo dei minori, al punto che piattaforme come TikTok e Instagram sono state oggetto di indagini per essere progettate con l'intento esplicito di creare dipendenza tra i giovani o di favorire collegamenti a contenuti non adatti ai minori.

Invero, le tecnologie intelligenti non sono strumenti neutri: possono amplificare disuguaglianze esistenti, ridefinire i confini dell’autonomia individuale e alterare profondamente le dinamiche educative e relazionali.

Come ha affermato Padre Paolo Benanti, presidente della Commissione IA per l’informazione, la sfida è prima di tutto educativa, in quanto occorre accompagnare bambini e adolescenti nella comprensione critica degli strumenti digitali, rafforzare la consapevolezza delle famiglie e riorientare le piattaforme verso usi che non sfruttino le fragilità emotive.

Alla luce di queste criticità, emerge la necessità di un quadro normativo, tecnico e culturale

che riconosca la specificità dei minori come soggetti vulnerabili

e che affronti le questioni relative alla mancanza di trasparenza degli algoritmi decisionali, all’uso improprio dei dati infantili nei processi di addestramento dei modelli predittivi e all’esposizione precoce a contenuti manipolativi, deepfake e interfacce affettive non regolamentate.

In Italia, il 20 maggio 2024 è stato presentato al Senato un disegno di legge governativo in materia di intelligenza artificiale, approvato in prima lettura il 20 marzo 2025 e attualmente all’esame della Camera dei deputati.

Il testo intende istituire un sistema nazionale di governance dell’IA, capace di promuovere l’innovazione tutelando al contempo i diritti fondamentali.

Particolarmente significativo è l’art. 4, comma 4, che disciplina in modo differenziato l’accesso dei minori alle tecnologie di IA: per i minori infra quattordicenni, l’accesso è subordinato al consenso dei titolari della responsabilità genitoriale; per i minori ultraquattordicenni, è prevista la possibilità di esprimere autonomamente il consenso, a condizione che le informazioni siano fornite in modo chiaro, accessibile e comprensibile.

Questa distinzione rappresenta un tentativo di conciliare il principio di autodeterminazione progressiva del minore con l’obbligo costituzionale di protezione dell’infanzia, promuovendo una responsabilizzazione graduale e consapevole.

A ciò si aggiungano le raccomandazioni provenienti dalle iniziative multilaterali internazionali, come la quarta Tavola Rotonda del G7 sulla protezione dei dati, tenutasi a Roma nell’ottobre 2024, a cui hanno partecipato Autorità Garanti di Italia, Canada, Francia, Germania, Giappone, Regno Unito, Stati Uniti, insieme a EDPB ed EDPS, che hanno discusso dell’interazione tra IA, dati personali e tutela dei minori.

Gli organismi nazionali e internazionali raccomandano, quindi, di progettare sistemi IA secondo il principio child by design, di effettuare valutazioni d’impatto sistematiche (DPIA e CRIA) sui diritti dei minori, di vietare tecniche persuasive e meccanismi di dipendenza, di promuovere l’alfabetizzazione digitale e la resilienza informativa nei contesti educativi e familiari, di garantire trasparenza e comprensibilità degli algoritmi (cd algoritmic disclosure) e di introdurre efficaci strumenti di parental control e verifica dell’età.

Da ultimo, occorre richiamare un altro aspetto, che, come sottolineato dalla “Policy guidance on AI for children 2.0 – UNICEF”, è di fondamentale importanza per assicurare sistemi di IA a misura dei minori, ovvero l’equità dei dati e la loro effettiva rappresentatività di tutti i bambini.

La raccolta dei dati può evitare eventuali pregiudizi discriminatori nei confronti dei bambini, o di determinati gruppi di bambini, che portano a esclusione o discriminazione, se le descrizioni dei dataset sono esplicite riguardo a eventuali limiti nella rappresentazione dei bambini o di altri gruppi demografici rilevanti. Oltre a testare i dati per verificarne la rappresentatività e l’equità nei confronti dei diversi gruppi di bambini, è necessario verificarne anche l’accuratezza, la coerenza, la validità e la qualità.

I sistemi di IA, quindi, dovrebbero includere i dati dei bambini provenienti da diverse regioni (comprese le aree rurali), fasce d’età, condizioni socioeconomiche ed etnie e l’utilizzazione ed il trattamento dei dati non dovrà più basarsi sui dati relativi agli adulti, poiché ciò può comportare rischi sconosciuti per la salute dei bambini.

Infine, l’UNICEF raccomanda che gli algoritmi siano programmati, testati continuamente e adattati per garantire equità dei risultati. Non esistendo una definizione tecnica unica e ottimale di equità in grado di prevenire ogni forma di bias, gli sviluppatori devono considerare il bilanciamento tra le sue diverse definizioni, tenendo conto di come le misure di equità possano incidere diversamente sui bambini.

L’intelligenza artificiale rappresenta oggi una delle sfide più complesse e strutturali per la tutela dei diritti dell’infanzia, rendendo necessario rafforzare le competenze digitali di minori, genitori, insegnanti e operatori e

costruire un ecosistema digitale che riconosca la centralità della persona, la vulnerabilità dell’infanzia e la responsabilità delle imprese tecnologiche, rendendola in tal modo strumento di progresso e non di esclusione invisibile.

 

Allegato 1: Dossier “Il bambino al centro” (Telefono Azzurro e BVA Doxa, 2025)

Allegato 2: Policy guidance on AI for children (UNICEF, 2021)

 

Allegati

Ok
Questo website usa solamente cookies tecnici per il suo funzionamento. Maggiori dettagli