Social media e minori: aspetti legali e responsabilità nell'era digitale
20 Settembre 2024
Premessa L’uso dei social media e del web da parte dei minori è oggetto, ormai da tempo, di una crescente attenzione data la complessità delle opportunità e dei rischi associati all’utilizzo di queste tecnologie. Se da una parte i social media offrono ai giovani la possibilità di interagire ed accedere a contenuti globali, dall’altra li espongono a rischi come il cyberbullismo, l’adescamento in rete, l’esposizione a contenuti inappropriati, furti di identità, diffamazione a mezzo internet, accesso abusivo a reti informatiche, pedopornografia e altri fenomeni. Il contesto nel quale si è sviluppata la cosiddetta prima generazione interamente digitale, cosiddetta digital natives, si presenta come un ambito nel quale la tecnologia rappresenta non solo un supporto, ma una vera e propria necessità, attraverso cui potersi esprimere, comunicare e intrattenersi. Ciò può creare non trascurabili problematiche, anche in termini di dipendenza, soprattutto nell’utilizzo dei social media. Occorre tenere presente che la necessità di un controllo sull’attività dei minori andrà sempre contemperata con l'esercizio di un diritto di libertà, ossia del diritto di ricevere e comunicare informazioni e idee, oltre al diritto all'informazione e alla comunicazione, quale interesse primario della persona, ai sensi del primo comma dell'art. 10 della Convenzione di Roma del 1950. La libertà di espressione, al livello sovranazionale, è tutelata dall'art. 11 della Carta dei diritti fondamentali dell'Unione Europea del 7 dicembre del 2000. Inoltre, nella nostra Costituzione, la libertà di comunicazione risiede nell'art. 21 che sancisce il diritto di ogni persona di manifestare liberamente il proprio pensiero con la parola, con lo scritto e con ogni altro mezzo di diffusione. Pur volendo garantire tali innegabili diritti, non può negarsi che talvolta, dall’utilizzo di detti strumenti tecnologici, possano derivare enormi pericoli per gli stessi minori che, in quanto soggetti deboli che non hanno raggiunto un'adeguata maturità, necessitano di una idonea tutela. Al fine di attenuare tali rischi, da un lato si utilizzano strumenti come il parental control (controllo parentale) e l’age verification (verifica dell’età), dall’altro la normativa fornisce un quadro in continua evoluzione, finalizzato a rafforzare la protezione dei minori in rete. Il parental control rappresenta uno strumento tecnologico che consente ai genitori di monitorare e, nel contempo, gestire l'accesso dei loro figli ai contenuti digitali, tramite installazione di appositi programmi sui dispositivi in uso ai minori stessi. Questo strumento può includere il filtraggio dei contenuti inappropriati, la limitazione del tempo di utilizzo delle applicazioni e il monitoraggio delle attività online. L'uso del controllo parentale è fondamentale per proteggere i minori dai contenuti dannosi, dalle interazioni potenzialmente pericolose. Sebbene efficace, il controllo parentale presenta limiti significativi, tra cui la possibilità per i minori di aggirare tali restrizioni attraverso tecniche di bypass. Tale strumento, inoltre, solleva anche questioni riguardo al rispetto della privacy e all'autonomia dei giovani, poiché un controllo eccessivo potrebbe limitare lo sviluppo delle competenze digitali e ostacolare la capacità, soprattutto dei bambini, di prendere decisioni autonome. L’age verification consiste in un processo di controllo finalizzato a verificare l'età degli utenti di una piattaforma digitale per assicurarsi che gli stessi abbiano l’età minima richiesta per accedere a determinati servizi o contenuti. Tuttavia, la verifica dell'età è spesso aggirata dai minori i quali negli slot di richiesta forniscono informazioni false o utilizzano dati di parenti adulti, sollevando dubbi sull'efficacia di queste misure. Oltre al parental control e all’ age verification, ci sono altri strumenti e approcci per proteggere i minori nell'ambiente digitale che andremo, di seguito, brevemente ad illustrare. Filtraggio dei contenuti e moderazione Molte piattaforme utilizzano algoritmi e moderatori umani per filtrare i contenuti inappropriati o dannosi. Questi sistemi di moderazione sono progettati per rimuovere contenuti che violano le linee guida della community, come contenuti violenti, nudità e discorsi d'odio. Tuttavia, casi di contenuti inappropriati che sfuggono a questi controlli evidenziano i limiti della moderazione automatica. Modalità di sicurezza e controllo del tempo di utilizzo Alcune piattaforme offrono modalità di sicurezza che limitano l'interazione dei minori con utenti sconosciuti e controllano il tipo di contenuti accessibili. Inoltre, strumenti per il controllo del tempo di utilizzo aiutano a prevenire la dipendenza digitale, suggerendo pause o limitando l'accesso alle applicazioni dopo un certo periodo di tempo. Educazione digitale e consapevolezza L'educazione digitale è fondamentale per la protezione dei minori online. Programmi educativi per bambini e genitori su come utilizzare i social media in modo sicuro, riconoscere e segnalare il cyberbullismo e proteggere la privacy, sono strumenti chiave per affrontare i rischi online. L'educazione digitale promuove una cultura della responsabilità e della consapevolezza tra i giovani utenti. Blocchi geografici e limitazioni di accesso Alcune piattaforme implementano blocchi geografici e limitazioni di accesso per impedire ai minori di accedere a determinati contenuti a seconda della loro posizione geografica. Ad esempio, l'accesso a contenuti per adulti è spesso limitato in alcuni paesi, e l'accesso ai servizi di social media può essere regolato da normative locali che richiedono il blocco di contenuti inappropriati o sensibili. Riferimenti legislativi sul tema In Italia la protezione dei minori online è regolamentata principalmente dal Codice in materia di protezione dei dati personali (d.lgs. 196/2003) e dal Regolamento Generale sulla Protezione dei Dati (GDPR) dell'Unione Europea (Regolamento – UE- 2016/679). Il GDPR stabilisce che in caso di trattamento basato sul consenso, per quanto riguarda l'offerta diretta di servizi della società dell'informazione ai minori, questo possa essere fornito direttamente solo a partire dai 16 anni, ma lascia agli stati membri dell'UE la possibilità di stabilire un'età inferiore purché non al di sotto dei 13 anni. In Italia il limite è fissato a 14 anni, come stabilito dall'art. 2-quinquies, d. lgs. n.196/2003 e s.m.i., cd. Codice privacy. Il GDPR richiede che anche le richieste di consenso siano chiare e comprensibili per i minori. Tra le altre disposizioni che la normativa ora citata impone alle aziende che operino nel settore digitale, vi è quella di adottare misure efficaci e adeguate alla verifica dell'età degli utenti e all'ottenimento del consenso dei genitori, ma l'effettiva incrementazione e il rispetto di queste norme rimangono un obiettivo ancora da raggiungere. In tal senso alcune piattaforme di streaming video hanno introdotto sezioni dedicate ai bambini con contenuti selezionati e filtrati per garantire che siano appropriati per la loro età. I genitori possono impostare limiti di tempo per l'utilizzo e approvare manualmente i video e i canali a cui i loro figli possono accedere. L'Italia e Unione Europea con il GDPR adottano, pertanto, un approccio centrato sulla protezione dei dati personali e sul consenso informato. L'attenzione è rivolta a garantire la trasparenza e la sicurezza nella raccolta e nel trattamento dei dati dei minori, nonché a implementare misure adeguate di verifica dell'età e di consenso parentale. Fra gli altri interventi a tutela occorre evidenziare che dal 21 novembre 2023, grazie alla delibera 9/23/Cons dell'Agcom, in Italia le SIM intestate ai minori sono preimpostate per bloccare l'accesso a “contenuti inappropriati”. L'Agcom ha identificato otto categorie di siti considerati nocivi per i minori, dopo aver scoperto che diverse compagnie di telefonia non fornivano adeguati servizi di parental control o li offrivano a pagamento. Dovere di vigilanza dei genitori Un profilo di analisi non trascurabile è rappresentato dalla necessità di una regolamentazione specifica della responsabilità dei genitori in ordine ai possibili illeciti civili e penali che i minori potrebbero compiere utilizzando gli strumenti connessi all'uso dei social e del web in generale. Il non corretto utilizzo da parte del minore degli strumenti tecnologici, in generale, dal quale potrebbe derivare un serio pericolo per il suo sano sviluppo psicofisico, potrebbe fare emergere un profilo di scarsa educazione e vigilanza da parte dei genitori. Una fondamentale sentenza sul tema è da ritenersi quella emessa dalla Corte di Cassazione civile, sez. III, 5 settembre 2006, n. 19069, nella quale viene affermata la necessità di tutelare il minore che venga a contatto con strumenti di comunicazione, con un richiamo specifico all'art. 16 della Convenzione sui diritti del fanciullo approvata a New York il 20 novembre 1989 (e ratificata dallo Stato italiano con la legge 27 maggio 1991, n. 176) in base alla quale nessun fanciullo può essere oggetto di interferenze arbitrarie o illegali nella sua vita privata, nella sua famiglia, nel suo domicilio o nella sua corrispondenza, e neppure di affronti illegali al suo onore e alla sua reputazione. Gli innegabili pericoli ai quali il minore è esposto nell'uso degli strumenti tecnologici e della rete rendono, oltremodo, necessaria oltre che una tutela specifica diretta degli stessi, anche un rafforzamento degli obblighi inerenti alla responsabilità genitoriale, non solo in termini di dovere dei genitori di impartire al minore un'adeguata educazione all'utilizzo corretto degli strumenti di comunicazione, ma anche in termini di attività di vigilanza sul minore durante il suddetto utilizzo. Ciò con lo scopo di prevenire, da una parte, che i minori siano vittime dell'uso scorretto o criminale della rete da parte di terzi e, dall'altra, a evitare che i minori possano cagionare danni a terzi o a sé stessi mediante tale utilizzo. In tale ottica il dovere di vigilanza dei genitori sui minori, stante l'estrema pericolosità del sistema comunicativo digitale, assume preminente rilievo. Conclusioni La questione dell'uso dei social media e del web, da parte dei minori, rappresenta un tema cruciale nell'era digitale che richiede un bilanciamento tra la protezione dei diritti dei giovani e la promozione della loro libertà di espressione e accesso alle informazioni. Gli strumenti di controllo parentale, verifica dell'età e altre misure di protezione sono passi fondamentali per garantire un ambiente digitale sicuro, ma devono essere affiancati da un quadro normativo robusto e da un'educazione digitale efficace, anche da parte della scuola e del nucleo famigliare d’origine. La cooperazione internazionale e un aggiornamento continuo delle normative sono essenziali per affrontare le sfide emergenti e per garantire che i diritti dei minori siano protetti in tutto il mondo. È fondamentale che governi, aziende tecnologiche e società civile lavorino insieme per creare un ambiente digitale sicuro e inclusivo per tutti, riconoscendo al contempo i diritti e le esigenze dei giovani utenti. |