The European Union already has some of the world's most stringent digital rules to rein in Big Tech, with multiple probes ongoing into how platforms protect children -- or fail to do so.
Backed by France and Spain, Greece spearheaded a proposal for how the EU should limit children's use of online platforms as a rising body of evidence shows the negative effects of social media on children's mental and physical health.
They discussed the plan Friday with EU counterparts in Luxembourg to push the idea of setting an age of digital adulthood across the 27-country bloc, meaning children would not be able to access social media without parental consent.
France, Greece and Denmark believe there should be a ban on social media for under-15s, while Spain has suggested a ban for under-16s.
Australia has banned social media for under-16s, taking effect later this year, while New Zealand and Norway are considering a similar prohibition.
After the day's talks in Luxembourg, it appeared there was no real appetite at this stage for an EU-wide ban on children under a specific age.
But Danish Digital Minister Caroline Stage Olsen indicated there would be no let-up. "It's going to be something we're pushing for," she said.
Top EU digital official Henna Virkkunen admitted specific age limits would be "challenging" for multiple reasons, including cultural differences in member states and how it would work in practice.
But the European Commission, the EU's digital watchdog, still intends to launch an age-verification app next month, insisting it can be done without disclosing personal details.
'Very big step'
The EU last month published non-binding draft guidelines for platforms to protect minors, to be finalised once a public consultation ends this month, including setting children's accounts to private by default, and making it easier to block and mute users.
French Digital Minister Clara Chappaz said it would be "a very big step" if the EU made platforms check the real age of their users, as theoretically required under current regulation.
The worry is that children as young as seven or eight can easily create an account on social media platforms despite a minimum age of 13, by giving a false date of birth.
"If we all agree as Europeans to say this needs to stop, there needs to be a proper age verification scheme, then it means that children below 13 won't be able to access the platform," Chappaz said.
France has led the way in cracking down on platforms, passing a 2023 law requiring them to obtain parental consent for users under the age of 15.
But the measure has not received the EU green light it needs to come into force.
France also gradually introduced requirements this year for all adult websites to have users confirm their age to prevent children accessing porn -- with three major platforms going dark this week in anger over the move.
TikTok, also under pressure from the French government, on Sunday banned the "#SkinnyTok" hashtag, part of a trend promoting extreme thinness on the platform.
In-built age verification
France, Greece and Spain expressed concern about the algorithmic design of digital platforms increasing children's exposure to addictive and harmful content -- with the risk of worsening anxiety, depression and self-esteem issues.
Their proposal -- also supported by Cyprus and Slovenia -- blames excessive screen time at a young age for hindering the development of minors' critical and relationship skills.
They demand "an EU-wide application that supports parental control mechanisms, allows for proper age verification and limits the use of certain applications by minors".
The goal would be for devices such as smartphones to have in-built age verification.
The EU is clamping down in other ways as well.
It is currently investigating Meta's Facebook and Instagram, and TikTok under its mammoth content moderation law, the Digital Services Act (DSA), fearing the platforms are failing to do enough to prevent children accessing harmful content.
And last week, it launched an investigation into four pornographic platforms over suspicions they are failing to stop children accessing adult content.
By Raziye Akkoc
Questa traduzione, sottotitolazione o doppiaggio è stata generata da unintelligenza artificiale senza revisione o intervento umano ed è fornita "così comè" come indicato nei Termini di utilizzo della piattaforma.
L'Unione Europea ha già alcune delle regole digitali più severe al mondo per tenere a freno le Big Tech, con molteplici indagini in corso su come le piattaforme proteggono i bambini - o non lo fanno.
Sostenuta da Francia e Spagna, la Grecia ha presentato una proposta su come l'UE dovrebbe limitare l'uso delle piattaforme online da parte dei bambini, dato che un numero crescente di prove dimostra gli effetti negativi dei social media sulla salute mentale e fisica dei bambini.
Venerdì hanno discusso il piano con le controparti dell'UE a Lussemburgo per promuovere l'idea di stabilire un'età digitale adulta in tutto il blocco dei 27 Paesi, il che significa che i bambini non potrebbero accedere ai social media senza il consenso dei genitori.
Francia, Grecia e Danimarca ritengono che i social media debbano essere vietati ai minori di 15 anni, mentre la Spagna ha proposto un divieto per i minori di 16 anni.
L'Australia ha vietato i social media ai minori di 16 anni, con effetto a partire dalla fine dell'anno, mentre la Nuova Zelanda e la Norvegia stanno valutando un divieto simile.
Al termine della giornata di colloqui a Lussemburgo, è emerso che in questa fase non c'è una reale volontà di vietare in tutta l'UE i minori di un'età specifica.
Ma il Ministro danese per il Digitale Caroline Stage Olsen ha indicato che non ci sarà alcun cedimento. "Sarà qualcosa per cui faremo pressione", ha dichiarato.
L'alto funzionario dell'UE per il digitale, Henna Virkkunen, ha ammesso che limiti di età specifici sarebbero "impegnativi" per molteplici ragioni, tra cui le differenze culturali tra gli Stati membri e il modo in cui funzionerebbero nella pratica.
Ma la Commissione europea, l'organo di controllo digitale dell'UE, intende comunque lanciare un'applicazione per la verifica dell'età il mese prossimo, insistendo sul fatto che si può fare senza rivelare dati personali.
Un passo molto importante
Il mese scorso l'UE ha pubblicato una bozza di linee guida non vincolanti per la protezione dei minori da parte delle piattaforme, che saranno finalizzate una volta terminata la consultazione pubblica di questo mese, tra cui l'impostazione degli account dei bambini come privati per impostazione predefinita e la possibilità di bloccare e silenziare più facilmente gli utenti.
Il ministro francese per il Digitale Clara Chappaz ha dichiarato che sarebbe "un passo molto grande" se l'UE obbligasse le piattaforme a verificare la reale età dei loro utenti, come teoricamente richiesto dalla normativa attuale.
Il timore è che bambini di sette o otto anni possano facilmente creare un account sulle piattaforme di social media nonostante l'età minima di 13 anni, fornendo una data di nascita falsa.
"Se siamo tutti d'accordo come europei nel dire che questo deve finire, che deve esserci un sistema di verifica dell'età adeguato, allora significa che i bambini sotto i 13 anni non potranno accedere alla piattaforma", ha detto Chappaz.
La Francia ha aperto la strada a un giro di vite sulle piattaforme, approvando una legge del 2023 che impone loro di ottenere il consenso dei genitori per gli utenti di età inferiore ai 15 anni.
Ma la misura non ha ricevuto il via libera dell'UE necessario per entrare in vigore.
Quest'anno, inoltre, la Francia ha gradualmente introdotto l'obbligo per tutti i siti web per adulti di chiedere agli utenti di confermare la loro età per evitare che i bambini accedano al porno, e questa settimana tre grandi piattaforme sono state oscurate in segno di rabbia.
TikTok, anch'essa sotto pressione da parte del governo francese, domenica ha vietato l'hashtag "#SkinnyTok", parte di una tendenza che promuove la magrezza estrema sulla piattaforma.
Verifica dell'età incorporata
Francia, Grecia e Spagna hanno espresso preoccupazione per il fatto che la progettazione algoritmica delle piattaforme digitali aumenta l'esposizione dei bambini a contenuti che creano dipendenza e nocivi, con il rischio di peggiorare i problemi di ansia, depressione e autostima.
La loro proposta - sostenuta anche da Cipro e Slovenia - accusa l'eccessivo tempo trascorso sullo schermo in giovane età di ostacolare lo sviluppo delle capacità critiche e relazionali dei minori.
Chiedono "un'applicazione a livello europeo che supporti i meccanismi di controllo parentale, consenta un'adeguata verifica dell'età e limiti l'uso di determinate applicazioni da parte dei minori".
L'obiettivo è che dispositivi come gli smartphone abbiano una verifica dell'età incorporata.
L'UE sta stringendo i tempi anche in altri modi.
Attualmente sta indagando su Facebook e Instagram e su TikTok in base alla sua enorme legge sulla moderazione dei contenuti, il Digital Services Act (DSA), temendo che le piattaforme non facciano abbastanza per impedire ai bambini di accedere a contenuti dannosi.
La scorsa settimana, inoltre, ha avviato un'indagine su quattro piattaforme pornografiche, sospettando che non riescano a impedire ai bambini di accedere a contenuti per adulti.
Di Raziye Akkoc