The European Union already has some of the world's most stringent digital rules to rein in Big Tech, with multiple probes ongoing into how platforms protect children -- or fail to do so.
Backed by France and Spain, Greece spearheaded a proposal for how the EU should limit children's use of online platforms as a rising body of evidence shows the negative effects of social media on children's mental and physical health.
They discussed the plan Friday with EU counterparts in Luxembourg to push the idea of setting an age of digital adulthood across the 27-country bloc, meaning children would not be able to access social media without parental consent.
France, Greece and Denmark believe there should be a ban on social media for under-15s, while Spain has suggested a ban for under-16s.
Australia has banned social media for under-16s, taking effect later this year, while New Zealand and Norway are considering a similar prohibition.
After the day's talks in Luxembourg, it appeared there was no real appetite at this stage for an EU-wide ban on children under a specific age.
But Danish Digital Minister Caroline Stage Olsen indicated there would be no let-up. "It's going to be something we're pushing for," she said.
Top EU digital official Henna Virkkunen admitted specific age limits would be "challenging" for multiple reasons, including cultural differences in member states and how it would work in practice.
But the European Commission, the EU's digital watchdog, still intends to launch an age-verification app next month, insisting it can be done without disclosing personal details.
'Very big step'
The EU last month published non-binding draft guidelines for platforms to protect minors, to be finalised once a public consultation ends this month, including setting children's accounts to private by default, and making it easier to block and mute users.
French Digital Minister Clara Chappaz said it would be "a very big step" if the EU made platforms check the real age of their users, as theoretically required under current regulation.
The worry is that children as young as seven or eight can easily create an account on social media platforms despite a minimum age of 13, by giving a false date of birth.
"If we all agree as Europeans to say this needs to stop, there needs to be a proper age verification scheme, then it means that children below 13 won't be able to access the platform," Chappaz said.
France has led the way in cracking down on platforms, passing a 2023 law requiring them to obtain parental consent for users under the age of 15.
But the measure has not received the EU green light it needs to come into force.
France also gradually introduced requirements this year for all adult websites to have users confirm their age to prevent children accessing porn -- with three major platforms going dark this week in anger over the move.
TikTok, also under pressure from the French government, on Sunday banned the "#SkinnyTok" hashtag, part of a trend promoting extreme thinness on the platform.
In-built age verification
France, Greece and Spain expressed concern about the algorithmic design of digital platforms increasing children's exposure to addictive and harmful content -- with the risk of worsening anxiety, depression and self-esteem issues.
Their proposal -- also supported by Cyprus and Slovenia -- blames excessive screen time at a young age for hindering the development of minors' critical and relationship skills.
They demand "an EU-wide application that supports parental control mechanisms, allows for proper age verification and limits the use of certain applications by minors".
The goal would be for devices such as smartphones to have in-built age verification.
The EU is clamping down in other ways as well.
It is currently investigating Meta's Facebook and Instagram, and TikTok under its mammoth content moderation law, the Digital Services Act (DSA), fearing the platforms are failing to do enough to prevent children accessing harmful content.
And last week, it launched an investigation into four pornographic platforms over suspicions they are failing to stop children accessing adult content.
By Raziye Akkoc
Diese Übersetzung, Untertitelung bzw. Vertonung wurde durch KI generiert, ohne menschliche Prüfung oder Bearbeitung. Sie wird ohne Gewähr („wie sie ist“) gemäß den Nutzungsbedingungen der Plattform angeboten.
Die Europäische Union verfügt bereits über einige der weltweit strengsten digitalen Regeln, um Big Tech in die Schranken zu weisen, und es laufen mehrere Untersuchungen darüber, wie Plattformen Kinder schützen - oder wie sie es nicht tun.
Mit Unterstützung Frankreichs und Spaniens hat Griechenland einen Vorschlag vorgelegt, wie die EU die Nutzung von Online-Plattformen durch Kinder einschränken sollte, da immer mehr Beweise für die negativen Auswirkungen sozialer Medien auf die geistige und körperliche Gesundheit von Kindern vorliegen.
Sie diskutierten den Plan am Freitag mit ihren EU-Kollegen in Luxemburg, um die Idee voranzutreiben, ein Alter für das digitale Erwachsensein in der gesamten EU der 27 Länder festzulegen, was bedeuten würde, dass Kinder ohne elterliche Zustimmung keinen Zugang zu sozialen Medien hätten.
Frankreich, Griechenland und Dänemark sind der Meinung, dass soziale Medien für Kinder unter 15 Jahren verboten werden sollten, während Spanien ein Verbot für Kinder unter 16 Jahren vorgeschlagen hat.
Australien hat ein Verbot sozialer Medien für Kinder unter 16 Jahren erlassen, das noch in diesem Jahr in Kraft treten soll, während Neuseeland und Norwegen ein ähnliches Verbot erwägen.
Nach den heutigen Gesprächen in Luxemburg hatte es den Anschein, als gäbe es in diesem Stadium keinen wirklichen Appetit auf ein EU-weites Verbot für Kinder unter einem bestimmten Alter.
Die dänische Ministerin für Digitales, Caroline Stage Olsen, deutete jedoch an, dass man nicht locker lassen werde. "Wir werden uns dafür einsetzen", sagte sie.
Der oberste EU-Beamte für Digitales, Henna Virkkunen, räumte ein, dass spezifische Altersgrenzen aus verschiedenen Gründen eine Herausforderung" darstellen würden, darunter kulturelle Unterschiede in den Mitgliedstaaten und die Frage, wie sie in der Praxis funktionieren würden.
Die Europäische Kommission, die digitale Aufsichtsbehörde der EU, beabsichtigt jedoch, im nächsten Monat eine App zur Altersüberprüfung einzuführen, und besteht darauf, dass dies ohne Offenlegung persönlicher Daten möglich ist.
Sehr großer Schritt
Die EU hat letzten Monat einen unverbindlichen Entwurf von Richtlinien für Plattformen zum Schutz von Minderjährigen veröffentlicht, der nach Abschluss einer öffentlichen Konsultation in diesem Monat fertiggestellt werden soll.
Die französische Ministerin für Digitales, Clara Chappaz, sagte, es wäre "ein sehr großer Schritt", wenn die EU die Plattformen verpflichten würde, das tatsächliche Alter ihrer Nutzer zu überprüfen, wie es die derzeitige Regelung theoretisch verlangt.
Die Sorge ist, dass Kinder im Alter von sieben oder acht Jahren trotz eines Mindestalters von 13 Jahren durch Angabe eines falschen Geburtsdatums leicht ein Konto auf sozialen Medienplattformen erstellen können.
"Wenn wir uns als Europäer einig sind und sagen, dass das aufhören muss, dass es ein ordentliches Altersverifizierungssystem geben muss, dann bedeutet das, dass Kinder unter 13 Jahren keinen Zugang zu der Plattform haben", sagte Chappaz.
Frankreich hat eine Vorreiterrolle bei der Bekämpfung von Plattformen eingenommen, indem es 2023 ein Gesetz verabschiedete, das sie dazu verpflichtet, die Zustimmung der Eltern für Nutzer unter 15 Jahren einzuholen.
Die Maßnahme hat jedoch noch kein grünes Licht von der EU erhalten, um in Kraft zu treten.
Auch Frankreich hat in diesem Jahr schrittweise die Anforderung eingeführt, dass alle Websites für Erwachsene ihr Alter bestätigen müssen, um zu verhindern, dass Kinder auf Pornoseiten zugreifen - drei große Plattformen haben sich in dieser Woche aus Verärgerung über diesen Schritt vom Netz verabschiedet.
TikTok, das ebenfalls unter dem Druck der französischen Regierung stand, verbot am Sonntag den Hashtag #SkinnyTok", der Teil eines Trends war, der extreme Schlankheit auf der Plattform propagierte.
Eingebaute Altersüberprüfung
Frankreich, Griechenland und Spanien äußerten sich besorgt darüber, dass Kinder durch die algorithmische Gestaltung digitaler Plattformen vermehrt süchtig machenden und schädlichen Inhalten ausgesetzt sind - mit dem Risiko, dass sich Angstzustände, Depressionen und Probleme mit dem Selbstwertgefühl verschlimmern.
In ihrem Vorschlag, der auch von Zypern und Slowenien unterstützt wird, wird die übermäßige Bildschirmzeit in jungen Jahren dafür verantwortlich gemacht, dass die Entwicklung der Kritik- und Beziehungsfähigkeit von Minderjährigen behindert wird.
Sie fordern "eine EU-weite Anwendung, die elterliche Kontrollmechanismen unterstützt, eine angemessene Altersüberprüfung ermöglicht und die Nutzung bestimmter Anwendungen durch Minderjährige einschränkt".
Das Ziel wäre, dass Geräte wie Smartphones über eine eingebaute Altersüberprüfung verfügen.
Die EU geht auch auf andere Weise streng vor.
Sie untersucht derzeit Metas Facebook und Instagram sowie TikTok im Rahmen ihres umfangreichen Gesetzes über die Moderation von Inhalten, dem Digital Services Act (DSA), da sie befürchtet, dass die Plattformen nicht genug tun, um Kinder am Zugang zu schädlichen Inhalten zu hindern.
Und letzte Woche leitete die Behörde eine Untersuchung gegen vier pornografische Plattformen ein, weil sie den Verdacht hegen, dass diese den Zugang von Kindern zu nicht jugendfreien Inhalten nicht verhindern.
Von Raziye Akkoc