Der Wunsch nach einem „Rundum-Sorglos-Angebot“ ist zweifelsohne verführerisch und mit einem Verbot wird eine verlockend einfache Lösung suggeriert. Doch dies lenkt davon ab, dass das Problem vielschichtig ist. Insbesondere droht die Debatte dazu zu führen, dass die Verantwortung für die Gefahren, die von sozialen Medien ausgehen, auf die Gesellschaft verlagert wird. Wir können von milliardenschweren Unternehmen durchaus erwarten, dass sie, statt auszugrenzen, den Schutz der Nutzenden bei der Ausgestaltung ihrer Produkte in den Mittelpunkt stellen. Anstatt uns voneinander zu trennen und bislang gemeinsame Kommunikationsräume abzuriegeln werden Altersgrenzen so zum Orientierungsrahmen für ein auf gemeinsamen, überprüfbaren Standards beruhendes und auf das Alter der Nutzenden angepasstes Design.
Unbestreitbar haben wir ein Problem mit dem Schutz von Kindern und Jugendlichen auf sozialen Medien. Aber auf allen sozialen Medien in gleichem Maße - und wirklich nur dort? In der Diskussion wird bislang kaum darüber gesprochen, welche Dienste genau verboten werden sollen. Dabei sind die beliebtesten Apps bei Kindern und Jugendlichen oft multifunktional ausgestaltet; neben TikTok, Instagram & Co. haben beispielsweise auch Spieleplattformen wie Roblox eine Chatfunktion, während auf YouTube stundenlang durch kurzweilige Videos gescrollt und auf Tinder nahezu endlos durch Inhalte gewischt werden kann. In der nächsten Phase der Debatte muss daher deutlich besser beschrieben werden, welche Angebote problematisch sind. Dabei sollte statt auf die Dienstkategorie vor allem auf die risikobehafteten Funktionalitäten abgestellt werden. Nur so können effektive Vorgaben gemacht werden, die zu einer nachhaltigen Verbesserung des Designs der Dienste an den entscheidenden Stellen führen.
Kinder und Jugendliche müssen, ebenso wie im Straßenverkehr oder beim Schwimmen, Schritt für Schritt den Umgang mit Medien erlernen können. Dafür benötigen sie Angebote, die mit ihnen und ihren Fähigkeiten wachsen. Für Minderjährige Nutzende müssen daher schrittweise anpassbare Einstiegsversionen sozialer Medien angeboten werden, die sich an ihren spezifischen Nutzungsrisiken orientieren. Neben altersgerechten Inhalten, dem Verzicht auf suchtfördernde Funktionalitäten und einer stärkeren Inhalte-Moderation setzt dies auch verbindliche Grenzen hinsichtlich der Nutzungsdauer voraus.
Darüber hinaus braucht es flächendeckend geeignete Medienkompetenzangebote - nicht nur im schulischen Kontext, sondern systematisch entlang der gesamten Bildungskette: beginnend in der frühkindlichen Bildung, fortgeführt in Schule und außerschulischer Kinder- und Jugendhilfe sowie verankert in der Familienbildung. Nur so lässt sich langfristig ein souveräner und selbständiger Umgang von Kindern und Jugendlichen mit sozialen Medien erreichen
Altersgerechte Angebote können nur entstehen, wenn Altersgrenzen – egal ob in Form gesetzlicher Vorgaben oder der anbietereigenen Nutzungsbedingungen – nicht nur auf dem Papier bestehen, sondern in der Praxis funktionieren. Dafür müssen sie wirksam eingesetzt und in der Fläche geprüft werden. Es stehen bereits über 100 von der KJM mit Blick auf ihre Schutzfunktion positiv bewertete AVS-Systeme zur Verfügung. Auch wenn eine Altersverifikation keine triviale Angelegenheit ist, so stehen doch zahlreiche unterschiedliche Modelle zum (modifizierten) Einsatz bereit.
Derzeit scheitern die Bemühungen vieler nationaler Parlamente und Regulierungsbehörden, den Schutz von Kindern und Jugendlichen auf sozialen Medien zu verbessern, an der vermeintlichen, ausufernden Sperrwirkung des europäischen Digital Services Act (DSA). Obwohl dieser selbst vorsieht, dass geeignete Maßnahmen zum Schutz von Kindern und Jugendlichen ergriffen werden müssen, nehmen weder die Anbieter selbst noch die EU Kommission diese Vorgaben und ihre Durchsetzung bislang ausreichend ernst. Es braucht dringend eine Nachjustierung, damit aus Stillstand wieder eine gemeinsame Bewegung aller Regulierungsebenen entsteht – für einen besseren Schutz von Kindern und Jugendlichen in digitalen Diensten.