Podiumsdiskussion im Rahmen der Veranstaltungsreihe „KJM im Dialog" in Berlin
Die anhaltende Debatte um Hass und Hetze im Internet zeigt, dass der Schutz von Kindern und Jugendlichen im Netz weiterhin vor großen Herausforderungen steht. Im Zeitalter von Inhalten in Echtzeit, Social Media und Apps stellt sich unweigerlich auch die Frage, welchen Beitrag der technische Jugendmedienschutz leisten kann.
So lässt sich beispielsweise in vorinstallierter, zeitgemäßer Jugendschutzsoftware für mobile Endgeräte eine Chance sehen - schließlich ist das Smartphone längst die Medienzentrale junger Menschen. Aktuelle Entwicklungen weisen zudem darauf hin, dass Künstliche Intelligenz (KI) Potentiale für den Jugendmedienschutz bietet. So nutzen die großen Anbieter maschinelles Lernen (ein Teilgebiet der KI), um problematische Inhalte und Accounts auf ihren Plattformen automatisch zu erkennen. Was einerseits Chancen bietet, hat auch problematische Seiten. So stellt sich die Frage, wie automatisierte Erkennungsmechanismen mit klassischen Verfahren des Jugendmedienschutzes vereinbar sind.
Es gilt als Gesellschaft zu entscheiden, welche Rolle Inhalte- und Plattformanbieter, automatisierte Prozesse aber auch klassische Aufsichtsverfahren mit Einzelfallentscheidungen durch staatsferne Gremien spielen sollen.