Antrag: Instagram, TikTok und Co.: Mehr Schutz für Kinder und Jugendliche - Falsch- und Desinformationen eindämmen.

Fraktion der SPD
Fraktion Bündnis 90 Die Grünen

Der Landtag wolle beschließen:

Soziale Medien sind für Kinder und Jugendliche heute fester Bestandteil ihres Alltags. Sie nutzen Plattformen wie TikTok, Instagram (Meta) oder Youtube nicht nur zur Unterhaltung, sondern zunehmend auch als Informationsquelle. Damit einher geht jedoch gerade in den letzten Jahren eine Vielzahl von Risiken, die von der Verbreitung von Falschinformationen und politischer Desinformation über Gewaltverherrlichung, extremistische Botschaften und Cybermobbing bis hin zur sexuellen Belästigung reichen. Die Algorithmen sozialer Netzwerke priorisieren Beiträge, die hohe Interaktionsraten erzeugen - unabhängig davon, ob sie für Kinder und Jugendliche geeignet oder gar schädlich sind. Dies kann dazu führen, dass sie ungewollt mit verstörenden oder gefährlichen Inhalten konfrontiert werden. Der negative Einfluss wird zusätzlich dadurch verstärkt, dass viele Beiträge gezielt an die Sehgewohnheiten und Interessen junger Nutzerinnen angepasst sind und so eine besonders hohe Reichweite in dieser Altersgruppe erzielen. Studien belegen, dass Social- Media-Plattformen nicht nur Radikalisierungsprozesse beschleunigen, sondern auch die psychische Gesundheit junger Menschen beeinträchtigen Darstellungen, die Essstörungen oder selbstverletzendes Verhalten verherrlichen, finden sich ebenso wie gezielt verbreitete Verschwörungsmythen und extremistische Weltbilder.

Ein weiteres zentrales Risiko liegt in der gezielten politischen Einflussnahme über soziale Medien - insbesondere durch die Verbreitung von Desinformationen. Unterschiedlichste Akteure - von rechtsextremen Gruppen über verschwörungsideologische Bewegungen bis hin zu ausländischen staatlichen Akteuren - nutzen digitale Plattformen, um bewusst manipulierte Inhalte zu verbreiten, das Vertrauen in demokratische Institutionen zu untergraben und gesellschaftliche Polarisierung zu fördern. Durch einfache Sprache, emotionalisierende Bilder und inszenierte „Enthüllungen“ werden (politische) Sachverhalte verzerrt und als vermeintlich objektive Wahrheiten präsentiert. Besonders auf Plattformen wie TikTok, die sich durch eine schnelle und visuell ansprechende Präsentation von Inhalten auszeichnen, kann es für Nutzer*innen schwer sein, zwischen faktenbasierten verlässlichen Informationen und gezielter Manipulation zu unterscheiden - für Kinder und Jugendliche gilt dies umso mehr.

Darüber hinaus sehen sich viele Kinder und Jugendliche in sozialen Medien einem ständigen Leistungs- und Schönheitsdruck ausgesetzt. Idealisierte Darstellungen, Filtertechniken und algorithmisch verstärkte Trends fördern oft ein verzerrtes Selbstbild, das nachweislich zu Angststörungen und Depressionen beitragen kann. Auch Phänomene wie Cybermobbing und die gezielte Belästigung Minderjähriger in Kommentarspalten oder Direktnachrichten sind weit verbreitet.

Die Betreiber der Social-Media-Plattformen tragen diesbezüglich eine besondere Verantwortung für die Nutzer*innen, insbesondere, wenn es sich um Minderjährige handelt. Denn diese Plattformen erzielen mit den Daten der Nutzer*innen der Plattformen beträchtliche Gewinnmargen, etwa durch die Liquidierung des Nutzerverhaltens seiner Benutzerinnen (Schaltung personalisierter Werbung, Erstellen von werbefinanzierten Algorithmen).

Auf der anderen Seite mangelt es seitens der Betreiber an einer konsequenten Umsetzung von kinder- und jugendschutzerheblichen Belangen, etwa der Filterung von kinder- und jugendgefährdender sowie besonders entwicklungsbeeinträchtigender Inhalte.

Das derzeit vorhandene Spannungsfeld zwischen wirtschaftlicher Gewinnbetätigung der Betreiber einerseits sowie dem mangelnden Schutz der vulnerablen Nutzergruppen andererseits muss durch konsequente Maßnahmen wirksam abgebaut werden.

Die bisherigen Maßnahmen reichen nicht aus, um Kinder und Jugendliche effektiv zu schützen. Selbst gesetzliche Vorgaben wie der Digital Services Act (DSA) der EU werden nur zögerlich oder unzureichend von den Betreibern umgesetzt. Die Europäische Union hat im Februar 2024 bspw. ein offizielles Verfahren gegen TikTok eingeleitet, um zu prüfen, ob die Plattform ihre Verpflichtungen im Kampf gegen Desinformation und gefährliche Inhalte einhält, da insbesondere TikTok durch die Verbreitung von solchen Kurzvideos aufgefallen ist.

Es ist unerlässlich, dass nationale und europäische Regulierungsmaßnahmen verschärft und durchgesetzt und gleichzeitig präventive Maßnahmen gestärkt werden. Auch die nationalen Behörden müssen die vorhandenen Werkzeuge zur Prävention im Internet konsequent nutzen oder dazu in die Lage versetzt werden, um der Verbreitung von Falschinformationen und verfassungsfeindlichen Inhalten wirksam entgegenzuwirken. Der Schutz von Kindern und Jugendlichen im digitalen Raum muss mit einem ganzheitlichen Ansatz verfolgt werden, der technische, regulatorische und pädagogische Maßnahmen miteinander verbindet.

Vor diesem Hintergrund bittet der Landtag nach Maßgabe und unter Beachtung der haushälterischen Rahmenbedingungen die Landesregierung:

  1. auf Bundesebene die Debatte um ein gesetzliches Mindestalter von 14 Jahren für die Nutzung von sozialen Medien anzustoßen. Die Plattformbetreiber sollen so verpflichtet werden, den Jugend- und Kinderschutz konsequenter umzusetzen und geeignete Altersverifikationsmaßnahmen einzuführen.
  2. im Rahmen dieser Debatte auch die Möglichkeit zu prüfen, minderjährigen Nutzer*innen den Zugang zu sozialen Medien ausschließlich über spezielle Kinder- und Jugendkonten zu ermöglichen, die durch eine verbindliche, staatlich gestützte Altersverifikation abgesichert sind.
  3. die zielgerichtete Förderung von Medienkompetenz im schulischen Kontext mit dem Ziel fortzuführen, die Informations- und Nachrichtenkompetenz hinsichtlich der Beschaffung und Deutung von Informationen und Nachrichten von Kindern und Jugendlichen auf breiter Ebene weiter zu verbessern. Das gilt insbesondere für den bewussten Umgang mit sozialen Medien, die Erkennung von Desinformation sowie den Schutz vor Cybermobbing und anderen Online-Gefahren, die bereits Bestandteil schulischer Bildungsarbeit sind und im Rahmen der Lehrpläne weiterhin gestärkt werden sollen. Auch die Zusammenarbeit mit externen Partnerinnen - wie der NLM oder der Niedersächsischen Landeszentrale für politische Bildung - im Medienkompetenznetzwerk des Landes Niedersachsen ist in diesem Zusammenhang fortzusetzen und zu intensivieren. Ebenso ist die Erwachsenenbildung - in Kooperation mit den Landesbehörden - in den genannten Aspekten weiterhin auszubauen, um Eltern im Kontext ihres grundrechtlich verbrieften Erziehungsauftrags gezielt zu fördern und zu unterstützen.
  4. die zuständigen staatlichen Stellen (insb. die Bundesnetzagentur) bei der Aufsicht der sozialen Medien und der Bekämpfung von Inhalten rechtswidriger, desinformativer und manipulativer Natur weiterhin zu unterstützen und den Kampf gegen Falschinformationen noch stärker als bisher zu unterstützen.
  5. auf Informationskampagnen für Kinder- und Jugendliche zum sicheren Umgang mit sozialen Medien gezielt hinzuweisen, die in geeigneterWeise dazu beitragen, dass sich Kinder und Jugendliche über die etwaigen Risiken wie bspw. Cybermobbing, digitale Gewalt, sexuelle Belästigung, Falschinformationen und Extremismus aufgeklärt in den sozialen Medien bewegen.
  6. um eine gesetzliche Verankerung einer Verpflichtung der Betreiber von sehr großen Social- Media Plattformen (Meta, X und TikTok) der Medienaufsicht eine automatisierte Durchsuchung und Dokumentation von öffentlichen Informationen (Postings/Inhalte, Kommentare, Accountnamen, Datums- und Reichweitendaten) zu ermöglichen und Prüfung der Realisierbarkeit einer Gesetzesinitiative hinsichtlich der Gewährung eines begrenzten softwarebasierten Zugangs zu den programmierbaren technischen Schnittstellen der Plattformen (API). Die niedersächsische Landesmedienanstalt soll diesbezüglich gestärkt werden. Datenschutzrechtliche Auskunftsansprüche der Benutzerinnen müssen verbessert werden. Tatsächliche Hürden für deren Ausübung müssen weiter abgebaut werden. Die Landesregierung soll sich für weitere niedrigschwellige Beratungsangebote für Kinder, Jugendliche und Eltern zu dem Thema einsetzen.
  7. zu gewährleisten, dass sowohl staatliche Stellen als auch die Niedersächsische Landesmedienanstalt als staatsfeme Medienaufsicht Hinweisen und Meldungen von Verstößen gegen die gesetzlichen Bestimmungen (z. B. Desinformationen) durch Verbraucher auf den Plattformen nachgehen können.
  8. sich auf Bundesebene für einen besseren „Zugang zum Recht“ insbesondere für Nutzer*innen einzusetzen. Hierbei soll geprüft werden, ob Auskunftsansprüche nach dem Telekommunikation-Digitale-Dienste-Datenschutz-Gesetz (TDDDG) auf Bundesebene neu geregelt und derart ausgestaltet werden können, dass sie auch für Privatpersonen nutzbar sind und gegen rechtswidrige Inhalte vorgegangen werden kann. Zusätzlich soll ein Auskunftsrecht durch die Landesmedienanstalten gesetzlich verankert werden. In diesem Zuge bitten wir die Landesregierung, sich auf Bundes- und Europaebene für eine konsequente Umsetzung des Digital Services Act bzw. dem Digitale-Dienste-Gesetz in Deutschland einzusetzen. Ob es dann noch einer internen Klarnamenpflicht bedarf, soll überprüft werden. Eine Verknüpfung mit der geplanten digitalen europäischen Brieftasche ab 2026 könnte diesbezüglich eine sichere und datenschutzkonforme Umsetzung ermöglichen.
  9. eine EU-weite Gesetzesinitiative zu unterstützen, die TikTok, analog der Debatte in den USA, zur Trennung von der chinesischen Muttergesellschaft Bytedance verpflichtet.

Begründung

Kinder und Jugendliche sind heute von klein auf mit sozialen Medien konfrontiert. Die Plattformen bieten viele Chancen zur Vernetzung und Teilhabe, bergen aber auch erhebliche Risiken. Besonders problematisch ist die Kombination aus gezielt aufbereiteter, algorithmisch verstärkter Verbreitung von Inhalten und einer oftmals unzureichenden Moderation durch die Betreiber. Die Betreiber entziehen sich zunehmend ihrer besonderen Verantwortung, die aus dem Sammeln und Verarbeiten der Nutzerdaten entstehen. Für die Betreiber sind diese Daten ein hohes (insbesondere finanzielles und wirtschaftlich strategisches) Gut. Gleichzeitig leisten die Betreiber nicht genügend Einsatz, um den (insbesondere besonders schützenswerten) Belangen minderjähriger Nutzer*innen ein sicheres und inhaltlich unbedenkliches Nutzererlebnis im Rahmen der geltenden Jugendschutzvorschriften zur Verfügung zu stellen.

Neben gezielter Desinformation und politischer Manipulation sind junge Nutzer*innen auch verstärkt Gewaltverherrlichung, Extremismus, Cybermobbing und sexuellen Übergriffen ausgesetzt. Inhalte, die selbstverletzendes Verhalten, Essstörungen oder Gewalt fördern, verbreiten sich oft ungehindert und können insbesondere für psychisch labile Jugendliche schwerwiegende Folgen haben. Die aktuellen Regularien zum Jugendschutz greifen hier häufig nicht ausreichend. Die staatlichen Kontrollmechanismen in der staatlichen Medienaufsicht müssen ausgebaut werden.

Eine verstärkte Regulierung der Plattformen, ein verbessertes Monitoring problematischer Inhalte und eine Stärkung der Medienkompetenz sind daher unerlässlich. Hierzu ist es insbesondere erforderlich, dass die zuständigen Behörden einen Definitionskatalog entwickeln, um eine rechtssichcre Auslegung und Erkennung problematischer Inhalte vornehmen zu können. Die Einteilung von weiteren Unterkategorien, etwa von „rechtswidrigen“, „desinformativen“ oder „manipulativen" ist für die praktische Beurteilung und die erforderlichen Maßnahmen, bis hin zur Löschung solcher Inhalte, unerlässlich.

Sinnvoll erscheint eine Unterteilung in rechtswidrige Plattforminhalte, die gegen bereits bestehende rechtliche Regelungen verstoßen und andererseits in Inhalte, die zwar nicht per se gegen geltende (kinder- und jugendschutzrelevante) Normen verstoßen, aber - in Anlehnung an die Begrifflichkeit der öffentlichen Ordnung - geeignet sind, gegen das Anstandsgefühl von redlichen Endnutzer*innen zu verstoßen (etwa desinformativer, manipulativer oder schlicht entwicklungsbeeinträchtigend oder unangemessener Inhalt). Da es sich bei der zweiten Kategorie um unbestimmte Rechtsbegriffe handelt, ist vor dem Hintergrund einer Vielzahl von Anwendungsfällen und Prüfungsaufträgen eine möglichst abschließende und weitreichende Auflistung vorzunehmen, inwieweit Inhalte als „problematisch“ zu bezeichnen sind.

Beispielsweise handelt es sich bei der sog. „Algospeak“ um Formalbeleidigungen und Volksverhetzungen, die auf den betroffenen Plattformen von Nutzer*innen so umformuliert sind, dass sie mutmaßlich die bestehenden Plattformrestriktionen bewusst umgehen können,[I] was eine Überprüfung bisher erschwert.

Vor allem müssen Plattformbetreiber in die Pflicht genommen werden, ihre eigenen Richtlinien und gesetzliche Vorgaben konsequenter durchzusetzen und staatliche Stellen bei der Identifikation und Löschung problematischer Inhalte besser zu unterstützen.

Mit den vorgeschlagenen Maßnahmen soll sichergestellt werden, dass Kinder und Jugendliche sich sicherer in digitalen Räumen bewegen können und vor schädlichen Inhalten geschützt werden.

Bereits bestehende Aktivitäten in Niedersachsen, wie die Verankerung von Medienkompetenz in den schulischen Curricula sowie die Kooperation mit Partnern wie der NLM oder der Niedersächsischen Landeszentrale für politische Bildung im Rahmen des Medienkompetenznetzwerks, leisten einen wichtigen Beitrag zur Stärkung der Informations- und Nachrichtenkompetenz von Kindern, Jugendlichen und Eltern. Diese Maßnahmen bilden eine tragende Säule im präventiven Kinderschutz und sind im Sinne eines kontinuierlichen Ausbaus und einer nachhaltigen Wirksamkeit weiterzuführen.

Zurück zum Pressearchiv