| Veranstaltung: | BDKJ-Hauptversammlung 2026 |
|---|---|
| Antragsteller*in: | DiPA (dort beschlossen am: 11.03.2026) |
| Status: | Eingereicht |
| Eingereicht: | 12.03.2026, 11:29 |
A4: Forderung von Maßnahmen zur Gestaltung sicherer sozialer Netzwerke für junge Menschen
Antragstext
Der Zugang von Kindern und Jugendlichen zu Sozialen Medien wird, spätestens seit
der Entscheidung der australischen Regierung, eine Altersgrenze für Soziale
Medien einzuführen, zunehmend kontrovers diskutiert. So fordert die SPD Fraktion
im Bundestag in einem Impulspapier ein vollständiges Verbot von Sozialen Medien
für Kinder bis 14 Jahre und eine Jugendversion der Plattformen Sozialer Medien
für Jugendliche bis 16 Jahre.1 Auch die CDU hat durch einen Beschluss auf ihrem
Parteitag im Februar 2026 ein Mindestalter von 14 Jahren für den Zugang zu
Sozialen Medien gefordert2. Ein pauschaler Ausschluss von minderjährigen
Personen oder auch ein altersabhängiger Zugang zu Plattformen Sozialer Medien
wird dabei häufig damit begründet, Kinder und Jugendliche vor suchtverstärkenden
Algorithmen und digitaler Gewalt zu schützen.
Der Schutz von Kindern und Jugendlichen in digitalen Räumen ist dabei ein
zentrales und berechtigtes Anliegen. Politik und Gesellschaft stehen in der
Verantwortung, wirksame Maßnahmen zu ergreifen, um junge Menschen zu schützen
und sichere digitale Umgebungen zu schaffen.
Gleichzeitig ist bei allen Schutzmaßnahmen zu berücksichtigen, dass pauschale
Ausschlüsse auch neue Probleme schaffen können. Wenn Schutz vor allem über
Verbote organisiert wird, besteht die Gefahr, dass die Rechte, Bedürfnisse und
Lebensrealitäten junger Menschen nicht ausreichend berücksichtigt und ihre
Möglichkeiten zur gesellschaftlichen Teilhabe eingeschränkt werden.
Dabei ist einerseits die Wirksamkeit von Verboten von Sozialen Medien empirisch
nicht belegt3 und andererseits stehen diese Forderungen häufig im Gegensatz zu
den Wünschen, Rechten und Bedürfnissen von Kindern und Jugendlichen.
Digitale und analoge Räume sind längst nicht mehr voneinander trennbar. In
digitalen Räumen findet soziales Miteinander, politische Auseinandersetzung und
jugendverbandliche Arbeit genauso statt wie in Jugendheimen und in unseren
Gruppenräumen. Eine Einschränkung des Zugangs zu digitalem Raum widerspricht
daher unserer Auffassung von Partizipation und Eigenständigkeit unserer
Mitglieder und wirkt sich auch auf unsere Jugendverbandsarbeit aus.
Aufbauend auf den Beschlüssen „Teilhabe, Lebenswelt und Digitale Mündigkeit –
unsere digitalpolitischen Grundhaltungen” (2018) und „Digitale
Teilhabegerechtigkeit für junge Menschen” (2024) spricht sich der BDKJ gegen ein
Verbot Sozialer Medien für Kinder und Jugendliche aus.
In der gesellschaftlichen Debatte kommt zu kurz, dass Kinder neben dem Recht auf
Schutz auch ein Recht auf Teilhabe haben. Dass dieses Recht auf Teilhabe auch im
digitalen Raum gilt, haben die Vereinten Nationen im Rahmen der Allgemeinen
Bemerkung 25 zur UN-Kinderrechtskonvention klargestellt.4 Insbesondere haben
Kinder ein Recht auf Informationszugang und freie Meinungsäußerung: Sie dürfen
sich in digitalen Räumen informieren, ihre Meinung kundtun und sich beteiligen.
Diese Rechte dürfen nur eingeschränkt werden, wenn dies notwendig und
verhältnismäßig ist. Insbesondere dürfen Kinder nur ausgeschlossen werden, wenn
nicht andere Mittel zur Verfügung stehen, um Kinder zu schützen. Ein pauschales
Verbot Sozialer Medien berücksichtigt dieses Recht nicht hinreichend und ist aus
unserer Sicht unverhältnismäßig.
Zudem stellt die Allgemeine Bemerkung auch klar, dass Kinder bei
Gesetzesvorhaben, die sie betreffen, gehört und beteiligt werden müssen. Wir
fordern daher, dass junge Menschen in der aktuellen Debatte aktiv beteiligt
werden.
Bereits im Beschluss „Digitale Teilhabegerechtigkeit für junge Menschen" hat
sich der BDKJ klar positioniert: Digitale Räume sind Teil der Lebenswelt junger
Menschen. Gesellschaftliche und politische Debatten finden oft in digitalen
Räumen und insbesondere sozialen Medien statt. Auch vernetzen sich Kinder und
Jugendliche in digitalen Räumen mit Freund*innen und tauschen sich mit ihnen
aus. Ein pauschales Verbot der Nutzung von Sozialen Medien schließt Kinder und
Jugendliche von diesen Räumen aus. Sie werden von Debatten ausgeschlossen, eine
gesellschaftliche oder politische Beteiligung fällt dadurch noch schwerer. Wir
setzen uns dafür ein, dass alle jungen Menschen an digitalen Räumen teilhaben
können.
Dabei müssen auch bestehende Ungleichheiten berücksichtigt werden: Digitale
Räume eröffnen insbesondere jungen Menschen, die im analogen Raum mit
Diskriminierung oder eingeschränkten Teilhabemöglichkeiten konfrontiert sind -
etwa aufgrund von Geschlecht, sozialer Herkunft, Behinderung, rassistischen
Zuschreibungen oder sexueller Orientierung - wichtige Möglichkeiten zur
Vernetzung, Selbstorganisation und politischen Artikulation. Gerade für
marginalisierte junge Menschen können digitale Räume daher wichtige Orte sein,
um Erfahrungen zu teilen, Unterstützung zu finden und gesellschaftliche
Sichtbarkeit zu erlangen.
Kinder und Jugendliche von Sozialen Medien auszuschließen, statt
Plattformbetreiber konsequent zur Gestaltung sicherer kinder- und
jugendgerechter digitaler Räume zu verpflichten, greift aus unserer Sicht zu
kurz.
Die Erfahrung aus dem Verbot Sozialer Medien in Australien deuten jedoch darauf
hin: Ein solches Verbot führt vor allem dazu, dass junge Menschen die Verbote
umgehen oder auf andere Plattformen ausweichen. Das birgt insbesondere das
Risiko, dass Kinder und Jugendliche dann Plattformen nutzen, ohne dass dort
Maßnahmen zu ihrem Schutz betrieben werden.
Zudem erlernen junge Menschen Medienkompetenz erst im tatsächlichen Kontakt mit
Sozialen Medien. Ein Verbot bis zu einer festgelegten Altersschwelle verschiebt
das Problem lediglich, ohne junge Menschen tatsächlich beim Aufbau von
Medienkompetenz zu unterstützen.
Die Folgen von suchtfördernden Designs, Hass im Netz und weiteren für Kinder und
Jugendliche schädlichen Inhalten, betreffen auch erwachsene Menschen. Mehr als
jede vierte erwachsene Person zeigt nach einer Studie aus dem letzten Jahr
suchtartige Symptome in Bezug auf die Nutzung von Sozialen Medien7, vor allem
FINTA* ziehen sich wegen Hass aus digitalen Räumen zurück.8 Dies zeigt: Der
Fokus auf das Verbot Sozialer Medien für Kinder greift zu kurz. Vielmehr müssen
die tatsächlichen Ursachen von Mediensucht und Hass im Netz in den Blick
genommen und dadurch auch ältere Jugendliche, junge Erwachsene und ältere
Generationen wirksam vor deren Folgen geschützt werden.
Die bestehenden Regelungen aus dem Gesetz über digitale Dienste9 (“Digital
Services Act”), Gesetz über digitale Märkte 10 (“Digital Markets Act”), sowie
dem Digitale-Dienste-Gesetz11 müssen konsequent umgesetzt, wirksam kontrolliert
und insbesondere mit Blick auf die Bedürfnisse junger Menschen weiterentwickelt
werden.
Plattformbetreiber müssen Soziale Medien bereitstellen, in denen altersgerechte
Inhalte für alle Altersgruppen verfügbar sind. Melde- und Beschwerdewege müssen
einfach, verständlich und transparent für alle Nutzenden sein. Der Schutz
persönlicher Daten muss zu jeder Zeit gewährleistet sein und gesammelte Daten
dürfen nicht für ein Profitinteresse (z. B. durch Werbung) weiterverwendet
werden.
Dabei müssen Plattformen Verantwortung dafür übernehmen, diskriminierende
Inhalte, digitale Gewalt und gezielte Belästigung insbesondere marginalisierter
Gruppen wirksam zu bekämpfen. Gleichzeitig braucht es klare gesetzliche Vorgaben
sowie wirksame Aufsichts- und Durchsetzungsstrukturen, damit bestehende Regeln
auch konsequent umgesetzt werden.
Soziale Medien sind durch die Gestaltung ihrer Angebote darauf angelegt, dass
möglichst viel Zeit dort verbracht wird. Manipulative Feed Algorithmen, die
polarisierende Inhalte bevorzugen und Daten über die Interaktionen mit den
Inhalten (durch Likes, Kommentare oder Betrachtungsdauer) sammeln sind
insbesondere für junge Menschen, nicht alleinig aus einer Sicht des
Datenschutzes oder des Jugendschutzes problematisch. Zugleich können
algorithmische Empfehlungssysteme bestehende gesellschaftliche Diskriminierungen
verstärken, indem sie problematische Inhalte über bestimmte Gruppen stärker
verbreiten oder diskriminierende Inhalte verstärken.
Auch der Digital Services Act verbietet den Einsatz von Dark Patterns in der
Gestaltung digitaler Angebote. Dies betrifft auch insbesondere Soziale Medien,
in denen es erschwert wird, problematische Inhalte zu melden, versteckte Werbung
angezeigt wird oder der Sammlung und Nutzung von Benutzer*inneninformationen zu
widersprechen.12
Soziale Medien, die gerecht für junge Menschen gestaltet sind müssen diese
Punkte konsequent umsetzen und auf den Einsatz von manipulativen Feed-
Algorithmen sowie weiterer Dark Patterns verzichten. Eine Kontrolle kann dabei
nur sinnhaft durch eine unabhängige Instanz erfolgen, die dafür einen vollen
Zugriff auf den verwendeten Quellcode und die Datenmodelle genutzter Feed-
Algorithmen hat.
Zudem sollen Nutzer*innen durch Einstellungen mehr Kontrolle über die ihnen
angezeigten Vorschläge erhalten. Insbesondere sollen bestimmte Formate (Youtube-
Shorts, Instagram-Reels, ...) dauerhaft ausgeblendet werden können. Diese
Einstellungen sollen standardmäßig möglichst nutzer*innenfreundlich gestaltet
sein.
Sowohl schulische als auch außerschulische Bildung muss darauf ausgerichtet
werden, junge Menschen zu einem sicheren Umgang mit sozialen Netzwerken zu
befähigen. Ein Verbot Sozialer Medien für junge Leute verhindert aktiv, dass
diese Kompetenzen erlernt werden können. Damit dies umgesetzt werden kann
braucht es eine stärkere strukturelle und finanzielle Förderung von
außerschulischen und (jugend)-verbandlichen Bildungsmaßnahmen zur Vermittlung
von Medienkompetenz, insbesondere in Bezug auf Soziale Medien.13
Freie Soziale Medien sind ein Teilbereich freier Software14. Sie beruhen auf
frei zugänglichem und veränderbarem Quellcode und sind häufig dezentral
organisiert.
Mit freien Plattformen werden digitale Räume geschaffen, die nicht primär dem
Profitinteresse einzelner Unternehmen unterliegen. Dadurch können Beteiligung,
Transparenz und gemeinwohlorientierte Gestaltung stärker in den Mittelpunkt
gestellt werden, während gezielte Werbung an junge Menschen in diesen Räumen
keinen Platz findet.
Durch den Einsatz freier Sozialer Medien wird die Anpassbarkeit an
unterschiedliche Bedürfnisse der Nutzenden gefördert und damit auch digitale
Teilhabe und Inklusion unterstützt. In den Netzwerken verwendete Algorithmen
sind öffentlich einsehbar. Diese Transparenz ermöglicht eine unabhängige
Überprüfung der Systeme und kann dazu beitragen sicherzustellen, dass keine
manipulativen oder suchtfördernden Feed-Algorithmen eingesetzt werden und junge
Menschen so besser geschützt sind.
Mit unserem Beschluss zur Digitalen Teilhabegerechtigkeit16 haben wir
festgehalten: Digitale Teilhabe ist ein Grundrecht junger Menschen. Digitale
Teilhabe muss ermöglicht werden.
Deshalb stellen wir uns gegen ein pauschales Verbot Sozialer Medien, das Kinder
und Jugendliche von zentralen digitalen Räumen ausschließt. Stattdessen muss
ihre Sicherheit gemeinsam mit ihrem Recht auf Teilhabe in den Fokus genommen
werden.
Eine aktive Beteiligung von jungen Menschen an der politischen Debatte und
an Gesetzgebungsverfahren zu digitalen Räumen
Eine aktive und konsequente Umsetzung und wirksame Kontrolle der Gesetze
zur Plattformregulierung
(insbesondere Digital Services Act und Digital Markets Act)
Ein Verbot von suchtfördernden Designs und manipulativer Dark Patterns in
Sozialen MedienEine langfristige strukturelle und finanzielle Förderung
schulischer und außerschulischer Medienbildung zur Stärkung digitaler
Kompetenzen junger Menschen
Die öffentliche Förderung gemeinwohlorientierter, freier und dezentraler
Netzwerke als Alternative zu profitorientierten Plattformen
1 SPD-Bundestagsfraktion. 2026. „Social Media sicherer machen“. Februar 16.
https://www.spdfraktion.de/themen/social-media-sicherer.
2 tagesschau.de. o. J. „CDU-Beschlüsse zu Social-Media-Verbot, Teilzeit und
Elterngeld“. Zugegriffen 1. März 2026.
https://www.tagesschau.de/inland/innenpolitik/cdu-parteitag-284.html.
4 Die Konvention ist seit dem Beitritt Deutschlands zur Konvention im Jahr 1992
auch direkt in Deutschland gültig.
5 Siehe z.B.
Department for Science, Innovation and Technology. 2025. „Feasibility
Study of Methods and Data to Understand the Impact of Smartphones and
Social Media on Children and Young People“. University of Cambridge.
https://www.gov.uk/government/publications/understand-the-impact-of-
smartphones-and-social-media-on-children-and-young-people.
Interview mit Stephan Dreyer, Medienrechtler am Leibniz Institut für
Medienforschung https://netzpolitik.org/2026/australisches-modell-ein-
social-media-verbot-macht-den-jugendschutz-schlechter/
6 Mit ersten Ergebnissen entsprechender Studien ist erst im Laufe von 2027 zu
rechnen, siehe z.B. https://www.cam.ac.uk/stories/irl-trial-social-media-study-
launch
8 Siehe Beschluss “Frauen*hass im Netz ist real – Gewalt gegen Frauen* endlich
beenden”
https://www.bdkj.de/fileadmin/bdkj/Dokumente/Beschluesse/4/4_43_Beschluss_Frauen-
hass_im_Netz_ist_real.pdf
Begründung
Seitdem in Australien im letzten Jahr ein Verbot Sozialer Medien für Kinder und Jugendliche beschlossen wurde und in Kraft getreten ist, wird auch hier in Deutschland immer wieder die Idee eines solchen Verbots aufgebracht. Spätestens seit einigen Monaten wird dieses Verbot auch breit in der Öffentlichkeit debattiert, zumeist allerdings leider ohne eine Beteiligung von Kindern und Jugendlichen. Neben der Perspektive von jungen Menschen kommt aus unserer Sicht in der Debatte auch das Recht auf Teilhabe in digitalen Räumen, das junge Menschen besitzen, regelmäßig zu kurz.
Aufbauend auf unserer bestehenden Beschlusslage wollen wir uns daher mit diesem Antrag klar gegen ein Verbot Sozialer Medien positionieren. Zusätzlich wollen wir verschiedene alternative Handlungsoptionen aufzeigen, wie junge Menschen (und auch ältere Erwachsene) in digitalen Räumen wirksam geschützt werden können, ohne diese pauschal auszuschließen.
Der Beschluss soll Grundlage der verschiedenen Lobbyaktivitäten des BDKJ im Bereich des Verbots Sozialer Medien werden und unsere Argumentationslinie definieren.
Zudem dient dieser Beschluss als Auftakt für eine geplante Entwicklung einer Vision kindgerechter digitaler Räume, die der DiPA im Rahmen der weiteren Arbeit angehen will, falls der Ausschuss verlängert wird.
