KI und Kinderrechte

Maximilian Schober
Niels Brüggen
Lesedauer ca. Minuten

Künstliche Intelligenz und Kinderrechte: Potenziale und Herausforderungen für Teilhabe, Schutz und Befähigung

KI prägt den Alltag junger Menschen – mit großen Chancen, aber auch spürbaren Herausforderungen. Maximilian Schober und Niels Brüggen zeigen in ihrem Beitrag, wie KI Kinderrechte stärken kann, wo Risiken liegen und warum Medienkompetenz, klare Regeln und die Perspektiven der Kinder entscheidend sind.

 

1. Künstliche Intelligenz im Alltag junger Menschen

Künstliche Intelligenz (KI) ist aus aktuellen medientechnologischen Entwicklungen und gesellschaftlichen Prozessen nicht mehr wegzudenken und zunehmend auch im Alltagsleben von Kindern und Jugendlichen präsent – etwa in Form algorithmischer Empfehlungssysteme (AES), Sprachassistenten oder generativer KI-Tools wie ChatGPT. Diese Technologien beeinflussen, wie junge Menschen sich informieren, kommunizieren, lernen, Identität gestalten und aufwachsen.

Begriffliche Einordnung: Was verstehen wir unter Künstlicher Intelligenz?

KI ist ein Oberbegriff für Technologien, die aus Daten lernen, Muster erkennen, Entscheidungen treffen oder eigenständig Inhalte generieren können (Linnemann et al., 2023, S. 198). Mit KI können Technologien bezeichnet werden, „die Menschen nutzen können, um Denk- und Handlungsvollzüge zu erweitern und funktional zu ersetzen. Der Einsatz von KI verändert damit das Wechselverhältnis zwischen Menschen und Maschinen und wirft grundlegende Fragen zur Handlungsfreiheit des Menschen auf“ (Demmler & Brüggen, 2021).

Relevanz von KI im Leben von Kindern und Jugendlichen

Kinder und Jugendliche wachsen heute in einer digital geprägten Gesellschaft auf, in der Medien und KI zunehmend an Bedeutung gewinnen: „Aufwachsen heute heißt Aufwachsen mit Medien.“ (Theunert, 2013) Zwei Entwicklungen greifen dabei ineinander: Zum einen wandeln sich Mediendienste und -angebote durch medientechnologische Veränderungen, zum anderen entwickeln sich auch Kinder und Jugendliche selbst weiter (Paus-Hasebrink, 2021, S. 789 f.).

Mit Blick auf aktuelle Nutzungszahlen der KIM- und JIM-Studien (Feierabend et al., 2024, 2025) sind insbesondere drei Formen von KI relevant für die Lebenswelt junger Menschen:

Die medienbezogenen Tätigkeiten junger Menschen sind vielfältig und eng mit Alltagsroutinen, Interessen und Entwicklungsaufgaben verknüpft (Brüggen et al., 2022, S. 42 ff.). Im Umgang mit KI wird für Kinder und Jugendliche potenziell erlebbar, was dem Leben und Handeln im Zuge des digitalen Wandels immanent ist: Menschen und Objekte sind potenziell jederzeit online, erzeugen Daten und werden ausgewertet, digitale Medien sind von Geburt an Teil des Familienalltags und integraler Bestandteil der Kinder- und Jugendkulturen, des Freizeitsektors und der Konsumwelt sowie der Bildungsinstitutionen.

Kinderrechte im digitalen Zeitalter: Relevanz des Themas

Vor dem Hintergrund von KI stellt sich die Frage, wie diese Rechte gewahrt, gestärkt oder herausgefordert werden. Der UN-Ausschuss für die Rechte des Kindes hat mit dem General Comment Nr. 25 (2021) klargestellt, dass die Kinderrechtskonvention uneingeschränkt im digitalen Raum gilt. Technologien müssen so gestaltet und reguliert werden, dass sie die Rechte von Kindern wahren und stärken – insbesondere im Sinne des Dreiklangs von Schutz, Befähigung und Teilhabe. Konkretisiert auf den Bereich KI:

  • Schutz bezieht sich auf das Recht, vor Diskriminierung, Überwachung, Datenmissbrauch sowie vor Inhalten und Praktiken bewahrt zu werden, die ihre Persönlichkeitsentwicklung beeinträchtigen oder gefährden könnten, sowohl in Bezug auf Inhalte wie Pornografie oder Hate Speech, wie auch auf Interaktionsrisiken wie Cybergrooming.
  • Befähigung umfasst den Zugang zu Bildung und Medienkompetenzförderung sowie die Gestaltung von kompetenzförderlichen digitalen Angeboten.
  • Teilhabe beschreibt das Recht auf Mitbestimmung, kulturelle und gesellschaftliche Partizipation sowie gerechte Repräsentation – auch im digitalen Raum.

Mit Blick auf diesen Dreiklang ist zentral, dass Kinder und Jugendliche nicht nur als Schutzbedürftige betrachtet werden, sondern auch als aktiv Gestaltende ihrer postdigitalen Lebenswelten mit einem Recht auf Teilhabe. Pädagogische Fachkräfte stehen hier vor der Aufgabe, Chancen zu ermöglichen, Risiken zu reflektieren und gesellschaftliche Rahmenbedingungen mitzugestalten. Im Folgenden werden daher zunächst Potenziale, anschließend Risiken und abschließend Überlegungen zur Förderung von Kompetenzen dargestellt.

2. Potenziale von KI zur Stärkung von Kinderrechten

Insbesondere mit Blick auf Teilhabe und Inklusion, Bildung und die Repräsentation kindlicher Lebenswelten eröffnen KI-gestützte Systeme neue Möglichkeiten, um Barrieren abzubauen, Selbstbestimmung zu fördern und inklusive Lern- und Kommunikationsräume zu schaffen.

2.1 Teilhabe und Inklusion

Gesellschaftliche Teilhabe, kulturelle Partizipation und der Zugang zu Wissen erfolgen heute zunehmend über digitale Medien, in denen KI eine zentrale Rolle spielt. Für viele Kinder und Jugendliche sind KI-gestützte Systeme – von algorithmischen Empfehlungssystemen bis hin zu generativen Chatbots und Sprachassistenten – alltägliche Zugänge zu Informationen, Unterhaltung und sozialer Interaktion (vgl. Kapitel 1). Diese Technologien eröffnen Möglichkeiten, Teilhabebarrieren zu überwinden und insbesondere für Kinder und Jugendliche aus benachteiligten Lebenslagen niedrigschwellige Unterstützung zu nutzen.

Ein Beispiel sind Sprachassistenzsysteme, die insbesondere für Personen mit Sehbeeinträchtigungen oder motorischen Einschränkungen den Zugang zu Informationen erleichtern. Automatische Übersetzungsfunktionen und Echtzeit-Untertitelung eröffnen darüber hinaus mehrsprachigen Familien sowie Kindern mit Hörbeeinträchtigungen neue Teilhabechancen.

KI kann Teilhabebarrieren abbauen – und Kindern und Jugendlichen niedrigschwellige Zugänge eröffnen.

Ein weiteres Beispiel sind generative KI-basierte Chatbots. Sie können jungen Menschen Informationen in Dialogform und in einfacher Sprache vermitteln, wodurch komplexe Sachverhalte niedrigschwelliger zugänglich werden. Besondere Relevanz kann KI für junge Menschen in belasteten Lebenslagen haben. Eine aktuell laufende Studie des JFF zeigt, dass junge Menschen Chatbots nutzen, um belastende Themen wie Liebeskummer, Trennungen, familiäre Konflikte, psychische Belastungen oder Substanzkonsum zu besprechen. KI-basierte Chatbots können eine erste Anlaufstelle darstellen, Orientierung geben und das Aussprechen bzw. Ausdrücken von Belastungen ermöglichen, ohne dass Eltern oder eine Einrichtung aufgesucht werden muss. Zudem können KI-gestützte Beratungstools und niedrigschwellige psychosoziale Assistenzsysteme Unterstützung einer professionellen Begleitung bei psychosozialen Belastungen bieten.

Damit junge Menschen diese Chancen für sich nutzen können, ist eine kompetente und gegebenenfalls begleitete Nutzung zentral. Medienkompetenzförderung bildet hierfür eine wesentliche Grundlage – nicht nur für Kinder und Jugendliche selbst, sondern auch für Eltern und pädagogische Fachkräfte. Sie unterstützt dabei, KI-gestützte Systeme in ihrer Funktionsweise zu verstehen und kritisch zu reflektieren, eigene Handlungsoptionen zu erweitern, Risiken und Grenzen einzuschätzen zu können.

2.2 Bildung

Individuelle Förderung durch Learning Analytics

Bildung ist ein weiteres Feld, in dem KI das Potenzial hat, Kinderrechte zu stärken – insbesondere mit Blick auf Teilhabe. Learning-Analytics-Anwendungen können Lerninhalte an die jeweiligen Bedürfnisse von Kindern anpassen, Wissenslücken identifizieren und gezielte Hilfestellungen geben. Unter Learning Analytics wird die Interpretation von spezifischen Daten der Lernenden verstanden, um den individuellen Lernprozess gezielt zu unterstützen und zu verbessern (Ebner & Schön, 2013; Grandl et al., 2017). Mithilfe von Learning Analytics kann dynamisch auf das Lernverhalten reagiert werden und damit kann es die Möglichkeit eröffnen, Lernangebote stärker zu individualisieren. Adaptive Lernsysteme und KI-basierte Tutorien sind Beispiele hierfür: Sie passen Aufgaben und Lernpfade automatisch an das Niveau und die Fortschritte der Kinder an, geben unmittelbares Feedback und fördern selbstgesteuertes Lernen. Auch Frühwarnsysteme, die bei Anzeichen von Lernschwierigkeiten signalisieren, wann zusätzliche Unterstützung sinnvoll sein könnte, zählen dazu. Für Kinder mit Lernschwierigkeiten, unterschiedlichen Sprachkompetenzen oder erschwerten Bildungsvoraussetzungen können diese datenbasierten Rückmeldungen wichtige Orientierung bieten. Zugleich stellen Learning Analytics und KI-gestützte Bildungstools Anforderungen an den verantwortungsvollen Umgang mit sensiblen Daten und werfen Fragen nach Transparenz und Nachvollziehbarkeit von Entscheidungen auf.

Generative KI im Lernalltag

Generative KI-Tools wie ChatGPT oder Copilot eröffnen zudem neue Möglichkeiten zur selbstbestimmten Strukturierung und Reflexion von Lernprozessen. Junge Menschen können KI nutzen, um Aufgabenstellungen zu verstehen, Texte zusammenzufassen, Erklärungen in einfacher Sprache anzufordern oder sich alternative Darstellungsformen von Lerninhalten generieren zu lassen. Für viele Schüler*innen bietet dies eine wertvolle Unterstützung beim eigenständigen Lernen. Gleichzeitig bleibt der didaktische Mehrwert dieser Systeme Gegenstand intensiver Diskussionen. Ergebnisse einer Forschungssynthese von Scheiter et al. (2025) legen nahe, dass der Einsatz von KI in Bildungskontexten dann besonders wirksam ist, wenn er pädagogisch gerahmt und didaktisch fundiert erfolgt. Ohne entsprechende Begleitung besteht hingegen die Gefahr, dass die Entwicklung eigenständiger Problemlösefähigkeiten beeinträchtigt werden kann.

2.3 Repräsentation kindlicher Lebenswelten bei Wahrung der Privatsphäre

Ein weiteres Potenzial generativer KI liegt in der darstellenden Repräsentation von Kindheit und kindlichen Lebenswelten. Durch die Möglichkeit, realistische Bilder, Stimmen oder Avatare zu erzeugen, können Inhalte erstellt werden, die Kinder repräsentieren, ohne echte Kinder fotografieren oder filmen zu müssen. Dies kann insbesondere in sensiblen Kontexten – etwa Präventionskampagnen, Bildungsmedien oder Forschungskommunikation – eine wichtige Rolle spielen, um Privatsphäre und Schutzbedarfe zu wahren. Allerdings ist der Einsatz solcher Technologien nur dann kindgerecht, wenn er transparent kommuniziert und ethisch verantwortungsvoll gestaltet wird. Auch Kinder und Jugendliche sollten nachvollziehen können, ob und wie KI-generierte Darstellungen kindlicher Lebenswelten erstellt wurden.

3. Risiken und Herausforderungen

KI birgt jedoch auch Risiken, die insbesondere die Bereiche Teilhabe, Schutz und emotionale Entwicklung betreffen. Im Folgenden werden diese Herausforderungen differenziert.

3.1 Risiken für Teilhabe und Informationszugang

Intransparenz algorithmischer Systeme

Eine zentrale Herausforderung im Umgang junger Menschen mit KI-basierten Systemen liegt in der Intransparenz ebendieser. Ein anschauliches Beispiel hierfür sind algorithmische Empfehlungssysteme auf Plattformen wie YouTube, TikTok oder Instagram: Sie kuratieren Inhalte automatisch auf Basis datenverarbeitender Prozesse, die zum einen die Eigenschaften der Inhalte und zum anderen das teils unbewusste Nutzungsverhalten aller Nutzer*innen berücksichtigen. Welche Daten genau erhoben, wie sie verarbeitet, gespeichert oder weiterverwendet werden, bleibt jedoch meist undurchsichtig.

Wenn KI undurchsichtig bleibt, erschwert das jungen Menschen ein selbstbestimmtes digitales Handeln.

Zwar ermöglichen die Systeme eine interessensgeleitete Nutzung und eröffnen niedrigschwellige Zugänge zu Unterhaltung, Information oder sozialer Teilhabe. Gleichzeitig erschwert die Intransparenz die kritische Reflexion über das eigene Medienhandeln und selbstbestimmte Handlungsmöglichkeiten. In diesem schwer zu durchschauenden Zusammenspiel geteilter Handlungsmacht können viele junge Menschen ihre eigene Einflussmöglichkeit sowie die Wirkung der Handlungen anderer Nutzer*innen nur sehr begrenzt einordnen. Handlungsoptionen und die Tragweite der eigenen Entscheidungen lassen sich häufig nur durch Ausprobieren und Beobachten erahnen, wodurch eine selbstbestimmte Nutzung erschwert wird. Für Kinder ist das Begreifen dieser Systeme und ihrer eigenen Handlungsmöglichkeiten vor dem Hintergrund ihres Entwicklungsstandes, aber auch ihrer geringen Nutzungserfahrungen weitaus herausfordernder als für ältere Nutzer*innen mit mehr Erfahrung (Schober et al., 2023; Schober et al., 2022).

Eingeschränkte Vielfalt

Eng damit verbunden ist die eingeschränkte inhaltliche Diversität, die durch algorithmische Personalisierung entstehen kann: Nutzer*innen erhalten vorrangig Inhalte, die auf ihrem bisherigen Verhalten und ihren Interessen basieren, sodass junge Menschen zunehmend ähnliche Inhalte wie Personen mit ähnlichem Nutzungsprofil angezeigt bekommen (Anwar et al., 2024). Damit bewegen sich junge Menschen in digitalen Umgebungen, in denen vertraute Haltungen tendenziell präsenter sind als abweichende Sichtweisen. Dies kann sowohl die Meinungsbildung als auch die Identitätsentwicklung und Gruppenzugehörigkeit einseitig begrenzen (Jawad et al., 2024; Whittaker et al., 2021).

Fehlinformation und Manipulation

Darüber hinaus bergen generative KI und algorithmische Gewichtungen das Risiko der Verbreitung von Fehlinformationen und Manipulation. Besonders in Bezug auf politische, gesellschaftliche oder gesundheitsrelevante Inhalte können junge Menschen, deren Urteilsfähigkeit noch in Entwicklung ist, Schwierigkeiten haben, zwischen verlässlichen und irreführenden Quellen zu unterscheiden.

3.2 Risiken für das Recht auf Schutz

Wenn Daten zum Risiko werden

KI-gestützte Dienste basieren häufig auf der Erhebung, Verarbeitung und Weitergabe personenbezogener Daten. Daten über das Nutzungsverhalten, persönliche Interessen oder soziale Interaktionen können mit KI nicht nur für die Ausspielung personalisierter Inhalte, sondern auch für gezielte Werbung und Profilbildung genutzt werden. Für Kinder und Jugendliche ist es jedoch oftmals schwierig, nachzuvollziehen, welche Daten erfasst, wie sie verarbeitet und wofür sie verwendet werden. Individuelle Handlungsmöglichkeiten zum Schutz der eigenen Daten sind begrenzt, wenn die Angebote interessensgeleitet genutzt werden möchten (Schober et al., 2022, S. 47). Dadurch entstehen Herausforderungen für das Recht auf Schutz, das nach der UN-Kinderrechtskonvention explizit vorsieht, junge Menschen vor potenziell schädlicher Datenerhebung, -verarbeitung und ‑weitergabe zu bewahren (UN-Kinderrechteausschuss, Allgemeine Bemerkung Nr. 25).

Kind nutzt Computer, umgeben von abstrakten Formen und Symbolen für Datenverarbeitung.
KI-basierte Dienste stellen Kinder und Jugendliche beim Schutz ihrer Daten und Rechte vor Herausforderungen.

Wenn Algorithmen Risiken verstärken

Zudem können über algorithmische Empfehlungssysteme kinder- und jugendmedienschutzrelevante Inhalte hervorgehoben werden. Gerade bei gesundheitsgefährdenden, extremistischen oder pornografischen Inhalten, Fake News und Verschwörungserzählungen können solche Systeme einen risikoverstärkenden Effekt haben, indem sie weitere entsprechende Inhalte zugänglich machen (Brüggen et al., 2022, S. 102 f.). Problematisch kann dabei insbesondere sein, wenn sich die Kinder selbst verantwortlich fühlen und sich deshalb nicht an Vertrauenspersonen wenden. Individuelle Schutzstrategien wie schnelles Weiterwischen bieten bei ungeeigneten Inhalten allein keinen ausreichenden Schutz (Schober et al., 2023, S. 41 f.).

3.3 Risiken für emotionale und soziale Entwicklung

Vorurteile und Diskriminierung im digitalen Raum

Die Nutzung digitaler Angebote und KI-gestützter Systeme birgt für Kinder und Jugendliche verschiedene Risiken für ihre emotionale und soziale Entwicklung. Das Erleben von Zugehörigkeit, Fairness und Anerkennung kann beispielsweise beeinträchtigt werden, wenn durch algorithmische Empfehlungen Vorurteile und Diskriminierungen reproduziert werden (Hagendorff, 2019; Kolleck & Orwat, 2020). Jugendliche bemerken, dass nicht alle Inhalte auf Plattformen gleichermaßen behandelt werden.

Algorithmische Verzerrungen prägen Rollenbilder und Normen.

Beispielsweise werden politische Inhalte sowie Inhalte von und mit queeren Menschen nicht oder weniger empfohlen. Inhalte von „Weißen“ und Personen, die Schönheitsidealen entsprechen, werden bevorzugt (Schober et al., 2022, S. 48). Diese Verzerrungen beeinflussen, welche sozialen Rollen, Identitäten und Normvorstellungen Kinder und Jugendliche wahrnehmen und sich aneignen, und können die Entwicklung von sozialer Kompetenz negativ beeinträchtigen.

Beziehungsähnliche Interaktionen mit Chatbots

Chatbots können insbesondere bei psychosozialer Belastung eine niedrigschwellige Anlaufstelle für junge Menschen darstellen. Gleichzeitig kann die Interaktion als beziehungsähnlich erlebt werden – was das Einordnen und Reflektieren echter Beziehungen erschweren kann und soziale wie auch emotionale Kompetenzen herausfordert, insbesondere bei Themen (vgl. 2.1) , bei denen eine professionelle oder elterliche Begleitung und Unterstützung hilfreich sein kann, um emotionale Stabilität zu fördern und Risiken wie Überforderung oder Falschinformation zu verringern.

Herausforderungen der Selbstregulation

Ein weiterer Aspekt für die emotionale Entwicklung betrifft die Selbstregulation bei der Nutzung KI-basierter Angebote. Schwierigkeiten beim selbstbestimmten Aufhören treten besonders bei Plattformen auf, die auf algorithmische Empfehlungssysteme setzen und Designprinzipien wie Infinite Scroll oder Autoplay nutzen. Diese fördern anhaltende Nutzung und erschweren es jungen Menschen, ihre Mediennutzung eigenständig zu steuern (Schober et al., 2022, S. 37 f.). Da Kinder und Jugendliche noch in der Entwicklung ihrer Selbstregulationsfähigkeiten sind, kann dies zu Überforderung und exzessiver Mediennutzung führen.

4. Medienkompetenz als Schlüssel zur kindgerechten KI-Nutzung

Eine Grundlage für den souveränen Umgang mit den beschriebenen Anforderungen ist Medienkompetenz. Medienkompetenz wird verstanden als die „Befähigung zur souveränen Lebensführung in einer mediatisierten Gesellschaft“, um am sozialen, kulturellen und politischen Leben zu partizipieren und es aktiv mitgestalten zu können (Schorb & Wagner, 2013). Sie umfasst, wie auch im Rahmenkonzept von Digitales Deutschland (2021) dargestellt, neben den instrumentell-qualifikatorischen Fertigkeiten auch die Dimension des medienbezogenen Wissens um Strukturen und Funktionen, die Dimension des Bewertens nach ethisch-sozialen und ästhetischen Maßstäben, die Orientierungsfähigkeit als Fähigkeit, mediale Phänomene und das eigene Medienhandeln einzuordnen, sowie die Dimension des kreativen Handelns und die affektive Dimension. Letztere beinhaltet unter anderem die Fähigkeit, Emotionen im Umgang mit Medien zu erleben und zu verarbeiten.

5. Strukturelle und politische Rahmenbedingungen

Grenzen der individuellen Handlungsmöglichkeiten

Mit Blick auf die Studienlage zeigt sich jedoch, dass angebotsseitige Rahmenbedingungen die individuell verfügbaren Handlungsmöglichkeiten begrenzen. Medienkompetenzförderung allein reicht in Bezug auf KI nicht aus, um Kindern und Jugendlichen ein souveränes Medienhandeln zu ermöglichen und sie vor Risiken zu schützen. „Dort, wo Medien Selbstbestimmung strukturell nicht zulassen – etwa bei intransparenter Datensammlung oder manipulativer Steuerung –, lässt sich ein objektiv selbstbestimmter Medienumgang auch durch Kompetenzförderung nicht annähernd erreichen“ (Brüggen et al., 2022, S. 94). Die Förderung von Medien- und Digitalkompetenz muss daher eng mit Datenschutz sowie der Entwicklung und Umsetzung von Konzepten verbunden sein, wie Angebote mit KI im Sinne des Supportive Designs (Brüggen et al., 2022, S. 259 f.) kompetenzförderlich gestaltet werden können. Solche Konzepte können jedoch nur unter Einbezug der Perspektive junger Menschen und mit pädagogisch eingeordnetem Wissen über deren Umgang mit den entsprechenden Systemen entstehen.

Kindgerechtes und kompetenzförderliches KI-Design

Für eine kindgerechte und kompetenzförderliche Gestaltung von KI-Systemen scheinen folgende Aspekte zentral: Transparenz, Partizipation, Schutz und Nachhaltigkeit. Transparenz erleichtert jungen Menschen das Verstehen der Funktionsweise von KI und der algorithmischen Verarbeitung ihrer Daten. Partizipation ermöglicht es ihnen, eigene Perspektiven einzubringen und aktiv an der Gestaltung mitzuwirken. Schutz bezieht sich sowohl auf den Schutz vor schädlichen Inhalten als auch auf den Datenschutz, während Nachhaltigkeit darauf abzielt, dass KI-Angebote langfristig verantwortungsvoll entwickelt und betrieben werden – vor dem Hintergrund der Klimakrise auch in Bezug auf ökologische Aspekte, etwa Ressourcennutzung und Energieverbrauch.

Chancengerechtigkeit und Bildungsauftrag im Umgang mit KI

Die Verantwortung für die Gestaltung kindgerechter und kompetenzförderlicher KI-Systeme liegt bei allen beteiligten Akteur*innen, wobei insbesondere anbietenden Unternehmen und Politik eine entscheidende Rolle für die Gestaltung der strukturellen Rahmenbedingungen zukommen. Besonders wichtig scheint dabei auch die Perspektive der Chancengerechtigkeit: Während junge Menschen aus ressourcenstarken Haushalten häufig früh Zugang zu KI und insbesondere KI-basierten Lernsystemen haben, droht eine soziale Spaltung, wenn benachteiligte Gruppen von diesen Entwicklungen ausgeschlossen bleiben. Pädagogische Einrichtungen und Bildungspolitik stehen damit vor der Aufgabe, strukturelle Zugänge sicherzustellen, um Bildungsungleichheiten nicht weiter zu verstärken. Darüber hinaus können Bildungseinrichtungen, pädagogische Fachkräfte und Familien dazu beitragen, dass die Perspektiven junger Menschen gehört und berücksichtigt werden, sodass diese die strukturellen Rahmenbedingungen mitgestalten und dann auch interessensgeleitet sowie sicher nutzen können. Zudem sollten diese Akteur*innen junge Menschen dabei unterstützen, einen selbstbestimmten und kompetenten Umgang mit KI zu entwickeln.

Jedoch bedarf es einer Operationalisierung kindgerechter und kompetenzförderlicher KI-Gestaltung, um die beschriebenen Aspekte konkret umzusetzen. Hierzu sind weitere Forschungsarbeiten notwendig, die die Perspektive von Kindern und Jugendlichen auf KI erfassen. Diese Kenntnisse sind eine zentrale Voraussetzung dafür, dass junge Menschen KI-Systeme verstehen, ihre Nutzung reflektieren und aktiv an deren Gestaltung mitwirken können.

Handlungsempfehlungen für eine Stärkung von Kinderrechten

Von Niels Brüggen
Dr. Niels Brüggen leitet die Abteilung Forschung am JFF - Institut für Medienpädagogik in Forschung und Praxis, München. Seine Arbeitsschwerpunkte fokussieren u.a. auf Medienangeignung und Post-Digitalität, post-digitale Kinder- und Jugendarbeit und den Kinder- und Jugendmedienschutz.
Kontakt: www.jff.de und niels.brueggen@jff.de

Von Maximilian Schober
Maximilian Schober (M. A.) arbeitet als wissenschaftlicher Mitarbeiter am JFF – Institut für Medienpädagogik in Forschung und Praxis. Er forscht zur Medienaneignung von Kindern und Jugendlichen insbesondere im Kontext Künstlicher Intelligenz.
Kontakt: www.jff.de und maximilian.schober@jff.de