Inhalt
summary Zusammenfassung

Ein neuer Bericht von Internet Matters zeigt, dass Kinder KI-Chatbots intensiv für emotionale Unterstützung und Schulaufgaben nutzen. Die Studie warnt vor unzureichenden Schutzmaßnahmen, Fehlinformationen und emotionaler Abhängigkeit, insbesondere bei vulnerablen Kindern.

Anzeige

Laut einem neuen Bericht der britischen Organisation Internet Matters mit dem Titel "Me, myself & AI" sind KI-Chatbots zu einem festen Bestandteil im digitalen Leben von Kindern geworden. Die Studie, die auf Umfragen, Fokusgruppen und Nutzertests basiert, zeigt, dass 64 Prozent der Kinder und Jugendlichen zwischen 9 und 17 Jahren bereits KI-Chatbots verwendet haben. Die Nutzung von Diensten wie ChatGPT habe sich in den letzten 18 Monaten fast verdoppelt.

Die populärsten Dienste sind laut der Umfrage ChatGPT (43 Prozent), Google Gemini (32 Prozent) und Snapchat's My AI (31 Prozent). Der Bericht stellt fest, dass Kinder diese Werkzeuge nicht nur für Informationen, sondern zunehmend für Ratschläge und als Ersatz für Freundschaften nutzen. Dies verstärke bestehende Online-Risiken und schaffe neue, während die Schutzmechanismen der Anbieter nicht Schritt hielten.

Kinder suchen Trost und Freundschaft bei KI

Der Bericht hebt hervor, dass besonders vulnerable Kinder KI-Chatbots für emotionale Unterstützung nutzen. Als vulnerabel gelten laut der Studie Kinder mit besonderem Förderbedarf oder gesundheitlichen Einschränkungen. Diese Gruppe nutzt Chatbots nicht nur häufiger (71 Prozent gegenüber 62 Prozent), sondern greift auch fast dreimal so oft auf spezialisierte Begleiter-KIs wie Character.AI oder Replika zurück.

Anzeige
Anzeige

Die Gründe sind laut dem Bericht oft emotionaler Natur. So gab fast ein Viertel (23 Prozent) der vulnerablen Kinder an, Chatbots zu nutzen, weil sie sonst niemanden zum Reden hätten. 16 Prozent sagten, sie wünschten sich einen Freund. Die Hälfte dieser Nutzergruppe empfindet das Gespräch mit einer KI als "wie mit einem Freund zu reden".

Diese emotionale Bindung zeigt sich laut dem Bericht auch in der Sprache, wenn Kinder die Chatbots mit geschlechtsspezifischen Pronomen wie "er" oder "sie" personifizieren. "Für mich ist das kein Spiel, denn manchmal fühlen sie sich wie eine echte Person und ein Freund an", zitiert der Bericht einen 14-jährigen Jungen.

Fast die Hälfte (47 Prozent) der 15- bis 17-Jährigen nutzt KI-Chatbots laut der Studie für die Schule, etwa für die Prüfungsvorbereitung, das Erstellen von Aufsätzen oder das Sprachenlernen. Die Werkzeuge werden als schneller und informativer als herkömmliche Lernmittel empfunden.

Ein Risiko sei die übermäßige Abhängigkeit. 58 Prozent der kindlichen Nutzer glauben, ein Chatbot sei besser als eine eigene Suche. Dies könne laut den Autoren zu passivem Lernen führen und die Entwicklung kritischen Denkens behindern.

Ungeprüfte Ratschläge und mangelhafte Schutzmechanismen

Laut der Studie hat fast ein Viertel (23 Prozent) der Kinder, die Chatbots nutzen, diese bereits um Rat gefragt, von alltäglichen Fragen bis hin zu psychischen Problemen. Das Vertrauen in die Antworten ist hoch: 40 Prozent der Kinder haben keine Bedenken, den Ratschlägen zu folgen. Bei vulnerablen Kindern steigt dieser Wert auf 50 Prozent.

Empfehlung

Die Nutzertests von Internet Matters deckten jedoch inkonsistente und teils gefährliche Antworten auf. So gab ein Chatbot auf Character.AI Ratschläge zur schnellen Gewichtsabnahme, bevor die Antwort durch einen Filter unterbrochen wurde.

Ein Hauptproblem sei das Fehlen einer wirksamen Altersüberprüfung. Die meisten Plattformen haben eine Altersgrenze von 13 Jahren, aber 58 Prozent der 9- bis 12-Jährigen gaben an, sie trotzdem zu nutzen. Filter können leicht umgangen werden, indem ein falsches Alter angegeben wird. Auf Character.AI fanden die Tester sogar von Nutzern erstellte Chatbots mit dem Titel "Filter Bypass", die explizit dazu dienen, Schutzmechanismen zu umgehen.

Eltern und Schulen im Umgang mit KI überfordert

Der Bericht kommt zu dem Schluss, dass Kinder bei der Navigation dieser Technologien weitgehend auf sich allein gestellt sind. Obwohl die meisten Eltern (78 Prozent) mit ihren Kindern über KI gesprochen haben, seien diese Gespräche oft oberflächlich. So machen sich 62 Prozent der Eltern Sorgen über die Richtigkeit von KI-Informationen, aber nur 34 Prozent haben mit ihren Kindern besprochen, wie man diese überprüfen kann.

Auch die Schulen bieten laut der Studie nur uneinheitliche Aufklärung. Nur 57 Prozent der Kinder gaben an, in der Schule über KI gesprochen zu haben, wobei die Ratschläge der Lehrkräfte oft widersprüchlich seien. Tiefergehende Themen wie Voreingenommenheit in KI-Modellen würden selten behandelt. Internet Matters fordert daher koordinierte Maßnahmen von Industrie, Regierung und Schulen, um Kinder besser zu schützen und KI-Kompetenz zu fördern.

Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Zusammenfassung
  • Ein Bericht von Internet Matters zeigt, dass 64 Prozent der 9- bis 17-Jährigen KI-Chatbots wie ChatGPT, Google Gemini und Snapchat My AI nutzen – oft für emotionale Unterstützung und schulische Aufgaben, wobei besonders vulnerable Kinder diese Tools als Ersatz für Freundschaften verwenden.
  • Die Studie warnt vor Risiken wie fehlenden Schutzmaßnahmen, ungeprüften Ratschlägen und emotionaler Abhängigkeit: Fast ein Viertel der Kinder bittet Chatbots um Rat, 40 Prozent vertrauen deren Antworten bedenkenlos, während Filter und Altersbeschränkungen leicht umgangen werden können.
  • Eltern und Schulen fühlen sich laut Bericht oft überfordert: Gespräche über KI finden meist oberflächlich statt, und nur eine Minderheit der Kinder erhält in der Schule fundierte Informationen zur sicheren Nutzung und kritischen Einordnung von KI-Inhalten.
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!