KI-Technologie wird von einem Großteil der britischen Teenager genutzt, so eine neue Studie.
Eine aktuelle Studie der britischen Medienaufsichtsbehörde Ofcom hat ergeben, dass fast 80 Prozent britischer Teenager bereits generative KI-Tools und -Dienste genutzt haben.
Im Detail fand die Studie heraus:
Vier von fünf (79 %) Online-Teenagern im Alter von 13 bis 17 Jahren nutzen inzwischen generative KI-Tools und -Dienste, wobei eine signifikante Minderheit der jüngeren Kinder im Alter von 7 bis 12 Jahren die Technologie ebenfalls nutzt (40 %).
Erwachsene Internetnutzer im Alter von 16 Jahren und älter sind im Durchschnitt vergleichsweise zurückhaltender bei der Nutzung generativer KI (31 %). Unter denjenigen, die diese Technologie noch nie genutzt haben (69 %), hat fast jeder Vierte keine Ahnung, was sie ist (24 %).
Snapchats My AI und OpenAIs ChatGPT an der Spitze
Laut der Studie ist Snapchats My AI das beliebteste generative KI-Tool bei Kindern und Jugendlichen, und wird von der Hälfte (51 %) der 7- bis 17-Jährigen online genutzt. Online-Mädchen im Teenageralter sind die eifrigsten Nutzer (75 %).
Bei Internetnutzern über 16 Jahren ist ChatGPT der am häufigsten genutzte generative KI-Dienst (23 %). Unter den Online-Jugendlichen im Alter von 7-17 Jahren sind Jungen eifrigere Nutzer von ChatGPT als Mädchen (34 % gegenüber 14 %).
Internetnutzer ab 16 Jahren nutzen generative KI auf vielfältige Weise: 58 % tun dies zum Spaß, 33 % für die Arbeit und 25 % für das Studium. Die beliebtesten Aktivitäten sind Chatten und das Erkunden der KI-Möglichkeiten (48 %), gefolgt von der Informationssuche (36 %) und der Suche nach Rat (22 %). Kreative Anwendungen umfassen das Verfassen von Texten wie Gedichte oder Songtexte (20 %), die Erstellung von Bildern (20 %), Videos (9 %) und Audio (4 %). 11 % nutzen generative KI für Programmieraufgaben.
Gen Z gehört zu den Early Adopters von generativer KI
Yih-Choung Teh, Direktor für Strategie und Forschung bei Ofcom, sagte, dass die Einführung neuer Technologien "für die Generation Z selbstverständlich" sei. Er räumte jedoch auch Bedenken hinsichtlich der Risiken von KI ein.
Die Studie spiegelt einen Trend wider, der bereits zuvor an Schulen und Universitäten zu beobachten war: Im Juli wurde bekannt, dass mehr als 40 Prozent der britischen Universitäten Untersuchungen gegen Studierende wegen Betrugs mithilfe von KI-Chatbots wie ChatGPT eingeleitet haben. Seit Dezember 2022 hatte es fast 400 Untersuchungen gegen Studierende von 48 Einrichtungen gegeben.
KI-Tools könnten von neuen Cybersicherheitsvorschriften betroffen sein
Ofcom betonte, dass einige KI-Tools in den Anwendungsbereich der neuen Cybersicherheitsgesetzgebung fallen werden und dass sie prüfen werden, wie Unternehmen die Sicherheitsrisiken ihrer Produkte proaktiv bewerten und wirksame Maßnahmen ergreifen, um die Nutzer vor potenziellem Schaden zu schützen.
Das britische National Cyber Security Centre und die US-Behörde für Cyber- und Infrastruktursicherheit haben vor wenigen Tagen gemeinsam die ersten globalen Cybersicherheitsrichtlinien für KI entwickelt, um Entwicklern dabei zu helfen, fundierte Entscheidungen zur Cybersicherheit zu treffen. Die "Guidelines for Secure AI System Development" gliedern sich in vier Hauptbereiche: sicheres Design, sichere Entwicklung, sichere Implementierung sowie sicherer Betrieb und Wartung. 17 weitere Länder, darunter die USA, haben ihre Unterstützung für die neuen Richtlinien zugesagt.
Im November fand zudem der "AI Safety Summit" in Großbritannien statt. Dort unterzeichneten Vertreter zahlreicher Länder, darunter auch Deutschland, eine Absichtserklärung für mehr Zusammenarbeit bei der Entwicklung und Regulierung von Künstlicher Intelligenz. Die "Bletchley Declaration" betont die Chancen und Risiken der KI-Technologie und zielt darauf ab, ein gemeinsames wissenschaftliches und evidenzbasiertes Verständnis der Risiken zu erarbeiten. Die Unterzeichner, zu denen Brasilien, Kanada, die USA, Kenia, Saudi-Arabien und China gehören, wollen außerdem eine risikobasierte Politik entwickeln, um die Sicherheit angesichts dieser Risiken zu gewährleisten.