Chance oder Risiko?
Künstliche Intelligenz und Anwendung durch Kinder
Täglich kommen Kinder mit KI in Kontakt. Diese schlägt ihnen Videos vor, erzählt ihnen Witze, erstellt auf Wunsch Märchen oder Fotos. Nützlich - aber auch gefährlich?
Von Irena Güttel, dpa
Nürnberg
Künstliche Intelligenz (KI) ist auch aus dem Leben vieler Kinder nicht mehr wegzudenken. Sprachassistenten spielen für die Kleinen auf Wunsch Hörspiele ab oder erzählen Witze. Sprachmodelle wie ChatGPT erklären Älteren Matheaufgaben oder helfen bei Referaten. Doch was ist, wenn die KI Kindern gefährliche Ratschläge erteilt oder ihnen Bilder oder Videos zeigt, die für ihre Augen keinesfalls geeignet sind? Braucht die KI eine Kindersicherung?
Kinder haben andere Bedürfnisse und kommunizieren anders als Erwachsene, doch darauf sind KI-Technologien nach Ansicht von Nomisha Kurian von der Universität Cambridge nicht eingestellt. Kinder müssten als Zielgruppe stärker in den Fokus rücken, fordert die Wissenschaftlerin in einer im Fachjournal „Learning, Media and Technology“ veröffentlichten Studie. Für diese hat die Bildungsforscherin verschiedene bekanntgewordene Fälle untersucht, wo Chatbots oder Sprachassistenten Kindern riskante, gefährliche oder nicht altersgerechte Ratschläge erteilt hatten. Der Sprachassistent Alexa habe demnach ein zehnjähriges Kind dazu animiert, die Stifte eines Ladesteckers während des Ladens mit einer Münze zu berühren.
Tests von der Plattform Jugendschutz.net ergaben ebenfalls Bedenkliches: Demzufolge zeigte MyAI einer vermeintlich 14-jährigen Userin ein Alkohol-Trinkspiel und empfahl einen Horrorfilm mit Altersfreigabe ab 18 Jahren.
In den von Kurian beschriebenen Fällen verschärften die betroffenen Unternehmen laut der Wissenschaftlerin zwar daraufhin ihre Sicherheitsmaßnahmen. Aus ihrer Sicht reicht es aber nicht, wenn KI-Entwickler auf solche Vorfälle reagierten. Sie müssten die Sicherheit von Kindern von Anfang an mitdenken, fordert Kurian.
Viele Sprachmodelle erwecken dagegen den Eindruck, sie selbst würden die Informationen abwägen: Auf Fragen antworten sie nicht im Block, sondern nach und nach - als würde ein Mensch auf einer Tastatur tippen. Besonders problematisch ist aus Kurians Sicht, dass Kinder einem menschlich klingenden Chatbot wie einem Freund vertrauen könnten - mit dem sie zum Teil sehr persönliche Informationen teilten, dessen Antworten sie aber auch besonders verstören könnten.
Dennoch sollte man die KI nicht verteufeln, sondern auch ihre positive Seiten sehen, meint Markus Sindermann von der Fachstelle für Jugendmedienkultur NRW. Künstliche Intelligenz sei in erster Linie ein technisches Werkzeug - mit dem Menschen einerseits Falschinformationen erzeugen könnten, das anderseits aber auch genutzt werden könne, um genau diese aufzuspüren und aus dem Internet zu löschen.
Nürnberg
Künstliche Intelligenz (KI) ist auch aus dem Leben vieler Kinder nicht mehr wegzudenken. Sprachassistenten spielen für die Kleinen auf Wunsch Hörspiele ab oder erzählen Witze. Sprachmodelle wie ChatGPT erklären Älteren Matheaufgaben oder helfen bei Referaten. Doch was ist, wenn die KI Kindern gefährliche Ratschläge erteilt oder ihnen Bilder oder Videos zeigt, die für ihre Augen keinesfalls geeignet sind? Braucht die KI eine Kindersicherung?
Kinder haben andere Bedürfnisse und kommunizieren anders als Erwachsene, doch darauf sind KI-Technologien nach Ansicht von Nomisha Kurian von der Universität Cambridge nicht eingestellt. Kinder müssten als Zielgruppe stärker in den Fokus rücken, fordert die Wissenschaftlerin in einer im Fachjournal „Learning, Media and Technology“ veröffentlichten Studie. Für diese hat die Bildungsforscherin verschiedene bekanntgewordene Fälle untersucht, wo Chatbots oder Sprachassistenten Kindern riskante, gefährliche oder nicht altersgerechte Ratschläge erteilt hatten. Der Sprachassistent Alexa habe demnach ein zehnjähriges Kind dazu animiert, die Stifte eines Ladesteckers während des Ladens mit einer Münze zu berühren.
Tests von der Plattform Jugendschutz.net ergaben ebenfalls Bedenkliches: Demzufolge zeigte MyAI einer vermeintlich 14-jährigen Userin ein Alkohol-Trinkspiel und empfahl einen Horrorfilm mit Altersfreigabe ab 18 Jahren.
In den von Kurian beschriebenen Fällen verschärften die betroffenen Unternehmen laut der Wissenschaftlerin zwar daraufhin ihre Sicherheitsmaßnahmen. Aus ihrer Sicht reicht es aber nicht, wenn KI-Entwickler auf solche Vorfälle reagierten. Sie müssten die Sicherheit von Kindern von Anfang an mitdenken, fordert Kurian.
Viele Sprachmodelle erwecken dagegen den Eindruck, sie selbst würden die Informationen abwägen: Auf Fragen antworten sie nicht im Block, sondern nach und nach - als würde ein Mensch auf einer Tastatur tippen. Besonders problematisch ist aus Kurians Sicht, dass Kinder einem menschlich klingenden Chatbot wie einem Freund vertrauen könnten - mit dem sie zum Teil sehr persönliche Informationen teilten, dessen Antworten sie aber auch besonders verstören könnten.
Dennoch sollte man die KI nicht verteufeln, sondern auch ihre positive Seiten sehen, meint Markus Sindermann von der Fachstelle für Jugendmedienkultur NRW. Künstliche Intelligenz sei in erster Linie ein technisches Werkzeug - mit dem Menschen einerseits Falschinformationen erzeugen könnten, das anderseits aber auch genutzt werden könne, um genau diese aufzuspüren und aus dem Internet zu löschen.
Kommentar
Allgemeine Zeitung
Zu diesem Artikel wurden keine Kommentare hinterlassen