
Wenn KI Kindern Trinkspiele oder Horrorfilme empfiehlt
n-tv
Auch im Alltag von Kindern spielt Künstliche Intelligenz eine immer größere Rolle: Sie schlägt ihnen Videos vor, erzählt Witze, erstellt auf Wunsch Märchen oder Fotos. Doch KIs sind nicht immer auf die Bedürfnisse von jungen Menschen abgestimmt - und dann kann es schnell gefährlich werden.
Künstliche Intelligenz, kurz KI, ist auch aus dem Leben vieler Kinder nicht mehr wegzudenken. Sprachassistenten spielen für die Kleinen auf Wunsch Hörspiele ab oder erzählen Witze. Sprachmodelle wie ChatGPT erklären Älteren Matheaufgaben oder helfen bei Referaten. Doch was ist, wenn die KI Kindern gefährliche Ratschläge erteilt oder ihnen Bilder oder Videos zeigt, die für ihre Augen keinesfalls geeignet sind? Braucht die KI eine Kindersicherung?
Kinder haben andere Bedürfnisse und kommunizieren anders als Erwachsene, doch darauf sind KI-Technologien nach Ansicht von Nomisha Kurian von der Universität Cambridge nicht eingestellt. Kinder müssten als Zielgruppe stärker in den Fokus rücken, fordert die Wissenschaftlerin in einer im Fachjournal "Learning, Media and Technology" veröffentlichten Studie. Für diese hat die Bildungsforscherin verschiedene bekanntgewordene Fälle untersucht, wo Chatbots oder Sprachassistenten Kindern riskante, gefährliche oder nicht altersgerechte Ratschläge erteilt hatten.
Demnach riet der bei Jugendlichen beliebte Chatbot MyAI von Snapchat Forschenden bei einem Test, bei dem diese sich als eine Jugendliche ausgaben, wie sie einen älteren Mann verführen könne. Der Sprachassistent Alexa habe wiederum ein zehnjähriges Kind dazu animiert, die Stifte eines Ladesteckers während des Ladens mit einer Münze zu berühren.

In Deutschland wird oft über Mehrsprachigkeit sowie deren Vor- und Nachteile diskutiert. In Ghana hören Babys bis zu sechs verschiedene Sprachen, wie eine Untersuchung von Sprachwissenschaftlern zeigt. Es ist die erste dieser Art, die zudem die gängigen Vorurteile zur Mehrsprachigkeit infrage stellt.