HERE GOES INVISIBLE HEADER

Warum Künstliche Intelligenz (KI) das Netz nicht wirklich für Kinder sicherer macht und elterliche Sorgfalt notwendig bleibt

Warum Künstliche Intelligenz (KI) das Netz nicht wirklich für Kinder sicherer macht und elterliche Sorgfalt notwendig bleibt

Smartphone-Display auf dem ein TikTok-Logo zu sehen ist.
Content-Moderation Kann künstliche Intelligenz die sozialen Netzwerke sicherer machen?

Hass-Kommentare, visuelle Gewalt und sexuelle Inhalte: Um diese aufzuspüren und zu löschen, setzen soziale Netzwerke verstärkt auf Künstliche Intelligenz (KI). Leider hat die Technik mehrere Haken und die Nutzer/-innen sozialer Netzwerke wiegen sich in falscher Sicherheit. 

TikTok brüstet sich damit, im dritten Quartal 2021 über 80 Millionen Videos entfernt zu haben, welche gegen die Richtlinien verstoßen. Grund der Löschaktion ist der verstärkte Druck von Regierungen und Organisationen, welche das chinesische Netzwerk aufgrund einer Vielzahl von Verstößen gegen den Jugendschutz kritisieren. Auch Facebook und Instagram geben aufgrund jüngster Kritik damit an, wie effizient und erfolgreich sie gegen die problematischen Inhalte vorgehen. Dabei lobt Facebook stets die eigene Künstliche Intelligenz, welche zu deutlichen Verbesserung geführt haben soll. Interne Berichte und Studien legen aber offen, wie ineffizient KI bei der Entfernung problematischer Inhalte ist.  

Alternative: Menschliche Content-Moderation – ein Drecksjob für Billiglohnländer! 

Bislang sind bei großen sozialen Netzwerken hunderttausende Content-Moderatorinnen und -Moderatoren damit beschäftigt, Meldungen mit problematischen Inhalten nachzugehen, Inhalte zu löschen oder Konten zu sperren. Leider wurde der Einsatz menschlicher Content-Putzkräfte stets sehr kritisch bewertet. Oder wie es Netzpolitik ausdrückt: „Wer stundenlang jeden Tag Nacktbilder, Kindesmissbrauch, Enthauptungen oder Bombenopfer sieht, den lassen die Bilder auch nach Feierabend nicht los.“ Content-Moderation ist ein psychisch stark belastender Beruf, der oft in Billig-Lohnländer wie die Philippinen ausgelagert wird. Leider müssen die sozialen Netzwerke bei stetig steigenden Nutzerzahlen die Anzahl der Content-Moderatorinnen und -Moderatoren erhöhen, um dem Berg an Beschwerden und Hassnachrichten gerecht zu werden.   

Content-Moderation durch menschliche Arbeitskräfte: ein kostspieliges Modell

Trotz (oder besser: aufgrund) steigender Nutzungszahlen tut sich Facebook aus Kostengründen schwer damit, noch mehr Content-Moderatorinnen oder -Moderatoren zu beschäftigen. Stattdessen sollen die Moderatorinnen und Moderatoren, die mit Hassrede beschäftigt waren, sich darum kümmern, die KI zu verbessern. Facebook-Angestellte offenbarten, dass die hauseigene KI bestenfalls drei bis fünf Prozent der Hass-Postings entfernt und nur 0,6 Prozent aller Posts, die gegen Facebooks Richtlinien verstoßen.  

KI soll problematische Inhalte „runterstufen“ und weniger sichtbar machen 

Diese Schätzungen widersprechen stark Marc Zuckerbergs (Facebooks CEO) vergangener Behauptungen, dass man bereits Ende 2019 in der Lage sein wird, mit KI den Großteil problematischen Inhalts zu erkennen. Zwar wird von Facebook immer wieder betont, dass die Zahl der von KI erfassten Hass-Postings steigt und insgesamt prozentual weniger Hass-Postings ausgespielt werden. Dies sei vor allem dadurch erreicht worden, dass KI die Hass-Postings herunterstuft und ihnen weniger „Visibilität“ schenkt.  

Hat Facebook Zahlen zur Effizienz von KI zurechtgebogen?

Facebook-Mitarbeiterinnen und -Mitarbeiter, die an der KI gearbeitet hatten, zweifeln aber, dass die Technik so gut funktioniert und glauben, dass die Zahlen sich durch andere Effekte verbessert hatten. Im gleichen Zeitraum der angeblichen Verbesserungen hatte Facebook ein Einsparungsprogramm ausgerollt, mit dem man verhindern wollte, dass Content-Moderatorinnen und -Moderatoren zu viele Beiträge unnötigerweise gegenchecken sollten – vor allem, da die Moderation durch Menschen bei Facebook pro Jahr über 100 Millionen Dollar an Kosten verursacht. Dazu wurde ein neuer Algorithmus eingeführt, der Meldungen von Hass-Postings ignorieren sollte, wenn diese von der KI als Falschmeldungen erachtet wurden. Zusätzlich wurde von Facebook der Prozess, in dem User Hass-Postings melden konnten, deutlich verkompliziert. Dies führte logischerweise dazu, dass weniger Hass-Postings von Usern gemeldet wurden und weniger Meldungen bei den Content-Moderatorinnen -Moderatoren auf dem Bildschirm landeten.  

KI konnte Autounfälle nicht von Hahnenkämpfen unterscheiden 

Facebook-Ingenieurinnen und -Ingenieure bemerkten darüber hinaus, dass die Künstliche Intelligenz deutliche Schwierigkeiten damit hatte, Videos mit Gewalt zu identifizieren. Beispielsweise sollte die KI trainiert werden, Videos von gesetzlich verbotenen Hahnenkämpfen sowie blutige Autounfall-Videos zu erkennen und zu sperren. Nachdem die KI mit hunderten von Hahnenkampf- und Autounfall-Videos trainiert wurde, verwechselte die KI immer noch Hahnenkämpfe mit Autounfällen. Auch Gewaltvideos aus der First-Person-Shooter-Perspektive konnten von der KI nicht ansatzweise zuverlässig erkannt werden.  

Fremdsprachen, Dialekte, „falsche“ Löschungen – KI ist meist überfordert 

Künstliche Intelligenz neigt leider auch dazu, Inhalte zu sperren oder zu löschen, die bei menschlicher Betrachtung keine Regelbrüche darstellen – vor allem, weil KI nicht in der Lage ist, den Subkontext oder Zusammenhang eines Posts zu verstehen. Da sicher Userinnen und User aufgrund fälschlicher KI-Löschungen bei Facebook beschweren und teilweise rechtlich gegen Facebook vorgehen, versucht die kalifornische Firma die KI zu entschärfen und weniger aggressiv vorzugehen. Doch leider „übersieht“ die KI durch die Entschärfung häufiger echte Hassmeldungen und Richtlinienverletzungen. Zuletzt sind es auch Fremdsprachen und deren Dialekte, welche der KI zu schaffen machen. Besonders seltene Sprachen und Dialekte werden von der Facebook-KI so gut wie gar nicht erkannt, was u. a. 2012 zu verheerenden Unruhen in der indischen Region Assam geführt hat.    

Ich kenne mich damit nicht aus! Warum macht die Schule nichts?

Viele Eltern wünschen verständlicherweise, dass Kindern in der Schule ein kompetenter und selbstbestimmter Umgang mit Medien vermittelt wird, damit Kinder auch für die Risiken gewappnet sind. Das geschieht verbindlich durch die Leitperspektive „Medienbildung“ in den Lehrplänen, durch Lehrerfortbildungen sowie unzählige Projekte – die z. T. auch von der Initiative Kindermedienland mitgetragen werden. Trotzdem können die Schulen nicht darüber walten, wie lange Kinder im Privatbereich online sind und welchen Inhalten die Kinder ausgesetzt sind. Hier gilt die Aufsichtspflicht der Eltern. Auch die individuelle Einschätzung, ab welchem Alter ein Kind die Reife hat, kompetent mit einem Smartphone und den einhergehenden Risiken umgehen kann, unterliegt den Eltern.

Wie kann man Kinder auf Instagram oder TikTok vorbereiten?

Hier eine Checkliste, anhand der man sich und seine Kinder auf den Umgang mit sozialen Netzwerken vorbereiten kann: 

  1. Alter und Reife müssen passen! Mithilfe der klicksafe-Checkliste „Ist mein Kind fit für ein eigenes Smartphone?“ können Eltern herausfinden, ob ihre Kinder reif für den Umgang mit dem Smartphone sind. 
  2. Funktionen und Inhalte durchgehen: Wo kann ich Inhalte melden? Wo kann ich User blockieren? Hier finden Sie ausführliche Anleitungen für Instagram und TikTok.  
  3. Richtlinien der Netzwerkebetreiber erklären: Welche Inhalte darf ich teilen, welche nicht? Was ist auf den Netzwerken untersagt? Hier finden Sie die Nutzungsbedingungen von TikTok und Instagram übersichtlich dargestellt. 
  4. Klare Regeln aufstellen! Zusammen mit den Kindern lässt sich in einem Mediennutzungsvertrag festhalten, was mit dem Smartphone erlaubt ist und was nicht.  
  5. Andere Eltern ins Boot holen: Falls ein guter Draht mit Eltern aus dem Freundeskreis der Kinder besteht, bieten sich gemeinsame Maßnahmen und Regeln an.  

Wie kann man vorgehen, wenn man Regelverstöße auf Instagram oder TikTok erlebt? 

  1. Zuerst die Kommentare und Fotos dokumentieren, z. B. mit Screenshots und Abschriften. 
  2. Überprüfen, ob eine Straftat vorliegt (z. B. Verbreitung pornografischen Materials, Morddrohungen, Volksverhetzung).  
  3. Andere User und Userinnen aus der Freundesgruppe fragen, ob sie auch Regelstöße bemerkt haben. (Je öfter ein Verstoß bei Instagram gemeldet wird, um so eher wird eine Sperrung erreicht werden können.) 
  4. Wenn nötig (bei Straftaten oder lebensbedrohenden Situationen) Behörden oder Anwalt einschalten. Weitere Hinweise dazu bei der polizei-beratung.de 
  5. Bei den Anbietern den Sachverhalt melden (evtl. von mehreren Userinnen und Usern): 

Stand: Oktober 2021

Weiterführende Informationen

Über den Autor

Christian Reinhold ist seit über 10 Jahren Redakteur der Initiative Kindermedienland. Privat fotografiert er leidenschaftlich gern und spielt Gitarre.