Instagram darf man eigentlich erst ab 13 Jahren nutzen, auch wenn das viele mit Sicherheit nicht interessiert. Es gibt immerhin keine Mechanismen, die das jetzt irgendwie verhindern, denn man muss nur das falsche Alter am Anfang eingeben.

Der Fokus der App liegt auf Personen, die älter sind als 13. Laut BuzzFeed möchte Facebook nun eine neue Zielgruppe ins Visier nehmen und das sind Kinder unter 13. Dieses Ziel steht nun sogar ganz oben auf der Prioritätenliste für 2021.

Fokus auf Wachstum

Der Schritt kommt nicht überraschend, denn Apps wie Facebook und Instagram haben ein natürliches Limit: Die Anzahl der Menschen. Und wenn man sich diesem nähert, dann muss man schauen, wie man neue Wege findet. Immerhin handelt es sich bei Facebook um ein Unternehmen an der Börse und die wollen Wachstum.

Die neuen Instagram-Pläne gingen zunächst aus einem internen Schreiben hervor, das BuzzFeed vorliegt. Darin schreibt Manager Vishal Shah, dass die Foto- und Video-Plattform die Jugendarbeit als eine Hauptpriorität identifiziert habe. Inzwischen hat Instagram-Chef Adam Mosseri via Twitter bestätigt, dass ein Team die Möglichkeiten einer Kids-Variante erkunde. Schließlich würden Kinder ihre Eltern zunehmend fragen, "ob sie Apps nutzen dürfen, die ihnen helfen, mit ihren Freunden auszutauschen".

Geleitet wird das Projekt von Pavni Diwanji. Die Facebook-Managerin war zuvor bei Google auch für "YouTube Kids" verantwortlich. YouTube Kids, das sich an Kinder von 4-12 Jahren richtet, bietet Kindern ein Videoerlebnis mit elterlicher Kontrolle.

Klar ist: Eine solche App müsste einige Herausforderungen meistern. Wie etwa mit Mobbing umgehen oder Belästigungen verhindern? Beim "Messenger Kids" etwa konnten die Kinder durch einen technischen Fehler zeitweise mit Fremden chatten. Das verstieß gegen das Kernversprechen von Messenger Kids. Für Kriminelle und Pädophile könnte eine solche Plattform, auf denen ausschließlich Kinder unterwegs sind, absolut perfekt sein. Sicher können dann private Nachrichten auf Instagram Kids deaktiviert werden, aber dies kann trotzdem keinen ausreichenden Schutz gewährleisten.

Instagram will in Technologien zur Alterserkennung investieren

Im Unternehmesblog von Instagram positionierte sich der Social-Media-Dienst zum Thema Alterserkennung. Dort erwähnte das Unternehmen, dass es wisse, dass viele Kinder sich bei Instagram anmelden, obwohl sie nicht das geforderte Alter von 13 Jahren haben. Es sei aktuell eine technische Herausforderung, den Dienst so zu gestalten, dass das Alter verifiziert werden kann und es unmöglich wird über das echte Alter zu lügen.

Die Gefahr von Cybergrooming ist in diesem Bereich mehr als hoch. Dort will die Facebook-Tochter investieren und es sollen keine Direktnachrichten mehr zwischen unbekannten Erwachsenen und Minderjährigen möglich sein.

"Während viele Menschen bei der Angabe ihres Alters ehrlich sind, wissen wir, dass junge Menschen bei ihrem Geburtsdatum lügen können. Wir möchten mehr tun, um dies zu verhindern, aber die Verifizierung des Alters von Personen im Internet ist komplex und ein Problem, mit dem viele in unserer Branche zu kämpfen haben. Um diese Herausforderung zu meistern, entwickeln wir neue Technologien für künstliche Intelligenz und maschinelles Lernen, die uns dabei helfen, die Sicherheit von Jugendlichen zu gewährleisten und neue altersgerechte Funktionen anzuwenden, wie die unten beschriebenen." Instagram.com/blog

Instagram-Nutzer sind bereits mit Problemen wie Mobbing und Belästigung konfrontiert. Eine Umfrage von Ditch the Label, einer Non-Profit-Organisation gegen Mobbing, aus dem Jahr 2017 ergab, dass 42 % der Personen im Alter zwischen 12 und 20 Jahren Cybermobbing auf Instagram erlebt hatten - der höchste Prozentsatz aller gemessenen Plattformen. Etwa zwei Jahre später kündigte Instagram Funktionen an, die auf die Bekämpfung von Mobbing abzielen.

Handy in der Hand. Das Handy zeigt die Startseite von Instagram.
Quelle: Unsplash / Foto by: Solen Feyissa

Brauchen Kinder unter 13 einen sicheren Messengerdienst?

Laut Jugendschutz.net haben die Hälfte aller 10-Jährigen ein eigenes Smartphone und chatten miteinander in Messenger Apps. Am häufigsten wird dafür in Deutschland WhatsApp genutzt, obwohl die Plattform erst ab 16 Jahren genutzt werden darf. Auch TikTok erfreut sich großer Beliebtheit in dieser Altersgruppe, ist jedoch offiziell auch erst ab 13 Jahren zugänglich.

Dass es Kindern überhaupt möglich ist, diese Dienste im jüngeren Alter zu nutzen, ist ein großes Problem. Denn die Risiken für Minderjährige mit jugendgefährdenden Inhalten konfrontiert und von fremden Dritten kontaktiert zu werden, ist extrem hoch

Foto: Christopher Ott

Kritiker bewerten Kinderversionen von Apps auch als problematisch, weil sie sehr junge Nutzer an das Hauptprodukt heranführen. Es ist ein bisschen wie beim "Happy Meal" von McDonald's: Wer schon als Kind McNuggets mit Pommes verdrückt, wird das wahrscheinlich auch als Erwachsener tun (und noch einen Big Mac nachschieben).

Klicksafe fordert "sichere Surfräume" für Kinder von öffentlich-rechtlichen Anbietern

Klicksafe begrüßt zwar den Vorstoß, dass Instagram grundsätzlich sicherer werden will, merkt aber kritisch an, dass hier ein internationales Unternehmen mit diesem Vorstoß auch aus gewinnorientierten Interessen Kundendaten von ganz jungen Nutzer*innen sammeln will. Deshalb fordert Klicksafe die Politik auf, diese Fragen dringend zu diskutieren.

Sichere Messengerdienste für Kinder

Jugendschutz.net hat 2017 mehrere alternative Messenger-Dienste für Kinder verglichen. Eine sichere, kindgerechtere Alternative zu den großen Diensten wären demnach Maily, Tocomail, Monster Messenger oder VTech Kid Connect. Doch das Problem: Sie sind nicht so reichweitenstark wie WhatsApp oder Instagram. Warum sollten Kinder eine Chat App nutzen, die ihre Freund*innen und Mitschüler*innen nicht nutzen?

An wirklich guten, reichweitenstarken alternativen Social Apps für Kinder unter 13 fehle es laut Jugendschutz.net noch. Vielleicht bringt Instagram hier eine Alternative, die wirklich sicher sein kann. Doch dies kann nur gelingen, wenn auch die Eltern mit ins Boot geholt werden und eine gewisse Kontrolle darüber haben, was die Kinder in den Chats schreiben und teilen. Wichtig wäre zudem, dass sich dritte erwachsene Personen nicht ungehindert Zutritt zu diesen Kinder-Apps verschaffen könnten. Bisher gibt es keine App, die diese Sicherheitslücke in Sachen Alterserkennung zu 100 % in den Griff bekommen.

Schon gelesenNFT: WAS SIND SIE UND WELCHE CHANCEN ERÖFFNEN SIE FÜR MARKEN?

Kontakt:  sprichmituns@wearesocial.de