Instagram wird Eltern künftig benachrichtigen, wenn ihre Teenager wiederholt nach Begriffen im Zusammenhang mit Selbstmord oder Selbstverletzung auf der Plattform suchen.
Dies geht aus Aktualisierungen hervor, die in einem offiziellen Blogbeitrag veröffentlicht wurden.
Das neue Feature wird in den kommenden Wochen für Eltern eingeführt, die die elterlichen Überwachungstools der Plattform nutzen.
MehrStories
Chioma Okoli reicht keine Anklage im Erisco-Tomatensugo-Prozess ein
Februar 2026
Bundesregierung eröffnet CREDICORP-Gremium nach N37 Mrd. Verbraucherkreditvergabe in einem Jahr
Februar 2026
Was Instagram sagte
Laut Instagram können Suchanfragen, die einen Alarm auslösen könnten, Phrasen enthalten, die zu Selbstmord oder Selbstverletzung ermutigen, Phrasen, die darauf hindeuten, dass ein Teenager gefährdet sein könnte, sowie allgemeine Begriffe wie „Selbstmord“ oder „Selbstverletzung“.
„Die Alarme werden Eltern per E-Mail, SMS oder WhatsApp gesendet, je nach verfügbaren Kontaktdaten, sowie durch eine In-App-Bnotification. Durch Antippen der Benachrichtigung öffnet sich eine Vollbildnachricht, die erklärt, dass ihr Teenager wiederholt versucht hat, auf Instagram nach Begriffen im Zusammenhang mit Selbstmord oder Selbstverletzung zu suchen. Eltern haben außerdem die Möglichkeit, Expertenressourcen zu sehen, die ihnen helfen sollen, potenziell sensible Gespräche mit ihrem Teenager zu führen,“ erklärten sie.
„Um dieses wichtige Gleichgewicht zu finden, haben wir das Suchverhalten auf Instagram analysiert und uns mit Experten unseres Suicide and Self-Harm Advisory Group beraten,“ sagte das Unternehmen in einem Blogbeitrag.
Es wurde hinzugefügt, dass die Schwelle für Alarme mehrere Suchanfragen innerhalb kurzer Zeit erfordert, um unnötige Benachrichtigungen zu vermeiden, die die Wirksamkeit beeinträchtigen könnten.
Hintergrundgeschichte
Die Entscheidung fällt vor dem Hintergrund zunehmender rechtlicher und öffentlicher Kritik am Online-Wohlbefinden von Teenagern, insbesondere im Zusammenhang mit schädlichen Inhalten, süchtig machendem Design und fehlenden wirksamen Schutzmaßnahmen.
In den letzten Monaten sah sich Meta mehreren Klagen in den USA gegenüber, die dem Unternehmen vorwerfen, Kinder auf seinen Plattformen nicht ausreichend zu schützen und Systeme zu entwickeln, die zur Sucht und psychischer Schädigung beitragen.
Die Führungskräfte des Unternehmens, darunter Instagram-Chef Adam Mosseri, wurden zu den Sicherheitsfunktionen und der Herausforderung befragt, Privatsphäre und Kinderschutz in Einklang zu bringen.
In einem separaten Fall vor dem Superior Court des Los Angeles County wurde im Gericht interne Meta-Forschung präsentiert, die nahelegte, dass elterliche Überwachungstools nur begrenzte Auswirkungen auf zwanghaftes Social-Media-Verhalten bei Kindern haben. Die Studie zeigte auch, dass Kinder, die stressige Lebensereignisse durchlebten, eher Schwierigkeiten hatten, ihre Nutzung zu kontrollieren.
Weitere Details
Die Alarme werden ab nächster Woche in den USA, Großbritannien, Australien und Kanada eingeführt, weitere Regionen folgen später im Jahr.
Instagram kündigte außerdem an, das Feature künftig zu erweitern, sodass Benachrichtigungen ausgelöst werden, wenn ein Teenager versucht, die KI-Tools der App in Gesprächen zu Themen wie Selbstmord oder Selbstverletzung zu nutzen.
Das Unternehmen betonte, dass es das Feedback weiterhin beobachten und das System verfeinern werde, um eine Balance zwischen elterlicher Kontrolle und Nutzerprivatsphäre zu gewährleisten.
Was Sie wissen sollten
Die Entscheidung von Instagram, Eltern zu alarmieren, baut direkt auf den Sicherheitsreformen auf, die das Unternehmen bereits vor Monaten eingeführt hat, als die Kritik am Schutz junger Nutzer zunahm.
Im September 2024 führte Meta Platforms Teen-Accounts auf Instagram ein, die Nutzer unter 18 Jahren automatisch in private Konten mit strengeren Kontrollen umwandelten. Das Redesign beschränkte, wer Teenager anschreiben oder markieren konnte, reduzierte ihre Exposition gegenüber sensiblen Inhalten auf Explore und Reels, aktivierte stärkere Anti-Mobbing-Filter, führte tägliche Zeitwarnungen ein und schaltete die Nachtruhe „Sleep Mode“ ein, um Benachrichtigungen zu stummschalten.
Auch andere soziale Medien stehen unter ähnlicher Untersuchung. TikTok, im Besitz von ByteDance, sieht sich Klagen mehrerer US-Bundesstaaten gegenüber, die behaupten, dass sein Algorithmus darauf ausgelegt sei, Kinder zu binden, um Werbeeinnahmen zu maximieren. Die Plattform wurde außerdem beschuldigt, den Schutz Minderjähriger vor schädlichen Inhalten und Ausbeutung nicht ausreichend zu gewährleisten.
YouTube wurde ebenfalls wegen der Auswirkungen seiner Empfehlungsalgorithmen auf Kinder kritisiert. 2021 forderten Gesetzgeber, Instagram und YouTube zu rügen, weil sie Konten fördern, die extremen Gewichtsverlust und Diäten für junge Nutzer zeigen.
Fügen Sie Nairametrics bei Google News hinzu
Folgen Sie uns für Eilmeldungen und Marktanalysen.
Original anzeigen
Diese Seite kann Inhalte Dritter enthalten, die ausschließlich zu Informationszwecken bereitgestellt werden (keine Zusicherungen oder Garantien), und sie sind nicht als Billigung der darin geäußerten Ansichten durch Gate oder als finanzielle bzw. fachliche Beratung zu verstehen. Weitere Informationen finden Sie im Haftungsausschluss.
Instagram warnt Eltern, wenn Teenager nach Suizid- oder Selbstverletzungsinhalten suchen
Instagram wird Eltern künftig benachrichtigen, wenn ihre Teenager wiederholt nach Begriffen im Zusammenhang mit Selbstmord oder Selbstverletzung auf der Plattform suchen.
Dies geht aus Aktualisierungen hervor, die in einem offiziellen Blogbeitrag veröffentlicht wurden.
Das neue Feature wird in den kommenden Wochen für Eltern eingeführt, die die elterlichen Überwachungstools der Plattform nutzen.
MehrStories
Chioma Okoli reicht keine Anklage im Erisco-Tomatensugo-Prozess ein
Bundesregierung eröffnet CREDICORP-Gremium nach N37 Mrd. Verbraucherkreditvergabe in einem Jahr
Was Instagram sagte
Laut Instagram können Suchanfragen, die einen Alarm auslösen könnten, Phrasen enthalten, die zu Selbstmord oder Selbstverletzung ermutigen, Phrasen, die darauf hindeuten, dass ein Teenager gefährdet sein könnte, sowie allgemeine Begriffe wie „Selbstmord“ oder „Selbstverletzung“.
Es wurde hinzugefügt, dass die Schwelle für Alarme mehrere Suchanfragen innerhalb kurzer Zeit erfordert, um unnötige Benachrichtigungen zu vermeiden, die die Wirksamkeit beeinträchtigen könnten.
Hintergrundgeschichte
Die Entscheidung fällt vor dem Hintergrund zunehmender rechtlicher und öffentlicher Kritik am Online-Wohlbefinden von Teenagern, insbesondere im Zusammenhang mit schädlichen Inhalten, süchtig machendem Design und fehlenden wirksamen Schutzmaßnahmen.
In den letzten Monaten sah sich Meta mehreren Klagen in den USA gegenüber, die dem Unternehmen vorwerfen, Kinder auf seinen Plattformen nicht ausreichend zu schützen und Systeme zu entwickeln, die zur Sucht und psychischer Schädigung beitragen.
Die Führungskräfte des Unternehmens, darunter Instagram-Chef Adam Mosseri, wurden zu den Sicherheitsfunktionen und der Herausforderung befragt, Privatsphäre und Kinderschutz in Einklang zu bringen.
In einem separaten Fall vor dem Superior Court des Los Angeles County wurde im Gericht interne Meta-Forschung präsentiert, die nahelegte, dass elterliche Überwachungstools nur begrenzte Auswirkungen auf zwanghaftes Social-Media-Verhalten bei Kindern haben. Die Studie zeigte auch, dass Kinder, die stressige Lebensereignisse durchlebten, eher Schwierigkeiten hatten, ihre Nutzung zu kontrollieren.
Weitere Details
Die Alarme werden ab nächster Woche in den USA, Großbritannien, Australien und Kanada eingeführt, weitere Regionen folgen später im Jahr.
Instagram kündigte außerdem an, das Feature künftig zu erweitern, sodass Benachrichtigungen ausgelöst werden, wenn ein Teenager versucht, die KI-Tools der App in Gesprächen zu Themen wie Selbstmord oder Selbstverletzung zu nutzen.
Das Unternehmen betonte, dass es das Feedback weiterhin beobachten und das System verfeinern werde, um eine Balance zwischen elterlicher Kontrolle und Nutzerprivatsphäre zu gewährleisten.
Was Sie wissen sollten
Die Entscheidung von Instagram, Eltern zu alarmieren, baut direkt auf den Sicherheitsreformen auf, die das Unternehmen bereits vor Monaten eingeführt hat, als die Kritik am Schutz junger Nutzer zunahm.
YouTube wurde ebenfalls wegen der Auswirkungen seiner Empfehlungsalgorithmen auf Kinder kritisiert. 2021 forderten Gesetzgeber, Instagram und YouTube zu rügen, weil sie Konten fördern, die extremen Gewichtsverlust und Diäten für junge Nutzer zeigen.
Fügen Sie Nairametrics bei Google News hinzu
Folgen Sie uns für Eilmeldungen und Marktanalysen.