Instagram alertera les parents si leurs enfants recherchent du contenu sur le suicide et l’automutilation

Meta est sur le point d’introduire une nouvelle fonctionnalité de sécurité plutôt sensible : Instagram commencera à envoyer des notifications aux parents lorsque leurs adolescents rechercheront à plusieurs reprises des termes liés au suicide ou à l’automutilation. Il s’agit de la dernière mesure conçue pour les comptes adolescents et fait partie des outils de surveillance parentale de la plateforme.

La fonctionnalité arrivera dans les semaines à venir pour les parents ayant activé la supervision aux États-Unis, au Royaume-Uni, en Australie et au Canada, avec une extension à d’autres pays attendue plus tard dans l’année.

Comment fonctionne le système d’alerte

L’idée de base est simple : si un adolescent essaie à plusieurs reprises, dans un court laps de temps, de rechercher des expressions liées au suicide ou à l’automutilation, Instagram envoie une notification au parent. Une seule recherche ne suffit pas à déclencher l’alarme, mais des tentatives répétées sont nécessaires dans un court laps de temps.

L’alerte peut être déclenchée par des recherches incluant des expressions directement liées au suicide, des expressions indiquant une intention de se faire du mal ou des termes tels que « suicide » ou « automutilation ». Comme le montrent les captures d’écran publiées par Meta, les parents recevront une communication par e-mail, SMS ou WhatsApp, en fonction des contacts disponibles, ainsi que via une notification dans l’application.

Appuyez sur la notification pour ouvrir un message en plein écran expliquant ce qui s’est passé et donnant accès à des ressources développées par des experts conçues pour aider les parents à gérer des conversations potentiellement difficiles avec leurs enfants.

Les adolescents sont également informés de ces alertes, ils savent donc que leurs parents peuvent être contactés.

Un équilibre difficile à trouver

Meta est consciente qu’il s’agit d’un terrain délicat. Recevoir une telle notification peut être déstabilisant pour un parent et le risque de fausses alarmes existe. Alors pour trouver le bon équilibre, l’entreprise a analysé les méthodes de recherche sur Instagram et consulté des experts Groupe consultatif sur le suicide et l’automutilation.

Ce n’est pas la première fois que l’entreprise fait appel à des professionnels externes et la nouvelle en question intervient quelques semaines après l’annonce selon laquelle elle avait accepté des évaluations indépendantes sur la santé mentale des jeunes et l’éventuelle corrélation avec les plateformes sociales.

Le choix de Meta a été d’adopter une approche prudente, c’est-à-dire qu’il est préférable d’avoir quelques notifications supplémentaires, même lorsqu’il n’y a pas de réelle raison de s’inquiéter, plutôt que de laisser passer des situations qui peuvent nécessiter une attention. C’est une décision partagée par les experts consultés, même si Meta promet de suivre l’évolution de la mesure et de l’ajuster si nécessaire.

Il faut dire que la plupart des adolescents ne recherchent pas ce type de contenu sur Instagram ou, du moins, pas seulement sur le réseau social lui-même. Cependant, lorsque cela se produit, les politiques de la plateforme incluent déjà le blocage des recherches et leur redirection vers des ressources et des lignes d’assistance. Ces nouvelles alertes ajoutent une couche de protection supplémentaire en impliquant directement les parents.

Les protections qui existent déjà

Instagram a déjà mis en place plusieurs mesures pour limiter l’exposition des adolescents à des contenus potentiellement dangereux. Le contenu qui encourage ou normalise le suicide et l’automutilation est interdit par les politiques de la plateforme. Les contenus dans lesquels les gens partagent leurs expériences sur ces sujets sont autorisés, mais sont cachés aux adolescents, même lorsqu’ils proviennent des profils qu’ils suivent.

Les recherches de termes clairement attribuables au suicide ou à l’automutilation sont bloquées : aucun résultat n’est affiché et l’utilisateur est dirigé vers les ressources d’assistance et les organisations locales qui peuvent l’aider. Quand la recherche fait état d’un mal-être psychologique plus général, Instagram propose tout de même des outils d’aide.

Dans les cas où apparaissent des éléments faisant craindre un risque imminent pour la sécurité d’une personne, Meta active directement les services d’urgence. L’entreprise affirme que ce type d’intervention a contribué à sauver des vies au fil du temps.

La prochaine étape concerne les conversations avec l’IA

Meta regarde déjà plus loin. L’entreprise sait que de nombreux adolescents se tournent aujourd’hui vers l’IA lorsqu’ils recherchent des informations ou de l’aide sur des sujets sensibles. Les systèmes d’IA de Meta sont déjà conçus pour offrir des réponses adaptées aux jeunes et proposer des ressources d’aide lorsque cela est nécessaire.

La prochaine étape sera d’introduire des notifications similaires pour les conversations avec l’IA : l’objectif est d’informer les parents si leurs enfants tentent de parler à l’IA de suicide ou d’automutilation. Meta promet des mises à jour dans les mois à venir sur ce front.