Instagram s'engage dans la lutte contre la sextorsion
En février dernier, le groupe Meta a annoncé renforcer ses mesures de lutte contre la sextorsion en étendant le programme « Take It Down », conçu pour aider les adolescents à reprendre le contrôle de leurs images intimes, et à empêcher des utilisateurs malveillants de les diffuser en ligne. Le groupe poursuit ses mesures en dévoilant de nouvelles fonctionnalités sur Instagram, pour se protéger contre la divulgation d'images intimes, mais aussi pour empêcher les arnaqueurs d'identifier des cibles potentielles.
La première fonctionnalité actuellement testée par Instagram, permet de flouter automatiquement les contenus identifiés comme étant de la « nudité ». Cela a pour objectif selon la plateforme, d'inviter les utilisateurs à bien réfléchir avant d'envoyer des contenus de ce type, et de se protéger contre leur réception. Cette fonctionnalité sera activée par défaut pour les utilisateurs de moins de 18 ans dans le monde entier, et les autres utilisateurs adultes recevront une notification les invitant à l'activer.
Une fois activée, lorsqu'un utilisateur souhaitera envoyer des images contenant de la nudité, il sera averti par un message de prévention. De la même manière, si un utilisateur a reçu un média contenant de la nudité, et qu'il souhaite le transférer à quelqu'un d'autre, il recevra un message de prévention l'invitant à reconsidérer son geste.
De manière générale, lorsqu'un utilisateur sera confronté à ce type de médias, il sera invité à consulter des conseils de sécurité rédigés avec l'aide de spécialistes, sur les risques encourus. Ces conseils rappellent que n'importe quelle personne peut prendre des captures d'écran de ces contenus, et que les relations avec les destinataires potentiels peuvent être amenées à changer dans le futur. Ils renvoient également à une série de ressources dont le Centre de sécurité de Meta, des lignes d'écoute, ou des programmes de sensibilisation.
La fonctionnalité de protection contre la nudité utilise le machine learning sur les appareils utilisés, pour analyser si une image envoyée par message privé sur Instagram contient, ou non, de la nudité. D'ailleurs, les images étant envoyées par messages privés, donc via une discussion chiffrée de bout en bout, Meta n'y a pas accès.
« Il incombe aux entreprises d'assurer la protection des mineurs qui utilisent leurs plateformes. Les mesures de sécurité proposées par Meta pour les appareils dans son environnement crypté sont encourageantes. Nous espérons que ces nouvelles mesures permettront d'augmenter le nombre de signalements réalisés par les mineurs et de réduire la diffusion de contenus pédophiles en ligne », déclare John Shehan, VP principal du National Center for Missing & Exploited Children.
Pour accompagner cette fonctionnalité, le groupe Meta renforce ses outils pour identifier les potentiels arnaqueurs et utilisateurs malveillants, et leur interdire l'accès à la plateforme. Ils sont identifiés à partir de signes susceptibles d'indiquer un comportement de ce type. Si ces signes n'indiquent qu'une suspicion, ils permettront surtout de ne prendre aucun risque, et de faire basculer leurs messages envoyés dans les spams des utilisateurs visés. Si ces derniers décident de les ouvrir, ils recevront une notification les invitant à rester vigilants.
Les comptes identifiés comme des menaces potentielles n'auront pas le droit d'envoyer des messages à des adolescents, et d'ailleurs, les comptes des adolescents seront masqués pour ces arnaqueurs potentiels, afin d'éviter tout contact.
Enfin, Meta enrichit ses messages de prévention, et transmet à « Lantern », l'outil de lutte contre la pédopornographie créé par la Tech Coalition, des signaux plus spécifiques de sextorsion, afin de renforcer à plus grande échelle et sur un maximum de plateformes, la sécurité en ligne.