Google lance une nouvelle fonctionnalité sur Messages pour protéger des nudes
Google généralise dans son application Messages une fonction de détection et de floutage automatique des photos dénudées. Active par défaut pour les mineurs, elle vise à limiter l’exposition aux contenus sensibles et peut être activée manuellement par les adultes.
Après plusieurs mois de tests, Google déploie auprès de tous les utilisateurs de son application Messages une fonction d’avertissement de contenu sensible. L’outil, déjà présent sur iOS, vise à protéger les utilisateurs de l’exposition involontaire à des photos dénudées.
Désormais, toute image détectée comme contenant de la nudité sera floutée automatiquement. L’analyse se fait directement sur l’appareil (aucune image n’est transmise à Google), et un message d’avertissement apparaît lors de la réception, de l’envoi ou du transfert d’un contenu sensible.
À la réception, l’utilisateur peut choisir de :
- afficher l’image malgré le floutage,
- retourner à ses messages,
- bloquer l’expéditeur,
- ou consulter une page de ressources expliquant les risques liés à ce type de contenu.
Lors de l’envoi ou du transfert, des options similaires sont proposées : poursuivre l’action, bloquer le numéro, revenir aux messages ou accéder aux ressources d’aide.
Pour les mineurs, la fonction est activée par défaut et ne peut pas être désactivée, sauf si le compte n’est pas supervisé. Pour les adultes, elle est désactivée par défaut, mais peut être activée manuellement dans les paramètres de Google Messages.
Dans tous les cas, l’utilisateur doit être connecté à son compte Google pour bénéficier de la fonctionnalité.
Le système repose sur SafetyCore, un service intégré aux appareils Android 9 et versions ultérieures. Cette technologie offre une base commune permettant aux applications de bloquer ou limiter l’accès à des contenus jugés indésirables.
Google précise toutefois que l’outil n’est pas infaillible : il peut parfois signaler à tort une image sans risque, ou passer à côté d’un contenu explicite.