Proteger a la generación más joven del abuso y la explotación sexual en línea es una prioridad para muchas empresas de tecnología.
En este contexto, el Instagram, la popular plataforma de redes sociales, se está preparando para presentar una nueva función seguridad destinada a proteger a sus usuarios menores de edad.
Esta nueva función difuminará automáticamente las imágenes que contengan contenido desnudo en los mensajes, con el objetivo de desalentar el envío y la recepción de dicho contenido.
Esta función estará habilitada de forma predeterminada para usuarios adolescentes, según la información de cumpleaños en sus perfiles. Además, habrá una notificación para los usuarios adultos para que habiliten esta función.
Estos esfuerzos se producen después de las acusaciones recibidas por Meta, la empresa matriz de Instagram, por contenido dañino y explotación de usuarios jóvenes en sus plataformas. Se espera que la nueva función se pruebe en las próximas semanas y se implemente a nivel mundial en los próximos meses.
Meta dice que la función utiliza aprendizaje automático para analizar imágenes enviadas a través de mensajes de Instagram.
Además, asegura que no tendrá acceso a estas imágenes a menos que hayan sido denunciadas.
Cuando la protección está habilitada, los usuarios que reciban fotos de desnudos recibirán un mensaje instándolos a no responder, junto con opciones para bloquear y denunciar al remitente.
En general, la nueva función de Instagram es un paso hacia una mejor protección de los usuarios, especialmente los jóvenes, contra el contenido dañino y la explotación en línea. Al utilizar tecnologías avanzadas como el aprendizaje automático, la empresa demuestra su compromiso de crear un entorno en línea seguro y saludable.