O Instagram vai testar uma nova medida de segurança que desfoca imagens contendo nudez enviadas pelo Direct. O anúncio foi feito pela Meta nesta quinta-feira, 11, com o objetivo de proteger adolescentes “contra a extorsão sexual e o abuso de imagens íntimas”.
De acordo com a empresa, o recurso de proteção para o Instagram Direct vai contar com aprendizado de máquina para analisar se uma imagem recebida na caixa de mensagens contém nudez. A medida vai ser ativada automaticamente para usuários menores de 18 anos, e adultos também serão incentivados a ativá-la.
Se você gostou desse post, não esqueça de compartilhar:
Novas medidas de segurança incluem criptografia no Instagram Direct
A medida vem em meio a uma série de alegações nos Estados Unidos e na Europa apontando a plataforma como viciante e responsável por alimentar problemas de saúde mental entre a população mais jovem, conforme divulgado pela Reuters. Em janeiro, a Meta anunciou novas medidas para ocultar conteúdos sensíveis, como suicídio, automutilação e distúrbios alimentares.
A empresa ainda disse que está desenvolvendo uma tecnologia que vai ajudar a identificar contas potencialmente envolvidas em golpes de sextorção (extorsão sexual), e afirmou estar testando novas mensagens pop-up para usuários que possam ter interagido com essas contas.
A empresa também anunciou que quer implementar criptografia nas mensagens do Instagram, presente no Messenger e no WhatsApp. “Como as imagens são analisadas no próprio dispositivo, a proteção contra nudez também funcionará em bate-papos criptografados de ponta a ponta, onde a Meta não terá acesso a essas imagens – a menos que alguém decida denunciá-las para nós.”