
A Roblox, plataforma de jogos com público majoritariamente infantil, quebrou o silêncio após crianças se revoltarem com medidas adotadas para restringir o uso do chat de voz por usuários menores de idade.
Entenda o caso
- A manifestação ocorre em meio a uma onda de protestos virtuais dentro do Roblox, após a empresa anunciar medidas que restringem o uso do chat de voz por crianças.
- A mudança, adotada como parte de políticas de segurança do jogo, foi feita meses após Felca denunciar a “adultização” de crianças em ambientes digitais em um vídeo.
- Na ocasião, o influencer Hytalo Santos foi apontado como responsável por uma rede de exploração sexual de crianças.
- Agora, diversos jogadores relacionaram os casos e passaram a se organizar, dentro do próprio jogo, para protestar contra a atualização.
- Além disso, Felca passou a ser ameaçado nas redes sociais por “ter influenciado” nas mudanças do Roblox, mesmo que indiretamente.
Com informações de Metrópoles, a empresa afirmou que adotou as novas medidas de verificação de idade para manter a segurança dos usuários. O comunicado também condena as ameaças feitas contra o influenciador Felca.
Além disso, a plataforma também informou que estão sendo adotadas atualizações regulares na tecnologia responsável por estimar a idade dos usuários, a partir de uma ferramenta de estimativa facial.
Felca é ameaçado
O influenciador Felipe Bressanim, mais conhecido como Felca, expôs prints de ameaças que está recebendo no Instagram após atualizações recentes no Roblox.
Em publicação feita nos Stories do Instagram, na madrugada desta quinta-feira (15/1), Felca relatou que passou a receber mensagens agressivas de crianças que o responsabilizam pela retirada do chat de voz do jogo.
Uma das mensagens diz: “Felca, eu vou te matar”. Outro alega: “Você tem bosta na cabeça”.
Leia a nota:
“Estamos cientes das recentes manifestações na plataforma sobre nosso processo de verificação de idade para acessar o chat na Roblox. Essas mudanças foram projetadas para ajudar a proteger nossos usuários, especialmente os mais jovens. Estamos exigindo que todos passem por uma verificação de idade para usar nossos recursos de chat, a fim de ajudar a manter a Roblox a mais segura possível para a imaginação, diversão e criatividade.
Condenamos as ameaças feitas contra qualquer pessoa online e incentivamos nossa comunidade a tratar todos com respeito, tanto dentro quanto fora da Roblox. Conforme consta em nossas Regras da Comunidade, não permitimos conteúdo que ameace outros com danos no mundo real ou online, incluindo incitação à violência.
Entendemos que a comunicação é uma parte fundamental da experiência na Roblox e acreditamos que essas medidas são importantes para a segurança de nossa comunidade a longo prazo. Continuamos comprometidos com um diálogo contínuo com especialistas e pais, enquanto trabalhamos para continuar a liderar a inovação em segurança online.
Estamos continuamente aprimorando nossa tecnologia de estimativa de idade facial para torná-la o mais precisa e resistente a fraudes possível. Para isso, garantimos que nossa parceira, Persona, tenha todos os recursos relevantes de prevenção de fraudes ativados e ajustados especificamente para a Roblox – incluindo detecção de deepfake, verificações de similaridade com figuras públicas e outras salvaguardas avançadas.
Além disso, conduzimos regularmente nossos próprios exercícios de ‘red-team’ (equipe de ataque) para identificar possíveis vulnerabilidades e trabalhamos em estreita colaboração com a Persona para fechar quaisquer brechas que encontramos.
Para um mergulho mais profundo na engenharia e nas políticas por trás desses sistemas, você pode ouvir este episódio do Tech Talks. O Fundador e CEO da Roblox, Dave Baszucki, está acompanhado por Rajiv Bhatia (Diretor de Produto), Naren Koneru (Líder de Engenharia, Segurança) e Eliza Jacobs (Diretora de Políticas de Segurança) para discutir como funciona a Estimativa de Idade Facial, o design focado em privacidade por trás dela e como estamos resolvendo o desafio de permitir uma comunicação autêntica enquanto mantemos os usuários seguros.
Para lidar com pessoas que usam disfarces, IA, bonecos ou outras tentativas de falsificação (‘spoofing’), nosso fluxo de Estimativa de Idade Facial usa uma abordagem em camadas. Além de verificar a existência de um rosto, o sistema procura por sinais de ‘liveness’ (prova de vida), evidências de artefatos comuns em conteúdo sintético ou gerado por IA, e sinais que detectam hardware comprometido ou virtual (frequentemente usado para ataques). Também temos proteções contra abuso em escala e envios repetidos. Embora nenhuma verificação única seja perfeita, a combinação de sinais visuais e não visuais ajuda a reduzir a eficácia de disfarces ou rostos sintéticos, e continuamos a ajustar essas detecções à medida que novos métodos de evasão surgem.







