
Diante de câmeras que transmitem seus movimentos ao vivo para 141 pessoas na internet, um adolescente de 17 anos atira coquetéis molotov em um homem que dormia em situação de rua no Rio de Janeiro. A vítima sobrevive, mas fica em estado grave e sofre queimaduras em 70% do corpo.


Segundo a Polícia Civil do Rio de Janeiro, o crime bárbaro foi incentivado e contratado no Discord, uma plataforma digital frequentemente usada por crianças e jovens para bate-papo. Em um desafio promovido por usuários da plataforma, um prêmio de R$ 2 mil foi oferecido ao adolescente.
As investigações constataram que o ataque não foi um ato isolado e demonstram o perigo à espreita de crianças e adolescentes na internet ─ sejam eles alvos da violência ou aliciados para cometê-la.
Os administradores do servidor que veiculou o vídeo do ataque compunham uma organização criminosa especializada em crimes cibernéticos. São investigados nesse contexto crimes de ódio, de tentativa de homicídio, de instigação ao suicídio, de maus tratos a animais, de apologia ao nazismo e de armazenamento e divulgação de pornografia infantil.
“A atuação do grupo é tão significativa no cenário virtual que mereceu a atenção de duas agências independentes dos Estados Unidos, que emitiram relatórios sobre os fatos, contribuindo com o trabalho dos policiais civis envolvidos no caso”, disse a corporação.
Responsabilidade compartilhada
A responsabilidade por ambientes digitais seguros para crianças e adolescentes é compartilhada entre as famílias e as escolas e não deve estar dissociada da regulação das grandes empresas de tecnologias pelo Poder Público, defende o coordenador de digital do Instituto Alana, Rodrigo Nejm.
O especialista em educação digital é a favor da responsabilização das plataformas virtuais que não protegem os adolescentes dentro de seus espaços.
Nejm considera que é obrigação das chamadas big techs a adoção de procedimentos de segurança. “[São necessários] mecanismos de proteção que envolvam mais responsabilização das empresas que não protegerem os adolescentes que estão lá dentro; mecanismos de recomendação de conteúdo mais cuidadosos para não recomendar conteúdo violento, conteúdo não saudável; e regulação também para responsabilizar as empresas que usam funções de design aditivas, ou seja, funções chamadas de design manipulativo, que comprovadamente causam prejuízos à saúde dos usuários.”
Verificação etária
Outro procedimento recomendado é a verificação etária, com métodos que vão além da autodeclaração, facilmente burlada quando o usuário somente informa sua data de nascimento. Em dezembro de 2024, foi aprovado no Senado Federal, e está em discussão na Câmara dos Deputados, o projeto de lei (PL n° 2628/2022), que prevê a verificação etária em serviços de redes sociais e em sites pornográficos.
De acordo com Rodrigo Nejm, a conferência da idade do internauta é uma importante barreira da entrada de crianças e adolescentes nas redes sociais, para não permitir que indivíduos muito jovens acessem serviços e conteúdos a públicos mais velhos. No entanto, é preciso cuidar de quem já navega nesses ambientes.