MPF apura vídeos que incentivam jovem a se mutilar

O Ministério Público Federal (MPF) em São Paulo investiga a divulgação de vídeos com “jogos perigosos” para crianças e adolescentes nas redes sociais. Os canais estimulam automutilação e suicídio. Os promotores acionaram o Google, empresa responsável pelo YouTube, onde os vídeos estão hospedados. Donos desses canais chegam a lucrar até R$ 20 mil mensais com publicidade.

O assunto ganhou repercussão nos últimos dias com relatos de suicídios e automutilações pelo País supostamente ligados ao jogo virtual Baleia-Azul, que incentivaria esse tipo de prática. Os casos mobilizaram escolas, famílias e a polícia, que investiga se o jogo existe e quem seriam os responsáveis por estimular as agressões.

No último mês, a Procuradoria Regional do Direito do Cidadão já conseguiu remover 11 vídeos que estimulam jovens a se ferirem ou se matarem, com base no critério de maior popularidade. Sobre o Baleia-Azul, o MPF paulista informou que ainda não abriu investigação.

O objetivo do MPF agora é fazer com que o YouTube tenha maior controle sobre os conteúdos, além de estudar eventual responsabilização da empresa caso não remova os vídeos.

“Se a empresa propicia essas situações (divulgação dos vídeos), discutimos se pode ser considerada corresponsável por elas. Estamos recebendo cada vez mais casos deste tipo. É um problema que a tecnologia criou e ainda não se sabe como lidar”, diz o procurador Pedro Antonio de Oliveira Machado.

A investigação sobre os canais que divulgam os desafios teve início neste ano. Isso ocorreu após uma entidade que denuncia estes vídeos, o Instituto Dimicuida, de Fortaleza, ter apontado ao MPF a existência de ao menos 19 mil vídeos com este tipo de conteúdo na internet.

Uma reunião entre os procuradores, o Google e a entidade deve acontecer ainda neste mês, com o propósito de buscar novos mecanismos para filtrar os vídeos. Uma das queixas a serem analisadas é a demora para que eles sejam removidos, mesmo depois de denúncias.
Explicações

O Google disse que não comenta o caso específico do inquérito. Já ao MPF informou que o Youtube é uma plataforma de hospedagem e não faz controle prévio do conteúdo. Destacou ainda que, a cada segundo, cerca de uma hora de novos conteúdos é gerada e enviada . Segundo a empresa, o site é voltado a maiores de 18 anos ou usuários sob supervisão de adultos responsáveis. Ainda há, acrescenta, canais dentro do próprio site para denúncias.

O inquérito faz menção direta a pelo menos quatro canais no YouTube com desafios perigosos – todos com mais de 1 milhão de seguidores. Segundo o site Social Blade, de estatísticas sobre canais de vídeos, conteúdos acessados por esta quantidade de pessoas rendem até R$ 20 mil mensais. As publicações mostram desafios como o jogo do enforcamento, que pode levar ao suicídio, e congelamento com desodorante, que causa queimaduras no corpo.

Pai iniciou luta contra material impróprio

Há três anos, o empresário Demétrio Jereissati encontrou o filho Dimi, de 16 anos, sem vida. O adolescente tinha um cinto em volta do pescoço e foi vítima do jogo do enforcamento. Após a experiência trágica, Jereissati criou o Instituto Dimicuida, que denuncia vídeos desse tipo, além de fazer a prevenção.

“Ná época em que isto aconteceu, nós tivemos pouca ou nenhuma informação sobre o assunto”, conta o empresário. Então fomos tentar identificar a dimensão do problema com o que vinha sendo feito em outros países, tanto de prevenção quanto à criação de entidades como a nossa”, explica.

A proposta do instituto é oferecer ajuda aos pais, monitorar as páginas, trabalhar com ações preventivas com educadores e também denunciar conteúdo impróprio sobre o tema. “Houve um crescimento absurdo desses vídeos. Em 2010, eram só cerca de 500 (de vídeos na internet que estimulam agressões e automutilação)”, afirma. Hoje, são aproximadamente 19 mil.

Jereissati buscou o Ministério Público Federal para tentar criar um filtro maior dos vídeos, além de um alarme que possa alertar as autoridades em caso de acesso aos jogos perigosos. “Vivemos em uma realidade em que adultos não sabem lidar com o que os filhos acessam, por isso é importante que exista um controle maior.”

Ele ressalta também a necessidade de rever a política de remuneração dos youtubers que lucram com a divulgação destes vídeos. “Há interesses econômicos profundos. Quanto mais curtidas, mais visibilidade. Quanto mais visibilidade, mais dinheiro. Ninguém quer restringir a liberdade de expressão, mas há vidas sendo colocadas em risco”, critica.

Proliferação. “O que temos visto é uma propagação avassaladora de vídeos e desafios, com youtubers fazendo grande promoção de práticas e alto risco para a saúde do corpo e emocional do jovem”, afirma a psicóloga Fabiana Vasconcelos, também do Dimicuida.

O público é de crianças e adolescentes, entre 11 e 17 anos, sem distinção de gênero ou perfil. “Queremos que este tipo de vídeo seja visto como criminoso. O Código Penal já fala em casos de indução à morte.” Fabiana cita um canal famoso, com mais de 6 milhões de inscritos, como um dos principais propagadores da prática. “Se eu, jovem, vejo que um adolescente ganha mais dinheiro fazendo práticas de risco na internet, vou segui-lo e fazer igual.”

Segundo a advogada Camilla Jimene, especialista em direito digital, a responsabilidade legal do Google é permitir a identificação dos usuários que produzem os conteúdos, mas não há obrigação de removê-los do ar sem antes receber denúncias.

“Quem vai responder pelo conteúdo do vídeo é o próprio usuário”, explica a advogada do Opice Blum, Bruno Abrusio e Vainzof Advogados. O Marco Civil da Internet é considerado dúbio em relação a quem pode fazer denúncia. “O Marco fala em remoção do conteúdo assim que a empresa for notificada. Mas alguns defendem que é preciso notificação judicial. Outros, que basta denúncia de usuário. O ideal é que a empresa desenvolva tecnologias para remover mais rapidamente conteúdos considerados impróprios, já que o volume de vídeos é muito grande.”

A lei prevê que, com objetivo de impedir a censura, o provedor – o Google, por exemplo – só pode ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros se, após ordem judicial, não tomar medidas para removê-lo, dentro dos limites técnicos e no prazo fixado.