O Ministério Público Federal (MPF) em São Paulo investiga a
divulgação de vídeos com “jogos perigosos” para crianças e adolescentes
nas redes sociais. Os canais estimulam automutilação e suicídio. Os
promotores acionaram o Google, empresa responsável pelo YouTube, onde os
vídeos estão hospedados. Donos desses canais chegam a lucrar até R$ 20
mil mensais com publicidade.
O assunto ganhou repercussão nos últimos dias com relatos de
suicídios e automutilações pelo País supostamente ligados ao jogo
virtual Baleia-Azul, que incentivaria esse tipo de prática. Os casos
mobilizaram escolas, famílias e a polícia, que investiga se o jogo
existe e quem seriam os responsáveis por estimular as agressões.
No último mês, a Procuradoria Regional do Direito do Cidadão já
conseguiu remover 11 vídeos que estimulam jovens a se ferirem ou se
matarem, com base no critério de maior popularidade. Sobre o
Baleia-Azul, o MPF paulista informou que ainda não abriu investigação.
O objetivo do MPF agora é fazer com que o YouTube tenha maior
controle sobre os conteúdos, além de estudar eventual responsabilização
da empresa caso não remova os vídeos.
“Se a empresa propicia essas situações (divulgação dos vídeos),
discutimos se pode ser considerada corresponsável por elas. Estamos
recebendo cada vez mais casos deste tipo. É um problema que a tecnologia
criou e ainda não se sabe como lidar”, diz o procurador Pedro Antonio
de Oliveira Machado.
A investigação sobre os canais que divulgam os desafios teve início
neste ano. Isso ocorreu após uma entidade que denuncia estes vídeos, o
Instituto Dimicuida, de Fortaleza, ter apontado ao MPF a existência de
ao menos 19 mil vídeos com este tipo de conteúdo na internet.
Uma reunião entre os procuradores, o Google e a entidade deve
acontecer ainda neste mês, com o propósito de buscar novos mecanismos
para filtrar os vídeos. Uma das queixas a serem analisadas é a demora
para que eles sejam removidos, mesmo depois de denúncias.
Explicações
O Google disse que não comenta o caso específico do inquérito. Já ao
MPF informou que o Youtube é uma plataforma de hospedagem e não faz
controle prévio do conteúdo. Destacou ainda que, a cada segundo, cerca
de uma hora de novos conteúdos é gerada e enviada . Segundo a empresa, o
site é voltado a maiores de 18 anos ou usuários sob supervisão de
adultos responsáveis. Ainda há, acrescenta, canais dentro do próprio
site para denúncias.
O inquérito faz menção direta a pelo menos quatro canais no YouTube
com desafios perigosos – todos com mais de 1 milhão de seguidores.
Segundo o site Social Blade, de estatísticas sobre canais de vídeos,
conteúdos acessados por esta quantidade de pessoas rendem até R$ 20 mil
mensais. As publicações mostram desafios como o jogo do enforcamento,
que pode levar ao suicídio, e congelamento com desodorante, que causa
queimaduras no corpo.
Pai iniciou luta contra material impróprio
Há três anos, o empresário Demétrio Jereissati encontrou o filho
Dimi, de 16 anos, sem vida. O adolescente tinha um cinto em volta do
pescoço e foi vítima do jogo do enforcamento. Após a experiência
trágica, Jereissati criou o Instituto Dimicuida, que denuncia vídeos
desse tipo, além de fazer a prevenção.
“Ná época em que isto aconteceu, nós tivemos pouca ou nenhuma
informação sobre o assunto”, conta o empresário. Então fomos tentar
identificar a dimensão do problema com o que vinha sendo feito em outros
países, tanto de prevenção quanto à criação de entidades como a nossa”,
explica.
A proposta do instituto é oferecer ajuda aos pais, monitorar as
páginas, trabalhar com ações preventivas com educadores e também
denunciar conteúdo impróprio sobre o tema. “Houve um crescimento absurdo
desses vídeos. Em 2010, eram só cerca de 500 (de vídeos na internet que
estimulam agressões e automutilação)”, afirma. Hoje, são
aproximadamente 19 mil.
Jereissati buscou o Ministério Público Federal para tentar criar um
filtro maior dos vídeos, além de um alarme que possa alertar as
autoridades em caso de acesso aos jogos perigosos. “Vivemos em uma
realidade em que adultos não sabem lidar com o que os filhos acessam,
por isso é importante que exista um controle maior.”
Ele ressalta também a necessidade de rever a política de remuneração
dos youtubers que lucram com a divulgação destes vídeos. “Há interesses
econômicos profundos. Quanto mais curtidas, mais visibilidade. Quanto
mais visibilidade, mais dinheiro. Ninguém quer restringir a liberdade de
expressão, mas há vidas sendo colocadas em risco”, critica.
Proliferação. “O que temos visto é uma propagação avassaladora de
vídeos e desafios, com youtubers fazendo grande promoção de práticas e
alto risco para a saúde do corpo e emocional do jovem”, afirma a
psicóloga Fabiana Vasconcelos, também do Dimicuida.
O público é de crianças e adolescentes, entre 11 e 17 anos, sem
distinção de gênero ou perfil. “Queremos que este tipo de vídeo seja
visto como criminoso. O Código Penal já fala em casos de indução à
morte.” Fabiana cita um canal famoso, com mais de 6 milhões de
inscritos, como um dos principais propagadores da prática. “Se eu,
jovem, vejo que um adolescente ganha mais dinheiro fazendo práticas de
risco na internet, vou segui-lo e fazer igual.”
Segundo a advogada Camilla Jimene, especialista em direito digital, a
responsabilidade legal do Google é permitir a identificação dos
usuários que produzem os conteúdos, mas não há obrigação de removê-los
do ar sem antes receber denúncias.
“Quem vai responder pelo conteúdo do vídeo é o próprio usuário”,
explica a advogada do Opice Blum, Bruno Abrusio e Vainzof Advogados. O
Marco Civil da Internet é considerado dúbio em relação a quem pode fazer
denúncia. “O Marco fala em remoção do conteúdo assim que a empresa for
notificada. Mas alguns defendem que é preciso notificação judicial.
Outros, que basta denúncia de usuário. O ideal é que a empresa
desenvolva tecnologias para remover mais rapidamente conteúdos
considerados impróprios, já que o volume de vídeos é muito grande.”
A lei prevê que, com objetivo de impedir a censura, o provedor – o
Google, por exemplo – só pode ser responsabilizado civilmente por danos
decorrentes de conteúdo gerado por terceiros se, após ordem judicial,
não tomar medidas para removê-lo, dentro dos limites técnicos e no prazo
fixado.