Por maioria dos votos, o Supremo Tribunal Federal definiu na última quinta-feira (26) que as plataformas que operam as redes sociais devem ser responsabilizadas diretamente pelas postagens ilegais feitas por seus usuários.
No Brasil, até então, as redes sociais eram reguladas pelo artigo 19 do Marco Civil da Internet, que estabelecia que as plataformas só poderiam ser responsabilizadas pelas postagens de seus usuários caso, após ordem judicial, não tomassem providências para remover conteúdos ilegais.
Contudo, a Suprema Corte declarou esse artigo parcialmente inconstitucional e alterou sua aplicação.
Veja o que mudou
O Supremo definiu três formas de atuação das redes sociais contra posts ilegais, conforme o tipo de crime encontrado.
Nos casos considerados mais graves (discurso de ódio, racismo, pedofilia, pornografia infantil, incitação à violência, crimes contra a mulher, tráfico de pessoas e apologia a golpe de Estado) a remoção deverá ser imediata e proativa, sem necessidade de notificação ou ordem judicial.
Para os chamados crimes contra a honra, como calúnia, injúria e difamação, a exclusão do conteúdo continuará dependendo de ordem judicial específica, em respeito à liberdade de expressão e ao direito à defesa.
Já nos demais casos de atos ilícitos, o STF autorizou a remoção após notificação extrajudicial, ou seja, quando a plataforma for formalmente comunicada por quem se sentir prejudicado. Nesse cenário, se a empresa não agir, poderá ser responsabilizada civilmente.
Além da decisão sobre o artigo, o STF fixou uma tese — uma orientação para tribunais do país a ser levada em conta em julgamentos de casos relacionados — com regras que devem ser consideradas até que haja revisão da legislação por parte do Congresso Nacional.
“Enquanto não sobrevier nova legislação, o artigo 19 do Marco Civil da Internet deve ser interpretado de forma que os provedores de aplicação de internet estão sujeitos à responsabilização civil, ressalvada a aplicação das disposições específicas da legislação eleitoral”, definiu o STF.
Decisão contribui para o combate de discurso de ódio na internet
Um dia antes da decisão da Corte, o ministro Gilmar Mendes, do STF, disse à RECORD que as empresas responsáveis pelas plataformas digitais precisavam ter deveres mais claros em relação ao conteúdo que hospedam.
“Empresas que lucram com publicidade e impulsionam atividades online também devem assumir alguma responsabilidade, algum dever de cuidado, para evitar consequências trágicas que, muitas vezes, afetam diretamente nossas famílias”, afirmou o ministro.
Após a decisão, o advogado especialista em direito digital, proteção de dados e cibersegurança Rony Vainzof defendeu que a decisão foi um marco e que ajudará no enfrentamento do discurso de ódio nas redes. No entanto, ele ressalta que tem receio dos efeitos sistêmicos da decisão.
‘Indústria de indenizações’ e remoção de conteúdos em massa
Para Vainzof, o novo cenário criado pela decisão do STF, que permite responsabilizar plataformas caso não removam conteúdos ilegais após uma notificação extrajudicial, representa um risco significativo para as empresas.
Isso porque, diferentemente dos casos graves, em que a remoção deve ser feita sem notificação, o STF não determinou quais crimes se enquadram nessa situação.
“Existe o perigo de transformar isso em uma indústria da indenização. A partir do momento em que qualquer pessoa notifica extrajudicialmente sobre qualquer tipo de crime e a plataforma não age, corre-se o risco de responsabilização”, afirma Vainzof.
Além disso, o especialista teme que muitos conteúdos sejam removidos por precaução, especialmente aqueles que não são claramente ilegais, mas que podem ser interpretados de formas diferentes.
“O grande risco é uma remoção massa de conteúdo, principalmente o conteúdo que entra dentro de um subjetivismo. E isso pode prejudicar usuários e a fala dos usuários dentro desse subjetivismo”, afirma o especialista.
Ele também destaca que, embora as plataformas já pudessem moderar conteúdos antes da decisão, o novo entendimento pode estimular uma moderação mais agressiva, justamente por medo das consequências jurídicas.
“As plataformas, antes, já poderiam moderar conteúdo. Não havia qualquer tipo de restrição. Só que agora, em razão desse subjetivismo de atos ilícitos e qualquer tipo de crime, pode estimular, sim, as plataformas a remover muito mais conteúdo do que antes”, concluiu.
CLIQUE AQUI e faça parte do nosso grupo para receber as últimas do Noticia Max.
0 Comentários