O ministro Luiz Fux, do Supremo Tribunal Federal (STF), apresentou um voto que pode redefinir as responsabilidades das plataformas digitais em relação ao conteúdo que hospedam. Durante o julgamento que discute o artigo 19 do Marco Civil da Internet, Fux argumentou que as empresas devem monitorar ativamente conteúdos evidentemente ilícitos, como discursos de ódio, racismo, pedofilia e incitação à violência.
Atualmente, as redes sociais só podem ser responsabilizadas por indenizações caso não cumpram ordens judiciais para remover determinado conteúdo, com exceção de violações de direitos autorais. No entanto, Fux propôs que as plataformas sejam responsabilizadas quando tiverem “ciência inequívoca” de conteúdos ilegais e não agirem imediatamente para removê-los.
Mudança no modelo de responsabilidade
O ministro destacou a necessidade de alterar o ônus da judicialização. Em sua proposta, conteúdos claramente ilícitos deveriam ser removidos assim que as plataformas forem notificadas, sem necessidade de ordem judicial prévia. Para ele, o modelo atual não acompanha a velocidade com que esses conteúdos se espalham e podem causar danos irreparáveis.
Fux também apontou que as plataformas devem ser responsabilizadas por conteúdos que são impulsionados. Nesse caso, presume-se que as empresas têm conhecimento sobre os materiais promovidos, o que aumenta sua responsabilidade.
Apoio e repercussões no julgamento
O ministro Dias Toffoli endossou a visão de Fux, ressaltando que as plataformas têm o dever de monitorar os conteúdos que publicam, especialmente quando promovem materiais que podem violar direitos fundamentais.
O julgamento, que já passou por quatro sessões, busca esclarecer os limites de responsabilidade das plataformas e ainda está em andamento. A decisão pode ter impacto direto na forma como as redes sociais operam no Brasil, incluindo questões sobre liberdade de expressão e combate à desinformação.
O que está em jogo?
•Atuação preventiva das plataformas: Fux defende que as empresas adotem mecanismos para identificar e remover conteúdos ilícitos sem depender exclusivamente de ordens judiciais.
•Impacto sobre conteúdos impulsionados: A proposta responsabiliza as plataformas por materiais promovidos, considerando que esses passam por algum grau de supervisão.
•Equilíbrio entre liberdade de expressão e responsabilidade: O julgamento busca evitar a censura excessiva enquanto responsabiliza as plataformas por danos causados por conteúdos prejudiciais.
Se aprovada, a mudança pode fortalecer o combate à disseminação de discursos de ódio e informações falsas, ao mesmo tempo que desafia as plataformas a revisarem seus processos de moderação e monitoramento. A decisão final do STF é aguardada com grande expectativa por especialistas, empresas e organizações que atuam em defesa dos direitos digitais.