counter Em busca de equilíbrio, STF avança na necessária responsabilização das redes – Forsething

Em busca de equilíbrio, STF avança na necessária responsabilização das redes

Oito anos após terem sido protocolados no Supremo Tribunal Federal, chegou praticamente ao fim o julgamento de dois recursos que vai mudar o tratamento dado às redes sociais no Brasil. Com oito votos a favor e três contrários, a Corte concluiu que é preciso endurecer as responsabilidades das plataformas digitais em relação ao conteúdo que circula em suas redes. O caso representa avanço em um processo regulatório que, diante da vertiginosa escalada criminosa no ambiente virtual, tornou-se central no debate público no Brasil e fonte de ferrenhas divergências políticas, acadêmicas e ideológicas sobre o papel do Estado na garantia de uma internet livre e segura para os brasileiros.

BARULHO - Bolsonarista na Paulista: críticas a qualquer tentativa de regulação
BARULHO - Bolsonarista na Paulista: críticas a qualquer tentativa de regulaçãoMaira Erlich/Bloomberg/Getty Images

O longo caminho não foi feito sem dificuldades, nem na hora do veredicto. No cerne do julgamento está o artigo 19 do Marco Civil da Internet, de 2014, que exime completamente as plataformas de responder por delitos praticados por usuários em suas redes e prevê que elas só podem sofrer sanções se desobedecerem a ordens judiciais específicas para a remoção de conteúdo ofensivo, violento, extremista ou flagrantemente ilegal. A posição da maioria dos ministros agora força as companhias a agirem a partir de denúncias dos internautas, sob risco de multas pesadas, suspensão temporária ou até bloqueio total dos serviços. Houve divergências entre os magistrados sobre o alcance da nova determinação — quatro deles (Gilmar Mendes, Flávio Dino, Cristiano Zanin e Luís Roberto Barroso) entenderam que ela não se aplica a situações de injúria, calúnia ou difamação, cujos conteúdos só poderiam ser retirados mediante decisão judicial, como é hoje. Outros quatro (Alexandre de Moraes, Luiz Fux, Cármen Lúcia e Dias Toffoli) decidiram que o novo entendimento vale para todos os casos. Ao final, o consenso firmado foi de responsabilizar as plataformas quando não removerem, em tempo razoável a partir da notificação, publicações que representem crimes de terrorismo, atos antidemocráticos, incitação ao suicídio e automutilação, crimes de ódio e contra a mulher, sexualização de menores de idade, pornografia infantil e tráfico de pessoas. Foram excluídos do rol os crimes contra a honra — ofensa, calúnia e difamação — e crimes eleitorais. Os ministros Edson Fachin, André Mendonça e Kassio Nunes Marques votaram pela manutenção total do artigo 19 como está redigido hoje.

A regulação das redes vem há tempos se impondo como uma pauta urgente diante de um cenário crítico. Usuários exploram livremente as brechas no controle de conteúdo para praticar crimes que vão dos mais “triviais”, como fraudes e golpes financeiros, aos mais hediondos, incluindo pornografia infantil, apologia à violência e ao nazismo, discurso de ódio, ataques à democracia e incitação à automutilação e a atentados terroristas. Não raramente, os conteúdos ilegais são monetizados, ou seja, geram retorno financeiro aos criminosos conforme suas publicações ganham tração. “A evolução dos algoritmos de distribuição de conteúdo favorece um ganho econômico a partir do que gera mais engajamento, e até que saia uma ordem judicial de remoção o autor já lucrou”, explica Patricia Peck, especialista em direito digital do escritório Peck Advogados. Para a advogada, o avanço do Judiciário sobre a questão tende a provocar o Congresso a legislar sobre o assunto e incentivar as plataformas a investirem mais na autorregulação. O próprio ministro Barroso já declarou que a prerrogativa de legislar sobre o tema é do Parlamento.

ALERTA - Ato em Brasília: violência digital impacta o ambiente escolar
ALERTA - Ato em Brasília: violência digital impacta o ambiente escolarLula Marques/Agência Brasil
Continua após a publicidade

Isso, no entanto, não será fácil, dado o nível de contaminação ideológica que o assunto tomou no Brasil. No Congresso, a maior tentativa de emplacar uma responsabilização das redes, o PL 2.630/2020, andou de lado, sob muita polêmica, até ser enterrado pelo então presidente da Câmara, Arthur Lira, por absoluta falta de clima político para sua votação, em especial por conta da oposição bolsonarista. Militantes dessa corrente política há tempos internalizaram uma associação entre qualquer forma de regulamentação e um suposto cerceamento à liberdade de expressão. O governo Lula vem há algum tempo trabalhando em um novo projeto de lei sobre o tema para apresentar ao Parlamento, mas não há previsão de data para que isso ocorra.

A instrumentalização política das redes sociais, no entanto, é crescente. Quando votou no atual processo, Alexandre de Moraes, relator da trama golpista no STF, destacou a omissão das plataformas durante os distúrbios de 8 de janeiro de 2023, quando a quebradeira dos prédios dos Três Poderes, em Brasília, foi transmitida ao vivo por usuários no X, Facebook e Instagram. “Temos mais de trezentas pessoas condenadas que filmavam e colocavam imediatamente, fazendo lives e chamando mais gente para destruir”, declarou. A postura incisiva de Moraes contra o extremismo nas redes, traduzida muitas vezes no bloqueio de perfis, suscitou reações de figuras poderosas. Nos Estados Unidos, ele virou alvo de um processo por censura movido por duas redes sociais alinhadas à direita: a Rumble, que ele suspendeu no Brasil por incitação ao extremismo e a atos antidemocráticos, e a Truth Social, que pertence ao Trump Media Group, do presidente americano Donald Trump. Também corre o risco de sofrer retaliação do governo dos EUA por conta de decisões tomadas contra empresas e perfis de cidadãos americanos.

MODERAÇÃO - Barroso: busca de consenso entre ministros por novas regras
MODERAÇÃO - Barroso: busca de consenso entre ministros por novas regrasMateus Bonomi/AGIF/AFP
Continua após a publicidade

A luta para impor controle ao ambiente das redes sociais não é uma exclusividade brasileira. Uma das referências mundiais vem da Lei dos Serviços Digitais (DSA, na sigla em inglês), legislação pioneira aprovada pela União Europeia em agosto de 2023. “A DSA adota uma abordagem mais equilibrada, obrigando plataformas a implementar mecanismos eficazes de moderação, mas sem a exigência de remoção proativa generalizada”, explica Camilla Jimene, head de contencioso digital no escritório de advocacia Opice Blum. Uma norma semelhante no Brasil exigiria fortalecer agências fiscalizadoras e reguladoras do setor digital, como a Autoridade Nacional de Proteção de Dados. “A ANPD atua no coração do modelo de negócios das plataformas, que é a exploração de dados pessoais, mas carece de equipe e infraestrutura para dar conta da regulação necessária”, avalia Alexandre Arns Gonzales, da Coalizão Direitos na Rede (CDR).

O principal dilema sempre foi estabelecer normas que sejam objetivas sobre a intolerância ao crime, mas flexíveis para casos subjetivos que envolvam a liberdade de expressão. As plataformas sustentam que a maioria das práticas mais graves já é monitorada e vetada. Conteúdos como piadas e discussões políticas, porém, são notoriamente mais difíceis de classificar. Um efeito colateral, comumente apontado pelas big techs, é que restrições muito rígidas podem forçar o chilling effect (“efeito congelante”), quando publicações que não infringem as regras acabam sendo removidas para evitar imbróglios na Justiça. “É possível calibrar os sistemas para detectar estes casos, mas há o risco de que conteúdos sejam removidos em excesso”, diz Igor Luna, consultor da Câmara Brasileira de Economia Digital (camara-e.net). Estudo feito pelo NetLab UFRJ mostrou que isso, por ora, não vem ocorrendo no caso da experiência europeia. Segundo o levantamento, é pequena a taxa de posts removidos. Outra queixa das big techs diz respeito às capacidades técnicas para moderação do volume massivo de conteúdo publicado. “Caberia às plataformas identificar estas fronteiras em tempo real e tomar uma decisão, o que se torna complexo mesmo para equipes enormes apoiadas por inteligência artificial”, avalia Felipe França, diretor-­executivo do Conselho Digital. Juntas, as duas associações representam mais de quarenta empresas, incluindo Meta, Google, TikTok, Kwai e Discord. De fato, as novas medidas implicam mais custos, mas não é nada capaz de abalar a saúde financeira de companhias bilionárias.

PRESSÃO - Donald Trump Jr. (Trump Media Group) e Chris Pavlovski (Rumble): ação contra Moraes nos EUA
PRESSÃO - Donald Trump Jr. (Trump Media Group) e Chris Pavlovski (Rumble): ação contra Moraes nos EUAIan Maule/AFP
Continua após a publicidade

Como um problema complexo, a regulação das redes sociais não pode ser resolvida com soluções simplistas e sujeitas a paixões ideológicas. Por isso, fez bem o STF ao realizar um debate aprofundado sobre o tema e buscar uma saída equilibrada para a questão, ao mesmo tempo que acena para uma participação maior do Legislativo. Os esforços regulatórios devem respeitar direitos fundamentais como a liberdade de expressão e a circulação de informações e ideias, mas jamais abdicando do princípio central: assim como no mundo real, a internet não pode ser uma terra sem lei.

Publicado em VEJA de 27 de junho de 2025, edição nº 2950

Publicidade

About admin