• Cadastre-se
  • Equipe
  • Contato Brasil, 14 de junho de 2025 11:12:42
Em Tempo Real
  • 12/06/2025 06h58

    STF forma maioria parra responsabilizar as plataformas digitais; votos, porém, têm divergências entre si e não há um consenso sobre qual será a extensão das novas obrigações e como elas serão aplicadas

    Veja mais
    Foto: Felipe Sampaio/ STF

    Edson Fachin ainda vai votar no caso

    ( Publicada originalmente às 20 h 47 do dia 11/06/2025) 

    (Brasília-DF, 12/06/2026). Nesta quarta-feira,11, o Supremo Tribunal Federal (STF) formou maioria para endurecer a responsabilização das plataformas digitais no país.

    Ao final do dia, a Corte somou seis votos para que as empresas sejam obrigadas a deletar conteúdos considerados criminosos, sem necessidade de uma decisão judicial prévia como ocorre hoje.

    Decidiram nesse sentido os ministros Dias Toffoli, Luiz Fux, Luís Roberto Barroso, Flavio Dino, Cristiano Zanin e Gilmar Mendes.

    Os votos, porém, têm divergências entre si. Ainda não há um consenso sobre qual será a extensão das novas obrigações e como elas serão aplicadas. Um dos desafios é definir qual instituição fará o acompanhamento e a fiscalização das novas obrigações das plataformas.

    Até o momento, apenas André Mendonça votou contra o endurecimento das regras.

    O Supremo Tribuna; tem 11 ministros e nesta quinta-feira, 12, continuará a votação no plenário

    Devem se manifestar os ministros Edson Fachin e Alexandre de Moraes, mas ainda não há previsão de quando o julgamento será encerrado.

    Depois, ainda faltarão votar Cármen Lúcia, que está fora do país, e Nunes Marques, que já avisou que pedirá mais tempo para analisar o caso.

    Apesar de algumas diferenças no teor das decisões, os seis ministros que votaram pelo endurecimento das regras defendem que empresas podem ser obrigadas a deletar certos conteúdos criminosos após serem notificadas por usuários, sem necessidade de uma decisão judicial específica.

    E, em casos de crimes considerados mais graves, como pornografia infantil, incitação à suicídio ou mensagens contra o Estado Democrático, eles consideram que as empresas têm obrigação de apagar os conteúdos mesmo sem notificação prévia.

    Para Barroso, Toffoli, Dino, Zanin e Mendes, as empresas poderiam ser responsabilizadas caso se comprove uma falha generalizada em conter esses conteúdos, por exemplo.

    Em seu voto, Dino defendeu que não há liberdade de expressão absoluta e citou em sua manifestação casos de crianças assassinadas em escolas após perfis nas redes sociais estimularem esses ataques.

    "Eu só consigo imaginar que devemos, como tribunal, avançar na direção da liberdade com responsabilidade, da liberdade regulada, que é a única verdadeira liberdade".

    Um dos temas que gera divergência, mesmo entre os que defendem regras mais duras, é a remoção de conteúdos no caso de crimes contra a honra, como calúnia e difamação.

    Toffoli e Fux votaram para que esse tipo de mensagem seja removida já a partir da notificação, enquanto Barroso e Dino dizem que, nesses casos, ainda seria necessária uma decisão judicial.

    Zanin, por sua vez, votou para que conteúdos claramente criminosos sejam removidos a partir da notificação, enquanto mensagens em que o teor criminoso não seja evidente — ou seja, em que exista dúvida se, de fato, seria calúnia ou difamação — poderiam ser mantidas no ar até uma eventual decisão judicial pela remoção.

    "Me parece importante nós refletirmos sobre essa diferenciação porque muitas e muitas postagens repetem ofensas, inclusive já consideradas como crime contra a honra na Justiça, com condenações por danos morais, condenações da justiça criminal, e mesmo assim são repetidas e repetidas, anos e anos", defendeu Moraes, durantes os debates do julgamento.

    "E, para cada uma dessas, se houver a necessidade de ingressar novamente em juízo, nós vamos perder efetividade", continuou.

    Barroso concordou, mas defendeu que alguns casos deveriam ser tratados de forma diferente.

    "Eu não tenho nenhuma dúvida [nesse caso], concordo plenamente. A minha dúvida é como tratar [um conteúdo] assim: 'fulano enriqueceu dando golpes na praça'. Aí o sujeito se sente injuriado, é a plataforma que tem que decidir se isso vai ser removido ou não? Aí eu prefiro que seja uma briga privada entre o ofendido e o ofensor [na Justiça], e não a plataforma intervindo", argumentou o presidente do STF.

    Até o momento, André Mendonça foi o único que votou para manter, de modo geral, o atual modelo, em que empresas só podem ser responsabilizadas por conteúdos de terceiros caso se recusem a cumprir decisões da Justiça.

    Ele destacou apenas três situações excepcionais em que as plataformas podem ser penalizadas por não excluírem conteúdos criminosos, mesmo sem uma determinação judicial.

    Segundo o ministro, são casos em que já previsão legal para obrigar a exclusão dos conteúdos: postagens que firam direitos previstos no Estatuto da Criança e do Adolescente, como pornografia infantil; conteúdos irregulares relacionados a empresas de apostas (as chamadas bets); e conteúdos íntimos divulgados sem autorização (como imagens de nudez).

    Para Mendonça, caberia apenas ao Congresso, por meio de novas leis, determinar outros conteúdos que teriam que ser deletados sem prévia determinação da Justiça.

    "Excetuados os casos expressamente autorizados em lei, as plataformas digitais não podem ser responsabilizadas pela ausência de remoção de conteúdo veiculado por terceiros", defendeu, ao votar na semana anterior.

    Grandes plataformas como Google (dona do YouTube), Meta (dona de Facebook, Instagram e WhatsApp) e X (antigo Twitter) se opõem ao endurecimento das regras, que podem aumentar seus custos operacionais e o risco de punições, como multas elevadas caso não cumpram regras novas.

    "As plataformas vão ter que preventivamente remover qualquer conteúdo que seja potencialmente questionável para evitar uma responsabilização ou um passivo financeiro", disse o presidente do Google no Brasil, Fábio Coelho, em entrevista recente ao portal UOL

    A volta do tema na Corte ocorre em um momento de tensão entre o STF, empresas do setor e o governo dos Estados Unidos. Nas últimas semanas, a gestão Trump intensificou as ameaças de retaliação a autoridades estrangeiras que têm atuado para regular plataformas digitais ou tomado decisões contra usuários que estariam cometendo crimes em redes sociais — ações que a Casa Branca considera censura.

    O ministro do STF Alexandre de Moraes foi citado nominalmente como um dos potenciais alvos de sanções pelo secretário de Estado dos EUA, Marco Rubio.

    Entenda melhor a seguir o contexto de ameaças ao STF, o que a Corte está julgando e o que pode ser decidido.

    ( da redação com informações e textos da BBC. Edição: Política Real)

     


Vídeos
publicidade