O Supremo Tribunal Federal iniciou mais uma etapa crucial no julgamento que discute a responsabilidade das big techs por conteúdos gerados por usuários em suas plataformas. O ponto central do debate está na constitucionalidade do artigo 19 do Marco Civil da Internet, que atualmente protege as empresas de responsabilidade civil até que haja uma ordem judicial exigindo a remoção de conteúdos. Com implicações profundas na liberdade de expressão e nos modelos de negócios das plataformas, o julgamento pode redesenhar o ambiente digital no Brasil.
A responsabilização das big techs por conteúdos de terceiros divide juristas, políticos e empresários. De um lado, há os que defendem a manutenção das garantias legais atuais, alegando que as big techs não podem ser tratadas como editoras, mas sim como repositórios de conteúdo. Do outro, cresce a pressão para que plataformas como Facebook, Google e X (ex-Twitter) sejam obrigadas a agir de forma mais rápida e ativa contra publicações ilegais ou ofensivas, mesmo sem ordem judicial. O STF está no centro desta disputa, com votos já proferidos a favor de ampliar a responsabilidade das empresas.
Até o momento, os ministros Dias Toffoli e Luiz Fux votaram pela revisão do modelo atual, defendendo que as big techs devem sim assumir parte da responsabilidade sobre o conteúdo hospedado. A expectativa gira em torno dos votos dos demais magistrados e do desfecho do processo com repercussão geral. Isso significa que o entendimento firmado será obrigatório para todos os tribunais brasileiros em casos semelhantes. O resultado pode alterar profundamente a forma como redes sociais e provedores de internet operam no país.
O julgamento sobre a responsabilidade das big techs por conteúdos de usuários foi suspenso em dezembro de 2024 após pedido de vista do ministro André Mendonça. Agora, com o tema de volta à pauta, o STF retoma a análise em meio a um cenário político e social carregado, com o presidente Lula defendendo uma regulamentação urgente das redes sociais. Para ele, não é aceitável que crimes sejam cometidos sob a justificativa de liberdade de expressão. Essa visão fortalece o argumento dos que defendem novas responsabilidades para as plataformas digitais.
Os casos concretos que motivaram a discussão envolvem Facebook e Google. No primeiro, o Facebook foi condenado pelo Tribunal de Justiça de São Paulo pela demora em excluir um perfil falso. No segundo, o Google foi responsabilizado por não remover uma comunidade ofensiva no extinto Orkut. Em ambos os processos, os recursos foram negados pelos ministros relatores, que entenderam que houve falha das big techs na gestão dos conteúdos gerados por usuários. Estes casos servem de base para a decisão geral do STF.
A responsabilidade das big techs por conteúdos de usuários também gera reações no setor empresarial. O Google, por exemplo, afirma que mudanças radicais na legislação podem gerar insegurança jurídica e prejudicar a liberdade de expressão. A empresa ressalta que já remove milhões de conteúdos anualmente com base em suas próprias políticas. No entanto, a proposta de ampliar essa responsabilidade sem critérios claros levanta preocupações sobre censura e sobrecarga nas plataformas, especialmente as menores.
Especialistas alertam que a decisão do STF pode se tornar o primeiro passo de uma regulação mais ampla sobre o funcionamento das big techs no Brasil. O ministro Gilmar Mendes já indicou que esse julgamento representa um esboço do que pode vir a ser um marco regulatório digital no país. A disputa entre Congresso e Judiciário sobre quem deve liderar essa regulação também aumenta a complexidade da situação. O julgamento das big techs por conteúdos de usuários se transforma, portanto, em um símbolo da disputa pelo controle da internet no Brasil.
Enquanto o STF avança no julgamento da responsabilidade das big techs por conteúdos de usuários, a sociedade observa com atenção. Qualquer que seja o resultado, ele terá impacto direto no uso das redes sociais, na proteção de direitos individuais e na atuação de empresas de tecnologia. O desafio do Supremo é equilibrar liberdade de expressão com segurança jurídica e responsabilidade digital, em um cenário de crescente polarização e disseminação de desinformação.
Autor: Dan Richter