©️2026 Karolyne Toscano Vasconcelos
Nos últimos anos, observa-se uma progressiva reconfiguração do modelo jurídico de governança da internet no Brasil, impulsionada pelas novas dinâmicas sociais, tecnológicas e informacionais do ambiente digital. Em 2026, é possível afirmar que o regime originalmente estabelecido pelo Marco Civil da Internet (Lei nº 12.965/2014) deixou de ser interpretado de forma estritamente literal para dar lugar a uma lógica mais sofisticada de responsabilização das plataformas digitais.
O centro dessa mudança está na reinterpretação do Artigo 19 do Marco Civil da Internet, que durante mais de uma década foi compreendido como um verdadeiro escudo de responsabilidade civil para provedores de aplicações.
A evolução jurisprudencial recente, impulsionada pela ampliação dos impactos sociais das redes digitais, indica a consolidação de um novo paradigma: o da responsabilidade mitigada associada a deveres de cuidado estruturais.
Mais do que uma alteração normativa formal, trata-se de uma mudança de mentalidade jurídica acerca do papel das plataformas na organização do debate público digital.
O modelo original: a lógica da responsabilidade condicionada
Quando foi promulgado, o Marco Civil buscou construir um ambiente jurídico favorável à inovação e à liberdade de expressão na rede.
Nesse contexto, o Artigo 19 estabeleceu que provedores de aplicações somente poderiam ser responsabilizados civilmente por conteúdos gerados por terceiros, caso, após ordem judicial específica, deixassem de promover a remoção do material apontado como ilícito.
Esse desenho normativo teve objetivos claros:
- evitar que plataformas realizassem remoções preventivas excessivas (overblocking);
- impedir a privatização do controle da liberdade de expressão; e
- preservar o papel do Poder Judiciário como instância legitimada para decidir sobre a ilicitude de conteúdo.
Durante muitos anos, essa estrutura foi interpretada como uma espécie de imunidade relativa condicionada à ordem judicial, o que conferiu segurança jurídica ao desenvolvimento das plataformas digitais no Brasil.
A crise do modelo: desinformação, danos sistêmicos e amplificação algorítmica
O avanço das redes sociais e das plataformas de compartilhamento de conteúdo revelou, entretanto, limitações relevantes desse modelo.
A partir de 2023 e, sobretudo, entre 2024 e 2025, intensificaram-se debates institucionais acerca da capacidade do regime jurídico vigente de responder a fenômenos como:
- campanhas coordenadas de desinformação;
- ataques sistemáticos a instituições democráticas;
- exploração de vulnerabilidades informacionais; e
- disseminação massiva de conteúdos ilícitos impulsionados por algoritmos.
Nesse cenário, passou a ganhar força a percepção de que a suposta neutralidade das plataformas digitais não corresponde à realidade tecnológica.
Os sistemas de recomendação e priorização de conteúdo, baseados em inteligência artificial e análise comportamental, exercem influência direta sobre o alcance e a visibilidade das informações.
Assim, ainda que as plataformas não sejam autoras do conteúdo, elas participam ativamente da dinâmica de circulação e amplificação informacional.
Essa constatação levou a uma inflexão interpretativa relevante no âmbito judicial e regulatório.
O surgimento do dever de cuidado das plataformas
Inspirado em experiências regulatórias internacionais, especialmente no contexto europeu, começa a se consolidar no Brasil um modelo baseado no chamado duty of care, ou dever de cuidado das plataformas digitais.
Nesse novo paradigma, não se espera mais que os provedores atuem apenas de forma reativa após determinação judicial.
Passa-se a exigir um conjunto mínimo de deveres estruturais de prevenção e mitigação de riscos digitais.
Entre os principais elementos desse dever de cuidado, destacam-se:
1. Análise de risco sistêmico
Plataformas passam a ser cobradas pela identificação proativa de categorias de conteúdo que possam representar risco relevante a direitos fundamentais.
Isso inclui, por exemplo:
- conteúdos que envolvam exploração infantil;
- campanhas coordenadas de desinformação;
- incitação à violência ou à ruptura institucional; e
- práticas fraudulentas disseminadas em escala.
A expectativa jurídica não é de controle absoluto, mas de gestão responsável de riscos previsíveis.
2. Medidas de mitigação proporcionais
O novo entendimento também pressupõe que as plataformas adotem medidas técnicas razoáveis para reduzir a propagação de conteúdos manifestamente ilícitos ou nocivos.
Essas medidas podem envolver:
- redução de alcance algorítmico;
- rotulagem informacional;
- desmonetização de determinados conteúdos; e
- mecanismos mais eficientes de denúncia e revisão.
A lógica que se estabelece é a da responsabilidade proporcional ao poder de controle tecnológico.
3. Transparência algorítmica e governança informacional
Outro eixo importante desse novo modelo envolve a exigência crescente de transparência.
Espera-se que plataformas sejam capazes de explicar:
- critérios de moderação de conteúdo;
- funcionamento básico dos sistemas de recomendação;ee
- fundamentos das decisões de remoção ou despriorização.
Essa dimensão conecta-se diretamente com princípios de accountability digital, cada vez mais presentes no debate regulatório global.
A fronteira delicada entre moderação e censura privada
A reinterpretação do regime de responsabilidade das plataformas traz consigo um dilema jurídico relevante.
Se, por um lado, a imposição de deveres de cuidado contribui para reduzir abusos e danos sistêmicos, por outro, ela amplia o poder decisório de empresas privadas sobre a circulação de informações no espaço público digital.
Em outras palavras, as plataformas passam a exercer uma espécie de função quase regulatória sobre o debate público.
O desafio jurídico contemporâneo reside exatamente em equilibrar três valores fundamentais:
- liberdade de expressão;
- proteção de direitos fundamentais; e
- integridade informacional do ambiente digital.
Nesse contexto, o papel do Judiciário tende a evoluir de uma função meramente reativa para uma atuação mais estruturante e supervisionadora das políticas de moderação das plataformas.
O que muda para advogados, empresas e instituições
Essa mudança de paradigma traz impactos concretos para a prática jurídica.
A atuação do advogado em matéria de responsabilidade digital tende a se deslocar de um modelo centrado exclusivamente em litígios para uma abordagem mais preventiva e estratégica.
Algumas frentes ganham destaque:
1. Auditoria de governança digital
Instituições públicas e privadas precisam revisar:
- políticas de uso de plataformas;
- protocolos internos de moderação;
- mecanismos de gestão de riscos digitais.
2. Revisão de termos de uso e políticas de conteúdo
Empresas que operam serviços digitais devem assegurar que seus documentos contratuais reflitam práticas reais de moderação e critérios transparentes de atuação.
Termos de uso genéricos e pouco claros passam a representar risco jurídico relevante.
3. Estratégias de compliance digital
Assim como ocorreu com a proteção de dados após a Lei Geral de Proteção de Dados Pessoais, começa a surgir um campo específico de compliance em governança de plataformas e circulação informacional.
Isso inclui:
- protocolos de resposta a conteúdos ilícitos;
- canais estruturados de denúncia;e
- registros auditáveis de decisões de moderação.
Reflexão final
A narrativa de que o Artigo 19 teria sido "superado” não corresponde exatamente à realidade.
O dispositivo permanece como uma garantia importante contra a remoção arbitrária de conteúdos e contra a privatização absoluta do controle da liberdade de expressão.
O que ocorreu foi, na verdade, um processo de ressignificação interpretativa.
Hoje, a proteção conferida às plataformas não pode mais ser compreendida como um salvo-conduto para a omissão diante de ilícitos evidentes ou danos sistêmicos amplificados por suas próprias estruturas tecnológicas.
Em síntese, o modelo brasileiro parece caminhar para um ponto de equilíbrio: preservar a liberdade de expressão, sem ignorar que quem estrutura a arquitetura da informação também carrega consigo responsabilidades proporcionais ao poder que exerce.
Nos próximos anos, caberá aos tribunais superiores delimitar com maior precisão os contornos desse novo regime; e definir até onde vai o dever de cuidado das plataformas sem comprometer a abertura do espaço público digital.
KAROLINE TOSCANO VASCONCELOS
Advogada
inscrita na OAB/PB sob o nº 30.201;
Graduada pela Faculdade de Ciências Sociais Aplicadas - Facisa (2020);
Pós-graduada
em Direito das Mulheres pela Faculdade I9 Educação (2025); e
Pós-graduda em Direito Digital, LGPD e Proteção de Dados pela Faculdade I9 Educação(2025).
LinkedIn:
Karolyne Toscano Vasconcelos |
LinkedIn
Nota do Editor:
Todos os artigos publicados no O Blog do Werneck são de inteira responsabilidade de seus autores.
.png)
Nenhum comentário:
Postar um comentário