Notamos que você possui
um ad-blocker ativo!

Para acessar todo o conteúdo dessa página (imagens, infográficos, tabelas), por favor, sugerimos que desabilite o recurso.

Editorial

STF altera regra do Marco Civil da Internet e gera risco à segurança jurídica digital

Decisão do Supremo de ampliar a responsabilização das plataformas voltou ao debate público com repercussão de denúncia feita pelo youtuber Felca

Ajustar texto A+A-

STF altera regra do Marco Civil da Internet e gera risco à segurança jurídica digital
Especialista em direito digital e consultor em Proteção de Dados da FecomercioSP, o advogado Rony Vainzof conduz a apresentação na última reunião do Conselho Superior de Direito (Imagem: Edilson Dias)

O Supremo Tribunal Federal (STF) decidiu, em junho, pela inconstitucionalidade parcial e progressiva do Artigo 19 do Marco Civil da Internet (MCI), norma que, desde 2014, estabelecia que os provedores de aplicações — como redes sociais, plataformas de e-commerce, serviços de e-mail e aplicativos de mensagens — só poderiam ser responsabilizados civilmente por conteúdo de terceiros mediante o descumprimento de ordem judicial específica. Com a intervenção, a responsabilização poderá incidir a partir de notificação extrajudicial, criando deveres de cuidado e autorregulação para provedores digitais.

O assunto voltou à tona com força total, no entanto, ao longo de agosto, a partir da denúncia feita pelo youtuber Felipe Bressanim Pereira, que expôs a exploração de menores por alguns influencers, levando não apenas à derrubada dos perfis envolvidos, mas também à prisão de dois dos responsáveis por eles. Felca, como é conhecido, explicou também como o algoritmo das redes sociais acaba impulsionando conteúdos criminosos em casos desse tipo.

O vídeo em questão teve quase 50 milhões de visualizações em pouco mais de duas semanas, pautando o debate público. Sob esse prisma, a decisão do STF foi objeto de análise na reunião de agosto do Conselho Superior de Direito da Federação do Comércio de Bens, Serviços e Turismo do Estado de São Paulo (FecomercioSP). Rony Vainzof, consultor em Proteção de Dados da Federação e sócio do VLK Advogados, fez uma apresentação sobre o tema e conduziu a discussão.

“Embora reconheça-se a necessidade de enfrentamento de conteúdos ilícitos, como racismo, terrorismo e crimes sexuais contra vulneráveis, a medida enseja dúvidas sobre seus impactos na liberdade de expressão, na inovação tecnológica e na atração de investimentos digitais para o País”, ponderou Rony.

Do marco da liberdade ao controle ampliado
O MCI foi considerado, desde sua criação, uma referência internacional ao assegurar equilíbrio entre liberdade de expressão e responsabilização proporcional das plataformas. Inspirado na Seção 230 do Communications Decency Act dos EUA, de 1996, e em experiências da União Europeia, o modelo brasileiro blindava as empresas contra sanções imediatas, permitindo que apenas ordens judiciais específicas determinassem a retirada de conteúdos — salvo duas exceções: direitos autorais e pornografia não consentida.

Esse desenho jurídico foi decisivo para que o país consolidasse um ecossistema digital vibrante. Entretanto, a evolução do papel das plataformas — hoje verdadeiras arenas públicas de debate e interação — trouxe pressões regulatórias crescentes para enfrentar discursos de ódio, manipulação por redes artificiais e violações graves de direitos fundamentais.

O que mudou com a decisão do STF
 
Com a nova interpretação do Supremo, o artigo 21 do MCI passa a ser regra geral, prevendo a responsabilização a partir do não atendimento de notificações extrajudiciais. Entre acertos e riscos, tem-se:

  • Crimes ou atos ilícitos em geral poderão gerar responsabilização, independentemente de ordem judicial;
  • Contas inautênticas denunciadas também se enquadram nessa hipótese;
  • O Artigo 19 ainda se aplica em situações específicas, como crimes contra a honra, provedores de e-mail e de mensageria privada, e reuniões virtuais fechadas.

Além disso, a Corte estabeleceu hipóteses de presunção de responsabilidade, como anúncios e impulsionamentos pagos ou a utilização de redes artificiais de distribuição, os chamados robôs. A decisão também impõe aos provedores deveres de cuidado, responsabilizando-os em caso de falha sistêmica na indisponibilização imediata de conteúdos ligados a crimes graves, como atos antidemocráticos, terrorismo, induzimento ao suicídio, violência contra a mulher e tráfico de pessoas. 

Insegurança jurídica à vista
Para Vainzof, a decisão contém avanços importantes, como a exigência de autorregulação, relatórios de transparência e canais de atendimento acessíveis. Contudo, ele alerta que a amplitude da decisão pode gerar “perigosa insegurança jurídica”. “O julgamento do Supremo deslocou a responsabilidade pela comunicação, que constitucionalmente deve ser a posteriori, para um controle a priori”, resumiu Ives Gandra Martins, presidente do Conselho, dando como exemplo as biografias não autorizadas.

Segundo o especialista, ao transferir parte da responsabilidade de moderação para notificações extrajudiciais e criar presunções de culpa em determinados casos, corre-se o risco de promover a remoção indiscriminada de conteúdos, por receio de responsabilização. “Isso pode fomentar uma indústria de indenizações, desestimular o empreendedorismo digital e até restringir a oferta de serviços globais no Brasil”, ressaltou. 

Também falta definir a que órgão recairá a responsabilidade de acompanhar esse processo, uma vez que a Autoridade Nacional de Proteção de Dados (ANPD) já trabalha no teto da sua capacidade estrutural.

O papel do Legislativo 
Críticos à decisão defendem que o STF poderia ter se limitado a ampliar exceções já previstas no MCI, como racismo e terrorismo, deixando o restante da reforma à deliberação do Congresso Nacional. “Era preciso mesmo ampliar o rol taxativo do artigo 19 do MCI para englobar outras situações, mas qualquer mudança que exceda essa atualização precisa ser feita em âmbito legislativo, não judiciário”, destacou Vainzof. 

A escolha de um modelo tão abrangente de responsabilização judicial e extrajudicial, sem debate parlamentar, amplia a sensação de insegurança regulatória e coloca o Brasil em rota distinta da de outras jurisdições, como a União Europeia, onde regras mais severas são restritas a plataformas de grande porte.

“Na maioria dos países aplica-se a mesma lógica: fora da lista de temas sensíveis, é necessária a ordem judicial para a derrubada de conteúdo e, em todo caso, essas leis estabelecem limites mínimos de usuários para enquadrar as plataformas, de maneira a não prejudicar os pequenos empresários”, explicou o especialista. “A ideia é limitar o comportamento online no que tange ao pensamento, não aos negócios”, resumiu.   

Próximos passos
 
O acórdão sobre a decisão do Supremo ainda não foi publicado e a expectativa é que ele traga as respostas a muitas dessas perguntas que, hoje, ainda estão em aberto, gerando insegurança jurídica e risco às liberdades econômica e de expressão. Depois da publicação, ainda caberão os Embargos de Declaração, que devem sanar dúvidas, contradições ou omissões. Até lá, cabe à sociedade civil e ao setor produtivo o acompanhamento vigilante para que o Brasil encontre o equilíbrio entre a defesa dos direitos online e a preservação de um ambiente digital livre, seguro e inovador.

Inscreva-se para receber a newsletter e conteúdos relacionados

* Veja como nós tratamos os seus dados pessoais em nosso Aviso Externo de Privacidade.
Fechar (X)