Seis ministros do Supremo Tribunal Federal formaram maioria nesta quarta-feira (11) para mudar o artigo 19 do Marco Civil da Internet, principal lei que regula o regime de responsabilidade na internet no Brasil, desde 2014. Apenas um, André Mendonça, acredita que o artigo 19 é plenamente constitucional.
Mas os ministros se dividem no grau de responsabilidade que as big tech deveriam ter.
Os ministros Dias Toffoli e Luiz Fux são os mais radicais, pois acreditam que, para uma ampla lista de conteúdos considerados ameaças, as big tech possam ser punidas se não removerem rapidamente a postagem, mesmo sem que recebam ordem judicial ou denúncia de usuário. O ministro Gilmar Mendes cria um regime especial de remoção sem notificação, mas com ressalvas.
Já o presidente do STF, Luís Roberto Barroso, e os ministros Flávio Dino e Cristiano Zanin adotaram uma abordagem intermediária: nem a bomba nuclear que demole o Marco Civil da Internet, prevista nos votos de Toffoli e Fux, nem a manutenção do status quo, defendida na tese de Mendonça.
Para Barroso, Dino e Zanin, as empresas também têm obrigação de remover uma lista de determinados conteúdos de forma pró-ativa, mas não serão punidas se uma ou algumas postagens escaparem, serão julgadas pelo esforço para combater esse tipo de conteúdo.
Após sete votos dos ministros, desenham-se alguns consensos que devem prevalecer: responsabilização após notificação extrajudicial (denúncia privada) para a maioria dos conteúdos; ofensas e crimes contra honra continuam sob o Marco Civil; responsabilidade por todos os conteúdos patrocinados; dever de cuidado para riscos sistêmicos, e obrigatoriedade de manter um representante legal no país.
Hoje em dia, segundo o Marco Civil, as empresas só podem ser punidas por eventual dano decorrente de conteúdo caso ele não seja removido após ordem judicial. Há apenas duas exceções —nudez não consentida, que está no artigo 21 do Marco Civil, e violação de propriedade intelectual. Nesses casos, basta uma notificação extrajudicial, como uma denúncia de usuário.
Barroso, Dino, Zanin e Gilmar preveem que a maioria dos conteúdos passem a se encaixar no artigo 21 do Marco Civil: bastaria uma notificação extrajudicial para que as plataformas possam ser responsabilizadas por danos decorrentes da não remoção de conteúdo nesses casos. Esse é o regime em vigor na União Europeia —o “notice and take action” (tomar conhecimento e agir).
Ofensas e crimes contra a honra, no caso de Barroso, Dino e Zanin, e também conteúdo jornalístico, para Gilmar, ficariam ainda dentro do artigo 19. Nesses casos, só haveria responsabilidade após ordem judicial. Toffoli e Fux consideram que ofensas e crimes contra honra podem gerar responsabilidade já após denúncia privada.
Isso gera preocupação entre especialistas e membros da sociedade civil, porque prever responsabilidade após uma notificação privada em caso de ofensas fatalmente levaria a uma guerra de denúncias entre candidatos em campanha eleitoral, por exemplo.
Mais estritos, Gilmar, Toffoli e Fux preveem uma categoria de conteúdos que podem gerar responsabilidade imediata das plataformas, mesmo sem serem comunicadas previamente do fato. Fux fala em um “dever de monitoramento ativo” para discurso de ódio, racismo, pedofilia, incitação à violência, apologia à abolição violenta do Estado democrático de Direito e apologia ao golpe de Estado. Toffoli fala em responsabilidade civil independentemente de notificação para esses e vários outros tipos de conteúdo.
Gilmar fala em um “regime especial” de responsabilidade para conteúdos com potencial de “dano grave ao tecido social democrático”, que precisam ser indisponibilizados imediatamente.
Mas ele faz a ressalva de que é necessário “considerar hipótese em que o conteúdo não seja uma representação patente desses crimes” —nesses casos, não haveria responsabilização antes de notificação.
As big tech afirmam que a obrigação de remover determinados conteúdos mesmo sem notificação pode criar monitoramento ativo por parte das empresas e excesso de remoção, para evitar responsabilização.
Os sete ministros preveem que as plataformas de internet terão responsabilidade por conteúdo patrocinado ou impulsionado mesmo antes de ordem judicial para retirada ou de notificação extrajudicial. Presume-se que as empresas tenham conhecimento prévio do conteúdo sobre o qual lucram e, portanto, devem ser responsáveis.
Dino, Zanin, Barroso e Gilmar preveem em suas teses o chamado dever de cuidado, nos moldes do que é adotado na legislação europeia, a Lei de Serviços Digitais, em relação a determinados riscos sistêmicos. As empresas teriam a obrigação de, proativamente, remover postagens com crimes contra criança, induzimento ao suicídio, terrorismo, incitação à violência e crimes contra o Estado democrático de Direito, além de tráfico de pessoas (há variações na lista de cada ministro).
Seguindo o modelo da Lei de Serviços Digitais da UE, as plataformas precisam provar que fizeram o melhor possível para mitigar os riscos sistêmicos e para lidar com conteúdos ilícitos.
Mas não seriam punidas por conteúdos únicos ou esparsos. São levadas em conta as ações adotadas para combater postagens ilícitas.
Há consenso, portanto, em relação há alguns pontos, como conteúdo impulsionado, mas não quanto ao grau de responsabilização que as big tech devem ter na nova versão do Marco Civil.
E não há concordância sobre quem será o órgão regulador. Quem, por exemplo, irá decidir se apenas alguns conteúdos ilegais avulsos escaparam do filtro da plataforma e se ela fez o que podia para mitigar o risco sistêmico? Ou se ela falhou em seu dever de cuidado e pode, por consequência, ser responsabilizada?