O Google apoia a proposta de incluir crimes graves, exploração infantil e terrorismo nas exceções do artigo 19 do Marco Civil da Internet, afirma à Folha o presidente da empresa no Brasil, Fábio Coelho.
Dessa maneira, as plataformas poderiam ser responsabilizadas por danos em decorrência de conteúdo não removido após notificação extrajudicial, não apenas depois de ordem judicial.
A ideia se alinha às propostas mais moderadas de mudanças no Marco Civil em discussão no STF (Supremo Tribunal Federal).
Coelho alerta, porém, para as “consequências indesejadas” caso haja uma mudança muito ampla na legislação. “Dependendo de como for essa atualização do artigo 19, isso pode nos tornar um pouco menos partícipes de todas as discussões que ocorrem no Brasil e nos levar a remover mais conteúdo no país.”
Por que o Google resolveu participar do Conar [conselho de autorregulação publicitária]?
A primeira plataforma que se aproximou do Conar foi o Google. Fizemos essa aproximação com bastante cuidado, entendendo que a autorregulamentação depende do concerto de pessoas que estão à mesa. O Sérgio Pompilio [presidente do Conar] fez uma reforma [na governança da entidade], que vai permitir que tenhamos uma participação maior no desenvolvimento de diretrizes de práticas do mercado digital.
A política de anúncios da empresa está totalmente alinhada com o código de ética do Conar. É uma nova etapa de consolidação de um sistema que serve para promover uma publicidade mais ética. O Brasil é um mercado grande para o Google, a gente não se furta da nossa responsabilidade como líder no mercado digital.
Vocês estão negociando essa participação no Conar há muito tempo. Mas justamente agora o STF discute o Marco Civil e um dos temas em que há consenso é a responsabilização das plataformas por conteúdo patrocinado ou anúncio antes de notificação judicial ou extrajudicial. Como o senhor vê essa ideia?
Como você mesmo observou, a gente está discutindo com o Conar há bastante tempo. Não é uma decisão açodada que foi tomada agora. Com relação ao artigo 19 [do Marco Civil da Internet], apesar de haver uma formação de maioria [para mudança], ainda não há posição final.
Há uma oportunidade de melhorar o equilíbrio entre liberdade de expressão e responsabilização, mas a gente espera que se preserve um princípio fundamental: quem deve decidir o que é removido e o que não é removido é a Justiça e não as plataformas. Uma ampliação do artigo 19, com mais elementos sendo colocados [além de nudez não consentida e violação de direitos autorais, outros temas passariam a gerar responsabilidade após notificação extrajudicial, sem necessidade de ordem judicial], é possível.
Nosso grupo esteve em diálogo com ministros do Supremo, a gente não é contra essa mudança. A gente apoia as melhorias que podem ocorrer como expandir as exceções para remoções extrajudiciais em caso de crime grave, exploração infantil, terrorismo. Mas com o cuidado necessário para não transformar isso em uma ferramenta que pode ser contrária ao acesso à informação, ao jornalismo investigativo, ao humor.
Quais seriam as consequências de tornar as plataformas responsáveis por vários tipos de conteúdo mesmo antes de ordem judicial ou extrajudicial [denúncia de usuário]?
Uma consequência indesejada seria a plataforma preventivamente fazer uma remoção muito maior de conteúdo. Tem uma infinidade de casos em que a gente, sem uma ordem judicial, não remove, pois considera que o conteúdo deve ser de conhecimento público. A gente passaria a considerar muito mais uma remoção.
Entre todos os temas que estão sendo discutidos no STF, quais são os mais preocupantes do ponto de vista de vocês?
Para mim é o acesso à informação. Quando chegamos no processo eleitoral passado, o que aconteceu? Foi feita uma série de exigências sobre remoção de conteúdo, bibliotecas em tempo real. Eram exigências tão estritas que decidimos não participar do processo eleitoral [Google descontinuou a venda de anúncios eleitorais na plataforma após resolução do TSE com regras de transparência].
Nas condições que foram colocadas, era inviável para nós participarmos. Esse é o tipo da condição que talvez não seja ideal para o país. Você tem uma empresa como o Google não participando do processo eleitoral do ponto de vista comercial.
Isso vai acontecer de novo no ano que vem [na campanha eleitoral presidencial de 2026]?
Se as regras forem as mesmas, a resposta é sim. Eu não queria conectar isso com este momento. Mas só mostra que, em condições extremas, você não consegue participar.
Do mesmo jeito que vocês vetaram os anúncios políticos em 2024, porque consideraram que as regras inviabilizavam, existem temas o regime de responsabilidade que podem inviabilizar ou restringir a atuação do Google no Brasil?
Eu não diria inviabilizar. Dependendo de como for essa atualização do artigo 19, isso pode nos tornar um pouco menos partícipes de todas as discussões que ocorrem no Brasil e nos levar a remover mais conteúdo no país. Se você definir isso como restringir, é uma pequena restrição, sem dúvida. Eu não diria inviabilizar, porque eu acho que não, mas depende do que vem por aí.
Nós estamos há 20 anos no Brasil, temos uma atuação enorme. Vamos inaugurar no IPT [Instituto de Pesquisas Tecnológicas], do lado da Escola de Engenharia e da de Matemática da USP, um escritório focado em inteligência artificial. Todas as nossas interações com os órgãos públicos, com o Supremo, com os ministros, têm sido extremamente salutares.
Eles vão fazer um balanço de todos os pontos de vista para chegar a uma solução razoável, e a gente vai avaliar quais são os impactos que isso tem para o nosso negócio. A gente quer ajudar a influenciar para que isso [a regulação] não seja ruim para o Brasil.
O projeto de lei 2.338 sobre inteligência artificial, que foi aprovado no Senado e está em discussão na Câmara, prevê pagamento de copyright para dados usados para treinar modelos de IA. Como o senhor vê isso?
A gente acredita que você tem que remunerar alguns parceiros de conteúdo sim, mas não necessariamente com copyright. Copyright de assunto público não faz sentido, mas [faz sentido remunerar] informações de qualidade com parceiros com que a gente vai negociar.
Hoje em dia, nós temos acordo de conteúdo com 185 empresas jornalísticas. Remuneramos essas empresas para ter um modelo em que o conteúdo de qualidade é valorizado dentro das nossas plataformas. A definição de copyright para inteligência artificial ainda está em desenvolvimento. É melhor eu não te dar uma resposta sobre isso agora, enquanto a gente está trabalhando com a Câmara e com o Senado para que esse negócio possa funcionar da melhor forma possível para o Brasil.