O que big techs criticam em PL e ações sobre regulamentação das redes no Brasil

Após o adiamento da votação do PL (Projeto de Lei) das Fake News na Câmara dos Deputados, a regulamentação e responsabilização das redes sociais por conteúdos postados por usuários voltou a ser discutida com a aproximação de um julgamento de ações sobre o tema no Supremo Tribunal Federal (STF), que deve ocorrer na segunda quinzena de junho.

Os casos colocados em pauta pela corte tratam, entre outras coisas, da possibilidade de suspensão de aplicativos e responsabilização das empresas de mídia em decorrência do não cumprimento de decisão judicial a respeito do conteúdo de mensagens e postagens.

Na mesma linha, o PL 2630/2020 (mais conhecido como PL das Fake News) estipula um novo formato de regulamentação e fiscalização de plataformas digitais.

Grandes empresas de tecnologia (as chamadas big techs) como Meta, Google, Twitter e Telegram acusam o PL de ser antidemocrático, ameaçar a liberdade de expressão e responsabilizar demais as empresas de uma forma que pode levar a uma “enxurrada de processos judiciais”.

O que propõe o PL?

O PL 2630 discute vários temas, mas um dos mais controversos diz respeito à criação de novas regras para a moderação de conteúdo por parte das plataformas digitais.

A última versão do documento estipula que elas poderão ser punidas se não agirem “diligentemente para prevenir e mitigar práticas ilícitas no âmbito de seus serviços”. Essa nova abordagem é inspirada em uma legislação recentemente adotada pela União Europeia, a Lei dos Serviços Digitais (DSA, na sigla em inglês).

Segundo as regras atuais, estabelecidas pelo artigo 19 do Marco Civil da Internet, as big techs não têm responsabilidade pelo conteúdo criado por terceiros e compartilhado em suas plataformas.

De acordo com esse princípio, as empresas só são obrigadas a excluir conteúdos no Brasil em caso de decisão judicial.

Mas se o projeto de lei for aprovado, as plataformas poderiam ser responsabilizadas civilmente pela circulação de conteúdos que se enquadrem em crimes já tipificados pela lei brasileira, como crimes contra o Estado Democrático de Direito, atos de terrorismo, racismo, entre outros.

As big techs podem ser punidas quando esses conteúdos forem patrocinados ou impulsionados ou quando as empresas falharem em conter a disseminação do conteúdo criminoso, obrigação prevista pelo chamado “dever de cuidado”, um dos conceitos importados da legislação europeia.

E as ações no STF?

Quatro ações devem ser julgadas pelo STF nos próximos meses. Elas questionam a constitucionalidade de trechos do Marco Civil da Internet — ou seja, se trechos dessa lei estariam em desacordo com princípios da Constituição e, por isso, devem ter sua aplicação alterada pela Corte.

Duas delas discutem a validade do artigo 19, que estabelece que as plataformas digitais não podem ser responsabilizadas por conteúdos compartilhados pelos usuários, com exceção dos casos de “pornografia de vingança” (divulgação de imagens de nudez sem autorização da pessoa fotografada/filmada).

Ou seja, o artigo 19 determina que as empresas, na maioria dos casos, só são obrigadas a apagar postagens após ordem judicial.

As duas ações em julgamento tratam de casos concretos, mas a decisão terá repercussão geral, ou seja, fixará parâmetros gerais para o funcionamento das plataformas.

Num dos casos julgados, uma professora processou o Google porque a empresa se recusou a apagar uma comunidade contra ela criada por alunos no Orkut, rede social que já não existe mais. A professora chegou a notificar extrajudicialmente a plataforma solicitando a exclusão da página antes de ingressar na Justiça, mas não foi atendida.

No outro caso em análise, uma mulher processou o Facebook (rede social do grupo Meta) porque a empresa se recusou a apagar um perfil falso criado com seu nome para divulgar conteúdo ofensivo.

As outras duas ações tratam da possibilidade de suspensão de aplicativos de mensagens como WhatsApp e Telegram em todo o país devido ao não cumprimento de decisão judicial.

Elas foram movidas por partidos políticos (Cidadania e Republicanos) após juízes determinarem em 2015 e 2016 a suspensão do funcionamento do WhatsApp em todo o país porque a empresa não cumpriu decisão judicial para quebra de sigilo de conversas de usuários investigados criminalmente.

O processo analisa a constitucionalidade da tecnologia de criptografia de ponta a ponta e se ela deve ser mantida em prol da privacidade dos usuários, mesmo em casos que envolvem apurações policiais.

Os partidos que apresentaram as ações pedem que o STF proíba esse tipo de decisão, sob o argumento de que a suspensão desses aplicativos é desproporcional e viola o direito de livre comunicação de todos os cidadãos, previsto no artigo 5º da Constituição Federal.

O que dizem as big techs?

As companhias alegam que o tipo de monitoramento proposto pelo PL – e que pode ser fixado como parâmetro geral a depender das decisões do STF – transforma as plataformas em uma espécie de “polícia da internet” e pode levar a uma “enxurrada de processos judiciais”.

Meta

Em nota divulgada no final de abril, a Meta, conglomerado que engloba redes sociais como WhatsApp, Facebook e Instagram, afirmou que o projeto discutido pelo Congresso transfere para a iniciativa privada um poder que cabe ao Judiciário e cria “um sistema de vigilância permanente similar ao que existe em países de regimes antidemocráticos”.

Já sobre as ações que aguardam julgamento no STF, a empresa afirmou em sua defesa que, no caso da mulher que processa o Facebook por se recusar a apagar um perfil falso criado com seu nome, não poderia remover conteúdos sem decisão judicial, sob risco de ferir a liberdade de expressão.

“Ser obrigação dos provedores de aplicações na internet as tarefas de analisar e excluir conteúdo gerado por terceiros, sem prévia análise pela autoridade judiciária competente, acaba por impor que empresas privadas — como o Facebook Brasil e tantas outras — passem a controlar, censurar e restringir a comunicação de milhares de pessoas, em flagrante contrariedade àquilo estabelecido pela Constituição Federal e pelo Marco Civil da Internet”, argumentou o Facebook na ação.

Segundo a BBC Brasil apurou, também há uma oposição à visão de que o artigo 19 do Marco Civil represente uma forma de imunidade para as plataformas, como críticos argumentam.

A intenção é fortalecer a ideia de constitucionalidade do artigo, ao defender que o Marco foi elaborado a partir de uma ampla discussão legislativa, com partipação popular, que ainda é atual.

Ao mesmo tempo, defende-se dentro da empresa a possibilidade de manter uma moderação espontânea dos conteúdos impróprios, sem que isso se torne papel exclusivo das plataformas.

Enquanto isso, nas ações que dizem respeito ao bloqueio dos aplicativos de mensagem, a apuração da BBC Brasil mostrou que há a expectativa de que o julgamento dessas ações abra precedentes que assegurem a constitucionalidade da tecnolgia de criptografia usada pelo WhatsApp em prol da privacidade dos usuários.

Os advogados que representam a plataforma questionam, em sua manifestação oficial no processo, a ideia de que a criptografia atrapalha qualquer tipo de investigação conduzida pelas autoridades sobre crimes e irregularidades.

A plataforma também afirma em seus posicionamentos que coopera ativamente com as autoridades e promove ações contra desinformação e disparo em massa de mensagens ilícitas.

Google

De forma semelhante à Meta, o Google, em um texto assinado por Marcelo Lacerda, diretor de Relações Governamentais e Políticas Públicas da empresa no Brasil, afirmou que as empresas de tecnologia terão que assumir “uma função exercida tradicionalmente pelo Poder Judiciário” caso o projeto legislativo seja aprovado no Congresso.

“A incerteza do que pode ou não ser disponibilizado na internet levaria as empresas a restringir a quantidade de informações disponíveis, reduzindo a representatividade de vozes que existem nas plataformas. Isso violaria diretamente o princípio do acesso livre à informação, o que seria uma grande retrocesso na guerra contra conteúdos enganosos”, diz o artigo.

Em nota enviada à BBC Brasil, o Google disse ainda que “abolir por completo regras que separam as responsabilidade civis das plataformas e dos usuários não necessariamente contribuiria para o fim da circulação de conteúdos indesejados nas plataformas de internet” e afirmou que não espera uma decisão judicial para a remoção de conteúdos que violam as políticas da plataforma.

A empresa também reforçou a ideia de que mesmo boas políticas de moderação de conteúdo seriam incapazes de lidar com todos os conteúdos controversos, “na variedade e complexidade com que eles se apresentam na internet”.

Sobre a ação em análise no STF que avalia o pagamento de indenização a uma professora por conta da criação de uma comunidade no Orkut contra ela, o Google sustenta que não tem obrigação de pagar a reparação antes de uma determinação judicial.

“Não sendo a Google possuidora do poder jurisdicional do Estado e não havendo qualquer conteúdo manifestamente ilícito no perfil objeto da lide, não se poderia esperar outra atitude sua do que aguardar o posicionamento do Poder Judiciário”, disse a empresa em sua defesa.

A professora que processou a rede social, por sua vez, argumentou ao STF que “admitir as razões da Recorrente (Google) seria correr o risco de se fazer da internet uma terra sem lei, onde anonimamente, invocando a liberdade de expressão e o direito de comunicação, praticar-se-á todo tipo de ato e crime sem vigilância, consequência ou punição alguma”.

Telegram

O Telegram também divulgou seu próprio pronunciamento sobre o PL das Fake News em 9 de maio. No texto, que foi apagado posteriormente por determinação do STF, o aplicativo afirmava que a “democracia está sob ataque no Brasil” e alegava que o plano daria poder de censura ao governo.

Assim como as demais empresas, a companhia também afirmou que o projeto pode transferir poderes judiciais aos aplicativos, tornando-as “responsáveis por decidir qual conteúdo é ‘ilegal’ em vez dos tribunais”.

O comunicado foi tirado do ar após a ordem do Judiciário, mas em nota enviada à reportagem o Telegram afirmou que “mantém sua análise e acredita que as leis que afetarão a vida de dezenas de milhões de pessoas exigem atenção pública e um período razoável de debate”.

O aplicativo afirmou ainda que, se o PL for aprovado com a redação atual, provavelmente não conseguirá mais continuar atuando no Brasil.

Sobre os casos em julgamento no STF, a empresa não se manifestou até a publicação da reportagem.

Twitter

Outro gigante da tecnologia que tem se mobilizado contra a aprovação do PL, o Twitter publicou um manifesto conjunto contra o projeto em fevereiro de 2022, afirmando, na época, que o PL “traz exigências severas caso as plataformas tomem alguma medida que seja posteriormente questionada e revertida”.

“O receio de uma enxurrada de processos judiciais levará as plataformas a agir menos na moderação de conteúdo, deixando o ambiente on-line mais desprotegido do discurso de ódio e da desinformação. Isso vai totalmente na contramão das demandas da sociedade pela preservação de um debate público saudável, confiável e em igualdade de condições”, diz a carta.

A BBC News Brasil procurou a empresa por e-mail para um posicionamento mais atualizado, mas obteve como resposta automática apenas um emoji de fezes, que se tornou o padrão da rede social para questionamentos da imprensa.

Copyright e conteúdo jornalístico

O PL 2630/2020 também trata de outros temas que preocupam as companhias, além do monitoramento de conteúdo, e que não serão discutidos pelo STF. Um deles é a remuneração por conteúdos jornalísticos que circularem em suas plataformas.

A proposta estabelece que terá direito à remuneração qualquer empresa em funcionamento há ao menos 24 meses, mesmo se individual (apenas um jornalista), que “produza conteúdo jornalístico original de forma regular, organizada, profissionalmente e que mantenha endereço físico e editor responsável no Brasil”.

Caso o texto seja aprovado, a negociação poderá ser feita de forma individual entre veículos e empresas, ou de forma coletiva.

Em seus posicionamentos, a Meta afirma que a proposta não é clara sobre como a lei afetaria relações e práticas comerciais por conteúdo com direitos autorais e cria “um ambiente incerto, confuso e insustentável”.

“A lei proposta também não define o que é ‘conteúdo jornalístico’. Isso pode levar a um aumento da desinformação, e não o contrário. Imagine, por exemplo, um mundo em que pessoas mal intencionadas se passam por jornalistas para publicar informações falsas em nossas plataformas e sermos forçados a pagar por isso”, diz a Meta.

Outra novidade da última versão do PL é a previsão de novas regras para remuneração de conteúdo protegido por direitos autorais, como músicas e vídeos.

Sobre esse ponto, o Google afirmou que se o projeto for aprovado as plataformas não poderiam mais oferecer serviços gratuitos de hospedagem ou compartilhamento de conteúdo sem pagar aos criadores que desejam usar seus produtos. “Isso significa que poderá deixar de ser viável financeiramente para as plataformas oferecer serviços gratuitos”, afirmou a empresa.

Por que há tanta resistência?

Para a pesquisadora da fundação Alexander von Humboldt e ativista da coalizão Direitos na Rede, Bruna dos Santos, as plataformas têm problemas com o processo de adaptação e custos que serão necessários caso as mudanças sejam implantadas.

“As plataformas afirmam que não existe um mecanismo ou algoritmo que seja capaz de barrar absolutamente todo o conteúdo que está listado como irregular no projeto”, diz Santos, que tem atuado pela aprovação do PL.

“Por isso há um temor da responsabilização imediata, sem que elas tenham tempo para empreenderem os esforços necessários para conter esse tipo de conteúdo.”

Segundo a ativista, o mesmo argumento foi usado durante o período de discussão do chamado Network Enforcement Act (NetzDG), uma versão semelhante ao projeto de lei brasileiro que entrou em vigor em 2018 na Alemanha.

No Brasil, porém, ela acredita haver uma falta de investimento em tecnologias específicas capazes de detectar infrações comuns ao contexto nacional ou cometidas na língua portuguesa.

“Pode ser que de fato haja uma incapacidade em detectar todo e qualquer conteúdo, mas a falta de times que compreendam o contexto e as especificidades da sociedade brasileira, após tantos anos, é algo bastante problemático e pode ditar a complacência dessas empresas com conteúdos extremistas.”

A pesquisadora afirma ainda que a resistência em torno dos trechos que tratam de direitos autorais e remuneração de conteúdos jornalísticos também está ligada à questão financeira.

“A demanda é para que esses atores compartilhem parte do bolo, ou seja, do lucro que acumulam com o compartilhamento desses conteúdos jornalísticos, artísticos etc”, diz Santos. “Os autores desses conteúdos muitas vezes não são devidamente remunerados.”

O advogado constitucionalista e especialista em direito digital André Marsiglia também vê relação entre a oposição das big tech e o aumento nos investimentos.

“Essas mudanças trariam a necessidade de um ajuste tecnológico muito grande e, portanto, muitos gastos”, diz.

Mas Marsiglia, que vê problemas na redação do PL 2630/2020 e defende outras soluções para a regulamentação, concorda com a posição adotada pelas empresas de tecnologia de que o projeto responsabilizaria demais as plataformas pela moderação.

“O PL transfere o poder que hoje é do Judiciário de classificar conteúdos como ilícitos, nocivos, discurso de ódio ou desinformação para as plataformas – e ameaça aplicar multas caso esse gerenciamento não seja feito corretamente”, diz.

Para o advogado, esse arranjo poderia levar a um cenário de remoção exagerada de conteúdos e até censura.

“Por outro lado, o PL não avança em um ponto muito importante dessa discussão, que é a transparência. Não sabemos totalmente como os algoritmos dessas plataformas atuam e, por exemplo, como e porque escolhem promover um conteúdo ao invés do outro. Isso deveria estar incluído no texto.”

Publicado em BBC News Brasil.

Compartilhe