Contrato de compra da Eldorado pela Paper Excellence é nulo, diz MPF
13 de dezembro de 2024Rateio de ICMS envolvendo municípios exportadores e o STF
17 de dezembro de 2024O Supremo Tribunal Federal está julgando recursos extraordinários que tratam da responsabilidade civil das plataformas da internet por conteúdos de terceiros e a possibilidade de remoção de material ofensivo, a pedido dos ofendidos, sem a necessidade de ordem judicial. No cerne desse debate está a declaração ou não da constitucionalidade do artigo 19 da Lei nº 12.965/2014 (Marco Civil da Internet).
Esse dispositivo tem sido alvo de críticas, particularmente em relação às suas implicações na responsabilização de plataformas e no gerenciamento de conteúdo ofensivo e desinformativo (Frazão; Medeiros, 2021). A redação deste artigo funciona como uma espécie de salvo-conduto para que os provedores de serviços de Internet não sejam responsabilizados por conteúdo de terceiros, limitando sua responsabilidade judicial aos casos em que não removam determinado conteúdo após decisão judicial.
O texto do Marco Civil foi criado sob o argumento de proteção à liberdade de expressão dos usuários, prometendo que o conteúdo não fosse removido arbitrariamente sem o devido processo legal. À época de sua tramitação enquanto Projeto de Lei nº 2126/11, o relator da proposta, o então deputado Alessandro Molon (PT-RJ), defendeu que a proposta tinha três pontos principais: “garantia da liberdade de expressão, a proteção à privacidade e a neutralidade de rede”.
No entanto, essa promessa não se concretizou e a narrativa de “defesa da liberdade de expressão do usuário” se converteu em argumento para não intervenção dessas empresas na gestão de conteúdos ofensivos e desinformativos. Já é lugar comum a informação de que as plataformas manipulam a circulação de conteúdos, além do impulsionamento de conteúdos mais polêmicos, que gerem mais engajamento (Frazão; Medeiros, 2021).
Tudo isso acontece sem qualquer transparência (Lindoso, 2019) e foi projetada para maximizar a retenção de usuários, aumentando assim a exposição a anúncios e a conteúdo político, além de, ao mesmo tempo, expandir a coleta de dados pessoais. Nesse sentido, inclusive, Harari (2024) lembra que a lógica algorítmica das plataformas tende a amplificar o que gera mais engajamento — o que frequentemente inclui conteúdo extremo, provocador ou desinformativo —, fragmentando ainda mais o discurso público. O controle algorítmico sobre o que os usuários veem nas redes sociais cria bolhas de informação, onde as pessoas são expostas apenas a pontos de vista que confirmam suas próprias crenças, tornando ainda mais difícil encontrar um terreno comum (Harari, 2024).
A desinformação, nesse contexto, representa uma ameaça direta à integridade das instituições democráticas. A tentativa de golpe de 8 de Janeiro de 2023 é um exemplo prático desse risco dado que a circulação descontrolada de informações falsas distorce a percepção pública e enviesa a tomada de decisões. Quando os conteúdos desinformativos são submetidos a impulsionamentos dirigidos pela lógica de engajamento ou por investimento publicitário, o papel das plataformas se torna ainda mais problemático.
Nesse contexto, inclusive, Jessé Souza observa que a extrema direita moderna se aproveita dessa arquitetura e aplica estratégias de marketing político sofisticadas, desenvolvidas a partir das técnicas aprimoradas pelo uso de big data e redes sociais, permitindo identificar medos e ansiedades específicas de diferentes grupos, criando mensagens direcionadas e altamente eficazes na manipulação das massas (Souza, 2024).
Em um caso emblemático, que chegou a ser analisado pelo Oversight Board da Meta, um vídeo publicado no Facebook por um general brasileiro convocava as pessoas a invadir o Congresso Nacional e o Supremo Tribunal Federal como forma de resistir à eleição do presidente Lula. Embora o conteúdo fosse flagrantemente ilícito e violador das políticas da plataforma, este permaneceu ativo, mesmo após denúncias feitas pelos usuários.
Moderadores humanos revisaram a publicação várias vezes entre os dias 3 e 4 de janeiro, mas consistentemente decidiram mantê-la no ar. O Oversight Board concluiu que a Meta falhou ao não oferecer aos moderadores diretrizes adequadas para análises em situações de alto risco, além de não garantir que o conteúdo fosse examinado integralmente. Essa negligência ocorreu em um contexto de polarização extrema no Brasil e demonstra a ineficiência das plataformas em enfrentar discursos de ódio e desinformação de forma célere e responsável.
Episódios como esse demonstram a urgência da regulamentação mais rigorosa das plataformas de redes sociais. Como agentes econômicos e gatekeepers no ecossistema digital, as plataformas têm a responsabilidade de contribuir positivamente para a construção de um ambiente digital mais seguro e saudável. Isso inclui a promoção de soluções que limitem, quando não for possível impedir, a circulação de discursos de ódio, cyberbullying, desinformação e outras formas de abuso digital.
Se decidir pela inconstitucionalidade do artigo 19 do MCI, o Supremo pode alterar a lógica da participação das plataformas, garantindo que elas implementem medidas eficazes para prevenir e resolver esses problemas, cumprindo assim suas obrigações sociais. O caminho natural para uma regulamentação dessa natureza seria, claro, pelo Poder Legislativo, mas há um cenário de captura dos agentes políticos pelas plataformas que inviabiliza um debate saudável e transparente sobre o papel das plataformas.
Alguns parlamentares se aproveitam da lógica algorítmica para difundir narrativas desinformativas, criando ambiente de instabilidade política e social, gerando desconfiança em relação às instituições democráticas, perpetuando a polarização e um projeto político que se alimenta do ódio. Há também outros que são seduzidos por incentivos oferecidos pelas plataformas que flertam com os limites da legalidade, como a promoção de eventos de capacitação de empreendedores nas comunidades de interesse dos parlamentares ou ainda convites para viagens e simpósios patrocinados pelas empresas.
Outro sinal dessa captura é a atual representação das plataformas nas relações com o Congresso, comandada pelo ex-deputado federal e relator do MCI, Alessandro Molon. Registre-se que não há qualquer ilegalidade na participação do ex-parlamentar enquanto defensor dos interesses das plataformas, mas gera, no mínimo, um estranhamento sobre a ética envolvida na relação entre as plataformas e agentes políticos.
Não precisamos ir muito longe na história legislativa brasileira para lembrar o episódio de abuso de poder econômico e informacional promovido pelas plataformas de redes sociais quando a Câmara dos Deputados pautou o Projeto de Lei nº 2.630/2020 [PL das Fake News] em maio de 2023. O Google usou sua página inicial para colocar um link redirecionando a um texto com críticas ao projeto afirmando que a proposta “acaba protegendo quem produz desinformação”. Segundo a Agência Pública, o Google gastou mais de R$ 670 mil em anúncios na sua concorrente Meta entre abril e maio de 2023, todas impulsionando postagens contrárias ao projeto.
No início de 2024, a Polícia Federal apresentou relatório apontando que a atuação de diversas plataformas na campanha sobre o PL das Fake News demonstrou abuso de poder econômico, manipulação de informações e possíveis violações contra a ordem de consumo. “A distorção do debate sobre a regulação, a tentativa de influenciar os usuários a coagirem os parlamentares e a sobrecarga nos serviços de TI da Câmara dos Deputados evidenciam o impacto negativo dessas práticas nas atividades legislativas […]. O intento das empresas, aproveitando-se de suas posições privilegiadas, é incutir nos consumidores a falsa ideia de que o projeto de lei é prejudicial ao Brasil, um ato que pode estar em descompasso com os valores consagrados na Constituição de 1988″, apontou o relatório da PF.
Em que pese o Supremo não estar totalmente imune à influência do poder político e econômico das plataformas de redes sociais, o enfrentamento recorrente da Corte aos abusos perpetrados pelas plataformas, em especial o X (antigo Twitter), mostra que este é o espaço mais qualificado para um debate equilibrado.
Ao contrário do que as plataformas argumentam, inclusive, o STF não inovaria ao chamar as plataformas à responsabilidade para a mitigação da circulação de conteúdos tóxicos ou desinformativos. Um exemplo bem sucedido de regulação tem sido a Lei de Serviços Digitais (DSA), que entrou em vigor este ano e é uma estrutura regulatória abrangente introduzida pela União Europeia para enfrentar os desafios impostos pelas plataformas digitais, particularmente em termos de transparência, responsabilidade e proteção dos direitos fundamentais.
Promulgado para complementar o Regulamento Geral de Proteção de Dados (RGPD), o DSA estabelece um conjunto de regras para serviços digitais que atuam como intermediários na conexão de consumidores com bens, serviços e conteúdo. Ela se aplica a uma ampla gama de serviços on-line, de plataformas de mídia social a mercados on-line, e introduz obrigações para essas plataformas de gerenciar conteúdo ilegal, proteger os dados do usuário e garantir transparência em suas operações. Uma das principais características do DSA é a exigência de que plataformas com mais de 45 milhões de usuários conduzam avaliações de risco regulares e cooperem com as autoridades para remover conteúdo problemático.
Ao exigir transparência nos processos publicitários e algorítmicos, o DSA responsabiliza as plataformas por suas práticas de moderação de conteúdo, impondo uma transparência crucial para criar confiança com os usuários e garantir que as plataformas não se tornem veículos de desinformação política ou conteúdo prejudicial a troco de engajamento. Além disso, a exigência do DSA de avaliações regulares de risco permite que ele se adapte aos novos desafios e ameaças à medida que eles surgem. Essa adaptabilidade é essencial em um cenário digital em rápida evolução, onde novas formas de danos podem surgir rapidamente.
A decisão do STF sobre o artigo 19 do Marco Civil da Internet tem o potencial de moldar o futuro da democracia informacional no Brasil. Caso decida responsabilizar as plataformas, a Corte pode estabelecer um parâmetro jurídico que priorize a proteção dos cidadãos e a preservação do Estado democrático de direito e sinalizaria um compromisso de promover um ambiente digital saudável, livre das distorções da desinformação e do conteúdo tóxico.
Fonte: Conjur