Após assistir a entrevista do dr. Drauzio Varella, contando sua experiência como vítima de fake news, e analisar os comentários nas redes sociais sobre o vídeo, surgiu uma inquietação: o lucro que sustenta os procedimentos das big techs na manutenção, identificação e retirada de conteúdo falso.
Nos últimos anos, as fake news tornaram-se uma ameaça concreta à democracia, à estabilidade social e aos direitos humanos. Uma pesquisa da OCDE, realizada em julho de 2024, aponta que a população brasileira é a pior em identificar notícias falsas.
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas
Nesse cenário, as big techs, que operam plataformas digitais de amplo alcance, exercem papel central não apenas como mediadoras, mas também como facilitadoras, ainda que indiretas, da disseminação de desinformação. Sua resistência em retirar conteúdos ou adotar mecanismos robustos de verificação evidencia um modelo que privilegia o lucro em detrimento da responsabilidade social e da proteção de direitos fundamentais.
O impulsionamento de postagens e o financiamento da desinformação: função social do contrato
Notícias como “Meta cobrará taxa de 30% em impulsionamentos de posts no IOS: o que isso significa?”, “Lucro da Meta bombou em 2023 com retomada de anúncio” e “Meta recebe R$ 9,9 milhões de políticos; veja quem gastou” revelam a capacidade modeladora das plataformas no consumo e produção de conteúdo digital.
O impulsionamento, principal fonte de receita dessas empresas, amplia o alcance de mensagens mediante pagamento. Embora legítimo do ponto de vista empresarial, a ausência de análise prévia da veracidade do conteúdo cria terreno fértil para fake news, que podem alcançar milhões de pessoas antes de contestação ou remoção.
A lógica empresarial, como evidenciado pela experiência do dr. Drauzio, privilegia lucros e posterga ações, limitando-se a respostas protocolares (“cumprimos as diretrizes da plataforma”) que funcionam mais como estratégia de procrastinação do que compromisso ético.
No Brasil, o princípio da função social previsto no art. 421 do Código Civil de 2002 exige que a liberdade contratual respeite valores coletivos. O mesmo raciocínio aparece no art. 186 da Constituição Federal de 1988, que equilibra uso da terra e normas trabalhistas, e no art. 1.228, §1º, do Código Civil de 2002, que vincula a propriedade à preservação ambiental.
Da mesma forma, os contratos de adesão das plataformas digitais devem observar a função social, já que a dignidade da pessoa humana, fundamento desse princípio, é frequentemente violada pela disseminação de desinformação e pela omissão na remoção de conteúdos nocivos.
A legitimação de condutas contra os direitos humanos
O cenário torna-se ainda mais preocupante quando analisado à luz de episódios históricos recentes, como o governo Trump e o governo Bolsonaro, que trouxeram à tona uma nova legitimação de condutas contrárias aos direitos humanos a partir do uso das redes sociais como ferramenta de comunicação durante os seus mandatos. As fake news tornam-se, assim, ferramentas de erosão de direitos fundamentais e de promoção de narrativas alinhadas a interesses políticos e econômicos específicos.
Voltando à entrevista do dr. Drauzio, embora o uso, por ele, do termo “quadrilha” para descrever esse conluio entre plataformas e disseminadores de desinformação possa parecer excessivo à primeira vista, ele encontra respaldo técnico-jurídico quando analisado sob a ótica das práticas coordenadas e sistemáticas por parte da associação de três ou mais pessoas para obter vantagens econômicas à custa do interesse público, de pessoas, por meio do cometimento de crimes.
Aqui é importante ressaltar que hoje inexiste um crime chamado “disseminar boatos ou notícias falsas”. As tipificações variam entre crimes contra a honra, difamação, calúnia e outros delitos. Existindo, ainda, a contravenção penal de provocar alarma, anunciando desastre ou perigo inexistente ou praticar qualquer ato capaz de produzir pânico ou tumulto. O que vai designar é o contexto da desinformação disseminada.
A inclusão de empresas e figuras públicas de grande poder econômico e comunicacional nesse alinhamento com as big techs reforça a necessidade de regulação rigorosa. Sem isso, interesses privados continuarão a subverter direitos constitucionais. Lembrando que esse agir antiético não se limita ao uso das plataformas, mas à ausência de políticas de educação digital. Pois, manter a população sem conhecimento sobre funcionamento das plataformas e exploração de dados pessoais legitima discursos manipuladores e alienantes, violando direitos humanos e sendo replicados por seus seguidores.
A regulação como resposta necessária
A defesa dos direitos humanos e do acesso à informação verídica é dever do Estado e da sociedade civil. Já o interesse empresarial, nessa temática, só se manifesta quando há potencial de lucro. Fora disso, prevalece a lógica do capital, que ignora impactos sociais. O máximo atingido são ações de social washing em programas de integridade não implementados, pois, teoricamente, sua efetiva adoção reduziria lucros.
Esse cenário reforça a necessidade de regulação acompanhada de fiscalização e monitoramento. Entre os projetos em tramitação, o PL 2630/2020 busca criar um marco regulatório para plataformas digitais, impondo transparência, regras de moderação e responsabilização.
Já o PL 1790/2024 propõe incluir o art. 179-A no Código Penal, tipificando a disseminação de informações falsas em situações de calamidade pública, com pena de reclusão e multa, especialmente para agentes políticos. Ambos enfrentam fragilidades: o primeiro por sua amplitude e dificuldades práticas; o segundo por conceitos vagos e baixa eficácia preventiva.
A recente decisão do STF, ao declarar a inconstitucionalidade parcial do art. 19 do Marco Civil da Internet, alterou o cenário ao afastar a interpretação que blindava plataformas da responsabilidade civil até ordem judicial. Esse novo parâmetro jurídico impõe ao legislador o dever de repensar propostas em tramitação, como o PLs mencionados: o PL 2630/2020 ganha relevância, mas precisa ser ajustado à jurisprudência; o PL 1790/2024 mostra-se insuficiente isoladamente, ao focar apenas na punição individual e ignorar a lógica estrutural da desinformação.
Comparativamente, o Digital Services Act (DSA), da União Europeia, adota modelo mais sofisticado, privilegiando medidas estruturais de prevenção, com obrigações graduais segundo o porte e risco das plataformas, exigindo transparência algorítmica, auditorias independentes e mecanismos de contestação. Enquanto o PL 1790/2024 aposta no punitivismo e o PL 2630/2020 carece de densidade técnica, o DSA institui autoridade central de fiscalização e regras específicas sobre riscos sistêmicos.
Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email
Assim, a decisão do STF reforça a urgência de uma regulação eficaz, mas a comparação com o DSA evidencia lacunas nos projetos brasileiros, que oscilam entre propostas vagas e soluções penais. Ao contrário do modelo europeu, o Brasil ainda carece de mecanismos estruturais para enfrentar os efeitos da desinformação.
Se refletirmos sobre a “capitalização” das fake news, percebemos que ela envolve não apenas lucro financeiro, mas também fortalecimento de agendas políticas, polarização social e erosão da confiança pública. Esse fenômeno exige abordagens interdisciplinares jurídicas, tecnológicas e sociais.
Dessa forma, diretrizes atuais são insuficientes: é necessário, portanto, criar um arcabouço regulatório com sanções significativas e práticas proativas de combate à desinformação, impondo às big techs uma responsabilidade proporcional ao impacto de suas plataformas na sociedade.

