Imagine se Barack Obama enviasse uma solicitação formal a uma empresa de tecnologia pedindo para ser “esquecido” por seus sistemas de inteligência artificial. Que as “máquinas” parassem de mencionar que ele foi presidente dos Estados Unidos, que estudou em Harvard ou que nasceu no Havaí. Que apagassem de seus modelos até os fatos mais básicos e públicos de sua biografia: os mesmos que figuram em livros, registros oficiais e na memória coletiva. O pedido soaria claramente irrazoável: afinal, ele é uma figura pública, e essas informações pertencem ao domínio público e à própria História.
Mas a hipótese revela um dilema dos tempos atuais: até que ponto a visibilidade pública reduz o direito à privacidade quando a memória coletiva é mediada por “máquinas” que são capazes de armazenar, cruzar e inferir dados em escala global?
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas
A expectativa reduzida de privacidade das pessoas públicas é um conceito conhecido.[1] Políticos, artistas e autoridades estão sujeitos a maior escrutínio, em nome do interesse público e da liberdade de expressão. O que muda, no entanto, é a forma como essa exposição se dá. A atenção humana é limitada, contextual e seletiva; já os sistemas de IA operam com memória infinita e capacidade de associação contínua. Eles não apenas “sabem” quem é Barack Obama, mas podem reconstruir sua voz, prever suas opiniões e relacionar fragmentos dispersos de informação com precisão impossível para qualquer observador humano.
Nesse novo contexto, a questão não é mais se pessoas públicas têm menos privacidade, já que isso se tornou um fato da vida democrática, mas até onde essa redução pode ir e como deve ser governada. Se, de um lado, é razoável que modelos de IA conheçam fatos notórios sobre figuras públicas, de outro, é preocupante que essa capacidade se estenda à geração de inferências ou perfis sobre suas emoções, crenças ou hábitos. Entre o direito de ser conhecido e o direito de ser “esquecido”, a é necessário (re)definir o que é público e, talvez mais importante, o que deve continuar sendo lembrado por máquinas.
As leis de proteção de dados refletem esse raciocínio. Tanto a Lei Geral de Proteção de Dados Pessoais (LGPD) quanto o Regulamento Geral de Proteção de Dados europeu (RGPD) permitem o tratamento de dados “tornados manifestamente públicos pelo titular”, mas condicionam essa permissão ao respeito a princípios como boa-fé, finalidade e proporcionalidade (como no art. 7º, §§ 3º, 4º e 7º, da LGPD).
Portanto, o fato de um dado estar amplamente acessível não o transforma em dado “livre”, mas apenas transfere, ao controlador, o dever de calibrar o seu uso. O que é legítimo para informar pode não ser legítimo para perfilar; o que é razoável para fins históricos pode ser excessivo quando usado para prever comportamentos.
É justamente nessa fronteira que a IA desafia os conceitos tradicionais. Diferentemente de jornalistas, pesquisadores ou cidadãos que lidam com fragmentos de informação, os sistemas de IA têm capacidade de processar e combinar volumes gigantescos de dados públicos para gerar inferências novas. A partir de discursos, imagens e textos disponíveis na internet, podem reconstruir padrões de linguagem, analisar emoções ou estimar preferências políticas. Portanto, o que era visibilidade pontual torna-se memória estrutural, capaz de transformar a exposição pública em uma forma de observação permanente.
Contudo, nada disso é, em si, ilícito. Usar dados disponíveis publicamente para treinar modelos de IA que respondem a perguntas sobre história, cultura ou política é não apenas legítimo, mas socialmente útil. O ponto sensível está em como e para que esses dados são reutilizados.
A tecnologia amplia, ao mesmo tempo, mas talvez não na mesma proporção, o potencial de benefício e de dano; e o papel do direito é justamente definir quando o uso de dados públicos deixa de servir ao interesse coletivo e passa a interferir indevidamente na esfera pessoal. Assim, o desafio contemporâneo não é proibir, mas delimitar o razoável.
Diante dessa nova realidade, talvez as perguntas mais importantes sejam duas: é razoável que figuras públicas peçam para que suas informações sejam excluídas dos sistemas de IA? E, mesmo que seja razoável, é tecnicamente possível que as máquinas “esqueçam”?
A primeira questão é de ordem jurídica.
A razoabilidade depende do equilíbrio entre o interesse coletivo e os direitos individuais. É natural que informações pessoais sobre pessoas públicas circulem com maior liberdade, especialmente quando se relacionam a fatos notórios ou a assuntos de interesse geral. Nesse sentido, não parece desproporcional que modelos de IA utilizem esse tipo de dado para aprender, contextualizar e responder a perguntas. O uso de declarações públicas, entrevistas ou biografias não viola, por si só, a privacidade – ao contrário, serve à função social de preservação da memória e informação.
Mas nem todo uso é neutro. A proporcionalidade impõe limites: a IA não deve usar dados públicos para produzir inferências que extrapolem a finalidade original da exposição. Se um modelo começa a associar discursos a diagnósticos psicológicos, preferências íntimas ou crenças religiosas, o tratamento deixa de ser informativo e passa a ser especulativo. O direito não deve impedir a existência desses sistemas, mas deve exigir finalidade legítima, transparência e mitigação de riscos, especialmente quando a fronteira entre o público e o privado se torna porosa e cinzenta.
A segunda questão é técnica – e mais complexa.
Mesmo quando se reconhece a necessidade de limitar o uso de certos dados, a execução enfrenta barreiras práticas. A remoção seletiva de informações de treinamento (o chamado “machine unlearning”) ainda é um campo experimental. Autoridades como a CNIL[2], o EDPB[3] e a ANPD[4] têm reconhecido que eliminar completamente vestígios pessoais de um modelo é, hoje, tecnicamente difícil e, em muitos casos, inviável. Por essa razão, em vez de exigir o apagamento absoluto, reguladores têm defendido medidas de controle e mitigação, como filtros de saída, bloqueio de consultas sensíveis ou ajustes contratuais que impeçam reuso indevido.
Em outras palavras, o desafio não é fazer com que as máquinas “esqueçam”, mas garantir que lembrem de forma responsável. A governança de sistemas de IA precisa lidar com a persistência da informação de modo proporcional, transparente e documentado, de forma que a exposição pública de uma pessoa não se converta em disponibilidade ilimitada de seus dados.
Se não é possível (nem desejável) que a IA esqueça tudo o que aprendeu, o caminho é pensar como ela deve se lembrar. O desafio, portanto, não está apenas em conter eventuais excessos, mas desenhar mecanismos de governança que tornem o uso de dados públicos previsível, proporcional e auditável.
Um primeiro passo é reconhecer que o tratamento de dados publicamente acessíveis exige transparência reforçada.[5] Portanto, mesmo quando a coleta é indireta, isto é, a partir de sites abertos ou redes sociais, o responsável deve informar, ainda que de forma geral, as fontes e categorias de dados usadas. No contexto de figuras públicas, essa transparência não serve para “pedir uma autorização”, mas para permitir rastreabilidade e prestação de contas: saber de onde vem a informação e como ela foi processada.
Outro elemento fundamental é a avaliação de impacto contínua. A ideia de um relatório estático, elaborado antes do treinamento do modelo, já não basta. O uso de dados públicos deve ser acompanhado de mecanismos de revisão periódica que considerem riscos emergentes, desde a possibilidade de inferências indesejadas até distorções reputacionais. Portanto, o controle de riscos deve ser um processo vivo, e não apenas um checklist inicial.
Por fim, há o desafio da proporcionalidade operacional. Em muitos casos, as medidas de correção não estarão no apagamento do dado, mas na forma de limitar o resultado que o modelo é capaz de gerar. Isso inclui o uso de filtros para suprimir inferências pessoais, bloqueio de consultas sobre atributos sensíveis e protocolos de revisão humana quando o sistema trata de indivíduos identificáveis. São soluções imperfeitas, mas compatíveis com a ideia de memória controlada: uma IA que lembra o que é público e necessário para fins legítimos, mas “esquece” de ampliar, inferir ou reinterpretar além do contexto original.
A bem da verdade, a linha que separa o público do privado nunca foi fixa – e, com a IA, ela se move mais rápido do que a nossa capacidade de defini-la. A vida pública sempre implicou exposição; a diferença é que, agora, essa exposição é processável, recombinável e permanente. O que antes se diluía no tempo, a IA transforma em dado disponível, pronto para ser reinterpretado a qualquer momento e em velocidade antes inimaginável.
Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email
O direito à proteção de dados surgiu justamente para romper com essa visão binária entre o público e o privado. Ele não protege segredos, mas relações: busca garantir que cada pessoa (pública ou não) mantenha grau mínimo de controle sobre como suas informações (públicas ou não) circulam, são associadas e reinterpretadas. Assim, a autodeterminação informativa desloca o eixo da privacidade do conteúdo para o uso, e é esse deslocamento que se torna decisivo na era da IA.
Isso não significa blindar a esfera pública, até porque a visibilidade das figuras públicas é parte da vida democrática; o que muda é a natureza dessa visibilidade. No fim das contas, talvez o verdadeiro desafio seja este: garantir que a memória das “máquinas” preserve o que é de interesse coletivo, mas sem ignorar o direito humano ao controle sobre a própria informação. A privacidade das pessoas públicas sempre foi menor, mas nunca nula. A IA apenas nos obriga a redescobrir, com urgência, onde começa essa diferença.
[1] Essa foi inclusive uma das discussões no julgamento da ADI 4815 pelo Supremo Tribunal Federal (STF) em 2015, que afastou a exigência prévia de autorização para publicação de biografias.
https://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=293336&ori=1
[2] https://www.edps.europa.eu/data-protection/technology-monitoring/techsonar/machine-unlearning_en
[3] https://www.cnil.fr/en/respect-and-facilitate-exercise-data-subjects-rights
[4] https://www.gov.br/anpd/pt-br/centrais-de-conteudo/documentos-tecnicos-orientativos/radar_tecnologico_ia_generativa_anpd.pdf
[5] MILANEZ, Giovanna. O tratamento de dados pessoais disponíveis publicamente e os limites impostos pela LGPD. Editora Processo: Rio de Janeiro, 2021.

