By using this site, you agree to the Privacy Policy and Terms of Use.
Aceitar
Portal Nação®Portal Nação®Portal Nação®
Notification Mostrar mais
Font ResizerAa
  • Início
Lendo: Pessoas públicas, dados públicos: até onde vai a expectativa de privacidade na era da IA?
Compartilhe
Font ResizerAa
Portal Nação®Portal Nação®
  • Notícias
  • Esporte
  • TV Nação
  • Entretenimento
  • Ciência
  • Tecnologia
  • Acesso
Search
  • Início
Siga nas redes
Portal Nação® > Noticias > outros > Pessoas públicas, dados públicos: até onde vai a expectativa de privacidade na era da IA?
outros

Pessoas públicas, dados públicos: até onde vai a expectativa de privacidade na era da IA?

Última atualização: 12 de novembro de 2025 14:45
Published 12 de novembro de 2025
Compartilhe
Compartilhe

Imagine se Barack Obama enviasse uma solicitação formal a uma empresa de tecnologia pedindo para ser “esquecido” por seus sistemas de inteligência artificial. Que as “máquinas” parassem de mencionar que ele foi presidente dos Estados Unidos, que estudou em Harvard ou que nasceu no Havaí. Que apagassem de seus modelos até os fatos mais básicos e públicos de sua biografia: os mesmos que figuram em livros, registros oficiais e na memória coletiva. O pedido soaria claramente irrazoável: afinal, ele é uma figura pública, e essas informações pertencem ao domínio público e à própria História.

Contents
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresasAssine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email

Mas a hipótese revela um dilema dos tempos atuais: até que ponto a visibilidade pública reduz o direito à privacidade quando a memória coletiva é mediada por “máquinas” que são capazes de armazenar, cruzar e inferir dados em escala global?

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

A expectativa reduzida de privacidade das pessoas públicas é um conceito conhecido.[1] Políticos, artistas e autoridades estão sujeitos a maior escrutínio, em nome do interesse público e da liberdade de expressão. O que muda, no entanto, é a forma como essa exposição se dá. A atenção humana é limitada, contextual e seletiva; já os sistemas de IA operam com memória infinita e capacidade de associação contínua. Eles não apenas “sabem” quem é Barack Obama, mas podem reconstruir sua voz, prever suas opiniões e relacionar fragmentos dispersos de informação com precisão impossível para qualquer observador humano.

Nesse novo contexto, a questão não é mais se pessoas públicas têm menos privacidade, já que isso se tornou um fato da vida democrática, mas até onde essa redução pode ir e como deve ser governada. Se, de um lado, é razoável que modelos de IA conheçam fatos notórios sobre figuras públicas, de outro, é preocupante que essa capacidade se estenda à geração de inferências ou perfis sobre suas emoções, crenças ou hábitos. Entre o direito de ser conhecido e o direito de ser “esquecido”, a é necessário (re)definir o que é público e, talvez mais importante, o que deve continuar sendo lembrado por máquinas.

As leis de proteção de dados refletem esse raciocínio. Tanto a Lei Geral de Proteção de Dados Pessoais (LGPD) quanto o Regulamento Geral de Proteção de Dados europeu (RGPD) permitem o tratamento de dados “tornados manifestamente públicos pelo titular”, mas condicionam essa permissão ao respeito a princípios como boa-fé, finalidade e proporcionalidade (como no art. 7º, §§ 3º, 4º e 7º, da LGPD).

Portanto, o fato de um dado estar amplamente acessível não o transforma em dado “livre”, mas apenas transfere, ao controlador, o dever de calibrar o seu uso. O que é legítimo para informar pode não ser legítimo para perfilar; o que é razoável para fins históricos pode ser excessivo quando usado para prever comportamentos.

É justamente nessa fronteira que a IA desafia os conceitos tradicionais. Diferentemente de jornalistas, pesquisadores ou cidadãos que lidam com fragmentos de informação, os sistemas de IA têm capacidade de processar e combinar volumes gigantescos de dados públicos para gerar inferências novas. A partir de discursos, imagens e textos disponíveis na internet, podem reconstruir padrões de linguagem, analisar emoções ou estimar preferências políticas. Portanto, o que era visibilidade pontual torna-se memória estrutural, capaz de transformar a exposição pública em uma forma de observação permanente.

Contudo, nada disso é, em si, ilícito. Usar dados disponíveis publicamente para treinar modelos de IA que respondem a perguntas sobre história, cultura ou política é não apenas legítimo, mas socialmente útil. O ponto sensível está em como e para que esses dados são reutilizados.

A tecnologia amplia, ao mesmo tempo, mas talvez não na mesma proporção, o potencial de benefício e de dano; e o papel do direito é justamente definir quando o uso de dados públicos deixa de servir ao interesse coletivo e passa a interferir indevidamente na esfera pessoal. Assim, o desafio contemporâneo não é proibir, mas delimitar o razoável.

Diante dessa nova realidade, talvez as perguntas mais importantes sejam duas: é razoável que figuras públicas peçam para que suas informações sejam excluídas dos sistemas de IA? E, mesmo que seja razoável, é tecnicamente possível que as máquinas “esqueçam”?

A primeira questão é de ordem jurídica.

A razoabilidade depende do equilíbrio entre o interesse coletivo e os direitos individuais. É natural que informações pessoais sobre pessoas públicas circulem com maior liberdade, especialmente quando se relacionam a fatos notórios ou a assuntos de interesse geral. Nesse sentido, não parece desproporcional que modelos de IA utilizem esse tipo de dado para aprender, contextualizar e responder a perguntas. O uso de declarações públicas, entrevistas ou biografias não viola, por si só, a privacidade – ao contrário, serve à função social de preservação da memória e informação.

Mas nem todo uso é neutro. A proporcionalidade impõe limites: a IA não deve usar dados públicos para produzir inferências que extrapolem a finalidade original da exposição. Se um modelo começa a associar discursos a diagnósticos psicológicos, preferências íntimas ou crenças religiosas, o tratamento deixa de ser informativo e passa a ser especulativo. O direito não deve impedir a existência desses sistemas, mas deve exigir finalidade legítima, transparência e mitigação de riscos, especialmente quando a fronteira entre o público e o privado se torna porosa e cinzenta.

A segunda questão é técnica – e mais complexa.

Mesmo quando se reconhece a necessidade de limitar o uso de certos dados, a execução enfrenta barreiras práticas. A remoção seletiva de informações de treinamento (o chamado “machine unlearning”) ainda é um campo experimental. Autoridades como a CNIL[2], o EDPB[3] e a ANPD[4] têm reconhecido que eliminar completamente vestígios pessoais de um modelo é, hoje, tecnicamente difícil e, em muitos casos, inviável. Por essa razão, em vez de exigir o apagamento absoluto, reguladores têm defendido medidas de controle e mitigação, como filtros de saída, bloqueio de consultas sensíveis ou ajustes contratuais que impeçam reuso indevido.

Em outras palavras, o desafio não é fazer com que as máquinas “esqueçam”, mas garantir que lembrem de forma responsável. A governança de sistemas de IA precisa lidar com a persistência da informação de modo proporcional, transparente e documentado, de forma que a exposição pública de uma pessoa não se converta em disponibilidade ilimitada de seus dados.

Se não é possível (nem desejável) que a IA esqueça tudo o que aprendeu, o caminho é pensar como ela deve se lembrar. O desafio, portanto, não está apenas em conter eventuais excessos, mas desenhar mecanismos de governança que tornem o uso de dados públicos previsível, proporcional e auditável.

Um primeiro passo é reconhecer que o tratamento de dados publicamente acessíveis exige transparência reforçada.[5] Portanto, mesmo quando a coleta é indireta, isto é, a partir de sites abertos ou redes sociais, o responsável deve informar, ainda que de forma geral, as fontes e categorias de dados usadas. No contexto de figuras públicas, essa transparência não serve para “pedir uma autorização”, mas para permitir rastreabilidade e prestação de contas: saber de onde vem a informação e como ela foi processada.

Outro elemento fundamental é a avaliação de impacto contínua. A ideia de um relatório estático, elaborado antes do treinamento do modelo, já não basta. O uso de dados públicos deve ser acompanhado de mecanismos de revisão periódica que considerem riscos emergentes, desde a possibilidade de inferências indesejadas até distorções reputacionais. Portanto, o controle de riscos deve ser um processo vivo, e não apenas um checklist inicial.

Por fim, há o desafio da proporcionalidade operacional. Em muitos casos, as medidas de correção não estarão no apagamento do dado, mas na forma de limitar o resultado que o modelo é capaz de gerar. Isso inclui o uso de filtros para suprimir inferências pessoais, bloqueio de consultas sobre atributos sensíveis e protocolos de revisão humana quando o sistema trata de indivíduos identificáveis. São soluções imperfeitas, mas compatíveis com a ideia de memória controlada: uma IA que lembra o que é público e necessário para fins legítimos, mas “esquece” de ampliar, inferir ou reinterpretar além do contexto original.

A bem da verdade, a linha que separa o público do privado nunca foi fixa – e, com a IA, ela se move mais rápido do que a nossa capacidade de defini-la. A vida pública sempre implicou exposição; a diferença é que, agora, essa exposição é processável, recombinável e permanente. O que antes se diluía no tempo, a IA transforma em dado disponível, pronto para ser reinterpretado a qualquer momento e em velocidade antes inimaginável.

Assine gratuitamente a newsletter Últimas Notícias do JOTA e receba as principais notícias jurídicas e políticas do dia no seu email

O direito à proteção de dados surgiu justamente para romper com essa visão binária entre o público e o privado. Ele não protege segredos, mas relações: busca garantir que cada pessoa (pública ou não) mantenha grau mínimo de controle sobre como suas informações (públicas ou não) circulam, são associadas e reinterpretadas. Assim, a autodeterminação informativa desloca o eixo da privacidade do conteúdo para o uso, e é esse deslocamento que se torna decisivo na era da IA.

Isso não significa blindar a esfera pública, até porque a visibilidade das figuras públicas é parte da vida democrática; o que muda é a natureza dessa visibilidade. No fim das contas, talvez o verdadeiro desafio seja este: garantir que a memória das “máquinas” preserve o que é de interesse coletivo, mas sem ignorar o direito humano ao controle sobre a própria informação. A privacidade das pessoas públicas sempre foi menor, mas nunca nula. A IA apenas nos obriga a redescobrir, com urgência, onde começa essa diferença.


[1] Essa foi inclusive uma das discussões no julgamento da ADI 4815 pelo Supremo Tribunal Federal (STF) em 2015, que afastou a exigência prévia de autorização para publicação de biografias.

https://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=293336&ori=1

[2] https://www.edps.europa.eu/data-protection/technology-monitoring/techsonar/machine-unlearning_en

[3] https://www.cnil.fr/en/respect-and-facilitate-exercise-data-subjects-rights

[4] https://www.gov.br/anpd/pt-br/centrais-de-conteudo/documentos-tecnicos-orientativos/radar_tecnologico_ia_generativa_anpd.pdf

[5] MILANEZ, Giovanna. O tratamento de dados pessoais disponíveis publicamente e os limites impostos pela LGPD. Editora Processo: Rio de Janeiro, 2021.

You Might Also Like

Voçoroca em Valparaíso: governo requer medidas para proteger nascentes

Câmera de segurança flagra detendo fugindo de presídio ao colocar lixo na rua; assista

“Tribunal do crime”: irmãos adolescentes do PCC são decapitados por rivais

Shawn Mendes invade ensaio de Brown com Ivete Sangalo; veja 

“Ele tem que se comportar como vereador”, dispara Jerônimo sobre a expulsão de Sandro Filho do MBL

Compartilhe esse artigo
Facebook Twitter Email Print
Deixe um comentário

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Siga o Portal Nação

Nas redes Sociais
FacebookLike
TwitterSiga nas redes
YoutubeSubscribe
TelegramSiga nas redes

Newsletter semanal

Assine nossa newsletter para receber nossos artigos mais recentes instantaneamente!

Notícias populares

“Nunca tivemos problemas com dinheiro”, diz Carlos Muniz sobre dívida milionária da Câmara com servidores

1 de abril de 2025
União Europeia vê com preocupação anúncio dos EUA de deixar a OMS 
Marina Ruy Barbosa, Xuxa e mais famosas que já radicalizaram no visual 
Thiaguinho vai cantar o hino nacional no GP de São Paulo 
Atriz da Globo se revolta com coroação de Virginia como rainha de bateria da Grande Rio; assista
- Publicidade -
Ad imageAd image
  • Avisos legais
  • Política de privacidade
  • Gerenciamento de Cookies
  • Termos e condições
  • Parceiros

Todas as últimas notícias do Portal Nação direto na sua caixa de entrada

Aqui no Portal Nação, acreditamos em criar os melhores produtos para a indústria que cruzam o melhor design de software, experiência do usuário e funcionalidade.

Nosso site armazena cookies no seu computador. Eles nos permitem lembrar de você e ajudam a personalizar sua experiência em nosso site.
Leia nossa política de privacidade para maiores infromações.

Copyright © 2023-2024 Portal Nação | Todos os Direitos Reservados

Orgulhosamente ❤️ por HubCloud © 2024. Todos os Direitos Reservados
Welcome Back!

Sign in to your account

Lost your password?