By using this site, you agree to the Privacy Policy and Terms of Use.
Aceitar
Portal Nação®Portal Nação®Portal Nação®
Notification Mostrar mais
Font ResizerAa
  • Início
Lendo: Informações biométricas: uma regulação além dos dados
Compartilhe
Font ResizerAa
Portal Nação®Portal Nação®
  • Notícias
  • Esporte
  • TV Nação
  • Entretenimento
  • Ciência
  • Tecnologia
  • Acesso
Search
  • Início
Siga nas redes
Portal Nação® > Noticias > outros > Informações biométricas: uma regulação além dos dados
outros

Informações biométricas: uma regulação além dos dados

Última atualização: 10 de agosto de 2025 05:10
Published 10 de agosto de 2025
Compartilhe
Compartilhe

A Autoridade Nacional de Proteção de Dados (ANPD) abriu uma discussão crítica para o Brasil: a Tomada de Subsídios sobre dados biométricos. A biometria — nossos rostos, digitais, vozes e gestos — é uma informação de segurança, e a estratégia regulatória determinará se seremos colônia extrativista de dados ou se construiremos uma vantagem competitiva global baseada em tecnologia confiável e centrada no ser humano.

Contents
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresasPrimeiro pilar: classificando o risco para mitigar o dano sistêmicoSegundo pilar: decodificar a caixa-preta, não apenas descrevê-laTerceiro pilar: humanizar o dado para proteger a dignidade

São dois caminhos principais. De um lado, nos abrimos para o extrativismo: uma regulação que nos transformaria em uma colônia para a colheita irrestrita de dados. A identidade e a privacidade de nossos cidadãos se tornariam matéria-prima para treinar algoritmos globais sobre os quais não temos controle.

Algoritmos decidem as notícias que lemos, o caminho que usamos para casa e as ações que um sistema nos permite tomar. Quando esses algoritmos são opacos, nossa autonomia é diminuída. Este modelo fere o direito dos cidadãos de controlar suas informações e decisões.

Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas

O caminho alternativo é a soberania digital: tecnologia fundamentada em credibilidade e segurança. Isso começa por adaptar as melhores práticas globais à nossa realidade, usando o AI Act europeu como inspiração para fortalecer nossa própria legislação. Olhar para o AI Act, moldando seus princípios à nossa realidade social, econômica e legal, é uma decisão estratégica: dá às empresas brasileiras um passaporte para atuação no mercado global, além de reforçar direitos e garantias que já são pilares da nossa Constituição.

Para a tecnologia nacional, o custo de um ambiente insuficientemente regulado vai além do litígio de vítimas de vazamentos e decisões algorítmicas enviesadas. Abrange o custo indireto da perda de credibilidade e reputação, os principais ativos intangíveis de negócios digitais. Mercados pagam a mais por credibilidade, segurança e privacidade. Assim, a regulação não é um freio à inovação, mas um direcionamento para a inovação voltada a modelos algorítmicos de maior valor, criando vantagem competitiva de longo prazo para a globalização de empresas brasileiras.

O desafio é fortalecer a Lei Geral de Proteção dos Dados (LGPD) com a sofisticação que as novas tecnologias exigem. Para isso, o caminho é uma arquitetura regulatória fundamentada em três pilares: a aplicação rigorosa de uma regulação baseada no risco de cada aplicação, a exigência de uma decodificação algorítmica que vá além da transparência superficial, e a humanização do dado para proteger a dignidade do cidadão.

Primeiro pilar: classificando o risco para mitigar o dano sistêmico

Uma regulação eficaz não pode tratar uma fechadura biométrica e um sistema de vigilância urbana como equivalentes. A abordagem baseada em risco diferencia o tratamento de dados conforme seu potencial de dano.

A ANPD deve classificar o uso de Tecnologias de Reconhecimento Facial (FRTs) em espaços de acesso público como de Alto Risco. O objetivo não é proibir, mas condicionar, acionando um mecanismo já previsto na LGPD: a obrigatoriedade de um Relatório de Impacto à Proteção de Dados Pessoais (RIPD) que, neste caso, inclua auditorias de impacto algorítmico prévias e independentes, com foco na acurácia e na análise de vieses discriminatórios contra grupos demográficos brasileiros.

A lógica é inverter o ônus da prova: o implementador deve demonstrar, antes da implementação, que seu sistema é seguro e justo para o contexto em que será aplicado. Assim, prevenimos a ‘regulação por desastre’ e protegemos as liberdades civis.

Segundo pilar: decodificar a caixa-preta, não apenas descrevê-la

A LGPD contempla o direito à revisão de decisões automatizadas, mas isso é ineficaz se não se conhece a lógica por trás da decisão. É aqui que a tecnologia biométrica, especialmente a comportamental (análise de voz, digitação, movimentos), corrói a autodeterminação informativa, o direito de controlar nossos próprios dados. Quando o algoritmo que nega o acesso ou a transação é pouco claro, esse direito é esvaziado.

Portanto, a regulação precisa evoluir da transparência para a decodificação algorítmica. Muitos sistemas operam como caixas-pretas, regidos pelo paradoxo da capacidade-interpretabilidade: quanto mais avançados, menos interpretáveis seus processos decisórios.

Em sistemas como esses (como a biometria comportamental), os controladores devem ser obrigados a praticar transparência ativa, divulgando previamente as taxas de erro e os riscos de viés do algoritmo. Isso força a condução de auditorias e torna a análise de risco um pré-requisito para a operação.

A decodificação algorítmica vai além. Para sistemas de alto risco, os controladores devem ser obrigados a manter e disponibilizar Relatórios de Proveniência de Dados (Data Provenance Reports), detalhando as fontes e os vieses conhecidos em seus dados de treinamento. Para sistemas proativos, pode-se exigir a capacidade de gerar um “Gráfico de Crenças” (Belief Graph), um relatório legível que mostre o caminho que a Inteligência Artificial percorreu para chegar a uma conclusão. Isso torna funcional o direito à revisão.

A hipótese legal de prevenção à fraude também não pode ser um cheque em branco. Seu uso para dados biométricos deve ser o último recurso, condicionado à demonstração inequívoca de que não existem alternativas menos intrusivas e igualmente eficazes.

Terceiro pilar: humanizar o dado para proteger a dignidade

A base para uma estratégia consistente é a proteção da dignidade dos indivíduos que fornecem os dados. Dados biométricos não são como senhas. Eles são imutáveis e, uma vez vazados, estão permanentemente comprometidos. Essa característica exige a aplicação mais estrita de um princípio já presente em nossa lei: a “Privacidade desde a Concepção e por Padrão” (art. 46, § 2º da LGPD), que determina que a privacidade não pode ser uma configuração opcional, mas o alicerce para a construção da tecnologia:

  • Privacidade desde a Concepção (By Design):A arquitetura do sistema deve ser projetada para minimizar danos de vazamentos, e deve ser mandatória a prática de não armazenar dados biométricos brutos, mas sim modelos criptografados — representações matemáticas que, se vazadas, são pouco úteis para o portador.
  • Privacidade por Padrão (By Default):As configurações mais seguras devem vir habilitadas por padrão. A proteção máxima é a norma, não a exceção.

A humanização se torna ainda mais crítica ao tratarmos de crianças e adolescentes. Coletar a biometria de uma criança para fins não essenciais, como o controle da fila da cantina escolar, viola sua dignidade futura. Cria-se um arquivo digital sobre que ela não consentiu em criar e não poderá apagar.

O “melhor interesse da criança” (art. 14 da LGPD) já é lei. Para a biometria, ele deve ser interpretado com o máximo rigor. O consentimento dos pais é necessário, mas não suficiente. O controlador deve ser obrigado a provar que o uso da biometria para fins não essenciais (como na fila da cantina) gera um benefício direto, tangível e superior para a criança, que supere o risco vitalício de registrar sua identidade imutável.

A escolha regulatória da ANPD não é entre inovação e privacidade, mas entre uma inovação extrativista de curto prazo e a construção de uma economia digital baseada em credibilidade, segurança e dignidade.

You Might Also Like

Sobe o número de mortos em acidente de trem na Espanha 

Após foco em temas externos, Lula prioriza entregas de habitações populares 

Conheça três carros com nota ruim no teste de colisão em 2025 

Prioridade do governo, fim da escala 6×1 tem duas frentes no Congresso 

FGC deve começar a pagar credores do Banco Master nesta segunda-feira (19) 

Compartilhe esse artigo
Facebook Twitter Email Print
Deixe um comentário

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Siga o Portal Nação

Nas redes Sociais
FacebookLike
TwitterSiga nas redes
YoutubeSubscribe
TelegramSiga nas redes

Newsletter semanal

Assine nossa newsletter para receber nossos artigos mais recentes instantaneamente!

Notícias populares

Flávio Dino pede à PF que investigue ameaças de morte com alusões à revolta no Nepal

10 de setembro de 2025
Mulher é presa no Galeão ao tentar embarcar com 7 kg de cocaína para Paris 
INSS devolve descontos indevidos de abril a partir desta segunda (26) 
“Quero ser a rainha do Carnaval”, diz Fernanda Torres no Oscar 
Preta Gil tatuou homenagens a família e amigos; veja significados 
- Publicidade -
Ad imageAd image
  • Avisos legais
  • Política de privacidade
  • Gerenciamento de Cookies
  • Termos e condições
  • Parceiros

Todas as últimas notícias do Portal Nação direto na sua caixa de entrada

Aqui no Portal Nação, acreditamos em criar os melhores produtos para a indústria que cruzam o melhor design de software, experiência do usuário e funcionalidade.

Nosso site armazena cookies no seu computador. Eles nos permitem lembrar de você e ajudam a personalizar sua experiência em nosso site.
Leia nossa política de privacidade para maiores infromações.

Copyright © 2023-2024 Portal Nação | Todos os Direitos Reservados

Orgulhosamente ❤️ por HubCloud © 2024. Todos os Direitos Reservados
Welcome Back!

Sign in to your account

Lost your password?