A inteligência humana está em declínio em razão do uso excessivo de tecnologias. Estudos recentes indicam, pela primeira vez, que a geração anterior apresenta maior capacidade cognitiva que a atual. A redução do hábito de leitura, da análise crítica e da reflexão baseada em dados e fatos vem acompanhada do aumento da dependência tecnológica — especialmente da inteligência artificial, aplicada a tarefas cotidianas que vão do aconselhamento ao acompanhamento de exercícios físicos.
Esse impacto já alcançou também o ambiente corporativo, onde cresce a preocupação com o uso ético, transparente e responsável da IA. Mais do que nunca, é essencial contar com estruturas sólidas e profissionais qualificados para supervisionar seu uso, identificar riscos e promover boas práticas.
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas
A IA consolidou-se como recurso estratégico para impulsionar a competitividade e melhorar a tomada de decisão. Porém, seu uso indiscriminado, sem rastreabilidade ou supervisão, representa desafios significativos. Esse cenário exige investimentos em governança capazes de mapear, controlar, prevenir e mitigar riscos operacionais, financeiros, regulatórios, jurídicos e reputacionais.
Uma governança frágil pode expor segredos industriais, informações confidenciais e dados pessoais — inclusive sensíveis e de terceiros — comprometendo a transparência e a accountability, princípios centrais previstos na Lei Geral de Proteção de Dados (LGPD).
Por isso, os investimentos precisam estar orientados à implantação de um Programa de Governança em IA robusto. Esse programa deve começar pelo mapeamento dos processos e lacunas existentes, seguido da criação de políticas internas — como um Código de Conduta em IA — e de processos e controles que assegurem o uso ético, seguro, transparente e estratégico da tecnologia, em conformidade com a legislação.
Também deve prever análise e revisão contratual de fornecedores e stakeholders, estabelecendo cláusulas que limitem responsabilidades, vinculem obrigações e classifiquem riscos do sistema de IA, em linha com o AI Act europeu ou com o Marco Legal de IA em tramitação no Congresso Nacional.
Um bom início envolve reunir stakeholders, mapear cenários regulatórios e operacionais e adotar frameworks adequados. A escolha do modelo de governança impacta diretamente o sucesso da implementação e do monitoramento. Investir em governança de IA significa identificar riscos, estabelecer controles eficazes e capacitar colaboradores para lidar com os desafios do uso da tecnologia.
Esse processo deve ser construído desde a concepção do programa — princípio defendido pelo conceito de IA by design — de forma a garantir rastreabilidade e evitar prejuízos decorrentes de vazamentos de informações sensíveis, que podem superar o valor do próprio investimento em governança.
Com a democratização da IA, torna-se indispensável que as empresas passem a monitorar e controlar de forma eficiente seu uso, algo que hoje ainda é raro. Sem mensuração adequada, não há gestão de riscos. Nesse contexto, o DPO (Encarregado pelo Tratamento de Dados Pessoais) torna-se peça central para alinhar tecnologia, governança, privacidade e regulação. Cabe a ele expor riscos, propor soluções e reportar ao Conselho Administrativo ou à Alta Liderança os melhores caminhos estratégicos.
Entretanto, a falta de clareza sobre as atribuições do DPO pode gerar confusão e limitar resultados. Se em 2018 o foco estava na implementação de programas de privacidade e proteção de dados, hoje o desafio é integrá-los ao contexto da IA. Isso amplia o papel do DPO para a gestão de riscos tecnológicos, tendência que deve ser reforçada pelo Marco Legal de IA. A ausência de definição clara de papéis e responsabilidades leva a orientações genéricas que não conduzem a objetivos estratégicos.
Talvez o maior desafio da função seja comunicar riscos a públicos não técnicos e não letrados. Analogias ajudam a simplificar: dados armazenados em um datalake interno permitem rastreabilidade, como identificar peixes em uma piscina; já o envio para ambientes externos equivale a soltá-los em um rio, perdendo controle e rastreabilidade — cenário semelhante ao uso de IA open source sem restrições.
Outro ponto crítico é a Shadow AI: sistemas de IA desenvolvidos e operados sem supervisão humana, que podem introduzir vieses discriminatórios. O Programa de Governança pressupõe atuação colaborativa entre as áreas de negócio, tendo o DPO como maestro que garante rastreabilidade desde a concepção.
Informações direto ao ponto sobre o que realmente importa: assine gratuitamente a JOTA Principal, a nova newsletter do JOTA
Para viabilizar essa colaboração, é necessário que todos compreendam os riscos e o contexto do negócio. O DPO não realiza diretamente o tratamento de dados pessoais e não deve ser visto como solucionador de problemas operacionais. Seu papel é estratégico e ético, alinhado às práticas regulatórias da LGPD e a frameworks como a ISO/IEC 42001:2023 e o AI RMF do NIST. Sua atuação inclui definir políticas, avaliar riscos, elaborar relatórios e propor controles mitigatórios em conjunto com os tomadores de decisão.
Governar a IA é mais do que regular ferramentas: é definir papéis, identificar riscos e assegurar alinhamento à ética, ao uso responsável e à proteção de dados. Com o DPO em posição estratégica, as empresas podem inovar de forma responsável, enfrentando riscos de maneira preventiva e sustentável.