A difusão da inteligência artificial na vida cotidiana trouxe consigo promessas de eficiência, automação e inovação. No entanto, o mesmo avanço que transforma setores econômicos e relações sociais também amplia o repertório de condutas potencialmente criminosas, muitas das quais executadas parcial ou totalmente por sistemas algorítmicos.
Golpes bancários viabilizados por clonagem de voz, vídeos manipulados para fins de extorsão (deepfakes), automação de fraudes por meio de robôs e ferramentas de manipulação de dados estão longe de ser ficção científica. Tornaram-se realidades enfrentadas por vítimas, operadores do Direito e autoridades investigativas.
Informações direto ao ponto sobre o que realmente importa: assine gratuitamente a JOTA Principal, a nova newsletter do JOTA
Nesse contexto, emerge um problema penal ainda pouco discutido, mas juridicamente sensível: quem deve ser responsabilizado criminalmente quando a conduta típica é executada, em alguma medida, por uma inteligência artificial?
A natureza da IA e sua relevância penal
Sob o ponto de vista técnico, sistemas de inteligência artificial operam por meio de algoritmos que analisam grandes volumes de dados e tomam decisões com base em padrões estatísticos. Há, em muitos casos, autonomia funcional significativa, mas não há consciência, vontade ou autodeterminação.
Esse ponto é central: a IA não é sujeito de direitos ou deveres jurídicos, tampouco detém capacidade penal. Por mais sofisticada que seja a ferramenta, ela não pode ser considerada autora de fato típico. O que se exige, portanto, é a identificação da conduta humana penalmente relevante no circuito causal — seja na concepção, seja no uso da tecnologia.
Tecnologias em uso e os crimes associados
O uso de sistemas de IA em contextos criminosos já é perceptível em investigações policiais e ações penais em curso. Casos concretos incluem:
- Fraudes bancárias praticadas por meio de clonagem de voz, em que um sistema simula a voz de um familiar para induzir a vítima ao erro;
- Geração de deepfakes para extorsão, difamação ou coação;
- Bots programados para disseminação de desinformação com fins eleitorais ou comerciais;
- Sistemas de linguagem natural empregados na automatização de mensagens fraudulentas (phishing), adaptadas ao perfil da vítima com base em dados capturados indevidamente.
Em todos esses exemplos, o resultado típico é alcançado por meio de uma ferramenta altamente autônoma, que executa ações complexas sem supervisão humana contínua. Isso exige que a responsabilização penal não se baseie apenas na presença de causalidade fática, mas que se verifique se a conduta do agente humano efetivamente criou um risco proibido, juridicamente desaprovado, que tenha se concretizado no resultado típico.
Dificuldades da imputação penal clássica: o papel da imputação objetiva
O Direito Penal tradicional exige, para a responsabilização, a existência de uma conduta humana, voluntária e consciente, que produza um resultado típico, ilícito e culpável. Contudo, a presença da inteligência artificial como mediadora da ação rompe, em certa medida, a linearidade entre conduta e resultado.
Nesse cenário, é necessário recorrer à teoria da imputação objetiva, hoje dominante na doutrina e jurisprudência penal brasileiras, como instrumento de limitação do nexo causal naturalístico. A teoria da equivalência dos antecedentes causais — ou critério sine qua non —, isoladamente, leva a responsabilizações desproporcionais em contextos tecnológicos.
A imputação objetiva exige:
- Que a conduta tenha criado um risco juridicamente proibido;
- Que esse risco se concretize no resultado ocorrido;
- Que o tipo penal envolvido tenha por finalidade a proteção do bem jurídico atingido.
Quando o risco criado é permitido — ou seja, compatível com o exercício legítimo de uma atividade socialmente aceita —, não há imputação objetiva, ainda que o resultado tenha se verificado. Essa análise é central para se distinguir, por exemplo, um programador que atua dentro dos limites técnicos e legais de um que desenvolve ferramentas conscientemente destinadas à fraude.
Responsabilidade penal de programadores, operadores e empresas
A imputação penal, nos casos em que há o uso de sistemas de inteligência artificial em condutas típicas, deve ser construída com base na identificação do agente humano que, com dolo ou culpa, criou um risco juridicamente proibido que se concretizou no resultado.
Usuário direto
Quem utiliza a IA para praticar um delito — como criar um deepfake para extorsão ou clonar voz para fraude — responde, em regra, como autor direto do fato típico.
Programador ou desenvolvedor
A responsabilidade penal do programador depende da análise de sua conduta à luz da criação do risco proibido. Se ele prevê a possibilidade de uso ilícito da ferramenta e tolera esse risco, poderá responder por dolo eventual. Se prevê o risco, mas confia de forma imprudente que ele não se concretizará, pode haver culpa consciente.
Nesses casos, não se trata de responsabilização automática, mas de apuração criteriosa da previsibilidade do risco, da omissão em adotar salvaguardas técnicas e do nexo entre a conduta e o resultado.
Empresas de tecnologia
A responsabilidade penal da pessoa jurídica, no Brasil, é restrita aos crimes ambientais (art. 225, §3º da CF e Lei 9.605/98). Fora desse âmbito, não há previsão legal para responsabilização penal direta da empresa por crimes praticados com uso de tecnologia.
Entretanto, sócios, diretores ou administradores podem ser responsabilizados penalmente, desde que se demonstre autoria ou participação relevante, com dolo ou culpa.
Além disso, a empresa poderá ser responsabilizada civilmente pelos danos causados, com base no Código Civil e no Código de Defesa do Consumidor, especialmente quando se omitir em relação à prevenção de usos ilícitos previsíveis.
A urgência de uma regulação penal sobre o uso de IA
É urgente estabelecer marcos legais que forneçam parâmetros objetivos sobre:
- Os deveres de cuidado, rastreabilidade e controle aplicáveis a sistemas autônomos;
- As situações que configuram risco juridicamente proibido em razão do design ou omissão em adotar salvaguardas;
- A possibilidade de responsabilização escalonada (civil, administrativa ou penal), conforme a gravidade da conduta e o grau de controle sobre o sistema.
A legislação atual não oferece instrumentos adequados para enfrentar os dilemas impostos pela inteligência artificial no campo penal. Isso compromete a aplicação da imputação objetiva e gera insegurança jurídica.
Conclusão: justiça penal na era dos algoritmos
O Direito Penal deve manter sua base garantista e antropocêntrica, mesmo diante da crescente intermediação tecnológica das condutas humanas. A responsabilidade penal não pode ser atribuída com base em causalidade genérica, mas deve observar os critérios da imputação objetiva: criação de risco proibido, concretização do risco no resultado e relevância da conduta para o tipo penal.
A IA não deve ser vista como escudo de impunidade, tampouco como bode expiatório. O papel do jurista, do julgador e do legislador é garantir que a técnica não suplante os fundamentos constitucionais da culpabilidade, da pessoalidade e da legalidade estrita.
Enfrentar com rigor técnico os desafios da responsabilização penal em tempos de algoritmos é o único caminho para proteger bens jurídicos sem sacrificar, no processo, os pilares do Estado de Direito.