Nos últimos meses, publiquei neste JOTA uma sequência de textos sobre a transformação silenciosa que atravessa o Direito. No primeiro, procurei mostrar que não estamos apenas falando de “IA no Direito”, mas também de “Direito na IA”: governança, limites e responsabilidade passam a conviver com aplicação prática.
No segundo, voltei ao legado dos softwares jurídicos e aos limites de uma geração de ferramentas pensadas para apoiar o trabalho humano, mas não para reorganizá-lo.
No terceiro, apresentei a ideia de arquitetura cognitiva, a noção que, com Inteligência Artificial, o Direito precisa passar a funcionar como sistema. Este texto é o passo seguinte. Saímos do pano de fundo conceitual e entramos na estrutura: como a arquitetura se materializa em sistema, e porque a distinção entre IA Fundacional ou Geral e IA Funcional ou Específica é central para que ela funcione.
Uma premissa simples ajuda a organizar a discussão: a Inteligência Artificial não é agente, não é sujeito e não “pensa”. Ela reflete padrões. Por isso, é mais útil para o entendimento compará-la com um espelho.
Quando interagimos com um modelo fundacional (LLM), ocorre o encontro de duas máquinas probabilísticas operando em paralelo: o cérebro humano, cheio de atalhos, pressupostos e vieses, e um modelo que calcula a próxima resposta mais provável a partir do que recebeu. A IA não corrige o humano. Ela acompanha a forma como o problema é formulado.
Se a pergunta muda, a resposta muda junto. Se o input é confuso, a saída tende a ser genérica. Se o input mistura descrição com julgamento, a resposta mistura contexto com opinião. A IA responde à estrutura da pergunta, não à intenção implícita de quem pergunta. Em outras palavras, quando usamos IA, não estamos recebendo uma verdade. Estamos vendo uma construção ampliada do nosso próprio pensamento.
Isso explica por que tantas interações com modelos generativos parecem frustrantes. Quando a resposta vem ambígua ou pouco útil, o problema raramente está “na IA”. Está na forma como o problema foi apresentado. O objetivo estava explícito? O escopo estava delimitado? Havia um problema ou vários ao mesmo tempo?
A qualidade da resposta quase sempre denuncia a qualidade do input. Não se trata de pedagogia ou de bom uso. É engenharia e matemática: quanto mais claro o problema, mais previsível o resultado. Quando maior a imprecisão na fonte (nós), maior a ampliação do erro original.
Essa realidade revela um limite estrutural profundo, que confunde até a as grandes empresas de tecnologia. Modelos de IA genérica ou fundacional, os chamados modelos de propósito amplo, foram desenhados para cobrir um campo enorme de possibilidades. Eles têm força, amplitude e versatilidade. Mas campo amplo tem custo. Quanto maior o espaço de respostas possíveis, menor a resolução. Quanto maior o espelho, mais difuso o reflexo. A generalidade amplia, mas também dilui precisão ou aumenta os erros, como preferirem.
Essa tensão não é exclusiva do Direito. Ela aparece em qualquer ciência ou atividade que exige precisão. Na medicina, ampliar hipóteses sem controle pode significar erro diagnóstico. Na engenharia, soluções “plausíveis” não bastam: um cálculo impreciso compromete a estrutura inteira. Em finanças, generalizações estatísticas mal contextualizadas produzem decisões de risco sistêmico. Sempre que o erro deixa de ser apenas conceitual e passa a ser operacional, potência sem controle vira problema.
A analogia é conhecida na engenharia: força, por si só, não resolve. O desafio está em transformar potência em trabalho útil. A máquina a vapor só se tornou revolucionária quando engrenagens, eixos e mecanismos de transmissão passaram a organizar a energia disponível. Vapor sem transmissão impressiona, mas escapa. O mesmo ocorre com a IA. Modelos genéricos oferecem potência cognitiva. Sem arquitetura, essa potência se dissipa em respostas amplas, elegantes, mas pouco confiáveis para execução.
É nesse contexto que surge a IA específica, também chamada de IA nativa, IA estreita ou, como tenho preferido, IA funcional. A diferença não está em “pensar melhor”, mas em operar em um campo deliberadamente restrito. Em vez de delegar toda a clareza ao usuário, a própria arquitetura passa a organizar o problema antes que ele chegue ao modelo. O sistema reduz graus de liberdade, elimina ambiguidades e direciona a resposta para uma finalidade concreta.
Em sistemas genéricos, a precisão depende quase inteiramente de quem pergunta. Em sistemas bem arquitetados, a precisão é construída pelo próprio sistema. O espelho é menor, melhor posicionado e orientado por função. Isso não elimina o humano; ao contrário, redistribui responsabilidades. O humano decide e valida. O sistema organiza. A IA calcula dentro de limites claros.
No Direito, esse ponto ganha uma camada adicional de complexidade porque sua matéria-prima é a linguagem. Termos jurídicos não são linguagem comum. Pequenas variações semânticas produzem efeitos normativos relevantes. Ampliar argumentos, misturar fundamentos ou importar vieses implícitos pode enfraquecer uma peça processual, comprometer um recurso ou distorcer a interpretação de um texto normativo. Nesse contexto, generalidade não é riqueza; é ruído. Mas o problema não é jurídico em essência. É estrutural. Onde a precisão importa, arquitetura importa.
Arquitetura cognitiva, portanto, não é apenas tecnologia. É a integração entre camadas técnicas, humanas e regulatórias funcionando como processo. É o desenho consciente de como problemas são formulados, como decisões são encaminhadas e como a IA é acionada. Trata-se de substituir improviso por estrutura, urgência por lógica e esforço isolado por fluxo.
A transição que vivemos não é da ausência de IA para a presença de IA. É da força difusa para a potência organizada. Modelos genéricos continuam relevantes para exploração e criatividade. Mas, sem IA específica, sem sistemas nativos pensados para funções claras, a promessa de transformação se perde no excesso de possibilidades.
No fim, a equação é simples. Máquinas escalam e aceleram. Humanos depuram e decidem. Em sistemas organizados, para funções específicas, cabe ao arquiteto de sistemas esse papel. É essa organização, e não a busca por modelos cada vez mais amplos, que define se a Inteligência Artificial será apenas impressionante ou realmente confiável para operar em contextos que exigem precisão.

