Recentemente o Google foi condenado a indenizar uma pessoa em razão de informações falsas que foram disponibilizadas pela ferramenta de inteligência artificial da plataforma e de todos os transtornos daí decorrentes[1]. A vítima foi indevidamente apontada como proprietária de uma plataforma de apostas e recebeu ameaças por conta disso.
Em sua sucinta fundamentação, a sentença afirmou que “resta incontroverso nos autos que a inteligência artificial da ré apontou em pesquisas que o autor é o proprietário de uma plataforma de jogos de azar, denominada 7 Games” e que “as informações inverídicas fornecidas pela plataforma da ré, inverossímeis, são de responsabilidade da ré e causaram danos ao autor, que recebeu ameaças por e-mail de consumidores das plataformas de apostas”.
Conheça o JOTA PRO Poder, plataforma de monitoramento que oferece transparência e previsibilidade para empresas
É interessante notar que, para chegar a essa conclusão, a sentença diferenciou a informação prestada diretamente pelo sistema de inteligência artificial do Google do seu sistema de buscas, afirmando que “a informação passada foi indicada pela plataforma da empresa ré, ou seja, entende-se que foi a ré é a responsável pela transmissão, não ocorrendo uma indicação de link como ocorre no Google Search”.
Daí a conclusão de que houve falha do Google que trouxe danos reputacionais ao autor, que passou a ser responsabilizado por golpes aplicados na plataforma de apostas, além de receber ameaças. Segundo o Valor, o problema aconteceu pelo fato de a vítima ter dado uma entrevista na qual teria recomendado sete jogos e, a partir daí, o sistema de inteligência artificial entendeu que ele seria dono da 7 Games[2].
Isso acontece porque a maior parte dos LLMs (Large Language Models) simplesmente predizem a próxima palavra, o que os torna fluentes, porém aptos a inventar coisas. Como as palavras são escolhidas com base em cálculos estatísticos – e não com base na verdade – isso pode dar ensejo a inúmeras alucinações.
Esse é o ponto fraco de tais sistemas, pois relevância não se confunde com correção, assim como linguagem fluente não se confunde com informação correta. Aliás, em tais sistemas, quanto mais específico for um tópico, maior a chance de desinformação, o que é particularmente preocupante nas searas médicas, científicas e educacionais.
Muitos desses sistemas não têm como diferenciar informações corretas das brincadeiras, o que mostra que o problema não é propriamente do mau treinamento de dados. Daí a conclusão de que, na medida em que a probabilidade é usada para gerar textos palavras por palavras, a alucinação será sempre um risco.
Além de não conseguirem diferenciar piadas e brincadeiras de informações sérias, tais modelos também não conseguem hierarquizar adequadamente as fontes de informação a partir da sua credibilidade. Assim, quando lidam com informações conflitantes, não sabem como responder e podem inclusive combinar informações para criar uma resposta que será incorreta.
Na verdade, o tema também diz respeito às falhas da inteligência artificial que podem causar danos diretos a terceiros. Como já mencionei em artigo anterior[3], dentre os erros mais divulgados pela imprensa, estão as sugestões de utilizar cola em pizza, comer uma pedra por dia, beber pelo menos dois litros de urina para se livrar mais rapidamente de pedras nos rins, correr com tesouras em prol de benefícios cardiovasculares, deixar cães em carros fechados em lugares quentes, dentre outros. Foi noticiada até sugestão de suicídio para quem se disse com depressão.
Todas essas características mostram que erros de diversas naturezas, inclusive os que maculam a identidade das pessoas, não apenas são possíveis como prováveis, podendo causar inúmeros danos àqueles que foram mal interpretados ou erroneamente descritos pelos sistemas de inteligência artificial. A utilização mal intencionada por determinados usuários pode agravar o problema.
Daí por que precisamos estar atentos a esse tipo de falha, assim como é dever das plataformas evitar, mitigar e reparar casos evidentes de erros que causam danos a cidadãos. No caso ora descrito, ressalta-se que houve a tentativa de resolver a questão de forma extrajudicial, mas a big tech não retirou a informação, sob o fundamento de que “não teria poder para excluir a informação, pois sua inteligência artificial apenas organiza as informações nas páginas já disponíveis na internet”. [4]
Tal argumento é extremamente preocupante, porque não é possível se imaginar um sistema de inteligência artificial sem controle ou sem a necessária supervisão humana. Considerando as características dos modelos de inteligência artificial e a previsibilidade dos erros, é inaceitável que as plataformas não assumam as devidas responsabilidades.
No caso do erro de identidade, o caso retratado não é inédito. Reportagem do Valor que tratou do tema mencionou decisão similar que responsabilizou o Bing da Microsoft por ter acusado um médico de cometer dezenas de assédios sexuais quando, na verdade, ele apenas fazia parte da comissão que investigava os delitos[5].
Tais hipóteses de erros da inteligência artificial guardam muitas aproximações com a questão do furto de identidade, tema que eu já abordei em coluna anterior, na qual tratei do emblemático caso da utilização, pelo ChatGPT, da voz da atriz Scarlett Johansson, ainda que a empresa sustentasse que chegou ao resultado de forma sintética[6].
O que o episódio de Scarlett Johansson mostra é a confusão que a inteligência artificial, ainda que não intencionalmente, pode criar a respeito da identidade das pessoas. Assim como acontece no erro de identidade, o que vemos são atribuições indevidas ou equivocadas sobre as pessoas ou suas características que podem ter graves repercussões sobre importantes direitos da personalidade, como nome, honra, imagem, identidade e autodeterminação informativa.
Informações direto ao ponto sobre o que realmente importa: assine gratuitamente a JOTA Principal, a nova newsletter do JOTA
Logo, é fundamental que estejamos atentos para utilizações da tecnologia que podem se mostrar diametralmente opostas a direitos da personalidade. No caso brasileiro, independentemente de eventual regulação futura sobre o tema, a arquitetura protetiva dos direitos da personalidade – desenhada tanto pela Constituição Federal, como também pelo Código Civil e pela LGPD – já assegura aos titulares os mecanismos para prevenir e reprimir esse tipo de prática.
Vale lembrar que a LGPD assegura aos titulares de dados pessoais a qualidade de dados, ou seja, a garantia, aos titulares, de exatidão, clareza, relevância e atualização dos dados, de acordo com a necessidade e para o cumprimento da finalidade de seu tratamento. O artigo 18, III, também trata do direito dos usuários à “correção de dados incompletos, inexatos ou desatualizados”.
Sob vários aspectos, essa é uma importante discussão do constitucionalismo digital, que impõe retificação e revisão de atos ou julgamentos equivocados sobre os cidadãos.
Assim, o caso retratado como exemplo é um excelente pretexto para que possamos refletir, com maior cuidado, sobre os deveres dos desenvolvedores de inteligência artificial diante da necessária observância dos direitos da personalidade daqueles que podem ser afetados por atribuições ou julgamentos equivocados.
[2] Valor Econômico. Justiça condena Google a indenizar por erro de informação de inteligência artificial. Edição de 06.06.2025.
[3] https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/as-falhas-da-inteligencia-artificial-generativa-do-google
[4] Valor Econômico. Justiça condena Google a indenizar por erro de informação de inteligência artificial. Edição de 06.06.2025.
[5] Valor Econômico. Justiça condena Google a indenizar por erro de informação de inteligência artificial. Edição de 06.06.2025.