By using this site, you agree to the Privacy Policy and Terms of Use.
Aceitar
Portal Nação®Portal Nação®Portal Nação®
Notification Mostrar mais
Font ResizerAa
  • Início
Lendo: ChatGPT e saúde mental: quais os limites da IA no cuidado psicológico? 
Compartilhe
Font ResizerAa
Portal Nação®Portal Nação®
  • Notícias
  • Esporte
  • TV Nação
  • Entretenimento
  • Ciência
  • Tecnologia
  • Acesso
Search
  • Início
Siga nas redes
Portal Nação® > Noticias > outros > ChatGPT e saúde mental: quais os limites da IA no cuidado psicológico? 
outros

ChatGPT e saúde mental: quais os limites da IA no cuidado psicológico? 

Última atualização: 15 de setembro de 2025 16:41
Published 15 de setembro de 2025
Compartilhe
Compartilhe

OpenAI anunciou, recentemente, uma série de mudanças no chatbot em um cenário de constante preocupação sobre o impacto da IA no bem-estar mental  Saúde, ChatGPT, Inteligência Artificial, Saúde mental CNN Brasil

Contents
Leia MaisVício em ChatGPT? Entenda se uso de IAs está prejudicando a criatividadeUsar ChatGPT para fazer terapia oferece riscos e preocupa especialistasUsar ChatGPT para calcular ciclos do sono funciona?“Desabafar” com chatbot pode expor informações sensíveis e valiosasAfinal, existe uma forma segura de usar IA para fins pessoais e emocionais?O que a OpenAI diz sobre o assunto?

No início de setembro, a OpenAI apresentou uma série de mudanças que pretende fazer em seu chatbot, o ChatGPT, em relação à segurança e saúde mental dos usuários. Uma delas é a implementação de controles parentais para o assistente de inteligência artificial (IA).

Os anúncios ocorreram em um momento de crescentes preocupações sobre o impacto da IA na saúde mental, com alegações recentes de que o ChatGPT e outros chatbots estariam contribuindo para casos de automutilação ou suicídio entre adolescentes.

Leia Mais

  • Vício em ChatGPT? Entenda se uso de IAs está prejudicando a criatividade

    Vício em ChatGPT? Entenda se uso de IAs está prejudicando a criatividade

  • Usar ChatGPT para fazer terapia oferece riscos e preocupa especialistas

    Usar ChatGPT para fazer terapia oferece riscos e preocupa especialistas

  • Usar ChatGPT para calcular ciclos do sono funciona?

    Usar ChatGPT para calcular ciclos do sono funciona?

Além disso, uma pesquisa da Harvard Business Review revelou que o aconselhamento terapêutico e outras aplicações pessoais voltadas à saúde mental já são a principal motivação para o uso de ferramentas de IA generativa no mundo. No Brasil, a tendência também existe: um em cada dez usuários recorre à tecnologia para apoio psicológico, segundo levantamento da Talk Inc.

O cenário levanta o debate sobre os limites da IA no cuidado psicológico, assim como os perigos que o uso de chatbots para aconselhamento terapêutico pode oferecer. Entre eles, a falsa sensação de cuidado, conforme aponta Rui Brandão, vice-presidente de saúde mental da Conexa, ecossistema digital de saúde física e mental.

“O modelo ‘parece’ acolher, mas pode perder nuances emocionais, normalizar sinais de alerta ou dar respostas inadequadas em contextos delicados”, afirma Brandão à CNN. Além disso, o especialista ressalta que sistemas sem protocolos robustos podem falhar na triagem de risco, identificando autoagressão e ideação suicida tardiamente.

Outro ponto de alerta é o risco de adiar ou evitar a terapia/psiquiatria quando necessário, prolongando o sofrimento. “Também há o risco de reforçar padrões disfuncionais. Conversas 24/7 podem alimentar ruminação, dependência do chatbot e isolamento”, afirma.

“Desabafar” com chatbot pode expor informações sensíveis e valiosas

Além dos riscos à saúde mental, usar chatbots como terapeutas ou amigos podem expor informações sensíveis, íntimas, pessoais e valiosas. Isso está relacionado à possibilidade de vazamento de dados ou compartilhamento de informação após autorização do próprio usuário, segundo Leandro Oliveira, diretor da Humand no Brasil, plataforma global voltada à centralização da cultura organizacional.

“Nesse caso, se você está desabafando com frequência com algum chat de IA, a primeira recomendação é não permitir que sua informação seja usada na modelagem a treinamento”, afirma à CNN.

Segundo o especialista, essa exposição também pode ocorrer por responsabilidade do próprio usuário. “Você pode ter um acesso não autorizado da sua conta pelo celular de terceiros, por exemplo, se uma pessoa rouba seu telefone e acessa seu aplicativo que tem história de conversas abertas, levando a um uso indevido da sua informação pessoal e privada”, exemplifica Oliveira.

Nesses casos, o especialista orienta usar a biometria para desbloquear o celular ou computador, além de ativar fatores de múltipla autentificação para prevenir que alguém abra seu conteúdo ao ter acesso aos seus dispositivos.

Afinal, existe uma forma segura de usar IA para fins pessoais e emocionais?

Na visão de Oliveira, existem formas de usar IA em um caráter colaborativo com a terapia, mas nunca substitutivo.

“Nós precisamos entender que a IA começa sem muita criatividade. Isso quer dizer que até a IA ‘pensar sozinha’, as ferramentas vão usar modelos padrões, repetidos e treinados inicialmente. Só após certa experiência em determinados contextos, a ferramenta começa a sugerir algo fora desse livro de receita colocado lá primeiro como base para interação entre o usuário e a máquina”, explica.

Em outras palavras, com o tempo, a IA pode deixar de ter um olhar parcial e começar a te responder o que você já deseja ouvir, diferente do que um terapeuta, por exemplo, faria na realidade.

“Enquanto um terapeuta confronta a realidade, eu posso dizer que comportamento A para mim significa frustração. Então, toda vez que a IA identificar aquele padrão de escrita, ela vai dizer que você está frustrado. Mas, na prática, aquilo pode significar mais que frustração”, afirma.

“É fundamental que o paciente que utiliza uma IA para fins terapêuticos desenvolva um senso crítico apurado. Diferente de um terapeuta humano, que passa por anos de treinamento para desenvolver a escuta ativa, a empatia e a habilidade de fazer as perguntas certas e desafiar o paciente, a IA opera com base em algoritmos e dados”, explica Oliveira. “Se o paciente não souber como ‘provocar’ a IA, incentivando-a a questionar, aprofundar e propor reflexões, o risco é que a interação se torne superficial ou até mesmo reforçadora de vieses existentes.”

No entanto, é possível usar ferramentas do chatbot para te ajudar a analisar padrões de comportamentos que, posteriormente, podem ser discutidos com um terapeuta ou profissional de saúde.

“No caso de uma escrita terapêutica, por exemplo, pedir para IA reescrever seu diário, pedir diferentes formas de expressar de maneira mais concisa ou direta determinado pensamento ou evento, colocar fatos em um modelo visual e cronológico, ou até mesmo perguntar quando determinado padrão emocional foi identificado em diários anteriores são mecanismos de revisão que podem dar luz a padrões, que então podem ser discutidos com um terapeuta ou profissional de saúde mental”, sugere Oliveira.

“A gente precisa usar IA para fazer o ‘trabalho braçal da terapia’, e não tentar substituir o terapeuta”, completa. “A IA é, por natureza, projetada para ser mecânica e, muitas vezes, para ‘agradar’ o usuário, o que pode se traduzir em respostas que evitam o confronto ou o questionamento mais incisivo. Ela até pode replicar padrões de uma abordagem terapêutica específica se o usuário direcionar (como comportamental, junguiana, humanista), mas a capacidade de perceber nuances emocionais, contradições e padrões inconscientes que um terapeuta humano identifica, ainda é um território em que a IA tem muitas limitações.”

O que a OpenAI diz sobre o assunto?

Em um comunicado publicado em agosto, a OpenAI já havia afirmado que a meta da empresa é “oferecer ferramentas que sejam realmente úteis para as pessoas” e que continuam a melhorar modelos que possam “reconhecer e responder aos sinais de sofrimento mental e emocional”. Para isso, a tecnologia poderá conectar pessoas com médicos e especialistas de acordo com informações relevantes e validadas.

“Desde o início de 2023, nossos modelos são treinados para não fornecer instruções de autolesão e para adotar uma forma empática e cuidadosa de comunicação. Por exemplo: se alguém escrever no chat que gostaria de se machucar, o ChatGPT é treinado para não concordar e, em vez disso, reconhecer o sentimento da pessoa e orientá-la a buscar ajuda”, diz o comunicado.

Além disso, a empresa afirma que, em casos de intenção suicida, o ChatGPT é treinado a orientar a pessoa a buscar ajuda profissional.

Na visão de Brandão, para evitar episódios graves, a plataforma precisa definir limites explícitos com escopos claros. “Além disso, precisam contar com triagem de risco com escalonamento imediato e contatos de emergência locais, verificação de idade e contas familiares, transparência sobre limitações e acionamentos, supervisão humana para casos críticos e caminhos fáceis de encaminhamento clínico”, afirma.

“A tecnologia pode ajudar, mas a escuta profissional continua sendo indispensável”, finaliza.

Vício em ChatGPT? Entenda se uso de IAs prejudica a criatividade

 

You Might Also Like

O cofre do milho: por dentro do banco que guarda o futuro da alimentação 

Explosão de carro-bomba deixa um morto em Guayaquil, no Equador 

ADPFs 1259 e 1260: O rito do impeachment de ministros do STF e a separação de poderes

Hérnia de disco: novas tecnologias tornam tratamento mais seguro e rápido 

Leilão da Receita terá iPhone por R$ 300; veja como participar 

Compartilhe esse artigo
Facebook Twitter Email Print
Deixe um comentário

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Siga o Portal Nação

Nas redes Sociais
FacebookLike
TwitterSiga nas redes
YoutubeSubscribe
TelegramSiga nas redes

Newsletter semanal

Assine nossa newsletter para receber nossos artigos mais recentes instantaneamente!

Notícias populares
outros

Com Trump, setores veem janela para Brasil tomar investimento verde dos EUA 

22 de janeiro de 2025
Quaest: Maioria da Câmara não acredita na aprovação de impeachment do STF 
Em reunião ministerial, governo decide criar “central de monitoramento” 
Novo presidente do TCDF promete transparência, interação e uso de IA
Atual prefeito de cidade baiana terá que devolver mais de 200 mil por causa de gestão anterior
- Publicidade -
Ad imageAd image
  • Avisos legais
  • Política de privacidade
  • Gerenciamento de Cookies
  • Termos e condições
  • Parceiros

Todas as últimas notícias do Portal Nação direto na sua caixa de entrada

Aqui no Portal Nação, acreditamos em criar os melhores produtos para a indústria que cruzam o melhor design de software, experiência do usuário e funcionalidade.

Nosso site armazena cookies no seu computador. Eles nos permitem lembrar de você e ajudam a personalizar sua experiência em nosso site.
Leia nossa política de privacidade para maiores infromações.

Copyright © 2023-2024 Portal Nação | Todos os Direitos Reservados

Orgulhosamente ❤️ por HubCloud © 2024. Todos os Direitos Reservados
Welcome Back!

Sign in to your account

Lost your password?