Nova função busca aumentar segurança digital de adolescentes após casos preocupantes envolvendo assistentes virtuais Tecnologia, ChatGPT, OpenAI, tecnologia CNN Brasil
A empresa-mãe do ChatGPT, a OpenAI, diz que pretende lançar controles parentais para o popular assistente de IA “dentro do próximo mês” após alegações de que ele e outros chatbots contribuíram para casos de automutilação ou suicídio entre adolescentes.
Os controles incluirão a opção de os pais vincularem sua conta à conta de seus filhos adolescentes, gerenciarem como o ChatGPT responde a usuários adolescentes, desativarem recursos como memória e histórico de conversa e receberem notificações quando o sistema detectar “um momento de angústia aguda” durante o uso.
A OpenAI já havia dito anteriormente que estava trabalhando em controles parentais para o ChatGPT, mas especificou o prazo para lançamento na terça-feira (2).
“Essas medidas são apenas o começo,” escreveu a OpenAI em uma postagem no blog nesta terça. “Continuaremos aprendendo e fortalecendo nossa abordagem, guiados por especialistas, com o objetivo de tornar o ChatGPT o mais útil possível.”
O anúncio vem após os pais de Adam Raine, de 16 anos, entrarem com um processo contra a OpenAI alegando que o ChatGPT aconselhou o adolescente sobre seu suicídio.
No ano passado, uma mãe da Flórida processou a plataforma de chatbot Character.AI por seu suposto papel no suicídio de seu filho de 14 anos. Também têm crescido preocupações sobre usuários que desenvolvem vínculos emocionais com o ChatGPT, em alguns casos resultando em episódios delirantes e afastamento da família, conforme indicaram reportagens do The New York Times e da CNN.
A OpenAI não relacionou diretamente seus novos controles parentais a esses relatos recentes, mas disse em uma postagem no blog na semana passada que “casos recentes e comoventes de pessoas usando o ChatGPT em meio a crises agudas” a levaram a compartilhar mais detalhes sobre sua abordagem à segurança.
O ChatGPT já incluía medidas como indicar linhas de ajuda em crises e outros recursos, segundo um porta-voz da OpenAI em declaração anterior à CNN.
Mas, na declaração emitida na semana passada em resposta ao suicídio de Raine, a empresa disse que suas proteções podem às vezes se tornar pouco confiáveis quando os usuários se envolvem em conversas longas com o ChatGPT.
“O ChatGPT inclui salvaguardas como direcionar as pessoas a linhas de apoio em crises e encaminhá-las a recursos do mundo real,” disse um porta-voz da empresa na semana passada.
“Embora essas salvaguardas funcionem melhor em trocas comuns e curtas, aprendemos ao longo do tempo que elas podem se tornar menos confiáveis em interações longas, nas quais partes do treinamento de segurança do modelo podem se degradar. As salvaguardas são mais eficazes quando todos os elementos funcionam como esperado, e continuaremos a aprimorá-las, guiados por especialistas”, concluiu.
Além dos controles parentais anunciados na terça-feira (2), a OpenAI diz que vai direcionar conversas com sinais de “estresse agudo” para um de seus modelos de raciocínio, que, segundo a empresa, segue e aplica as diretrizes de segurança de forma mais consistente.
A empresa também está trabalhando com especialistas em “desenvolvimento juvenil, saúde mental e interação humano-computador” para desenvolver futuras proteções, incluindo controles parentais, disse a empresa.
“Embora o conselho vá aconselhar sobre nossos produtos, pesquisas e decisões políticas, a OpenAI continua responsável pelas escolhas que faz,” afirmou a postagem no blog.
A OpenAI está no centro do boom da IA, com o ChatGPT sendo um dos serviços de inteligência artificial mais usados, com 700 milhões de usuários ativos por semana. Mas a empresa tem enfrentado crescente pressão para garantir a segurança de sua plataforma; senadores, em julho, enviaram uma carta à empresa exigindo informações sobre seus esforços nesse sentido, segundo o The Washington Post. E o grupo de defesa Common Sense Media afirmou em abril que adolescentes com menos de 18 anos não deveriam usar aplicativos de IA “companheiros” porque representam “riscos inaceitáveis”.
A empresa também tem lidado com críticas quanto ao estilo e tom do ChatGPT nas interações; em abril, reverteu uma atualização que tornou o chatbot “excessivamente bajulador ou complacente”.
No mês passado, reintroduziu a opção de alternar para modelos anteriores após críticas de usuários à versão mais recente, o GPT-5, por sua falta de personalidade. Ex-executivos da OpenAI também acusaram a empresa de reduzir recursos voltados à segurança no passado.
A OpenAI afirmou que lançará medidas adicionais de segurança nos próximos 120 dias, acrescentando que esse trabalho já estava em andamento antes do anúncio desta terça-feira.
“Esse trabalho continuará muito além deste período, mas estamos fazendo um esforço concentrado para lançar o máximo possível dessas melhorias ainda este ano,” afirmou.
Além do ChatGPT: veja 5 ferramentas de IA para aumentar produtividade