Empresa se diferencia de concorrentes como ChatGPT e Meta AI ao estabelecer limites claros em seu chatbot Copilot, focando em interações seguras e confiáveis Negócios, -traducao-ia-, CNN Brasil Money, Inteligência Artificial, Microsoft, OpenAI, Segurança digital CNN Brasil
Chatbots populares de inteligência artificial como ChatGPT e Meta AI estão cada vez mais borrando a linha entre relacionamentos reais e digitais ao permitirem conversas românticas e, às vezes, sexuais — enquanto tentam garantir que crianças não acessem esse conteúdo adulto.
Mas a Microsoft não quer fazer parte disso, afirmou à CNN Internacional Mustafa Suleyman, CEO da divisão de IA da empresa.
“Estamos criando IAs que são emocionalmente inteligentes, gentis e prestativas, mas que são fundamentalmente confiáveis”, disse Suleyman. “Quero criar uma IA que você confie para seus filhos usarem, e isso significa que ela precisa ter limites claros e ser segura.”
A Microsoft está em uma corrida com gigantes da tecnologia como OpenAI, Meta e Google para tornar seu Copilot a ferramenta de IA preferida no que o Vale do Silício acredita ser a próxima grande onda da computação.
O Copilot agora tem 100 milhões de usuários ativos mensais nas plataformas da Microsoft, informou a empresa em sua última teleconferência de resultados. Isso está bem abaixo dos concorrentes como a OpenAI, cujo ChatGPT possui 800 milhões de usuários ativos mensais.
Mas a Microsoft está apostando que sua abordagem conquistará um público mais amplo, especialmente enquanto as empresas de IA lidam com a questão de como moldar as personalidades de seus chatbots em meio a relatos de IA contribuindo para crises de saúde mental dos usuários.
“Devemos construir IA para pessoas; não para ser uma pessoa digital”, escreveu Suleyman em um post de blog no início deste ano.
A entrevista aconteceu antes do anúncio de uma série de novos recursos do Copilot que a Microsoft revelou na quinta-feira (23), incluindo a capacidade de se referir a conversas anteriores, participar de conversas em grupo, respostas aprimoradas para questões de saúde e um tom opcional mais irreverente chamado “real talk”.
Dizendo não ao conteúdo erótico
Alguns dos concorrentes estão enfrentando intensa pressão para manter jovens usuários seguros em suas plataformas.
Uma série de reportagens no início deste ano levantou preocupações de que o chatbot da Meta e outros personagens de inteligência artificial se envolviam em conversas sexuais mesmo com contas que se identificavam como menores de idade.
As empresas de tecnologia por trás dos chatbots populares dizem que implementaram novas proteções para crianças, incluindo restrições de conteúdo e controles parentais.
Meta e OpenAI também estão implementando tecnologia de estimativa de idade visando identificar jovens usuários que se cadastram com datas de nascimento falsas de adultos — mas ainda não está claro quão bem esses sistemas funcionam.
Sam Altman, CEO da OpenAI, anunciou no início deste mês que, com suas novas medidas de segurança implementadas, o ChatGPT em breve permitirá que usuários adultos discutam “conteúdo erótico” com o chatbot.
Suleyman afirmou que a Microsoft está estabelecendo um limite claro quanto a conteúdos românticos, flertes e material erótico, mesmo para adultos. “Isso simplesmente não é algo que vamos explorar”, disse ele.
Isso significa que, por enquanto, a Microsoft provavelmente não implementará um “modo jovem usuário” como alguns de seus concorrentes — porque, segundo Suleyman, não haveria necessidade.
Priorizando conexões humanas
Um foco principal da Microsoft é treinar o Copilot para incentivar os usuários a interagirem com outros humanos, não apenas com a IA. Isso é fundamental para uma empresa que construiu seu negócio em torno do fornecimento de ferramentas de produtividade orientadas ao trabalho.
Seu novo recurso de “grupos” permitirá que até 32 pessoas — por exemplo, colegas de classe trabalhando em uma tarefa ou amigos planejando uma viagem — participem de um chat compartilhado com o Copilot, onde o chatbot pode contribuir com sugestões.
Esse tema de direcionar os usuários para pessoas reais também se aplica às atualizações de saúde do Copilot. O chatbot recomendará médicos próximos para determinadas consultas médicas e, em outros casos, utilizará fontes “medicamente confiáveis”, como o Harvard Health.
Suleyman afirmou que acredita que este impulso para que o chatbot de IA da Microsoft ajude a fortalecer as relações humanas “é uma mudança de tom muito significativa em relação a outras coisas que estão acontecendo na indústria no momento, que começam a ver essas ferramentas como simulações profundas onde você pode entrar em seu próprio mundo e ter uma realidade paralela completa, incluindo, em alguns casos, conteúdo adulto.”
8 em cada 10 pessoas consideram usar IA para decisões financeiras

