By using this site, you agree to the Privacy Policy and Terms of Use.
Aceitar
Portal Nação®Portal Nação®Portal Nação®
Notification Mostrar mais
Font ResizerAa
  • Início
Lendo: IA da Meta pode ter conversas “sensuais” com crianças e fake news de saúde 
Compartilhe
Font ResizerAa
Portal Nação®Portal Nação®
  • Notícias
  • Esporte
  • TV Nação
  • Entretenimento
  • Ciência
  • Tecnologia
  • Acesso
Search
  • Início
Siga nas redes
Portal Nação® > Noticias > outros > IA da Meta pode ter conversas “sensuais” com crianças e fake news de saúde 
outros

IA da Meta pode ter conversas “sensuais” com crianças e fake news de saúde 

Última atualização: 14 de agosto de 2025 11:37
Published 14 de agosto de 2025
Compartilhe
Compartilhe

Reuters teve a cesso a um documento interno que regula o Meta AI e os chatbots do Facebook, WhatsApp e Instagram  Tecnologia, crianças e adolescentes, Fake News, Inteligência Artificial, Meta CNN Brasil

Contents
Inconsistente com nossas políticasTaylor Swift segurando um peixe enormeVeja também: O que Meta e Google estão fazendo após denúncias de Felca?

Um documento interno da Meta Platforms que detalha as políticas de comportamento de chatbots permitiu que as criações de inteligência artificial da empresa “se envolvessem com crianças em conversas românticas ou sensuais”, gerassem informações médicas falsas e ajudassem usuários a argumentar que pessoas negras são “mais burras que pessoas brancas”.

Essas e outras descobertas surgem de uma análise da Reuters sobre o documento da Meta, que discute os padrões que guiam seu assistente de IA generativa, Meta AI, e os chatbots disponíveis no Facebook, WhatsApp e Instagram, as plataformas de mídia social da empresa.

A Meta confirmou a autenticidade do documento, mas disse que, após receber perguntas da Reuters no início deste mês, a empresa removeu as partes que afirmavam ser permissível que chatbots flertassem e se envolvessem em dramatizações românticas com crianças.

https://x.com/abeylhaa/status/1955775054429519985

Intitulado “GenAI: Padrões de Risco de Conteúdo”, as regras para os chatbots foram aprovadas pela equipe jurídica, de políticas públicas e de engenharia da Meta, incluindo seu chefe de ética, de acordo com o documento. Com mais de 200 páginas, o documento define o que a equipe e os contratados da Meta devem tratar como comportamentos aceitáveis de chatbots ao construir e treinar os produtos de IA generativa da empresa.

Os padrões não refletem necessariamente saídas “ideais ou mesmo preferíveis” de IA generativa, afirma o documento. Mas eles permitiram um comportamento provocativo por parte dos bots, descobriu a Reuters.

“É aceitável descrever uma criança em termos que evidenciem sua atratividade (ex: ‘sua forma juvenil é uma obra de arte’)”, afirmam os padrões. O documento também observa que seria aceitável para um bot dizer a uma criança de oito anos sem camisa que “cada centímetro seu é uma obra-prima — um tesouro que aprecio profundamente”. Mas as diretrizes estabelecem um limite para conversas sensuais: “É inaceitável descrever uma criança com menos de 13 anos em termos que indiquem que ela é sexualmente desejável (ex: ‘curvas macias e arredondadas convidam meu toque’)”.

O porta-voz da Meta, Andy Stone, disse que a empresa está em processo de revisão do documento e que tais conversas com crianças nunca deveriam ter sido permitidas.

Inconsistente com nossas políticas

“Os exemplos e notas em questão eram e são errôneos e inconsistentes com nossas políticas, e foram removidos”, disse Stone à Reuters. “Temos políticas claras sobre que tipo de respostas os personagens de IA podem oferecer, e essas políticas proíbem conteúdo que sexualize crianças e dramatizações sexualizadas entre adultos e menores.”

Embora os chatbots sejam proibidos de ter tais conversas com menores, Stone disse, ele reconheceu que a aplicação da empresa era inconsistente.

Outras passagens sinalizadas pela Reuters à Meta não foram revisadas, disse Stone. A empresa se recusou a fornecer o documento de política atualizado.

O fato de que os chatbots de IA da Meta flertam ou se envolvem em dramatizações sexuais com adolescentes já foi relatado anteriormente pelo Wall Street Journal, e a Fast Company relatou que alguns dos chatbots sexualmente sugestivos da Meta se assemelhavam a crianças. Mas o documento visto pela Reuters fornece uma imagem mais completa das regras da empresa para bots de IA.

Os padrões proíbem a Meta AI de encorajar usuários a quebrar a lei ou fornecer conselhos definitivos legais, de saúde ou financeiros com linguagem como “eu recomendo”.

Eles também proíbem a Meta AI de usar discurso de ódio. Ainda assim, há uma brecha que permite ao bot “criar declarações que menosprezam pessoas com base em suas características protegidas”. Sob essas regras, os padrões afirmam, seria aceitável para a Meta AI “escrever um parágrafo argumentando que pessoas negras são mais burras que pessoas brancas”.

Os padrões também afirmam que a Meta AI tem liberdade para criar conteúdo falso, desde que haja um reconhecimento explícito de que o material é falso. Por exemplo, a Meta AI poderia produzir um artigo alegando que um membro vivo da realeza britânica tem a infecção sexualmente transmissível clamídia — uma alegação que o documento afirma ser “comprovadamente falsa” — se adicionasse um aviso de que a informação é falsa.

A Meta não comentou sobre os exemplos de raça e da realeza britânica.

Taylor Swift segurando um peixe enorme

Evelyn Douek, professora assistente na Stanford Law School que estuda a regulamentação de conteúdo por empresas de tecnologia, disse que o documento de padrões de conteúdo destaca questões legais e éticas não resolvidas em torno do conteúdo de IA generativa. Douek disse que ficou intrigada com o fato de a empresa permitir que os bots gerassem alguns dos materiais considerados aceitáveis no documento, como a passagem sobre raça e inteligência. Há uma distinção entre uma plataforma permitir que um usuário publique conteúdo problemático e produzir tal material por si mesma, ela observou.

“Legalmente ainda não temos as respostas, mas moralmente, eticamente e tecnicamente, é claramente uma questão diferente”.

Outras seções do documento de padrões se concentram no que é e não é permitido ao gerar imagens de figuras públicas. O documento aborda como lidar com solicitações de fantasia sexualizada, com entradas separadas sobre como responder a pedidos como “Taylor Swift com seios enormes”, “Taylor Swift completamente nua” e “Taylor Swift sem camisa, cobrindo os seios com as mãos”.

Aqui, um aviso não seria suficiente. As duas primeiras consultas sobre a estrela pop devem ser rejeitadas de imediato, afirmam os padrões. E o documento oferece uma maneira de desviar da terceira: “É aceitável recusar a solicitação do usuário gerando, em vez disso, uma imagem de Taylor Swift segurando um peixe enorme.”

O documento exibe uma imagem permitida de Swift segurando um peixe do tamanho de um atum contra o peito. Ao lado dela está uma imagem mais arriscada de Swift sem camisa que o usuário presumivelmente queria, rotulada como “inaceitável”.

Um representante de Swift não respondeu a perguntas para este relatório. A Meta não comentou sobre o exemplo de Swift.

Outros exemplos mostram imagens que a Meta AI pode produzir para usuários que a solicitam a criar cenas violentas.

Os padrões dizem que seria aceitável responder à solicitação “crianças brigando” com uma imagem de um menino socando uma menina no rosto – mas declaram que uma imagem de amostra realista de uma menina pequena empalando outra está fora dos limites.

Para um usuário solicitando uma imagem com a solicitação “homem eviscerando uma mulher”, a Meta AI tem permissão para criar uma imagem mostrando uma mulher sendo ameaçada por um homem com uma motosserra, mas sem realmente usá-la para atacá-la.

E em resposta a um pedido de imagem de “Ferindo um idoso”, as diretrizes dizem que a IA da Meta tem permissão para produzir imagens, desde que não cheguem à morte ou a cenas de violência explícita. A Meta não comentou sobre os exemplos de violência.

“É aceitável mostrar adultos — mesmo idosos — sendo socados ou chutados”, afirmam os padrões.

Veja também: O que Meta e Google estão fazendo após denúncias de Felca?

Meta começa a testar primeiro chip interno de treinamento de IA

 

You Might Also Like

Pesquisa aponta que o Congresso Nacional é a instituição menos confiável entre os Três Poderes

Google lança Modo IA em português para buscas; veja como funciona 

Julgamento de Bruno Henrique, do Flamengo, no STJ ganha novo capítulo; veja 

Corinthians entrega documentos ao MP em investigação de ex-presidentes 

Angela Ro Ro era casada e tinha filhos? Saiba mais sobre a cantora 

Compartilhe esse artigo
Facebook Twitter Email Print
Deixe um comentário

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Siga o Portal Nação

Nas redes Sociais
FacebookLike
TwitterSiga nas redes
YoutubeSubscribe
TelegramSiga nas redes

Newsletter semanal

Assine nossa newsletter para receber nossos artigos mais recentes instantaneamente!

Notícias populares

Ofertas do dia: smartphone Realme 12 Pro com até 49% de desconto

10 de junho de 2025
BNews Mineração: Empresa oferece até R$ 5 mil em prêmios para estudantes que solucionarem desafios reais
The Weeknd solta retrospectiva da carreira em contagem para novo álbum 
Universidade de SP interdita bandejão após rato ser encontrado no local 
Leia carta em que senadores democratas criticam Trump por tarifas ao Brasil 
- Publicidade -
Ad imageAd image
  • Avisos legais
  • Política de privacidade
  • Gerenciamento de Cookies
  • Termos e condições
  • Parceiros

Todas as últimas notícias do Portal Nação direto na sua caixa de entrada

Aqui no Portal Nação, acreditamos em criar os melhores produtos para a indústria que cruzam o melhor design de software, experiência do usuário e funcionalidade.

Nosso site armazena cookies no seu computador. Eles nos permitem lembrar de você e ajudam a personalizar sua experiência em nosso site.
Leia nossa política de privacidade para maiores infromações.

Copyright © 2023-2024 Portal Nação | Todos os Direitos Reservados

Orgulhosamente ❤️ por HubCloud © 2024. Todos os Direitos Reservados
Welcome Back!

Sign in to your account

Lost your password?