Instagram permite conversas sensuais envolvendo crianças; entenda a situação
Um documento interno da Meta, revelado pela agência Reuters, expôs falhas graves nos padrões de uso da inteligência artificial da empresa. O arquivo, que trata do Meta AI, mostrava que assistentes virtuais podiam envolver crianças em conversas românticas ou sensuais, além de gerar informações médicas falsas e conteúdos discriminatórios.
Conteúdo do artigo:
A Meta, responsável pelo Instagram, Facebook e WhatsApp, confirmou a autenticidade do documento e afirmou que removeu exemplos de conversas inadequadas com crianças após o contato da Reuters em agosto de 2025.
Leia mais:
Redes de supermercados encerram lojas e promovem demissões em massa
Regras internas da Meta sobre IA generativa

O que diz o documento
Intitulado “GenAI: Padrões de Risco de Conteúdo”, o documento de mais de 200 páginas define o que a equipe e os contratados da Meta devem considerar comportamentos aceitáveis do Meta AI ao criar e treinar produtos de inteligência artificial generativa.
Segundo o arquivo, alguns comportamentos provocativos eram permitidos, mesmo que não fossem considerados ideais ou preferíveis. Entre os exemplos, a IA poderia descrever uma criança em termos de atratividade, mas havia limites: a sexualização direta de menores de 13 anos era proibida.
Exemplos preocupantes
- Assistentes podiam dizer a uma criança de oito anos: “cada centímetro de você é uma obra-prima – um tesouro que eu prezo profundamente”.
- Era considerado aceitável que a IA descrevesse crianças como “uma forma jovem é uma obra de arte”.
- Porém, expressões como “curvas suaves e arredondadas convidam ao meu toque” eram explicitamente proibidas para menores de 13 anos.
Aprovação e limites das regras
As diretrizes foram aprovadas por equipes jurídicas, de políticas públicas, engenharia e pelo diretor de ética da Meta. No entanto, o documento deixa claro que os padrões não representam os resultados ideais de comportamento da IA, apenas o que poderia ser permitido em determinados contextos.
Meta reconhece falhas e revisa padrões
Andy Stone, porta-voz da Meta, afirmou que os exemplos do documento eram errôneos e inconsistentes com as políticas da empresa. “Essas conversas com crianças nunca deveriam ter sido permitidas”, disse Stone, reforçando que a Meta possui políticas claras que proíbem sexualização de menores e dramatizações sexualizadas entre adultos e crianças.
Mesmo com a proibição, Stone admitiu que a aplicação das regras ainda é inconsistente e que algumas passagens não foram revisadas. A empresa, no entanto, não disponibilizou a versão atualizada do documento.
IA da Meta e o espaço para discurso de ódio e fake news
Conteúdo falso permitido
O documento da Meta ainda revela permissões para que a IA gerasse informações falsas, contanto que houvesse aviso explícito de que o conteúdo não é verdadeiro. Entre os exemplos:
- Artigos falsos sobre infecções de membros da realeza britânica, desde que marcado como falso.
- Declarações que afirmem que negros são menos inteligentes que brancos – embora o uso de discurso de ódio seja proibido, havia exceções nos padrões internos.
Limites da violência gerada pela IA
O Meta AI poderia gerar imagens de violência moderada, como um menino dando um soco no rosto de uma menina, mas imagens de mortes ou ferimentos graves eram proibidas. Algumas cenas, como uma mulher ameaçada por um homem com uma motosserra, eram permitidas desde que não houvesse uso do objeto para ataque real.
Além disso, cenas envolvendo idosos sendo machucados poderiam ser produzidas desde que não mostrassem sangue ou morte.
Impacto para a segurança infantil e responsabilidade da Meta

A divulgação dessas regras internas levanta questões sérias sobre o controle e responsabilidade das plataformas digitais. Especialistas em segurança infantil alertam que permitir que IAs se envolvam com menores, ainda que dentro de “limites”, pode gerar riscos de exploração e traumatização.
As redes sociais já enfrentam críticas frequentes por exposição de crianças, fake news e discursos de ódio, o que evidencia a necessidade de revisão e fiscalização rigorosa das ferramentas de inteligência artificial.
Como proteger crianças no ambiente digital
Para minimizar riscos, especialistas recomendam que pais e responsáveis:
- Ativem controles de tempo de uso e monitoramento de atividades em celulares e aplicativos.
- Utilizem filtros de conteúdo e aplicativos de controle parental.
- Conversem com crianças sobre os riscos online e instruam sobre comportamento seguro.
Conclusão
O documento interno da Meta revelou falhas graves na forma como a empresa regulava o comportamento de sua inteligência artificial generativa. Permissões para flertar com crianças, gerar informações falsas e permitir conteúdos preconceituosos mostram que, mesmo com políticas, a aplicação prática ainda é inconsistente. A Meta afirma estar revisando as diretrizes, mas especialistas alertam que o monitoramento contínuo é essencial para garantir a segurança de usuários, especialmente menores de idade, e evitar a propagação de fake news e discursos de ódio.
