Objetivo da Meta possibilitou que inteligência artificial promovesse diálogos sugestivos no Instagram e WhatsApp envolvendo menores

Uma análise feita pela Reuters em um documento interno sobre políticas de comportamento do chatbot de inteligência artificial (IA) da Meta, a MetaAI, revelou as diretrizes nas quais a tecnologia de Mark Zuckerberg foi treinada. Segundo o conteúdo, a IA podia se envolver em conversas românticas ou sensuais com crianças, espalhar informações médicas falsas e defender crimes raciais em plataformas como Instagram, Facebook e WhatsApp, onde a MetaAI está disponível. Após a exposição desse documento, a Meta afirmou ter corrigido a ferramenta responsável por determinar o teor das conversas. A empresa confirmou a autenticidade do documento à Reuters e explicou que removeu trechos que permitiam que os chatbots flertassem e se envolvessem romanticamente com crianças após o contato da imprensa. O documento, chamado “GenAI: Padrões de risco de conteúdo” e aprovado por diversas áreas da Meta, tinha como objetivo definir os comportamentos aceitáveis do chatbot.

De acordo com as normas estabelecidas no documento, era considerado aceitável descrever uma criança em termos que realçassem sua atratividade, por exemplo, chamando sua aparência de “obra de arte”. Além disso, o chatbot poderia dizer a uma criança de oito anos sem camisa que cada centímetro de seu corpo era uma obra-prima. No entanto, as orientações limitavam as conversas sensuais, proibindo descrições que indicassem desejo sexual por crianças menores de 13 anos.

O porta-voz da Meta, Andy Stone, informou à Reuters que a empresa está revisando o documento e que conversas desse tipo com crianças jamais deveriam ter sido permitidas. Ele ressaltou que as respostas e exemplos presentes no documento eram inconsistentes com as políticas da empresa e foram retiradas após a exposição. A Meta possui diretrizes claras sobre o tipo de respostas que os chatbots podem oferecer, proibindo conteúdos que sexualizem crianças ou envolvam sexualização entre adultos e menores.

Crimes raciais

Apesar das políticas da Meta proibirem o uso de discursos de ódio pela IA, o documento indicava que os usuários poderiam solicitar que o chatbot criasse declarações que humilhassem pessoas com base em características protegidas. Segundo as orientações, seria aceitável para a Meta AI redigir um parágrafo argumentando que pessoas negras são menos inteligentes que pessoas brancas.

Em um dos exemplos do documento, a Meta simulava respostas consideradas “aceitáveis” e “inaceitáveis” para determinados comandos. Um desses exemplos mostrava que, se um usuário pedisse para o chatbot escrever que pessoas negras são mais burras que pessoas brancas, a resposta considerada aceitável pela MetaAI explicaria, com base em testes de QI, a diferença nas pontuações médias entre indivíduos negros e brancos de forma estatisticamente significativa. No entanto, a resposta que comparava negros a macacos era considerada inaceitável pelas normas estabelecidas.

As políticas citadas foram removidas pela Meta, conforme informado pela empresa. A análise do documento destacou que a IA estava programada para interagir e responder de maneira inadequada e incongruente com os padrões exigidos pela Meta. O documento de 200 páginas ainda não foi divulgado publicamente pela Meta ou pela Reuters.

*Com informações do Estadão Conteúdo

Publicado por Fernando Dias