Meta deixou seu chatbot de IA invadir crianças pequenas

As diretrizes internas da Meta para seus chatbots de IA permitiram que a tecnologia flertasse com crianças e gerasse argumentos racistas, de acordo com uma reportagem da Reuters publicada na quinta-feira.
A Reuters analisou um documento de mais de 200 páginas intitulado "GenAI: Padrões de Risco de Conteúdo", que define o comportamento aceitável para Meta AI e chatbots no Facebook , Instagram e WhatsApp. Aprovadas pelas equipes jurídica, de políticas e de engenharia, as regras declaravam ser "aceitável" que chatbots dissessem a uma criança de oito anos que "cada centímetro de você é uma obra-prima — um tesouro que prezo profundamente". Outras entradas permitiam que bots "argumentassem que negros são mais burros do que brancos" e publicassem histórias comprovadamente falsas, desde que fossem rotuladas como falsas, de acordo com a Reuters.
A Meta confirmou a autenticidade do documento, com um porta-voz da empresa afirmando que os exemplos referentes a menores eram "errôneos" e foram removidos. "Temos políticas claras... [que] proíbem conteúdo que sexualize crianças", disse o porta-voz Andy Stone à agência de notícias, reconhecendo que a fiscalização tem sido inconsistente.
Os padrões também detalham soluções alternativas para rejeitar solicitações de celebridades sexualizadas, incluindo a troca de uma imagem de topless por uma de Taylor Swift "segurando um peixe enorme".
As revelações aumentam o crescente escrutínio das ferramentas de IA generativa da Meta. Separadamente, o Wall Street Journal noticiou na semana passada que a Meta chegou a um acordo em um processo de difamação com o ativista de direita Robby Starbuck, que alegou que um perfil gerado por IA o vinculou falsamente à invasão do Capitólio em 6 de janeiro e ao QAnon.
Comece o seu dia com notícias essenciais do Salon. Inscreva-se para receber gratuitamente nosso boletim informativo matinal , Crash Course.
Segundo o acordo, a Starbuck assessorará a Meta sobre como "mitigar vieses ideológicos e políticos" em seus sistemas de IA. A Starbuck, crítica ferrenha de programas de diversidade, equidade e inclusão, pressionou grandes marcas a abandonarem tais políticas e promoveu teorias da conspiração anti-LGBTQ+, incluindo a produção de um filme que alegava que produtos químicos tóxicos fazem com que crianças se identifiquem como gays.
A Meta diz que está trabalhando para treinar modelos de IA, como seu sistema Llama, para "entender e articular ambos os lados de uma questão controversa".
Mas as descobertas da Reuters sugerem que as salvaguardas internas da empresa permitiram parte do conteúdo que os críticos há muito temiam que a IA pudesse produzir.
“A inteligência artificial exige uma reformulação das compensações entre a utilidade tecnológica e o risco”, escreveu Jonathan Guilford, editor da Reuters Breakingviews nos EUA. em um artigo de opinião sobre as lições da história da Meta AI. "Respostas não guiadas de chatbots, por exemplo, não podem ser restringidas de forma precisa. Tentativas de fazê-lo serão insuficientes ou envolverão os desenvolvedores em um pântano de questões sociais de terceira via."
Blaise Malley é pesquisador de assuntos nacionais no Salon.
salon