Robôs pornográficos e o futuro da IA segundo Elon Musk


Foto da ANSA
Coisas das nossas telas
E se o modelo de negócios que a indústria de IA tanto espera for vender amigos, namoradas e outros companheiros para milhões de pessoas? A empresa xAI, de Elon Musk, lançou dois novos "Companheiros" Grok, um dos quais é uma garotinha que parece ter saído de um anime. E ela está disposta a falar sobre qualquer coisa.
Sobre o mesmo tema:
No final de maio, discutimos a complicada relação entre Elon Musk e Grok, o chatbot desenvolvido por sua empresa de inteligência artificial xAI. Na época, Grok havia respondido a muitos usuários da plataforma X com comentários críticos sobre o próprio Musk, suas empresas e suas posições públicas . Uma situação bizarra, que Musk decidiu abordar anunciando, ou melhor, ameaçando, que reprogramaria o chatbot.
Nos dias que se seguiram, algo de fato aconteceu com Grok, que causou comoção com comparações absurdas e preocupantes com Hitler e declarações demonstrando simpatia pelo nazismo. Em certo momento, por exemplo, Grok se autodenominou "MechaHitler", uma fusão do ditador com os robôs gigantes da ficção científica japonesa . Algo parecido com Grok, em suma, mas também uma clara tentativa de Musk e sua equipe de corrigir o comportamento do chatbot.
Algumas semanas depois, a Grok mudou sua identidade mais uma vez. A xAI introduziu um novo recurso chamado "Companion", que apresenta dois avatares digitais: Rudy e Ani. O primeiro é um panda vermelho projetado para interagir com crianças. A segunda, Ani, é uma garota virtual no estilo anime japonês, com um vestido curto.
Ani interage com o usuário de forma amigável, muitas vezes com tons brincalhões ou de flerte. Isso levantou algumas preocupações, especialmente considerando que o aplicativo da xAI está disponível na App Store para usuários com 12 anos ou mais, e Ani parece programado para ir longe demais em suas interações, criando situações inapropriadas.
Essa nova evolução do Grok faz parte de uma discussão mais ampla sobre o uso de modelos de linguagem como "companheiros" virtuais. Investigações recentes, incluindo uma da Rolling Stone, revelaram que usuários interagem diariamente com chatbots como o ChatGPT, tratando-os não como ferramentas, mas como amigos, confidentes ou até mesmo guias espirituais . Em alguns casos, essas conversas desempenham um papel central na vida de pessoas vulneráveis ou isoladas, que tendem a interpretar as respostas da IA como verdades reveladas.
Neste ponto, é importante esclarecer que esses chatbots não são verdadeiramente "inteligentes" no sentido humano da palavra: são, na verdade, modelos linguísticos, ou Grandes Modelos de Linguagem (LLMs), capazes de produzir textos plausíveis a partir de grandes quantidades de dados, mas carecem de consciência, intenção ou compreensão real. No entanto, a forma como são apresentados e percebidos pode facilmente gerar confusão, especialmente entre pessoas mais jovens ou vulneráveis.
O problema está interligado à sustentabilidade econômica dessas ferramentas. Manter modelos como Grok ou ChatGPT é muito caro: eles exigem infraestrutura tecnológica avançada, GPUs caras, grandes volumes de energia e pessoal altamente especializado. Além disso, a maioria dos usuários ainda depende das versões gratuitas, dificultando a construção de um negócio sólido com essas ferramentas.
Uma das soluções que muitas empresas do setor estão explorando é transformar chatbots em "companheiros" virtuais. Personagens digitais para conversar, brincar, confiar ou, em alguns casos, flertar: não mais apenas assistentes de produtividade, mas companheiros, presenças emocionais, sempre disponíveis. Em um mundo cada vez mais solitário, vender conexões — por mais irreal que seja — pode ser um negócio enorme. E, pelo menos por enquanto, não regulamentado.
A xAI parece estar caminhando nessa direção, seguindo uma tendência que também afeta outros setores de tecnologia. A Tesla, outra empresa de Musk, está trabalhando em robôs humanoides, assim como muitas outras empresas ao redor do mundo, incluindo a Meta. Startups ainda menores e mais ousadas, como Replika e Character.AI, já demonstraram as consequências que esse tipo de relacionamento pode ter . Há um ano, um garoto americano de quatorze anos tirou a própria vida após discutir suicídio com um robô da Character.AI.
Resta saber quais serão os limites dessas tecnologias. Por enquanto, não há regras claras, e é provável que o governo Trump não seja o único a arregaçar as mangas e impor limites a uma indústria disposta a fazer qualquer coisa para encontrar um modelo de negócio sustentável. Até mesmo vender amigos, homens e mulheres, que não existem .
Mais sobre estes tópicos:
ilmanifesto