Suicídios e Inteligência Artificial: o ChatGPT pode ser responsabilizado?

A notícia do suicídio de um adolescente que havia "confidenciado" ao ChatGPT não é, infelizmente, o primeiro caso do tipo. Em dezembro passado, outra empresa de IA, a Character.ai , foi processada pelos pais de um menino que supostamente cometeu um ato extremo sob a influência do chatbot que estava usando .
Esses dois casos, assim como os menos graves, mas não menos preocupantes, de pessoas que se refugiam em uma interação falsa e aparentemente reconfortante, devem ser contextualizados no fenômeno em que os chatbots são usados, contra toda lógica e racionalidade, como confidentes, mentores e, em alguns casos, verdadeiros "parceiros".
Além dos aspectos psicológicos (patológicos) de tais fenômenos, que refletem o distanciamento mais geral da realidade induzido por relacionamentos mediados tecnologicamente e, como aponta Simon Gottschalk , da Universidade de Nevada, pela infantilização da cultura ocidental , é útil também abordar a questão de uma perspectiva jurídica.
“Responsabilidade da IA” e o Problema da AntropomorfizaçãoIA é software e, como tal, não possui "subjetividade" nem "consciência". O fato de poder funcionar com alto nível de autonomia e replicar (aparentemente classificáveis como) manifestações cognitivas não altera os termos da questão: o fato de funcionar de determinada maneira não afeta a natureza inanimada do software.
Esses conceitos são facilmente compreendidos quando pensamos em um processador de texto ou em um programa para gerenciar o roteamento de pacotes IP que circulam (aparentemente) caoticamente de um lado para o outro da Big Internet. Mas, quando se trata de chatbots , a necessidade irracional de acreditar que estamos lidando com um "ser" em vez de um objeto é muito forte, mudando assim a maneira como um número cada vez maior de pessoas interage com essa tecnologia. Não é surpresa, portanto, que essa dimensão psico(patológica) leve indivíduos — mas, infelizmente, também políticos e legisladores — a hipotetizar as "responsabilidades da inteligência artificial", como no caso paradigmático da regulamentação europeia sobre IA e suas classificações improváveis baseadas em "critérios de risco" indefinidos.
Você não precisa de inteligência artificial para causar danos às pessoas.A história da computação está repleta de eventos, até mesmo trágicos (do desastre do Boeing 737 Max ao escândalo do Royal Mail ), causados por erros de software que, em retaliação à IA, poderíamos chamar de "estúpidos". Mas, justamente porque até (e acima de tudo) o funcionamento de programas "normais" pode causar consequências irreparáveis, devemos, de uma vez por todas, aceitar o fato de que, se um software falha, significa que ele foi mal construído.
É evidente, portanto, que as consequências do comportamento do software devem ser suportadas por alguém selecionado entre aqueles que o construíram, testaram, optaram por comercializá-lo e o venderam aos consumidores finais. Isso não é nem mais nem menos do que acontece com qualquer produto lançado no mercado, desde parafusos até os sistemas de proteção térmica do Ônibus Espacial. E aqui chegamos ao cerne da questão.
A responsabilidade é das empresas de IA, não da IAO fato de um chatbot ser considerado um produto é o elo que une diversos processos judiciais envolvendo empresas de IA nos EUA. Sejam produtos que supostamente incitaram suicídio, produtos que não intervieram em caso de comportamento perigoso ou produtos que fornecem resultados não confiáveis , O ponto em comum é, de fato, a forma como esses programas de software foram desenvolvidos. Essa é a linha de ataque escolhida pelos advogados que representam aqueles que alegam ter sofrido danos pelo funcionamento de chatbots e programas similares. Assim, colocada nesses termos, a questão se desloca da inexistente "responsabilidade do chatbot" para a possibilidade de configurar a responsabilidade de quem o desenvolveu sem fornecer "medidas de segurança adequadas".
O papel das verificações de segurançaOs chatbots são, na verdade, equipados com medidas de segurança na forma de "verificações de segurança", um conjunto de técnicas e métodos que impedem o chatbot de responder de determinada maneira ou bloqueiam a resposta antes que ela seja comunicada ao usuário. A chave, então, é entender quão eficazes essas verificações são, ou deveriam ser, porque é assim que a responsabilidade da cadeia de suprimentos é medida. Esta é uma questão central no desenvolvimento de chatbots, em particular porque a presença de verificações de segurança, por um lado, limita severamente a capacidade de usar efetivamente os LLMs mais comuns em áreas como o judiciário, mas, por outro, representa a aplicação do princípio geral consagrado em todos os sistemas jurídicos, segundo o qual, independentemente do que se faça, deve-se evitar causar danos.
O limite das verificações de segurançaNo entanto, embora as verificações de segurança sejam uma forma de cumprir a obrigação de evitar causar danos, por outro lado (e precisamente por esse motivo) a forma como são implementadas representa o limite da responsabilidade. Em outras palavras, não basta simplesmente realizar uma verificação de segurança; ela deve ser eficaz. Para usar uma comparação muito utilizada no mundo da tecnologia da informação, a dos carros, não basta dizer que o carro tem freios; eles também devem ser construídos para funcionar corretamente.
No caso de chatbots, esse requisito é muito complexo de cumprir devido à ampla gama de usos dessas plataformas. Além disso, na ausência de instruções explícitas, o conceito de segurança é frequentemente aplicado mais para evitar problemas legais para o fabricante do que para proteger o usuário do que pode acontecer ao usar o software. Isso fica evidente no cuidado tomado para evitar que o chatbot responda de forma legítima, mas "inadequada", seja lá o que isso signifique.
O setor industrial possui regulamentações muito rígidas e difíceis de seguir quando se trata de componentes, equipamentos e máquinas complexas, mas os mesmos critérios não se aplicam ao software. Pelo contrário, as cláusulas das licenças, embora em termos diferentes, são completamente padronizadas e afirmam claramente que o software não possui garantia para usos específicos, que não deve ser utilizado em ambientes críticos ou perigosos e que é fornecido "no estado em que se encontra".
A Licença para Usar GolpesSob o pretexto da licença — porque na UE o software não é considerado um produto, mas, como a Divina Comédia , uma obra criativa — o autor se isenta de toda responsabilidade pelo que acontece quando um programa é usado. Essas são cláusulas que poderiam ser contestadas facilmente em um processo judicial, mas quantas pessoas investiriam tempo e, acima de tudo, dinheiro para tal resultado? Melhor aguardar a próxima versão do software, que promete eliminar bugs e oferecer novos e interessantes recursos, já que nenhuma atualização jamais eliminará a renúncia do vendedor.
Isso significa que as empresas de IA são essencialmente inelegíveis para responsabilidade por danos causados pelos produtos — ou melhor, pelas obras criativas — que disponibilizam aos usuários finais, ou que lhes foram disponibilizados? Não, claro que não, mas também significa que estabelecer qualquer responsabilidade direta é muito mais difícil, pois elas precisam superar a barreira impenetrável dos termos de licenciamento que colocam toda a responsabilidade pelo uso do software sobre o usuário.
Isentar software de direitos autoraisCasos, por mais trágicos que sejam, como os que estamos tratando demonstram as consequências negativas de persistir em considerar os chatbots como entidades conscientes e perpetuar a atitude equivocada de focar no caso individual em vez de abordar o problema em termos sistêmicos.
A questão a ser resolvida é clara: o software não pode mais ser considerado uma obra protegida por direitos autorais, mas sim um produto. As consequências são igualmente claras: o fabricante (que até agora era efetivamente o autor) deve fornecer garantias específicas e assumir responsabilidades específicas pela comercialização de produtos defeituosos.
A razão pela qual isso não será feito na UE é clara: basta olhar para o país onde as empresas que controlam o mercado global de software e IA têm suas sedes registradas .
La Repubblica