IA inclusiva | Ética, uma questão de tecnologia
"Ética é uma palavra difícil. A palavra também é grega. Pode ser traduzida como: saber se comportar bem", diz Melissa Henne, da Universidade Internacional, citando as frases iniciais de uma definição do Conselho de Ética Alemão. Para Henne, a definição, na verdade, é muito baseada em regras, ela ressalva. Afinal, a ética normalmente entra em jogo quando não há regras. Por exemplo, quando questões de novas tecnologias e inclusão colidem. Inclusão é a ideia de que todas as pessoas, independentemente de deficiência, origem, gênero ou outras diferenças, podem participar igualmente em todas as áreas da vida social.
Um debate especializado promovido pelo grupo de autoajuda Lebenshilfe esta semana se concentrará em robótica, inteligência artificial (IA) e participação. Com os desenvolvimentos atuais, os chamados sistemas autônomos, capazes de resolver problemas de forma independente, tornaram-se parte da vida cotidiana, escreve Henne em um relatório que ela revisou. A IA já apoia o setor de serviços sociais em muitas áreas, principalmente facilitando as tarefas de assistentes sociais. Ferramentas de IA que auxiliam na geração de textos em linguagem simples também já existem.
Atualmente, há um debate acalorado sobre como os sistemas de IA poderiam apoiar processos de planejamento para a participação de pessoas com deficiência. Debates éticos estão sempre presentes nesse processo. Henne, por exemplo, explora como as novas tecnologias podem ser usadas de forma "a serviço da vida" — ou seja, como podem contribuir para uma vida boa para seus usuários. Isso levanta outras questões. Por exemplo, o que realmente significa levar uma vida boa.
As premissas que ainda prevalecem aqui às vezes se refletem em debates linguísticos. Por exemplo, definimos "tecnologias assistivas" como aquelas que auxiliam pessoas com deficiência na escrita ou na fala. No entanto, a IA, por definição, sempre cumpre funções assistivas, argumentam os críticos. Ela nos auxilia em programas de tradução ou na navegação com serviços de mapas online.
"IA inclusiva não é uma questão técnica secundária, mas um componente central do desenvolvimento responsável."
Bate-papo GPT
Tais termos surgem da premissa de que pessoas com deficiência são empoderadas pela tecnologia. Isso significa que, antes do uso da tecnologia, elas eram menos valiosas do que pessoas sem deficiência. A tecnóloga social Ashley Shew chama esses termos de "tecnocapacitismo". Capacitismo é a discriminação contra pessoas com deficiência.
Algo semelhante acontece quando conceitos humanos são aplicados à tecnologia. Por exemplo, se sistemas de IA como o Chat-GPT não conseguem gerar respostas para perguntas formuladas a partir de seu conjunto de dados, o modelo de linguagem frequentemente produz respostas fabricadas. Costuma-se dizer que a IA está "alucinando".
Aljoscha Burchardt, do Centro Alemão de Pesquisa em Inteligência Artificial, e Xenia Kersting, médica sênior do Centro Médico Universitário de Mainz, criticam o termo no jornal "Tagesspiegel" como "inespecífico, enganoso e estigmatizante". Quando um humano tem uma alucinação, eles descrevem uma percepção real sem qualquer base objetiva. No entanto, uma IA não tem percepção alguma, tornando-se humanizada por tais percepções, enquanto o termo original é distorcido.
Além disso, surgem inúmeras questões sobre como desenvolver tecnologias que não perpetuem a discriminação. O Chat-GPT e outros modelos de linguagem, por exemplo, demonstraram que produzem respostas discriminatórias se não forem examinados quanto ao seu chamado viés. Viés é a noção preconcebida de algoritmos. Estes surgem dos conjuntos de dados em que se baseiam, que por sua vez são gerados a partir de uma sociedade discriminatória.
No passado, o desenvolvimento de novas tecnologias se deparou com o dilema de Collingridge. Ele descreve a questão de em que ponto a reflexão ética é apropriada — no início do processo, quando muito ainda é incerto, ou no final do processo, quando muito já não pode ser alterado. Hoje em dia, observa Henne, essa questão não se coloca mais, visto que novas tecnologias são frequentemente desenvolvidas sem que se conheçam seus benefícios. Foi o caso, por exemplo, do Chat-GPT. Portanto, argumenta Henne, a reflexão contínua é necessária no processo de desenvolvimento.
Um ponto comum a todas as críticas, independentemente de se tratarem do desenvolvimento de terminologia, modelos de linguagem ou linguagem simples de IA: os cientistas defendem consistentemente uma maior participação de pessoas com deficiência no desenvolvimento, nos testes e nos conjuntos de dados. O Chat-GPT também aponta isso, mediante solicitação. O programa acrescenta: "IA inclusiva não é uma questão técnica secundária, mas um componente central do desenvolvimento responsável."
nd-aktuell