IA inclusiva | Ética, una cuestión de tecnología
«Ética es una palabra difícil. También proviene del griego. Se puede traducir como: saber comportarse bien», afirma Melissa Henne, de la Universidad Internacional, citando las primeras frases de una definición del Consejo Alemán de Ética. Para Henne, la definición está demasiado basada en normas, matiza. Al fin y al cabo, la ética suele entrar en juego cuando no existen normas. Por ejemplo, cuando las nuevas tecnologías y la inclusión entran en conflicto. La inclusión es la idea de que todas las personas, independientemente de su discapacidad, origen, género u otras diferencias, pueden participar por igual en todos los ámbitos de la vida social.
Un debate especializado organizado esta semana por el grupo de autoayuda Lebenshilfe se centrará en la robótica, la inteligencia artificial (IA) y la participación. Con los avances actuales, los llamados sistemas autónomos, capaces de resolver problemas de forma independiente, se han convertido en parte de la vida cotidiana, escribe Henne en un informe que ha revisado. La IA ya apoya al sector de los servicios sociales en numerosas áreas, principalmente facilitando las tareas de los trabajadores sociales. También existen herramientas de IA que ayudan a generar textos en lenguaje sencillo.
Actualmente existe un intenso debate sobre cómo los sistemas de IA podrían apoyar los procesos de planificación para la participación de las personas con discapacidad. Los debates éticos son constantes en este proceso. Henne, por ejemplo, explora cómo las nuevas tecnologías pueden utilizarse de forma beneficiosa para la vida, es decir, cómo pueden contribuir a una vida plena para sus usuarios. Esto plantea nuevas preguntas, como, por ejemplo, qué significa realmente llevar una vida plena.
Las suposiciones que aún prevalecen aquí a veces se reflejan en los debates lingüísticos. Por ejemplo, definimos «tecnologías de asistencia» como aquellas que ayudan a las personas con discapacidad a escribir o hablar. Sin embargo, la IA, por definición, siempre cumple funciones de asistencia, argumentan los críticos. Nos ayuda en programas de traducción o a navegar con servicios de mapas en línea.
«La IA inclusiva no es una cuestión técnica secundaria, sino un componente central del desarrollo responsable».
Chat GPT
Estos términos surgen de la suposición de que las personas con discapacidad se ven empoderadas por la tecnología. Esto significa que, antes de que se usara la tecnología, eran menos valiosas que las personas sin discapacidad. La tecnóloga social Ashley Shew denomina a estos términos "tecnocapacitismo". El capacitismo es la discriminación contra las personas con discapacidad.
Algo similar ocurre cuando se aplican conceptos humanos a la tecnología. Por ejemplo, si sistemas de IA como Chat-GPT no generan respuestas a las preguntas planteadas a partir de su conjunto de datos, el modelo de lenguaje suele generar respuestas inventadas. Se suele decir que la IA está "alucinando".
Aljoscha Burchardt, del Centro Alemán de Investigación de Inteligencia Artificial, y Xenia Kersting, médica sénior del Centro Médico Universitario de Maguncia, critican el término en el periódico "Tagesspiegel" por ser "inespecífico, engañoso y estigmatizante". Cuando un humano experimenta una alucinación, describe una percepción real sin fundamento objetivo. Sin embargo, una IA carece de percepción alguna, por lo que se humaniza gracias a dichas percepciones, mientras que el término original queda distorsionado.
Además, surgen numerosas preguntas sobre cómo desarrollar tecnologías que no perpetúen la discriminación. Chat-GPT y otros modelos de lenguaje, por ejemplo, han demostrado que producen respuestas discriminatorias si no se examina su supuesto sesgo. El sesgo es la noción preconcebida de los algoritmos. Estos surgen de los conjuntos de datos en los que se basan, que a su vez se generan en una sociedad discriminatoria.
En el pasado, el desarrollo de nuevas tecnologías se enfrentaba al dilema de Collingridge. Este describe la cuestión de en qué momento es apropiada la reflexión ética: al inicio del proceso, cuando aún hay mucha incertidumbre, o al final, cuando ya no se puede cambiar mucho. Hoy en día, señala Henne, esta pregunta ya no se plantea, ya que las nuevas tecnologías a menudo se desarrollan sin conocer sus beneficios. Este fue el caso, por ejemplo, de Chat-GPT. Por lo tanto, Henne argumenta que la reflexión continua es necesaria en el proceso de desarrollo.
Un punto en común entre todas las críticas, ya sea que se refieran al desarrollo de terminología, modelos lingüísticos o lenguaje simple de IA, es que los científicos abogan constantemente por una mayor participación de las personas con discapacidad en el desarrollo, las pruebas y los conjuntos de datos. Chat-GPT también lo señala cuando se le solicita. El programa añade: «La IA inclusiva no es una cuestión técnica secundaria, sino un componente central del desarrollo responsable».
nd-aktuell