Sztuczna inteligencja inkluzywna | Etyka, kwestia technologii
„Etyka to trudne słowo. To słowo jest również greckie. Można je przetłumaczyć jako: wiedzieć, jak dobrze się zachowywać” – mówi Melissa Henne z Uniwersytetu Międzynarodowego, cytując pierwsze zdania definicji Niemieckiej Rady Etyki. Zdaniem Henne definicja ta jest zbyt oparta na regułach, uważa. Przecież etyka zazwyczaj wchodzi w grę, gdy nie ma reguł. Na przykład, gdy zderzają się ze sobą kwestie nowych technologii i integracji. Integracja to idea, że wszyscy ludzie, niezależnie od niepełnosprawności, pochodzenia, płci czy innych różnic, mogą uczestniczyć na równych prawach we wszystkich dziedzinach życia społecznego.
Dyskusja specjalistyczna, prowadzona w tym tygodniu przez grupę samopomocową Lebenshilfe, skupi się na robotyce, sztucznej inteligencji (AI) i partycypacji. W świetle obecnych osiągnięć, tak zwane systemy autonomiczne, zdolne do samodzielnego rozwiązywania problemów, stały się częścią codziennego życia, pisze Henne w raporcie, który recenzowała. Sztuczna inteligencja wspiera już sektor usług społecznych w wielu obszarach, przede wszystkim poprzez ułatwianie pracy pracownikom socjalnym. Istnieją również narzędzia AI, które pomagają w generowaniu tekstów w prostym języku.
Obecnie toczy się ożywiona debata na temat tego, jak systemy sztucznej inteligencji mogłyby wspierać procesy planowania partycypacji osób z niepełnosprawnościami. W tym procesie zawsze obecne są debaty etyczne. Henne, na przykład, bada, jak nowe technologie mogą być wykorzystywane w sposób „służący życiu” – czyli jak mogą przyczyniać się do dobrego życia swoich użytkowników. To rodzi kolejne pytania. Na przykład, co tak naprawdę oznacza prowadzenie dobrego życia.
Założenia, które wciąż dominują w tym kontekście, znajdują niekiedy odzwierciedlenie w debatach językowych. Na przykład, definiujemy „technologie wspomagające” jako te, które wspierają osoby z niepełnosprawnościami w pisaniu i mówieniu. Jednak, jak twierdzą krytycy, sztuczna inteligencja, z definicji, zawsze pełni funkcje wspomagające. Wspiera nas w programach tłumaczeniowych lub w nawigacji za pomocą map online.
„Inkluzywna sztuczna inteligencja nie jest kwestią techniczną, ale kluczowym elementem odpowiedzialnego rozwoju”.
Czat GPT
Takie terminy wynikają z założenia, że osoby z niepełnosprawnościami są wzmacniane przez technologię. Oznacza to, że zanim technologia została wdrożona, były one mniej wartościowe niż osoby bez niepełnosprawności. Socjotechnolog Ashley Shew nazywa takie terminy „techno-ableizmem”. Ableizm to dyskryminacja osób z niepełnosprawnościami.
Podobnie dzieje się, gdy ludzkie koncepcje są stosowane do technologii. Na przykład, jeśli systemy sztucznej inteligencji, takie jak Chat-GPT, nie generują odpowiedzi na zadane pytania ze swojego zbioru danych, model językowy często wypluwa zmyślone odpowiedzi. Często mówi się, że sztuczna inteligencja „ma halucynacje”.
Aljoscha Burchardt z Niemieckiego Centrum Badań nad Sztuczną Inteligencją i Xenia Kersting, starszy lekarz w Centrum Medycznym Uniwersytetu w Moguncji, krytykują ten termin w gazecie „Tagesspiegel” jako „nieprecyzyjny, mylący i stygmatyzujący”. Kiedy człowiek doświadcza halucynacji, opisuje on rzeczywistą percepcję bez żadnej obiektywnej podstawy. Jednak sztuczna inteligencja w ogóle nie ma percepcji, przez co staje się przez nią humanizowana, a pierwotne określenie ulega zniekształceniu.
Ponadto pojawia się wiele pytań o to, jak można rozwijać technologie, które same w sobie nie utrwalają dyskryminacji. Na przykład Chat-GPT i inne modele językowe wykazały, że generują one dyskryminujące odpowiedzi, jeśli nie zostaną zbadane pod kątem tzw. stronniczości. Stronniczość to z góry przyjęte pojęcie algorytmów. Wynikają one z zestawów danych, na których się opierają, a które z kolei są generowane przez dyskryminujące społeczeństwo.
W przeszłości rozwój nowych technologii wiązał się z dylematem Collingridge'a. Opisuje on pytanie, w którym momencie refleksja etyczna jest właściwa – na początku procesu, gdy wiele jest jeszcze niepewne, czy na końcu, gdy wiele nie da się już zmienić. Obecnie, jak zauważa Henne, pytanie to już nie istnieje, ponieważ nowe technologie są często opracowywane bez świadomości ich korzyści. Tak było na przykład w przypadku Chat-GPT. Dlatego, argumentuje Henne, ciągła refleksja jest niezbędna w procesie rozwoju.
Jedno pozostaje wspólne dla wszelkiej krytyki, niezależnie od tego, czy dotyczy ona rozwoju terminologii, modeli językowych, czy prostego języka sztucznej inteligencji: naukowcy konsekwentnie opowiadają się za większym udziałem osób z niepełnosprawnościami w rozwoju, testowaniu i tworzeniu zbiorów danych. Chat-GPT również zwraca na to uwagę na prośbę. Program dodaje: „Inkluzywna sztuczna inteligencja nie jest kwestią techniczną, ale centralnym elementem odpowiedzialnego rozwoju”.
nd-aktuell