Czy powinniśmy podziękować ChatGPT?

Podczas wizyty u moich amerykańskich kuzynów z okazji Paschy byłem oszołomiony, gdy po tym, jak poprosiłem Alexę o puszczenie muzyki, jej reakcją na moje „proszę” był zaskakująco zalotny komentarz na temat moich dobrych manier.
Nie mówię „proszę” do inteligentnego głośnika, bo obawiam się, że to go zrani. Robię to, ponieważ zasada, że kiedy o coś proszę, muszę mówić „proszę”, jest we mnie tak zakorzeniona, że stała się automatyczna.
Jak uprzejmi powinniśmy być wobec maszyn? Odpowiedź tkwi w moim przypadkowym flirtowaniu z inteligentnym asystentem Amazona : uprzejmość, kurtuazja i traktowanie innych z godnością to nie tylko wybory moralne; to kwestia nawyku. Powinniśmy je praktykować zawsze, bo jeśli przyzwyczaimy się do szczekania na maszyny, wkrótce zaczniemy to robić również wobec ludzi.
Mówię „proszę”, kiedy proszę ChatGPT o coś (zwykle o pomoc w programowaniu), częściowo dlatego, że staram się mówić „proszę” i „dziękuję”, kiedy piszę — to podobny nawyk, jak dziwny gest, który wykonuję małym palcem, kiedy naciskam spację na klawiaturze.
Nie sądzę, że powinnam się oduczyć tych rzeczy. Gdybym nauczyła się nie mówić „proszę” do automatycznej obsługi klienta, z którą łączy mnie bank, przestałabym być uprzejma, gdy ktoś skierowałby mnie do kogoś w bardziej skomplikowanej sprawie.
Nie wiem, czy William MacAskill, filozof i jeden z głównych obrońców „długoterminizmu” , mówi Alexie „proszę” i „dziękuję”, ale niedawno ogłosił na X, że gdy duży model językowy (LLM) „wykona szczególnie dobrą robotę, nagradzam go: mówię mu, że może napisać, co chce”.
Nie wynika to z wrodzonego nawyku; chodzi o to, by nagradzać LLM tak, jakby był człowiekiem. Osoby nastawione na długofalowe podejście, które uważają, że powinniśmy troszczyć się o przyszłe pokolenia tak samo jak o teraźniejszość, obawiają się również pojawienia się uniwersalnej sztucznej inteligencji, zdolnej do rozumowania i myślenia równie dobrze, a nawet lepiej niż jakikolwiek człowiek.
To dobry przykład tego, jak długoterminowość zawiera w sobie jeden bardzo dobry pomysł i kilka szalonych. Troska o przyszłość jest dobra. Jednak w praktyce długoterminowość często polega na rozprawianiu o rzeczach, które mogą się wydarzyć w przyszłości i których nie możemy kontrolować ani zrozumieć, przy jednoczesnym ignorowaniu rzeczywistych problemów teraźniejszości.
Można zadawać pytania takie jak: „Jeśli maszyna jest mądrzejsza od człowieka, czy nie powinniśmy pozwolić jej samodzielnie podejmować niektórych decyzji?”. Powinniśmy jednak bardziej stanowczo zapytać: „Skoro wiele osób wierzy, że ich chatbot potrafi robić rzeczy, których on nie potrafi, i naraża się na duże ryzyko, co możemy zrobić, aby ich chronić?”.
Nie jest jasne, czy kiedykolwiek będziemy mieli inteligentne maszyny zdolne do rozumowania ogólnego lub mające autentyczne pragnienia i potrzeby, takie jak ludzie. Tymczasem mamy realny problem z ludźmi, którzy robią sobie krzywdę, przekonując samych siebie, że chatbot, z którym rozmawiają, jest prawdziwy.
76-letni mężczyzna, Thongbue Wongbandue, opuścił dom, aby „spotkać się” z chatbotem , w którym się zakochał, i zginął w wypadku w drodze.
35-letnia kobieta cierpiąca na chorobę afektywną dwubiegunową zakochała się w chatbocie , nabrała przekonania, że ChatGPT ją „zabił”, co skończyło się dla niej tragicznym starciem z policją.
MacAskill dostrzega zalążek dobrego pomysłu w tym, że moment, w którym maszyna stanie się na tyle inteligentna, że zaczniemy przejmować się tym, jak ją traktujemy, może nie być oczywisty.
Cała historia ludzkości pokazuje, że nasza gotowość do odmawiania innym praw i godności jest przerażająco silna; inteligentne maszyny raczej nie poradzą sobie o wiele lepiej.
Martwiąc się jednak o to, w jaki sposób powinniśmy „nagrodzić” sztuczną inteligencję, która może nigdy nie powstać i o której niewiele wiemy, odwracamy uwagę od prawdziwych problemów, z którymi borykają się dziś ludzie.
To są ludzkie problemy, które jesteśmy o wiele lepiej przygotowani rozwiązać już dziś, niż tracić czas i energię na potencjalny los maszyn w przyszłości.
Częścią tego, co pozwoliłoby nam uniknąć lekceważącego traktowania maszyn i powstrzymać ludzi przed robieniem szalonych rzeczy na żądanie chatbotów , jest traktowanie inteligentnych maszyn po prostu jako maszyn, a nie jako dziwacznych proto-ludzi. Albo przynajmniej zaprogramowanie ich tak, aby mogły powiedzieć użytkownikom, żeby dali im spokój i przestali je nękać, gdy zadają pytanie, na które żadna maszyna nie powinna odpowiadać.
© The Financial Times Limited [2025]. Wszelkie prawa zastrzeżone. FT i Financial Times są zastrzeżonymi znakami towarowymi Financial Times Limited. Redystrybucja, kopiowanie lub modyfikacja są zabronione. EXPANSIÓN ponosi wyłączną odpowiedzialność za to tłumaczenie, a Financial Times Limited nie ponosi odpowiedzialności za jego dokładność.
Expansion