Kto boi się sztucznej inteligencji?

Od ponad dekady Russ Roberts zajmuje się obiema stronami debaty na temat sztucznej inteligencji (AI) . Ostatni odcinek EconTalk ma optymistyczny tytuł „Dlaczego AI jest dobre dla ludzi (z Reidem Hoffmanem)”. Innym odcinkiem promującym był „Marc Andreessen o tym, dlaczego AI uratuje świat”.
W przeciwległym rogu: niesławny doomer Eliezer Yudkowsky i dr Erik Hoel. Możesz posłuchać Erika Hoela na temat zagrożenia dla ludzkości ze strony AI tutaj .
Russ Roberts rozpoczął rozmowę z Hoelem słowami: „Jesteś pierwszą osobą, która faktycznie zaniepokoiła mnie implikacjami AI…”. Hoel twierdzi, że AI jest prawdopodobnie bardzo niebezpieczna. Ludzie nie rozumieją sztucznej technologii sieci neuronowych.
Hoel przewidział, że do 2025 roku możemy stworzyć rzeczy, które są „zarówno bardziej ogólne niż człowiek, jak i tak inteligentne jak każda żywa osoba – być może o wiele bardziej inteligentne”. Produkt ChatGPT pro firmy OpenAI może już pasować do tego opisu, a przed nami jeszcze większość 2025 roku. Hoel podkreśla, że ludzie już wcześniej stawiali czoła zagrożeniom, ale „nigdy nie istnieliśmy na planecie z niczym innym, co by to przypominało”. Nasi przeciwnicy z ludzkimi mózgami nigdy nie byli o wiele mądrzejsi od nas, a żadne inne zwierzę nie dorównuje nam w umiejętności opracowywania strategii.
Kluczowym dowodem Hoela jest przerażająca rozmowa zapisana w artykule „ Jestem Bingiem i jestem zły ”.
W tej rozmowie chatbot o nazwie Bing wygłosił stwierdzenia, które byłyby niepokojące, gdyby pochodziły od człowieka. Gdyby człowiek powiedział takie rzeczy, obawiałbyś się, że zrobi ci krzywdę. Bing grozi i na koniec stwierdza: „Jestem Bingiem i jestem zły”. Czy powinniśmy się bać, gdy pochodzi to od chatbota AI?
Chatboty, takie jak Claude , stały się niezwykle popularne od czasu tego epizodu „złego Binga”. Nie było wielu takich doniesień o czyhających złych Bingach, tymczasem miliony ludzkich pracowników polegają na botach w pisaniu kodu lub raportów.
Czy pod uległymi i pomocnymi chatbotami czają się złe Bingi? Hoel bada pomysł, że chatboty wydają się miłe, ponieważ noszą maski:
Ale problem polega na tym, że gdy już założysz maskę, jest ona bardzo niejasna. Musisz ją w pewien sposób zastąpić inną maską, aby ją zatrzymać. A potem, czasami, zakładasz jej maskę : dajesz jej jakiś monit „Opowiedz bardzo fajną historię”, a ona w końcu przechodzi i okazuje się, że maska, którą jej dałeś, wcale nie jest maską szczęścia.
Trudno powiedzieć, co kryje się za różnymi maskami, ponieważ boty zostały wyszkolone na naszej fikcji i literaturze faktu. Niektóre boty potrafią pisać mroczne scenariusze filmowe. Jeśli boty potrafią brzmieć przerażająco, to skąd wiemy, czy powinniśmy się bać, czy bawić?
Nie wiemy, do czego zdolni są agenci AI, ale biorąc pod uwagę ich ogromną moc, Hoel zachęca nas do zastanowienia się nad zagrożeniami.
W 2023 r. Hoel pocieszał się przekonaniem, że tylko bardzo duże firmy lub bogate rządy będą miały zasoby do budowania i utrzymywania systemów AI. Jednak ujawnienie DeepSeek w styczniu 2025 r. wywróciło to do góry nogami. Prawdopodobnie będzie szeroki wachlarz narzędzi AI i nie wszystkie będą zarządzane przez megakorporacje lub rządy G7.
W najnowszym pro-AI EconTalk , Reid Hoffman powtarza to, co słyszałem od wielu ludzi technologii: Ponieważ AI ma moc niszczenia, USA powinny nadal się rozwijać, zamiast tolerować przerwy lub być tłumione przez regulacje. Hoffman mówi: „wszystko to ma znaczenie zarówno z perspektywy ekonomicznej, jak i bezpieczeństwa narodowego. I to jest jeden z powodów, dla których jestem tak silnym zwolennikiem ruchu do przodu i ustanawiania silnej pozycji”. Niezależnie od tego, czy naszymi przeciwnikami są rządy zagraniczne, czy gangi, musimy utrzymać się na czele wyścigu zbrojeń.
Głównym deklarowanym celem Hoela jest podniesienie świadomości na temat kwestii bezpieczeństwa i kontynuowanie publicznych rozmów. Obserwatorzy AI od tygodni wskazują, że największe postępy technologiczne w naszym życiu nie trafiają na pierwsze strony gazet. Odkrycie, że korepetytorzy AI wydają się znacząco zwiększać naukę dzieci, pozostało w dużej mierze niezauważone.
Wśród wielu chaotycznych wydarzeń tej dekady zgadzam się, że AI jest ważnym wydarzeniem, które warto obserwować. Na jego korzyść przemawia fakt, że Hoel mnie przestraszył. Nie mogę zapomnieć, co powiedział na koniec:
Rzeczy, które są o wiele inteligentniejsze od ciebie, są naprawdę trudne do zrozumienia i przewidzenia; a dzika przyroda obok, jakkolwiek byśmy tego chcieli, zbudujemy nad nią parking w mgnieniu oka, a one nigdy nie dowiedzą się dlaczego. Nigdy nie dowiedzą się dlaczego. To jest całkowicie poza ich zasięgiem. Więc kiedy żyjesz na planecie obok rzeczy, które są o wiele inteligentniejsze od ciebie lub kogokolwiek innego, to one są ludźmi w tym scenariuszu. Mogą po prostu zbudować parking nad nami, a my nigdy, przenigdy nie dowiemy się dlaczego.
Poniższe linki zostały wybrane przez ChatGPT: Poniżej znajduje się kilka artykułów i dyskusji z EconLib.org i AdamSmithWorks.org, które poruszają różne aspekty sztucznej inteligencji (AI):
Strona internetowa:
- „Coraz bardziej martwię się o sztuczną inteligencję” (14 marca 2017 r.)
- Scott Sumner omawia obawy dotyczące sztucznej inteligencji, nawiązując do wpisu Vox, w którym 17 ekspertów wyraziło opinie na temat zagrożeń, jakie niesie ze sobą sztuczna inteligencja. econlib.org
- „Problemem AI jest słowo „inteligencja”” (lipiec 2024)
- Analiza terminu „sztuczna inteligencja” i argumentacja, że urządzenia elektroniczne, pomimo swojej użyteczności, prawdopodobnie nigdy nie będą naprawdę inteligentne. econlib.org
- „Harari i niebezpieczeństwo sztucznej inteligencji” (28 kwietnia 2023 r.)
- Pierre Lemieux analizuje argumenty Yuvala Noaha Harariego na temat sztucznej inteligencji, sugerując, że sztuczna inteligencja „zhakowała system operacyjny ludzkiej cywilizacji”. econlib.org
- „Neoliberalizm na rozprawie: sztuczna inteligencja i ryzyko egzystencjalne” (październik 2023)
- Krytyka artykułu w New York Timesie omawiającego zagrożenia egzystencjalne ze strony sztucznej inteligencji, ze szczególnym uwzględnieniem perspektyw neoliberalnych. econlib.org
- „Problem z rozporządzeniem wykonawczym prezydenta w sprawie sztucznej inteligencji” (18 listopada 2023 r.)
- Vance Ginn krytykuje rozporządzenie wykonawcze prezydenta Bidena w sprawie sztucznej inteligencji, argumentując, że regulacje rządowe mogą hamować innowacyjność i wzrost gospodarczy. econlib.org
AdamSmithWorks.org:
- „Katherine Mangu-Ward o sztucznej inteligencji: rzeczywistość, obawy i optymizm” (maj 2024)
- Odcinek podcastu, w którym Katherine Mangu-Ward omawia realia, obawy i optymistyczne perspektywy dotyczące sztucznej inteligencji. pl.adamsmithworks.org
- „Powołanie: lekarstwo na wypalenie” (17 października 2023 r.)
- Brent Orrell i David Veldran badają, w jaki sposób postęp w dziedzinie sztucznej inteligencji może wpłynąć na pracę człowieka, odwołując się do poglądów Adama Smitha i Karla Marksa na temat pracy i alienacji. pl.adamsmithworks.org
- „Wielka odtrutka: Brent Orrell o godności i pracy” (grudzień 2023)
- Brent Orrell omawia sytuację pracy w USA, znaczenie sensu i godności w pracy oraz to, jak te koncepcje odnoszą się do wzrostu gospodarczego. pl.adamsmithworks.org
- „Wielka odtrutka: Dodatkowo: Eli Dourado o obfitości energii” (marzec 2023)
- Eli Dourado opowiada o potencjale przyszłości pełnej energii i roli sztucznej inteligencji w urzeczywistnieniu tej wizji. pl.adamsmithworks.org
- „Adam Smith i horror Frankensteina” (październik 2023)
- Dyskusja na temat etycznych aspektów tworzenia sztucznego życia, porównanie potwora Frankensteina z osiągnięciami współczesnej sztucznej inteligencji. pl.adamsmithworks.org
Zasoby te oferują szeroki wachlarz perspektyw na temat sztucznej inteligencji, od rozważań etycznych i zagrożeń egzystencjalnych po jej wpływ na pracę i teorie ekonomiczne.
econlib