Nowe japońskie prawo dotyczące sztucznej inteligencji ma nauczkę dla USA i UE

4 czerwca 2025 r. ogłoszono japońską ustawę o sztucznej inteligencji , a jej tytuł jasno wskazuje na wybór polityczny Tokio: Jink? chin? kanren gijutsu no kenky? kaihatsu oyobi katsuy? no suishin ni kansuru h?ritsu (Ustawa o wspieraniu badań, rozwoju i wykorzystania technologii związanych ze sztuczną inteligencją). W przeciwieństwie do Unii Europejskiej, zablokowanej przez zastosowanie zasady ostrożności, która nie opiera się na obiektywnych i mierzalnych elementach, Japonia dokonała niezwykle pragmatycznego i świadomego wyboru: nie „regulować AI” — cokolwiek to znaczy — ale udoskonalić to, co jest potrzebne do zbudowania technologii niezbędnych do jej funkcjonowania.
Krótko mówiąc, podczas gdy UE zaciąga hamulec ręczny w zaparkowanym samochodzie z wyłączonym silnikiem, aby zapobiec jego przewróceniu się, Japonia dba o budowę wydajnych dróg, aby móc szybciej i lepiej dotrzeć do celu.
„W przeszłości” – wyjaśnia obserwatorium Keiyaku Watch – „UE promowała przyjęcie tak zwanego twardego prawa, ustawy o sztucznej inteligencji, ustanawiającej surowe zasady dotyczące tych typów sztucznej inteligencji, które są uważane za wysoce ryzykowne. W odpowiedzi Stany Zjednoczone, obawiając się, że taki wybór mógłby spowolnić innowację… skoordynowały działania z Japonią i innymi krajami w celu przyjęcia podejścia regulacyjnego opartego na prawie miękkim”. Jednak podejście UE i zmiana na „legalistyczny” kurs narzucony przez rozporządzenie wykonawcze dotyczące sztucznej inteligencji administracji Bidena przekonały Japonię do kontynuowania drogi prawa miękkiego”.
Nacisk położony jest na badania stosowane i konkurencję międzynarodowąArtykuł 3 dotyczy właśnie położenia fundamentów, aby pokierować rozwojem AI w świadomości, że konkurencja w tym sektorze nie zna granic. Dlatego też reguła ta narodziła się w celu poprawy konkurencyjności na arenie międzynarodowej sektorów przemysłowych — i warto podkreślić słowo „przemysłowych” — związanych z AI.
Jednocześnie krótka dygresja, pozornie umieszczona tam przypadkowo, ustanawia znaczenie badań i rozwoju w sektorach związanych z AI dla bezpieczeństwa narodowego. Znaczenie tej dygresji polega na tym, że w bardzo pozbawiony hipokryzji sposób w porównaniu z debatą zachodnią uznaje ona bez udawania, że technologie związane z AI mogą i muszą być wykorzystywane do obrony kraju (warto pamiętać, że Japonia, ze względu na pacyfistyczną naturę Konstytucji, nie może mieć armii o zdolnościach ofensywnych).
Przejrzystość technologiczna jako narzędzie zapobiegania nielegalnym działaniomNawet kwestia nielegalnego wykorzystania lub wykorzystania, które zakłóca normalny bieg życia narodu, jest rozwiązywana w sposób strukturalny, a nie za pomocą niezliczonej liczby artykułów regulujących poszczególne przypadki, co wiąże się z ryzykiem stanięcia w obliczu nieprzewidzianych zdarzeń, których nie da się opanować bez konkretnej zasady.
Wybór polityczny zawarty w ustawie miał na celu przede wszystkim skupienie się na przejrzystości na każdym etapie cyklu badań, rozwoju i wdrażania wszelkich technologii związanych ze sztuczną inteligencją.
Wybór ten zasługuje na dokładniejsze zbadanie, ponieważ w przeciwieństwie do rozporządzenia UE w sprawie sztucznej inteligencji nie nakłada ono obowiązków „możliwości wyjaśnienia”, których nie da się osiągnąć, lecz stwarza warunki dla tych, którzy muszą to zrobić i którzy rozwinęli niezbędne umiejętności, aby móc sprawdzić, co zostało zrobione, w jaki sposób i przez kogo.
Innymi słowy: nakazanie prawnie „wytłumaczalności” AI oznaczałoby zdefiniowanie jej poziomu. Jaki powinien być punkt odniesienia do pomiaru wyjaśnialności? Punkt odniesienia badacza pracującego w Big Tech? Punkt odniesienia absolwenta matematyki? A może punkt odniesienia zwykłego obywatela z dyplomem ukończenia szkoły średniej?
Wręcz przeciwnie, obowiązek przejrzystości oznacza, w sposób o wiele bardziej pragmatyczny, umożliwienie kwalifikowanym podmiotom dostępu do wszystkich informacji niezbędnych do zrozumienia, co spowodowało szkodę wyrządzoną osobom prywatnym lub ataki na instytucje.
System obowiązków publicznych, prywatnych i indywidualnychTak zwane „architektoniczne” podejście ustawy o promocji technologii związanych ze sztuczną inteligencją dzieli obowiązki i odpowiedzialność na trzy obszary.
W przeciwieństwie do prawodawstwa UE, prawodawstwo japońskie wymaga, aby wszystkie strony współpracowały w celu osiągnięcia określonego celu, tj. osiągnięcia technologicznego przywództwa. Dlatego centralne i lokalne administracje publiczne będą musiały wykorzystać AI w celu zwiększenia swojej efektywności, uniwersytety będą musiały aktywnie promować badania i upowszechnianie uzyskanych wyników, a także budować szeroką i solidną bazę wiedzy, współpracując z państwem i administracjami. Podobnie sektor prywatny będzie musiał poprawić efektywność procesów i tworzyć nowe gałęzie przemysłu poprzez wykorzystanie technologii związanych z AI; a obywatele będą musieli pielęgnować zainteresowanie tymi technologiami.
Na pierwszym miejscu państwo musi podjąć niezbędne kroki, aby zapewnić, że wszyscy uczestnicy poruszają się na tej technologicznej scenie w sposób skoordynowany, nie przeszkadzając sobie nawzajem i nie utrudniając indywidualnych działań.
Rola Premiera w realizacji strategiiStrategiczne podejście tego prawa skutkuje przypisaniem Naikaku — Biuru Premiera — uprawnień/obowiązków koordynacji i kontroli sposobu realizacji celów regulacyjnych. Odbywa się to poprzez ustanowienie tego, co we Włoszech można by porównać do departamentu Prezydium Rady, któremu wszystkie inne organy państwowe, w tym niezależne administracje i agencje, muszą przedstawiać opinie, wyjaśnienia i niezbędną współpracę.
Dostęp do infrastruktury technologicznej i zestawów danychNiezwykle interesującym aspektem japońskiego prawa dotyczącego sztucznej inteligencji jest zapis o obowiązku dzielenia się obiektami i sprzętem — centrami superkomputerowymi, sieciami telekomunikacyjnymi i innymi — ale przede wszystkim zbiorami danych , które mają być udostępniane również sektorowi prywatnemu.
Podczas gdy na Zachodzie — być może z wyjątkiem Włoch, które w projekcie ustawy o sztucznej inteligencji proponują kompromis w imię interesu publicznego — nie udało nam się dotychczas znaleźć rozwiązania, które pozwoliłoby zrównoważyć z jednej strony interesy właścicieli praw autorskich i (antyhistoryczne) roszczenia kontrolne krajowych organów ochrony danych, a z drugiej strony potrzebę dostępu do zasobów niezbędnych do budowania modeli uczenia maszynowego i sztucznej inteligencji.
Geopolityczna rola wiedzy i znaczenie szkoleńRóżnice między prawem japońskim a podejściem przyjętym w Unii Europejskiej są również widoczne w odniesieniu do rozwoju wiedzy i szkoleń.
Japonia wyraźnie uznaje znaczenie rozwijania krajowej bazy wiedzy — to znaczy niezależnej od patentów i zagranicznej własności intelektualnej — i w konsekwencji potrzebę rozwijania szkoleń na temat technologii związanych ze sztuczną inteligencją na wszystkich poziomach. Dlatego nie tylko w dziedzinie badań naukowych, ale także w tych, w których wyniki będą musiały zostać wykorzystane.
Znaczenie wizji strategicznejŻaden plan nie wytrzyma uderzenia bitwy, mówi często używany aforyzm generała von Moltkego, ale nie oznacza to, że planowanie jest złe lub niemożliwe. To właśnie podejście wyłania się z japońskiego prawa dotyczącego sztucznej inteligencji, opartego na świadomości, że nie ma sensu zamykać ewolucji technologicznej w regułach, ale że zamiast tego konieczne jest stworzenie ekosystemu, który pozwoli na kierowanie jej rozwojem poprzez przyjmowanie wszelkich korekt w każdym przypadku, gdy są one konieczne.
Nie ma znaczenia, czy podejście to jest owocem „wizji politycznej”, czy konsekwencją konieczności nadrobienia niedostatków wynikających ze spadku i starzenia się populacji poprzez automatyzację. W rzeczywistości stanowi ono trzecią drogę w porównaniu do drogi USA opartej na zasadzie „lepiej przeprosić niż mieć pozwolenie” i do drogi UE, która nie jest w stanie uwolnić się od biurokratycznego dirigizmu , pomimo wielokrotnych prób .
Jest za wcześnie, aby stwierdzić, które z tych podejść okaże się skuteczne, chociaż (negatywne) skutki dwóch pierwszych są już widoczne. W USA Big Tech domaga się złagodzenia ograniczeń w dostępie do danych dotyczących utworów chronionych prawem autorskim (podlegających sporom prawnym , takim jak ten promowany przez New York Times za nielegalne wykorzystywanie jego artykułów) i rozpoczął masową kampanię mającą na celu uzyskanie zgody (lub braku sprzeciwu) użytkowników na ponowne wykorzystanie ich danych .
Unia Europejska tworzy uciążliwe akty wykonawcze do rozporządzenia w sprawie sztucznej inteligencji, niwecząc tym samym słuszne podejście, zgodnie z którym przepisy służą wspieraniu badań naukowych, które w praktyce są ponadto w istocie motywowane dźwignią ekonomiczną .
W tym względzie, jeśli prawdą jest, że kontrola nad technologiami AI jest podstawowym elementem rozwoju poszczególnych państw członkowskich i uzyskania autonomii politycznej przez Unię Europejską, to konieczna i obowiązkowa jest silna krytyka jej wyborów. Nie dlatego, że są one koniecznie błędne, ale dlatego, że są czytane przez pryzmat pragmatyzmu, a nie przez pryzmat stwierdzeń o zasadach niepopartych porównaniem z rzeczywistością, ale przez pryzmat roszczenia do jej naginania.
La Repubblica