Trwają prace nad nowymi przepisami UE dotyczącymi dużych modeli sztucznej inteligencji
Udostępnianie informacji, przestrzeganie praw autorskich i transparentność: oto nowe obowiązki, które firmy opracowujące modele sztucznej inteligencji ogólnego przeznaczenia (GPAI) będą musiały spełnić w Europie od dziś. Rok po wejściu w życie ustawy o sztucznej inteligencji (AI) , po zakazach stosowania niedozwolonych praktyk w zakresie AI i wprowadzeniu obowiązkowego szkolenia , przyszła kolej na przepisy dotyczące dużych modeli AI.
Czym jest GPAI?Są to modele trenowane na dużych ilościach danych i zdolne do wykonywania szerokiego zakresu zadań, często zintegrowane z innymi systemami sztucznej inteligencji. W wytycznych GPAI Komisja wyjaśniła, że algorytm należy do tej kategorii, jeśli został wytrenowany z wykorzystaniem zasobów obliczeniowych przekraczających 10^23 FLOP-ów i jest zdolny do generowania języka (w postaci tekstu lub dźwięku), obrazów lub filmów z tekstu.
Model musi również wykazywać znaczną ogólność i być zdolny do sprawnego wykonywania szerokiego zakresu różnorodnych zadań. Dlatego też, GPAI obejmują modele językowe wytrenowane z wykorzystaniem wskazanej mocy obliczeniowej, a nie te zaprojektowane do gry w szachy, gier wideo lub poprawy rozdzielczości zdjęć.
Istnieją również modele ryzyka systemowego, dla których ustawa o sztucznej inteligencji nakłada dodatkowe obowiązki. Są to algorytmy, które mogą mieć znaczący wpływ na rynek europejski. W tym przypadku próg, który należy wziąć pod uwagę, wynosi 10^25 FLOP-ów, a Komisja ma prawo do ich wyznaczenia z urzędu.
Obowiązki przejrzystościPrzede wszystkim dostawcy muszą być bardziej transparentni. Ustawa o sztucznej inteligencji (AI Act) nakłada na nich obowiązek przygotowywania i utrzymywania dokumentacji technicznej dotyczącej modelu, w tym szczegółów procesu szkolenia, którą mogą następnie udostępniać władzom na żądanie.
Firmy będą musiały również udostępniać informacje i dokumentację dostawcom końcowym – tym, którzy zamierzają zintegrować GPAI z systemem AI – aby pomóc im zrozumieć możliwości i ograniczenia modelu oraz wypełnić ich obowiązki prawne.
Ustawa o sztucznej inteligencji (AI) określa minimalny zakres informacji, które należy gromadzić. Ponadto Kodeks Postępowania GPAI opublikował standardowy, łatwy w użyciu szablon, który ma spełniać te wymagania.
Ochrona praw autorskichPrawo nakłada również na dostawców obowiązek wdrożenia skutecznych zasad zapewniających zgodność z europejskim prawem autorskim, wykorzystując najnowocześniejsze technologie do wykrywania i egzekwowania zastrzeżeń praw.
Kodeks postępowania zawiera również listę praktycznych rozwiązań, które mają pomóc w wypełnieniu tego nowego obowiązku.
Raport z treningu modeluFirmy zajmujące się sztuczną inteligencją muszą również publikować wystarczająco szczegółowe podsumowanie treści użytych do wyszkolenia algorytmu. Aby pomóc dostawcom w dostosowaniu się do tych wymogów, Komisja opublikowała szablon , z którego firmy mogą korzystać jako z odniesienia, a który umożliwi również obywatelom i właścicielom praw autorskich uzyskanie informacji i ochronę swoich praw.
Zasady postępowania w przypadku ryzyka systemowegoOd dziś obowiązują również dodatkowe wymagania dotyczące modeli obarczonych ryzykiem systemowym. Dostawcy muszą przeprowadzić ocenę modelu z wykorzystaniem standardowych protokołów i najnowocześniejszych narzędzi. Potencjalne ryzyko systemowe wynikające z tych modeli również musi zostać ocenione i ograniczone, a poważne incydenty muszą zostać zgłoszone odpowiednim organom.
Firmy te mają również obowiązek zapewnić odpowiednią ochronę cybernetyczną, zarówno dla modelu, jak i jego infrastruktury fizycznej, aby zapobiec kradzieży, niewłaściwemu wykorzystaniu lub szerokim konsekwencjom wynikającym z awarii.
Kodeks postępowania poświęca cały rozdział modelom sztucznej inteligencji obarczonym ryzykiem systemowym, wymieniając konkretne praktyki zarządzania tymi ryzykami.
repubblica