De nieuwe AI-wet van Japan biedt lessen voor de VS en de EU

Selecteer taal

Dutch

Down Icon

Selecteer land

Italy

Down Icon

De nieuwe AI-wet van Japan biedt lessen voor de VS en de EU

De nieuwe AI-wet van Japan biedt lessen voor de VS en de EU

Op 4 juni 2025 werd een Japanse wet inzake kunstmatige intelligentie (AI) aangenomen, en de titel ervan geeft al duidelijk de politieke keuze van Tokio aan: Jink? chin? kanren gijutsu no kenky? kaihatsu oyobi katsuy? no suishin ni kansuru h?ritsu (Wet ter bevordering van onderzoek, ontwikkeling en gebruik van technologieën gerelateerd aan kunstmatige intelligentie). In tegenstelling tot de Europese Unie, die wordt geblokkeerd door een voorzorgsprincipe dat niet is verankerd in objectieve en meetbare elementen, heeft Japan een uiterst pragmatische en bewuste keuze gemaakt: niet om AI te "reguleren" — wat dat ook mag zijn — maar om te verbeteren wat nodig is om de technologieën te ontwikkelen die nodig zijn voor het functioneren ervan.

Kortom, terwijl de EU de handrem van een geparkeerde auto met uitgeschakelde motor aantrekt om te voorkomen dat deze over de kop slaat, zorgt Japan ervoor dat het efficiënte wegen aanlegt om sneller en beter op de plaats van bestemming te komen.

"In het verleden", legt het Keiyaku Watch- observatorium uit , "heeft de EU de invoering van een zogenaamde harde wet, de AI-wet, bevorderd, die strikte regels vastlegt voor de soorten AI die als risicovol worden beschouwd. Als reactie hierop hebben de VS, uit angst dat een dergelijke keuze de innovatie zou kunnen vertragen, ... samengewerkt met Japan en andere landen om een ​​regelgevende aanpak te hanteren die gebaseerd is op soft law." De EU-aanpak en de verandering naar een "legalistische" koers, opgelegd door het AI-uitvoeringsbesluit van de regering-Biden, hebben Japan er echter van overtuigd om door te gaan op het pad van soft law.

De focus ligt op toegepast onderzoek en internationale concurrentie

Artikel 3 legt juist de basis voor de ontwikkeling van AI, in het besef dat concurrentie in deze sector geen grenzen kent. De regel is dan ook ontstaan ​​met als doel de concurrentiekracht op de internationale arena van industriële sectoren – en het is de moeite waard om het woord "industrieel" te benadrukken – die verband houden met AI te verbeteren.

Tegelijkertijd benadrukt een korte, schijnbaar toevallig geplaatste kanttekening het belang van onderzoek en ontwikkeling in AI-gerelateerde sectoren voor de nationale veiligheid. Het belang van deze kanttekening ligt in het feit dat, op een zeer onhypocriete manier vergeleken met het westerse debat, zonder enige schijnheiligheid wordt erkend dat AI-gerelateerde technologieën kunnen en moeten worden gebruikt voor de verdediging van het land (het is belangrijk om te onthouden dat Japan, vanwege het pacifistische karakter van de grondwet, geen leger met offensieve capaciteiten kan hebben).

Technologische transparantie als instrument om illegale activiteiten te voorkomen

Zelfs de kwestie van onrechtmatig gebruik of gebruik dat de normale gang van zaken in het leven van het land schaadt, wordt op een structurele manier aangepakt en niet met een veelvoud aan artikelen die individuele gevallen regelen. Daarmee bestaat het risico dat we geconfronteerd worden met onvoorziene gebeurtenissen die niet aangepakt kunnen worden bij gebrek aan een specifieke regel.

De politieke keuze die in de wet is vastgelegd, is om in de eerste plaats te focussen op transparantie in elke fase van de onderzoeks-, ontwikkelings- en implementatiecyclus van alle technologieën die verband houden met AI.

Deze keuze verdient nader onderzoek, omdat deze, anders dan de EU-verordening inzake kunstmatige intelligentie, geen onmogelijk te verwezenlijken verplichtingen tot ‘uitlegbaarheid’ oplegt, maar de voorwaarden schept voor degenen die dat moeten doen en die de nodige vaardigheden hebben ontwikkeld om te kunnen verifiëren wat er is gedaan, hoe en door wie.

Met andere woorden: het wettelijk vastleggen van de "uitlegbaarheid" van AI impliceert het vaststellen van het niveau ervan. Wat zou het referentiepunt moeten zijn voor het meten van uitlegbaarheid? Dat van een onderzoeker die werkt bij een Big Tech? Dat van een afgestudeerde wiskundige? Of dat van een gewone burger met een middelbareschooldiploma?

Integendeel, de transparantieverplichting houdt veel pragmatischer in dat gekwalificeerde personen toegang krijgen tot alle informatie die nodig is om te begrijpen waardoor schade aan particulieren of aanvallen op instellingen zijn ontstaan.

Het schema van publieke, private en individuele plichten

De zogenoemde ‘architectonische’ benadering van de wet op de bevordering van AI-gerelateerde technologieën verdeelt de taken en verantwoordelijkheden in drie gebieden.

In tegenstelling tot de EU-wetgeving vereist de Japanse wetgeving dat alle partijen samenwerken om het gestelde doel te bereiken, namelijk technologisch leiderschap. Daarom zullen centrale en lokale overheden AI moeten gebruiken om hun efficiëntie te verbeteren, zullen universiteiten actief onderzoek en de verspreiding van de verkregen resultaten moeten bevorderen en een brede en robuuste kennisbasis moeten opbouwen, in samenwerking met de overheid en overheidsinstanties. Evenzo zal de private sector de procesefficiëntie moeten verbeteren en nieuwe industrieën moeten creëren door het gebruik van AI-gerelateerde technologieën; en zullen burgers interesse in deze technologieën moeten wekken.

Het is de taak van de staat om de nodige maatregelen te nemen om ervoor te zorgen dat alle actoren op dit technologische toneel op een gecoördineerde manier kunnen opereren, zonder elkaar te hinderen en zonder dat de prestaties van iedereen afzonderlijk in gevaar komen.

De rol van de premier bij de uitvoering van de strategie

De strategische aanpak van deze wet resulteert in de toekenning aan de Naikaku – het kabinet van de premier – van de bevoegdheden/taken op het gebied van coördinatie en controle over de wijze waarop de regelgevingsdoelstellingen worden geïmplementeerd. Dit gebeurt door de oprichting van wat in Italië zou kunnen worden gelijkgesteld aan een afdeling van het voorzitterschap van de Raad, waaraan alle andere staatsorganen, inclusief onafhankelijke administraties en agentschappen, adviezen, toelichtingen en de nodige samenwerking moeten verstrekken.

Toegang tot technologische infrastructuur en datasets

Een uiterst interessant aspect van de Japanse AI-wet is de verplichting om faciliteiten en apparatuur te delen – lees: supercomputercentra, telecommunicatienetwerken en meer – maar vooral om datasets ook ter beschikking te stellen aan de particuliere sector.

Dit terwijl we in het Westen – wellicht met uitzondering van Italië, dat in het AI-wetsvoorstel een compromis voorstelt in naam van het algemeen belang – nog geen oplossing hebben kunnen vinden om enerzijds de belangen van auteursrechthebbenden en de (antihistorische) controleclaims van nationale gegevensbeschermingsautoriteiten in evenwicht te brengen en anderzijds de noodzaak van toegang tot de middelen die nodig zijn om modellen voor machine learning en AI te bouwen.

De geopolitieke rol van kennis en het belang van training

Ook op het gebied van kennisontwikkeling en opleiding zijn de verschillen tussen het Japanse recht en de aanpak van de Europese Unie duidelijk zichtbaar.

Japan erkent duidelijk het belang van de ontwikkeling van een nationale kennisbasis – die dus niet afhankelijk is van patenten en buitenlands intellectueel eigendom – en bijgevolg de noodzaak om op alle niveaus trainingen te ontwikkelen over AI-gerelateerde technologieën. Dus niet alleen op het gebied van wetenschappelijk onderzoek, maar ook op de gebieden waar de resultaten gebruikt moeten worden.

Het belang van strategische visie

Geen enkel plan is bestand tegen de impact van een gevecht, luidt een veelgebruikt aforisme van generaal Von Moltke, maar dit betekent niet dat planning verkeerd of onmogelijk is. Dit is precies de benadering die voortkomt uit de context van de Japanse wetgeving inzake AI, gebaseerd op het besef dat het geen zin heeft om technologische evolutie in regels te vatten, maar dat het in plaats daarvan noodzakelijk is om een ​​ecosysteem te creëren dat de ontwikkeling ervan kan sturen door eventuele correcties van geval tot geval door te voeren waar ze nodig zijn.

Het maakt weinig uit of deze aanpak voortkomt uit een "politieke visie" of het gevolg is van de noodzaak om de tekortkomingen die voortvloeien uit de bevolkingsafname en -vergrijzing door middel van automatisering te compenseren. Sterker nog, het vertegenwoordigt een derde weg, vergeleken met de Amerikaanse weg die gebaseerd is op "beter je excuses aanbieden dan iets toegestaan ​​krijgen" en met die van de EU, die er ondanks herhaalde pogingen niet in slaagt zich te bevrijden van bureaucratisch dirigisme .

Het is nog te vroeg om te zeggen welke van deze benaderingen succesvol zal zijn, hoewel de (negatieve) effecten van de eerste twee al zichtbaar zijn. In de VS dringt Big Tech aan op versoepeling van de beperkingen op de toegang tot data met betrekking tot auteursrechtelijk beschermd werk (onderworpen aan juridische geschillen zoals die welke de New York Times aanwakkert voor de illegale exploitatie van haar artikelen) en is een grootschalige campagne gestart om de toestemming (of het niet-afwijzen) van gebruikers te verkrijgen voor het hergebruik van hun data .

De Europese Unie produceert omslachtige uitvoeringshandelingen voor de AI-verordening, waardoor een deugdelijke aanpak teniet wordt gedaan waarbij de regels worden gebruikt om onderzoek te ondersteunen, dat bovendien — in de praktijk — hoofdzakelijk wordt gestimuleerd met economische hefboomwerking .

In dit verband, als het waar is dat controle over AI-technologieën een fundamenteel element is voor de ontwikkeling van individuele lidstaten en het verwerven van politieke autonomie voor de Europese Unie, dan is een scherpe kritiek op haar keuzes noodzakelijk en plichtsgetrouw. Niet omdat ze per se onjuist zijn, maar omdat ze worden gelezen door de bril van pragmatisme en niet door die van principeverklaringen die niet worden ondersteund door vergelijking met de werkelijkheid, maar door de pretentie die te buigen.

repubblica

repubblica

Vergelijkbaar nieuws

Alle nieuws
Animated ArrowAnimated ArrowAnimated Arrow