Europa dwingt ChatGPT om transparant te zijn en het auteursrecht te respecteren
De AI-wetgeving van de Europese Unie blijft aan populariteit winnen. Na de goedkeuring vorig jaar en de eerste verboden die in februari van kracht werden , beperken de regels nu algemene AI-modellen, waaronder tools zoals ChatGPT , Gemini en Grok . Vanaf aanstaande zaterdag 2 augustus moeten ontwikkelaarsbedrijven voldoen aan nieuwe transparantie- en beveiligingscriteria om mogelijke boetes te voorkomen. Deze kunnen oplopen tot 7% van de wereldwijde jaaromzet van het overtredende bedrijf of tot € 35 miljoen.
Vanaf nu moet elke ontwikkelaar van een tool voor kunstmatige intelligentie (AI) die tekst, afbeeldingen, video of spraak kan genereren, duidelijke en actuele technische informatie over zijn technologie verstrekken aan de bedrijven die zijn diensten gebruiken en aan Europese autoriteiten, met name het Europees Bureau voor AI. Deze informatie moet uitleggen hoe de tool is ontwikkeld en getest.
MEER INFORMATIE
Geavanceerdere ontwikkelingen moeten bovendien voortdurend beveiligingsbeoordelingen uitvoeren, ernstige incidenten melden en er alles aan doen om ervoor te zorgen dat hun producten geen kwetsbaarheden bevatten die een risico vormen voor gebruikersgegevens.
Ook de bedrijven die deze tools ontwikkelen, moeten voldoen aan de Europese auteursrechtwetgeving; daartoe moeten ze openbare samenvattingen delen van de data die ze gebruiken om hun machines te trainen. Ze moeten ook systemen implementeren die auteursrechthouders de mogelijkheid bieden om zich af te melden, waardoor het gebruik van hun content voor de ontwikkeling van de technologie wordt geblokkeerd.
Aan deze verplichtingen moet worden voldaan door elk bedrijf dat generatieve AI-technologie op de markt brengt, zoals Google, Meta, OpenAI of xAI. Dit heeft bijvoorbeeld direct gevolgen voor GPT-5, de verbeterde versie van ChatGPT, die naar verwachting vóór eind augustus wordt gelanceerd.
Om het voor bedrijven gemakkelijker te maken om aan de regelgeving te voldoen, heeft de Europese Unie medio juli een gedragscode gepubliceerd waaraan bedrijven zich vrijwillig kunnen houden. Bedrijven zoals Microsoft, OpenAI, Google, Anthropic en xAI hebben hun handtekening al gezet, zij het in de meeste gevallen met tegenzin.
"We blijven ons zorgen maken dat de AI-wet en de AI-code de ontwikkeling en implementatie van AI in Europa zouden kunnen vertragen. Met name afwijkingen van de Europese auteursrechtwetgeving, maatregelen die goedkeuringen vertragen of eisen die bedrijfsgeheimen blootleggen, zouden de ontwikkeling en implementatie van Europese modellen kunnen vertragen en zo het Europese concurrentievermogen kunnen schaden", aldus Google deze week in een verklaring.
Meta heeft al aangekondigd niet van plan te zijn de code te ondertekenen, hoewel het zich nog steeds aan de regelgeving moet houden. Het bedrijf onder leiding van Mark Zuckerberg, dat miljarden euro's verbrandt om "superintelligentie" te creëren – die machine die slimmer zal zijn dan de slimste mens – gelooft dat de regelgeving innovatie zal belemmeren. "Het zal de ontwikkeling en implementatie van grensverleggende AI-modellen in Europa vertragen en Europese bedrijven belemmeren die er hun bedrijf op willen bouwen", aldus Joel Kaplan, directeur internationale zaken bij Meta.
ABC.es