De duistere kant van kunstmatige intelligentie: hoe de wereldwijde, miljoenen dollars kostende nep-naaktindustrie opereert

Een epidemie van commerciële applicaties die kunstmatige intelligentie (AI) gebruiken om naaktfoto's te genereren zonder wederzijdse toestemming, verspreidt zich over het internet – recht voor ieders ogen. Hoewel sommige overheden aandringen op wettelijke maatregelen om hun blokkades te beperken, blijven miljoenen mensen gebruikmaken van deze diensten en maken hun promotors miljoenen winst .
De expliciete content die door deze deepfake -platforms wordt gegenereerd, wat juridisch gezien 'non-consensual intimate image abuse' (NIIA) wordt genoemd, is een groeiende en geavanceerde vorm van digitaal geweld geworden.
Dit fenomeen, dat wordt beschouwd als nevenschade van de vooruitgang op het gebied van generatieve AI, leidde tot het ontstaan van een duister ecosysteem bestaande uit 'nudificatie' -websites, algoritmes en bots die zijn ontworpen om kunstmatige afbeeldingen te produceren zonder toestemming van de slachtoffers.
Deze expliciete shots, ooit voorbehouden aan mensen met geavanceerde technische kennis, zijn nu voor iedereen toegankelijk dankzij platforms die deze processen automatiseren. Met slechts een paar klikken passen ze kleding, lichaamsvorm of pose aan, waardoor er met verontrustend gemak seksuele content ontstaat.
Apps kunnen kledingstukken van elke foto verwijderen.
Volgens een onderzoek van de Universiteit van Florida is de reclame voor platforms die door AI gegenereerde naaktfoto's aanbieden sinds begin dit jaar met 2400% toegenomen. Deze campagnes worden doorgaans verspreid via grote socialemediaplatforms, waar deze sites hun diensten promoten om nieuwe klanten aan te trekken.
"Deze afbeeldingen vertegenwoordigen een radicaal ander paradigma dan die gemaakt met Photoshop. Generatieve AI maakt het creëren ervan eenvoudiger, sneller en realistischer", legt Kevin Butler uit, PhD van de afdeling Computerwetenschappen van de Universiteit van Florida.
En hij voegt eraan toe: "Synthetische afbeeldingen kunnen schadelijk zijn. Dit is een vorm van seksueel misbruik van het onderwerp dat per definitie zonder toestemming wordt afgebeeld."
Deze aanvallen begonnen met het verspreiden van nepfoto's van popsterren als Taylor Swift en Billie Eilish . Vervolgens werden ze doorgestuurd naar publieke figuren als de premier van Italië, Giorgia Meloni . Uiteindelijk waren ze gericht op iedereen, ongeacht geslacht of leeftijd.
Uit een onderzoek van Save the Children , dat een week geleden werd gepubliceerd, bleek dat één op de vijf jongeren aangaf dat iemand op minderjarige leeftijd en zonder hun toestemming door AI gegenereerde naaktfoto's van hen had gedeeld.
"Deze cijfers vormen slechts het topje van de ijsberg, aangezien de meeste gevallen niet worden gemeld . Dit komt deels door het gebrek aan meldingen en de moeilijkheden bij het detecteren ervan. Dit wordt nog verergerd wanneer deze incidenten online plaatsvinden", waarschuwt Catalina Perazzo, directeur sociale en politieke belangenbehartiging bij Save the Children.
De anonimiteit, viraliteit en het technische gemak waarmee deze beelden worden gegenereerd, dragen – zoals Wired opmerkt – bij aan hun snelle verspreiding. Ze laten diepe emotionele littekens achter en leggen onopgeloste juridische mazen bloot.
Deze pornografische markten, die ogenschijnlijk legitiem opereren, hosten hun data op conventionele clouddiensten zoals Amazon Web Services en Cloudflare, zonder dat deze aanbieders weten hoe de data wordt gebruikt. "Ze worden gehost op vertrouwde platforms", wat een verontrustende technologische normalisatie aan het licht brengt.
Bij ClothOff is het motto: "Foto's uitkleden was nog nooit zo makkelijk."
Uit een analyse van onderzoekswebsite Indicator blijkt dat de omvang van de nudistenbranche alarmerend is: in slechts zes maanden tijd telden deze portalen maandelijks gemiddeld 18,5 miljoen bezoekers.
De economische vooruitzichten voor deze gigant zijn eveneens overtuigend: de gezamenlijke winst van sites als Deepnude, UndressAI.tools en PornWorks AI zou jaarlijks meer dan 36 miljoen dollar kunnen bedragen.
Een van de populairste apps is ClothOff, die maandelijks meer dan 4 miljoen bezoekers trekt en de slogan "Laat je naaktfoto in slechts 15 seconden bewerken" draagt. De app is toegankelijk via een mobiele telefoon door op een knop te klikken waarmee wordt bevestigd dat de gebruiker ouder is dan 18. De app kost ongeveer $ 6 per 144 credits.
Het model achter dit lucratieve systeem is gebaseerd op de verkoop van "credits" of abonnementen waarmee gebruikers nepfoto's en -video's met niet-consensuele naaktheid kunnen genereren. Betalingen, via cryptovaluta , bieden exploitanten een dubbel voordeel: anonimiteit en financiële stabiliteit .
Diensten voor AI-"nudificatie" zijn een lucratieve business geworden, in stand gehouden door het gebrek aan echte controle over generatieve AI, stelt Alexios Mantzarlis, medeoprichter van Indicator en onderzoeker op het gebied van online beveiliging, scherp. "De laissez-faire -aanpak van Silicon Valley heeft deze markt in stand gehouden, zelfs toen duidelijk werd dat het uitsluitend om seksuele intimidatie ging", waarschuwt hij.
Deze materialen zijn vaak hyperrealistisch , waardoor ze de mogelijkheid om zowel slachtoffers als kijkers te misleiden en schade toe te brengen, maximaliseren.
Terwijl de eerste nudisten zich bijna uitsluitend op afbeeldingen richtten, hebben technologische ontwikkelingen het mogelijk gemaakt om aangepaste video's te manipuleren en te maken . Hierdoor is het fenomeen naar een nieuw niveau van gevaar en omvang getild.
De business is niet zonder risico's voor degenen die ervan proberen te profiteren. De populariteit ervan heeft geleid tot de opkomst van meerdere frauduleuze sites , waarvan sommige worden beheerd door hackers die apps aanbieden die zijn aangepast met malware om persoonlijke en financiële gegevens te stelen.
Zonder technische kennis kunt u een foto naar eigen inzicht manipuleren.
Het permanent verwijderen van dit materiaal is zeer moeilijk ; aanstootgevende content blijft terugkeren, waardoor de emotionele stress en de waargenomen kwetsbaarheid van slachtoffers langer aanhouden. Om deze digitale plaag te bestrijden, hebben de Verenigde Staten en Groot-Brittannië juridische en regelgevende maatregelen genomen.
President Donald Trump heeft de door beide partijen gesteunde "Take It Down" -wet ondertekend. Deze wet maakt het plaatsen van intieme afbeeldingen zonder wederzijdse toestemming strafbaar en vereist dat deze afbeeldingen worden verwijderd van de platforms waarop ze zijn geplaatst.
Meta kondigde onlangs ook aan dat het een rechtszaak zou aanspannen tegen het bedrijf uit Hongkong achter de nudify -app Crush AI. Volgens Meta omzeilde het bedrijf herhaaldelijk de regels van de techgigant voor het plaatsen van advertenties op haar platforms.
Uit een recent onderzoek van Thorn, een non-profitorganisatie die online kinderuitbuiting bestrijdt, bleek dat 6% van de Amerikaanse tieners slachtoffer is geweest van nepnaaktfoto's . Dit fenomeen, dat al reden tot bezorgdheid geeft vanwege de psychologische impact, wordt nog ernstiger wanneer het samengaat met misdrijven zoals sextortion .
De FBI waarschuwde voor een "schrikbarende toename" in zaken die gericht zijn op minderjarigen, voornamelijk jongens tussen de 14 en 17 jaar. Volgens de FBI hebben deze bedreigingen geleid tot een "alarmerend aantal zelfmoorden" vanwege de schaamte om blootgesteld te worden.
Een dergelijke tragedie vond dit jaar plaats in Kentucky, waar een tiener zelfmoord pleegde nadat hij afpersingsberichten had ontvangen waarin 3.000 dollar werd geëist om een neppe naaktfoto van zichzelf, gemaakt met behulp van kunstmatige intelligentie (AI), geheim te houden . Zijn ouders ontdekten de berichten na zijn dood.
Clarin