Die Schattenseiten der künstlichen Intelligenz: So funktioniert die millionenschwere globale Nacktfotografie-Industrie

Eine Epidemie kommerzieller Anwendungen , die künstliche Intelligenz (KI) nutzen , um Nacktbilder ohne Einwilligung zu erstellen, breitet sich im Internet aus – direkt vor aller Augen. Obwohl einige Regierungen auf rechtliche Maßnahmen drängen, um ihre Kontrollen zu lockern, nutzen Millionen von Menschen diese Dienste weiterhin, und ihre Betreiber machen Millionengewinne .
Die von diesen Deepfake- Plattformen generierten expliziten Inhalte, die rechtlich als nicht einvernehmlicher Missbrauch intimer Bilder (NIIA) bezeichnet werden, sind zu einer wachsenden und raffinierteren Form digitaler Gewalt geworden.
Dieses Phänomen, das als Kollateralschaden der Fortschritte im Bereich der generativen KI gilt, führte zur Entstehung eines dunklen Ökosystems aus „Nudifizierungs“ -Websites, Algorithmen und Bots, die darauf ausgelegt sind, künstliche Bilder ohne die Zustimmung der Opfer zu produzieren.
Diese expliziten Aufnahmen, die einst nur technisch versierten Personen vorbehalten waren, sind heute dank Plattformen, die diese Prozesse automatisieren, für jedermann zugänglich . Mit nur wenigen Klicks verändern sie Kleidung, Körperform oder Pose und erzeugen so mit verstörender Leichtigkeit sexuelle Inhalte .
Apps können Kleidung aus jedem Foto löschen.
Laut einer Studie der University of Florida ist die Werbung für Plattformen, die KI-generierte Nacktfotos anbieten, seit Jahresbeginn um 2.400 % gestiegen. Diese Kampagnen werden in der Regel über die großen Social-Media-Plattformen verbreitet, wo die Seiten für ihre Dienste werben, um neue Kunden zu gewinnen.
„Diese Bilder stellen ein radikal anderes Paradigma dar als die mit Photoshop erstellten. Generative KI macht ihre Erstellung einfacher, schneller und realistischer“, erklärt Kevin Butler, PhD von der Fakultät für Informatik der University of Florida.
Und er fügt hinzu: „Synthetische Bilder können Schaden anrichten. Dies stellt eine Form des sexuellen Missbrauchs der Person dar, die per Definition ohne deren Zustimmung abgebildet wird.“
Diese Angriffe begannen mit der Verbreitung gefälschter Fotos von Popstars wie Taylor Swift oder Billie Eilish , verbreiteten sich dann auf Persönlichkeiten des öffentlichen Lebens wie die italienische Premierministerin Giorgia Meloni und richteten sich schließlich gegen jede Person, unabhängig von Geschlecht oder Alter.
Eine vor einer Woche veröffentlichte Umfrage von Save the Children ergab, dass jeder fünfte junge Mensch angab, dass jemand KI-generierte Nacktbilder von ihm als Minderjährigem und ohne seine Zustimmung geteilt habe.
„Diese Zahlen stellen nur die Spitze des Eisbergs dar, da die meisten Fälle nicht gemeldet werden , was teilweise auf die mangelnde Meldung und die Schwierigkeiten bei der Erkennung zurückzuführen ist, die sich noch verschärfen, wenn diese Vorfälle online auftreten“, warnt Catalina Perazzo, Direktorin für soziale und politische Interessenvertretung bei Save the Children.
Die Anonymität, Viralität und technische Leichtigkeit , mit der diese Bilder erzeugt werden, tragen – wie Wired betont – zu ihrer schnellen Verbreitung bei, hinterlassen tiefe emotionale Narben und legen ungelöste Gesetzeslücken offen.
Diese scheinbar legitim agierenden Pornomärkte hosten ihre Daten auf konventionellen Cloud-Diensten wie Amazon Web Services und Cloudflare, ohne dass diese Anbieter wissen, wie die Daten verwendet werden. „Sie werden auf vertrauenswürdigen Plattformen gehostet“, zeige dies eine beunruhigende technologische Normalisierung.
Bei ClothOff lautet das Motto: „Ausziehfotos waren noch nie so einfach.“
Eine Analyse des Marktforschungsunternehmens Indicator offenbarte das besorgniserregende Ausmaß des FKK -Geschäfts: In nur sechs Monaten verzeichneten diese Portale im Monatsdurchschnitt 18,5 Millionen Besucher.
Die wirtschaftlichen Schätzungen für diesen Giganten sind ebenso überzeugend: Die kombinierten Gewinne von Websites wie Deepnude, UndressAI.tools und PornWorks AI könnten jährlich 36 Millionen Dollar übersteigen.
Zu den beliebtesten Apps zählt ClothOff mit über vier Millionen Besuchern pro Monat. Die App verspricht: „Lassen Sie Ihr Nacktfoto in nur 15 Sekunden bearbeiten.“ Die App lässt sich über das Mobiltelefon aufrufen, indem man auf eine Schaltfläche klickt und bestätigt, dass der Nutzer über 18 Jahre alt ist. Pro 144 Credits kostet die App etwa 6 Dollar .
Das Modell hinter diesem lukrativen System basiert auf dem Verkauf von „Credits“ oder Abonnements , mit denen Benutzer gefälschte Bilder und Videos mit nicht einvernehmlicher Nacktheit erstellen können. Die Zahlungen erfolgen über Kryptowährungen und bieten den Betreibern einen doppelten Vorteil: Anonymität und finanzielle Stabilität .
Dienste zur „Nudifizierung“ von KI seien zu einem lukrativen Geschäft geworden, das durch den Mangel an echter Kontrolle über generative KI aufrechterhalten werde, prangert Alexios Mantzarlis, Mitbegründer von Indicator und Online-Sicherheitsforscher, an. „ Der Laissez-faire -Ansatz des Silicon Valley hat es diesem Markt ermöglicht, zu bestehen, selbst als klar wurde, dass sein einziger Zweck sexuelle Belästigung war“, warnt er.
Diese Materialien sind oft hyperrealistisch , wodurch ihre Fähigkeit, Schaden anzurichten und sowohl Opfer als auch Zuschauer zu täuschen, maximiert wird.
Während sich die frühen Nudisten fast ausschließlich auf Bilder konzentrierten, ermöglichten technologische Fortschritte die Manipulation und Herstellung veränderter Videos , wodurch das Phänomen eine neue Gefahrenstufe und Tragweite erreichte.
Das Geschäft birgt für diejenigen, die versuchen, daraus Kapital zu schlagen, Risiken. Seine Popularität hat zur Entstehung zahlreicher betrügerischer Websites geführt, von denen einige von Hackern betrieben werden, die mit Schadsoftware modifizierte Apps anbieten, um persönliche und finanzielle Daten abzugreifen.
Ohne technische Kenntnisse können Sie ein Foto nach Ihren Wünschen bearbeiten.
Die dauerhafte Entfernung dieser Inhalte gestaltet sich äußerst schwierig . Immer wieder tauchen missbräuchliche Inhalte auf, was die emotionale Belastung und das Gefühl der Verletzlichkeit der Opfer verlängert. Um diese digitale Plage zu bekämpfen, haben die USA und Großbritannien rechtliche und regulatorische Maßnahmen eingeleitet.
Präsident Donald Trump unterzeichnete den parteiübergreifenden „Take It Down“ -Act, der das Posten intimer Bilder ohne deren Zustimmung unter Strafe stellt und deren Entfernung von Plattformen vorschreibt , auf denen sie veröffentlicht wurden.
Meta kündigte kürzlich außerdem an, eine Klage gegen ein Hongkonger Unternehmen einzureichen, das hinter einer Nackt- App namens Crush AI steht. Das Unternehmen habe wiederholt die Regeln des Technologieriesen für die Schaltung von Werbung auf seinen Plattformen umgangen, hieß es.
Eine aktuelle Umfrage von Thorn, einer gemeinnützigen Organisation, die gegen die Ausbeutung von Kindern im Internet kämpft, ergab, dass 6 % der amerikanischen Teenager Opfer gefälschter Nacktfotos geworden sind . Dieses Phänomen, das aufgrund seiner psychologischen Auswirkungen bereits Anlass zur Sorge gibt, wird noch ernster, wenn es mit Verbrechen wie Sextortion zusammentrifft.
Das FBI warnte vor einem „erschreckenden Anstieg“ der Fälle, in denen es um Minderjährige, vor allem Jungen zwischen 14 und 17 Jahren, gehe. Nach Angaben der Behörde hätten diese Drohungen zu einer „alarmierenden Zahl von Selbstmorden“ geführt, die auf die Scham zurückzuführen seien, die über die Aufdeckung der Drohungen herrsche.
Eine solche Tragödie ereignete sich dieses Jahr in Kentucky. Dort nahm sich ein Teenager das Leben, nachdem er Erpresserbriefe erhalten hatte, in denen 3.000 Dollar gefordert wurden, um ein gefälschtes Nacktfoto von sich, das mithilfe künstlicher Intelligenz (KI) erstellt worden war, geheim zu halten . Seine Eltern entdeckten die Nachrichten erst nach seinem Tod.
Clarin