MED ÉT KLIK KAN KUNSTIG INTELLIGENS
FÅ 'DIG' TIL AT
SMIDE TØJET
'DØD OVER DEEPFAKE PORNO'
Tryk videre
- Hvad nu? - Jeg ligger der sgu da! Stop!
Ét klik.

Mere skal der ikke til, før du kan skabe et digitalt "nøgenbillede" af hvem som helst – takket være kunstig intelligens.

Fænomenet hedder 'deepfakes', og selvom nøgenbillederne altså er falske, så bliver de delt vidt og bredt rundtomkring på nettet.

Og det er skræmmende let at lave et falskt nøgenbillede.

Det oplever Twitch-streamerne Marie Watson og Melina Jellesmark, da de prøver at lave deres eget deepfake-billede i programmet 'Død over deepfake porno'.
- Jeg tænker, vi gør det mega noob-agtigt og bare søger efter 'deepfakes'. Så ser vi, hvad der kommer frem. "Make your own deepfake", nå men så er det jo heller ikke sværere.
- What the fuck!

- Jeg tænker, vi skal tage et billede af mig fra Instagram. Sådan her måske? Så siger vi "process".
Efter få klik har hjemmesiden skabt et nyt, falskt nøgenbillede af Marie Watson.
- Okay, interessant. Det er så sløret her, men alligevel. De har fjernet mine bukser. Det har taget os to sekunder, og nu er jeg basically nøgen.
- Jeg synes faktisk, det er helt vildt grænseoverskridende. Det er jo crazy nemt. Det er virkelig, virkelig ulækkert.
De falske nøgenbilleder bliver både delt og byttet – og i nogle tilfælde solgt – af anonyme bagmænd på forskellige foraer på nettet, blandt andet på Discord og Telegram.
Her kan man blandt andet købe adgang til billedmapper, der både indeholder deepfakes, men også rigtige nøgenbilleder af danske kvinder.
- Pludselig er man bare en ting. Du er bare et objekt. Jeg synes, det er grænseoverskridende. - Ja, du bliver potentielt solgt for penge.
Marie og Milena har fået adgang til én af mapperne.
- Jeg bliver nervøs for, hvad folk har postet derinde. Du kunne ligge derinde, jeg kunne ligge derinde. Hvem som helst kunne ligge derinde.
- Det er AI. Jeg kan genkende hende. - Jeg kan også genkende hende. Men prøv at se hendes bryst her. - Det ligner et boobjob gone wrong. Det ville være ærgerligt, hvis det var rigtigt.
- Det her billede har jeg set før! Forstå mig ret, men jeg synes, det er ét af de pænere deepfakes.

- Jeg ser det kun, fordi jeg ved det.
Deepfakes bliver blandt andet også brugt til at lave falske videoer med for eksempel politikere - men i de fleste tilfælde, er der tale om porno.

I 2019 var 96 procent af alt deepfake-materiale på internettet pornografisk.

99 procent af det materiale var af kvinder.
Kilde: ”The state of Deepfakes”, Deeptrace
I Danmark er det ulovligt at dele deepfake-nøgenbilleder, og politikerne arbejder også på, at det skal være strafbart at lave deepfakes.
Der bliver både lavet pornografiske deepfakes af berømtheder, men også helt almindelige mennesker kan blive ofre for deepfake-teknologien.

Marie Watson har også været offer for de falske nøgenbilleder.
Foto: Betina Garcia / DR
- Jeg kan huske første gang, jeg så mit første deepfake. Man lukker helt ned. Her står du pludselig nøgen. Det er jo ikke dig, men det føler du. Der er nogen, der har kigget på dig og delt dig. Det er så grænseoverskridende.
Og nu er den gal igen.
Foto: Betina Garcia / DR
- Hvad nu? - Jeg ligger der sgu da! Stop!
Marie og Milena har fået nok.

Derfor sætter de og deres veninder nu jagten ind på bagmændene bag de forbudte billeder.
- Det kan være en meget lille gruppe af mennesker, der kører hele showet. Det er jo mega spændende, hvem der står bag det her. Kan man finde frem til dem?
Følg jagten på bagmændene bag de forbudte og falske nøgenbilleder i
'Død over deepfake porno'
Story af: Christian Ellegaard (chel@dr.dk)