Kan ikke tro våre egne øyne

Når ansiktet til Taylor Swift dukker opp i en pornofilm, kan vi vifte det bort som en spøk. Men deepfake angår oss alle. Neste gang kan det være deg.

Jeg tror det når jeg ser det, sier vi. Det må vi slutte med. Med nye digitale verktøy, må vi endre holdning. Deepfakes eller dype forfalskninger er et eksempel på hvordan teknologi brukes til å manipulere det vi ser og hører. Kort sagt er deepfake etterlikninger, manipulasjoner eller sammenstillinger av video og lyd ved maskinlæring. Ansiktsbytter, kroppsmanipulasjon, stemmekopi og produksjon av helt nye stemmer og bilder faller alle i samme kategori.

I Skaperkrafts nye notat «Deepfakes – hva gjør vi når vi ikke lenger kan tro det vi ser?» går jeg nærmere inn på konsekvensene av denne teknologien og hvordan vi som samfunn kan møte dette.

I 2017 ble de første kjente deepfake-bildene publisert. En bruker på Reddit hadde da manipulert ansikter av berømte kvinner, som Scarlett Johansson, Taylor Swift og Emma Watson, inn i pornofilmer. Brukeren publiserte disse under navnet Deepfakes.

Men det er ikke bare pornoindustrien som har fått merke de nye mulighetene. Deepfake-videoer er også brukt i politikken. Hva om en president kan si det du vil? Bilder av Barack Obama ble i 2018 brukt av Buzzfeed for å illustrere hvordan teknologien kan forfalske videoer av kjente personer. Tillit og sannhet er helt grunnleggende i å opprettholde demokratiet, og deepfake-manipulasjon må som sådan tolkes som en trussel mot demokratiet. Eller? Hvem er det egentlig som bør bekymre seg?

Ifølge universitetslektor Britt Paris er det ikke politikere og presidenter, det er oss. Forfalskede videoer og bilder brukes ofte mot kvinner, fargede og mennesker som stiller seg i opposisjon til mektige systemer og regimer. Hun hevder at de mest utsatte for deepfake-manipulasjon er de som ikke evner å kontrollere hva som brukes som bevis mot dem. Hva skjer med ei jente som får ansiktet sitt brukt i en pornofilm uten samtykke? Det skjedde med australske Noele Martin. Eller en bestemor som blir ringt av barnebarnet for å låne litt penger, eller det hun trodde var barnebarnet.

Hvordan kan vi møte dette? Er vi maktesløse?

Det viktigste er at vi må forstå at vi lever i en verden hvor det blir stadig vanskeligere å skille sannhet fra løgn. Vi må bli flinkere til å tenke kritisk. Dernest må myndighetene stimulere til forskning og utvikling av teknologi som så langt som mulig kan bidra til å avdekke om bilder og videoer er forfalskninger. Og politiet må skaffe seg tilstrekkelig kompetanse til å håndtere problemstillingene dette reiser.

Det er også viktig å foreta en kritisk gjennomgang av lovverket for å se hvordan det kan brukes til å hindre misbruk av deepfake-teknologi. Myndighetene må både klargjøre og gjøre det allment kjent hvor grensene går for hva som er lov og ikke lov i forhold til å bruke og spre bilder av andre enn deg selv.

Ekspertise må bidra til gode undervisningsopplegg i skolene. Skoleprosjektet Tenk, fra faktisk.no, er et eksempel på godt arbeid på dette feltet. Her utvikles det ressurser til bruk i skolen om kritisk mediebruk og kildebevissthet.

Tenk på det som en type selvforsvar, for deg og familien din. Vi må utfordre oss selv til å alltid søke sannhet, og huske at det vi ser ikke alltid er det vi tror det er.

I vår tid kan vi ikke lenger tro våre egne øyne – i hvert fall ikke alltid.

Første gang publisert i Dagbladet 30. desember.

Catharina Drejer

Catharina Drejer er tidligere rådgiver i tankesmien Skaperkraft. Slaveri, menneskehandel, menneskerettigheter, fattigdom, internasjonalt arbeid og teknologi er sentrale tema i hennes arbeid. Hun har en mastergrad i Slavery and Liberation …

Anbefalte artikler

Daniel Joachim Kleiven ser mye positivt med AI, men ser også grunn til bekymring. Ikke av AI i seg selv, men menneskene som bruker det med onde hensikter.
Av Daniel Joachim H. Kleiven
Publisert 19. februar 2024
Digitalisering har erstattet lærebøker, papir og blyant. Men i dag øker skepsisen.
Av Joel Samuel Halldorf
Publisert 16. februar 2024
Del innhold