Leder - november 2025

SE KARIKATUR Kattene

Troverdighetskrise for mediene

Ingen kan føle seg trygge

Deepfake videoene har blitt en reell trussel for oss alle. Dette er ikke science fiction. Det skjer nå. Verden er sjokkert vitne til at avansert politisk manipulasjon og hyppige seksuelle overgrep mot profilerte kvinner skjer over alt - hver eneste dag.

Deepfake brukes nå daglig i krigsproaganda, økonomisk svindel og seksuell trakassering av kjendiser.
Foto: Studio Teddy/theContrapart
Tekst: Jesper Enerstvedt
Dato: 01.11.25

Open AIs “Sora” programvare har raskt blitt populær på grunn av evnen til å lage hyperrealistiske videoer. Tidligere denne måneden ble Sora nedlastet mer enn en million ganger på under fem dager. Appen topper fortsatt Apple App Store-listene i USA. Den er bare en av flere hundre ulike programmer som kan gjøre akkurat det samme.

Troverdige forfalskninger

Deepfake er kunstig genererte videoer som får folk til å gjøre og si ting de aldri har sagt eller gjort. Teknologien er uhyre avansert og gjør forfalskningene skremmende troverdige. Kjendiser og politikere er populære mål for deep-fake, men i teorien kan de ramme hvem som helst, - også deg og meg.

Ikke lenger morsomt

Deep fake kan brukes til privat misbruk og til politisk manipulasjon. Det er egentlig ingen grenser. På det private planet er kvinner svært utsatt for pornografiske deepfakes. Det er nå et vanlig overgrep som får alvorlige sosiale og psykologiske konsekvenser for de som rammes. På det politiske planet ser vi allerede at deep fake brukes i valgkamper og som propaganda. I begynnelsen sa mange at dette var morsomt og at man burde ha takhøyde for humor og satire. Det sier man definitivt ikke lenger.

Brer om seg

I september 2025 meldte Aftenposten at et kjent nyhetsanker fra TV 2 ble misbrukt i en deepfake-video som ble brukt i svindelforsøk. Dette ble en vekker for norske medier om at deepfake må tas på alvor. Slike klipp kan undergrave offentlighetens tillit til tradisjonelle medier. Det har allerede skjedd og det vil skje stadig oftere etter hvert som deep fake programvare brer om seg.

Norske skolebarn

Oscar og Ebbe er to livlige 13-åringer bosatt på Sørlandet. De ler når jeg spør om de har hørt om deepfake videoer. Selvsagt har de det. “Vi har mange venner som lager sykt kule greier”, forteller Ebbe. Han forteller at kompisene lager små videosnutter av katter som kjører bil og bjørner som danser til band som guttene liker.


Journalister, politi, rettsvesen, forskere og politikere vil slite i fremtiden. Deepfake er allerede så teknisk bra at det er umulig å skille mellom hva som er ekte og hva som er falskt.


Sluttet på skolen

På spørsmål om noen lager videoer som har fått andre til å bli lei seg rister begge guttene på hodet. “Nei, alt vi gjør er for moro skyld” forklarer Oscar men legger til at en jente hadde slutta på en annen skole på grunn av en deepfake video. På spørsmål om hvordan han vet det forteller han at det ble sagt på en klassetur der de møtte elver fra den andre skolen.

Ukrainas president Volodymyr Zelenskyy ble offer for deepfake. I 2022 dukket det opp en deepfake-video der han ba ukrainske soldater om å overgi seg til Russland. Videoen viser hvordan deepfakes kan brukes som krigspropaganda.


Bruk arkivet!

Toppen

Skuespilleren Scarlett Johansson har vasset i deepfake-pornografi. Hun uttalte i 2018 at kampen mot videoene var håpløs fordi de spredte seg så raskt. Det samme problemet har rammet tusenvis av kvinnelige kjendiser. Men heller ikke mannfolka slipper unna. Tom Cruise-deepfakes herjet på TikTok i 2021.


Krigssone

Tidligere leder av Nasjonal sikkerhetsmyndighet NSM, Sofie Nystrøm, har uttalt at befolkningens oppmerksomhet er et nytt krigsområde. Teknisk mottiltak løser ikke problemet alene. Det kommer stadig bedre verktøy for å avsløre manipulasjoner, men det er et våpenkappløp myndighetene er dømt til å tape. Spesielt fordi folk ofte ikke bryr seg om noe er fake eller ikke. I enkelte tilfeller foretrekker folk deep fake framfor ekte vare, fordi fake er mer sensasjonelt, morsom eller sexy. Programvare som kan avsløre deep fake er definitivt verken morsom eller sexy, men den kan være nyttig for forskere, politiet eller journalister.

Økonomisk svindel

I 2019 ble en britisk næringslivsdirektør i et energiselskaps lurt til å overføre flere millioner kroner etter en deepfake-oppringning der svindlere imiterte stemmen til hans tyske sjef. Det er ikke grenser for hva man kan bruke deepfake til, så her må man trå varsomt om man ikke skal gå på limpinnen.

Desinformasjon og propaganda

Deepfakes av verdensledere som Barack Obama, Vladimir Putin og Donald Trump sirkulerer nå over alt. Ofte er de mesterlig laget og med en baktanke om å spre politiske budskap eller skape forvirring rundt hva som er sant. Alle skandalene har ført til et økende krav om regulering og teknologi for å oppdage deepfakes. Det blir ikke lett.

Snart allemannseie

Forskere ved norske universiteter påpeker at det blir enklere og enklere å lage deepfake videoer. De fleste forskerne nøyer seg med å telle og undersøke omfang. Å dømme eller forby er politikernes jobb i samarbeid med politi og påtalemyndighet. Regulatorisk respons er i gang internasjonalt. Danmark planlegger for eksempel lover som forbyr utbredelse av deepfake-bilder og videoer. Norske politikere har så langt bare diskutert tiltak. Det er ikke så enkelt som folk tror. Selve lovverket må oppdateres og endres for å møte denne formen for trakassering.

Stod opp fra de døde

I november 2024 dukket det opp en video på plattformen X (tidligere Twitter) der Martin Luther King fortalte at han støttet Donald Trump. Akkurat denne var enkel for journalister å avsløre fordi King døde i 1968. Videosnutten fikk likevel enorm oppmerksomhet på grunn av kvaliteten på forfalskningen. Det så virkelig ekte ut.

Farlig for media

For redaktører er faren for å gjengi falske klipp og dermed spre løgn helt klart tilstede. Også det motsatte kan forekomme. At redaktøren sensurerer legitime ytringer i frykt for at det er deep fake. Det blir stadig vanskeligere å stille krav om dokumentasjon, verifisere kilder og være tydelig på hva som er autentisk. Velkommen til fremtiden.


Bruk arkivet!

Hovedsiden

Adm:

@motparten.no

Kundeservice
kundeeservice@

Kontakt:

Motparten.no
Elevine Heedes vei
4839 Arendal