Foto: Yuutube/theContrapart
Tekst: Johan Olav Enerstvedt
Dato: 06.11.25
Resemble AI sin "Deepfake Incident Database" er en oversikt over dokumenterte tilfeller der video har blitt brukt til svindel, manipulasjon eller kriminalitet vokser seg snart inn i himmelen, men databasen er ikke unik. Forskere og analytikere har for alvor fått opp øynene fopr såkalt AI-genererte videoer. Vi har også sett nærmere på artikkelen "Merging AI Incidents Research with Political Misinformation Research" fra 2024. Den dekker politisk-relevante deepfakes.
Uskyldig svindel
Av den mer uskyldige sorten manipulasjon finner vi for eksempel et videoopptak av en eldre kvinne som mater en stor brun bjørn fra en skål på verandaen. Den fikk millioner av treff. Senere ble det avslørt at videoen var laget av programmet Sora fra OpenAI. På uskyldig-listen finner vi også papegøyen Scarlet Macaw som ble sett 91 millioner ganger. Den eksisterer ikke.
Katastrofe-AI
I oktober 2025 spredte AI-genererte klipp av naturkatastrofer seg. Nyhetsbyrået AP beskrev hvordan falske videoer haier i hotellbasseng og ødelagte flyplasser gikk viralt. Under orkanen "Melissa2 dukket det opp flere faslke videoer av ødeøeggelser som ikke hadde funnet sted. Videoene ble delt millioner av ganger på TikTok, X og Instagram, og skapte full forvirring om hva som var rett og hva som var galt. Alle de falske videoen konkurrerte med ekte nødinformasjon om oppmerksomheten.
Politisk-AI
Også politisk deepfake er kan få alvorlige konsekvenser for de det rammer. Her er det ofte bakmenn betalt av myndigheter eller organisasjoner som har hel klare mål med aktivitetene. For eksempel skapte falske rakettangrep på Israel unødig mye frykt. De ble sett hele 37 millioner ganger.
Motparten kommenterte nylig i en lederartikkel at deepfake skaper store problemer også for pressen og dets redaktører. Noen ganger blir redaktørene lurt av dyktig AI, men de andre ganger sensurerer klipp som ikke er AI. Det er derfor viktig at man har gode måter å verifisere ekthet.
Toppen
Nå må man se etter feil i strukturer som mønsteret i en duk eller mursteinene i en vegg. Man kan også studere bakgrunnsobjekter som ikke oppfører seg naturlig. Kanskje er det en strømledning som stopper i løse luften.
Vanskelig jobb - blir verre
Informatikk-ekspert og professor, Hany Farid, ved University of California, Berkeley, arbeider med digital etterforskning. Han er grunnleggeren av deepfake-deteksjonsselskapet GetReal Security. Nylig ble han intervjuet av det engelske mediehuset BBC. Der satt han fingeren på at det ikke lenger er enkelt å skille ekte fra falskt. Farid pekte på at AI genererte videoer ikke lenger er uskarpe og kornete, eller nødvendigvis har detaljer som avslører at de er et falsum.
Kan avsløres
Kvaliteten på video appene har definitivt blitt mye bedre. Ifølge Farid har "de ledende tekst-til-video-generatorene som Googles Veo og OpenAIs Sora fortsatt små feil" som gjør at eksperter kan avsløre at videoen er AI-generert, men den generelle trenden er at programvare snart er så bra at det er så godt som umulig å være sikker på om noe er ekte eller falskt.
Bakgrunnsobjekter
De fleste teknologieksperter og programvare-analytikere er likevel enige i at det fortsatt er mulig å avsløre de beste forsøkene på å lure folk, men at man nå må lete på en annen måte enn tidligere. Da kunne man se etter folk med to neser eller tre ører. Det går ikke lenger. Nå må man se etter feil i strukturer eller studere bakgrunnsobjekter som ikke oppfører seg naturlig.
Kort varighet
Profesjonelle analytikere ser også på mange andre faktorer. For eksempel er AI produserte snutter generelt veldig korte fordi det kreves enorme ressurser for å lage dem. Enkelte profesjonelle aktører limer derfor sammen flere AI genererte kort snutter, og det er klippe og lime-metodene som avslører svindlerne. Sist men ikke minst er det ikke mulig å få AI programmene til å være helt konsekvente med alt innholdet. Plutselig kan duken på en kafe endre farge eller mønster eller måke blir til kråke i bakgrunnen.
Hovedsiden