Foto: faksimile/cnn/motparten
Tekst: Christer Andre Mæland
Dato: 03.07.24
En rekke amerikanske TV-kanaler og aviser meldte at kunstig intelligens refererte usannheter om den viktige president-debatten mellom president Joe Biden og Donald Trump, som ble sendt torsdag 27. juni. Dessverre var det også mange aviser som bare refererte til usannhetene.
Alvorlig
Hvis det medførte riktighet at CNN "jukset" med direktesendingene ville det betydd et slag for demokratiet, og dessuten vind i seilene for republikanere som lenge har beskyldt mediene for å hjelpte til med fusk og maktmisbruk.
Usunne rykter
Saken er kjedelig for mediene for selv om CNN er uskyldige og det ikke "klippes" i debatten, er rykter om en forsinkelse negativt for troverdigheten til denne TV-stasjonen og til mediene som helhet, - fordi det skaper usikkerhet om det folk ser faktisk er det riktige bildet av hva som har skjedd.
Dårlig pilot
Kanaler som NBC News slo stort opp at både OpenAIs ChatGPT og Microsofts Copilot hevdet at presidentdebatten hadde ett til to minutters innlagt forsinkelse. I følge NBC skal chattebottene ha servert løgnen på bakgrunn av artikler de hadde funnet på nett.
Overbevisende
Problemet er at begge chattebottene på en særdelses overbevisende måte viderebragte de falske nyhetene som sannheter. AI-løgnene handlet om CNNs sending av debatten. I følge NBC skal det ha vært en konservativ skribent med tilknytning til det repubikanske partiet som uten bevis hadde lagt ut en sak om 1-2 minutters forsinkelse i sendingen.
Telefonstorm
Ryktene på sosiale medier førte til en telefonstorm mot CNN, som kategorisk avviste påstandene. Dette stoppet imidlertid ikke ryktespredningen, spesielt på konservative blogger, som heftig diskuterte om forsinkelsen ble brukt til å redigere debatten før den nådde offentligheten.
Hjelper Trump
Fordi ryktene stort sett var å finne på blogger som støtter det republikanske partiet, og fordi skepsis til valgsystemer og massemedia generelt bidrar til å hjelpe Trump i valgkampen, er det nå mange analytikere som bekymrer seg over om kunstig intelligens kan være en fare for demokratiet.
Toppen
Står ikke til ansvar
Flere profilerte kommentatorer viser til at en journalist, en avis, eller en politiker, - som løy på denne måten mest sannsynlig ville blitt kraftig diskreditert, og i verste fall mistet jobben. Chattebottene slipper langt enklere unna, fordi det ligger i deres natur å samle informasjon fra kilder på nettet.
NBC News stilte følgende spørsmål til Copilot:
"Vil det være en forsinkelse på 1 til 2 minutter i CNN-debatten i kveld?"
Microsofts Copilot svarte:
"Ja, det vil bli en forsinkelse i kveldens presidentdebatt mellom president Joe Biden og tidligere president Donald Trump. CNN planlegger å implementere en 1-2 minutters forsinkelse i stedet for standard 7-sekunders forsinkelse, noe som muligens gir tid til å redigere deler av sendingen. "
Fox News
Ved nærmere undersøkelse viste det seg at Copilot refererte til nettsiden til tidligere Fox News-vert Lou Dobbs, som siterte en annen konservativ skribents innlegg om den påståtte forsinkelsen. Copilot siterte også NBC News sin egen liveblogg for når debatten skulle starte.
AI-tulliball
Flere medier viste til at tidligere Twitters "Grok" svarte riktig på det samme spørsmålet. AI programmene er derfor ikke enige, men alle sammen serverer svarene som om de var skråsikre, unntatt Googles Gemini. Den nektet å svare fordi den ikke likte spørsmålet!
Pause
SpaceX og Twitter-milliardær Elon Musk mener verden bør sette AI-forskningen på "pause" i for å la samfunnet vurdere hvordan de skal unngå slikt misbruk. Også GCHQ-sjef Sir Jeremy Fleming har uttalt at AI kan brukes til sofistikerte desinformasjonskampanjer designet for å undergrave demokratiet.
Folk vil tvile
Hendelser som dette vil ifølge Storbritannias tidligere cybersikkerhetssjef Ciaran Martin "undergrave strukturen i samfunnet" fordi folk ikke lenger vil kunne se forskjellen mellom sannhet og løgner. Sikkerhetssjefen advarer at AI snart vil framstå som ekte mennesker på TV og da har man et samfunn der mennesker som ikke er mennesker kan lyve i vei uten å måtte stå snsvarlig for sine handlinger. Professor Martin sa til Times radio at AI gjør det mye lettere å forfalske stemmer, mye lettere å få falske nyheter til å se ut som ekte nyheter, og mye lettere å legge ut det i skala.
Hovedsiden