Ingen självklar metod för att avslöja AI-bilder

17 jan 2024 • 2 min

Att fejka bilder har blivit lätt. Källkritisk granskning har blivit svårare och kräver brett samlande av ledtrådar.

Det har varnats för att AI-teknik kommer att leda till en flod av desinformation och falska bilder. Metoderna för att göra så kallade deep fakes, förfalskade videor och bilder som är så väl genomarbetade att de framstår som verkliga, blir alltmer förfinade.
Men för Åsa Larsson på Källkritikbyrån har den nya tekniken inte inneburit några större förändringar av arbets­uppgifterna.
– Bilder kan ju manipuleras på många sätt och än så länge är det inte så vanligt med AI-genererade bilder. Det är fortfarande mycket vanligare att verkliga foton tas ur sitt sammanhang och påstås föreställa något annat än vad de verkligen gör, säger Åsa Larsson.
Hon är redaktör och fakta­granskare för Källkritikbyrån, en nyhetsförmedlare som avslöjar virala bluffar.
– Metoden för att göra bildmanipulationer är egentligen inte så intressant, utan det intressanta är mer: var kommer bilden ifrån? Vad sägs om den? Sedan kan man börja undersöka omständigheterna kring bilderna och personerna som sprider dem. Försök att hitta ursprungskällan till bilden, tipsar Åsa Larsson.

Åsa Larsson, redaktör på Källkritikbyrån. Foto: Privat och redigerad med hjälp av AI.

I maj fick ett AI-genererat foto från en påhittad explosion vid Pentagon spridning, men söker du på ”explosion” och ”Pentagon” gäller de flesta sökträffar att nyheten var falsk. Andra virala AI-bilder har föreställt välkända personer.
Förra vintern gick många till exempel på bluffen att påven bar en lyxig jacka från Balenciaga. Också en AI-genererad bild av en fängslad Assange fick stor spridning. I samband med rättegångarna mot Donald Trump har också flera AI-genererade bilder spridits.
– När folk börjat undersöka omständigheterna kring de här uppmärksammade AI-bilderna så har det uppstått en slags tomhet. Bilderna saknar sammanhang. Det borde finnas fler bilder från samma tillfälle, men inget dyker upp, säger Åsa Larsson.

AI-tekniken har också lett till en ny form av desinformationsapparat. I samband med att konflikten mellan Hamas och Israel blåste upp cirkulerade fruktansvärda bilder och uppgifter om dödade barn.
– Det har släppts bilder på barn som har bränts ihjäl och då är det folk som hävdar att de kört bilderna genom AI-koll-appar och fått utslag på att bilderna skulle vara gjorda med AI. Men de här personerna kan ju ljuga, säger Åsa Larsson.
– På det här sättet används AI-begreppet för att så tvivel om bilders äkthet. Precis som folk förr kunde säga att bilder var photoshoppade, manipulerade eller iscensatta så säger man nu att de är skapade med AI för att skapa misstro.

Precis som folk förr kunde säga att bilder var photoshoppade, manipulerade eller iscensatta så säger man nu att de är skapade med AI för att skapa misstro.

Åsa Larsson, Källkritikbyrån
Själv använder Åsa Larsson inte AI-appar för att avslöja AI-bluffar. En AI-koll-app kan också ge falska utslag på att något är AI-generat som inte är det.
– Det finns inget 100-procentigt verktyg för att avslöja om något är AI-genererat, utan man får samla ledtrådar och utreda på bred front.

Text: Matilda Nilsson

Artikeln publicerades först i Biblioteksbladets magasin, nummer 4 2023: Numret om AI. Bilderna i reportaget är liksom de flesta i numret om AI, AI-genererade, skapade av konstnären Annika Nordenskiöld.

0 kommentarer

Senaste nytt

Nyheter

Upprop för hotat bibliotek

Raoul Wallenberg-institutets bibliotek för mänskliga rättigheter hotas av nedläggning. Nu har juristerna Izabell Zaza och Amanda Bergqvist organiserat ett upprop för att försöka rädda biblioteket.

12 feb 2025 • 2 min

Debatt

Replik: Iselid är sen på bollen

Samtal om förhandlingar om e-böcker pågår redan, skriver Stefan Persson från Läromedelsföretagen i ett svar i debatten om svensk kurslitteratur. Han konstaterar att Lars Iselids alternativ ”låter mer som en from förhoppning än en realistisk lösning.”

6 feb 2025 • 3 min