Av Britt-Inger Jonsson
Tech – publicerad 2026-02-27
Fotorealistiska bilder på krig, kändisar och sensationella händelser fyller våra flöden varje dag. Men i en tid där artificiell intelligens kan skapa bilder som ser helt äkta ut på några sekunder räcker det inte längre att lita på ögat. För att inte bli lurad behöver vi tänka källkritiskt – på riktigt.
Du scrollar i mobilen. En bild får dig att stanna upp: två världsledare springer hand i hand över en sommaräng. En annan visar en sönderbombad byggnad, delad av någon du litar på. Kanske ser du ett oväntat kändisbröllop eller en ny butik som säljer handgjorda väskor till osannolikt bra priser. Bilderna ser trovärdiga ut. Nästan för trovärdiga.
Gemensamt för dem? De kan vara helt påhittade.
AI-genererade bilder har på kort tid blivit en självklar del av vår digitala vardag. Det som tidigare krävde avancerade kunskaper i bildredigering kan i dag göras av vem som helst, med några rader text och en gratis app. Resultatet är bilder som inte bara lurar algoritmer – utan också oss människor.
För bara några år sedan var det relativt enkelt att avslöja en fejkbild. AI hade nämligen svårt att skapa realistiska händer, ansikten och proportioner. Fingrar blev för många, ögon hamnade fel och text i bilder såg ofta märklig ut. Människor såg ibland mer ut som dockor än som verkliga personer.
Men den tiden är förbi.
– Utvecklingen har gått vansinnigt fort. För några år sedan såg de flesta AI-bilder ut som suddiga karikatyrer. I dag kan vem som helst skapa helt fotorealistiska bilder, säger Måns Jonasson, internetexpert på Internetstiftelsen.
I dag finns det inga säkra visuella tecken som avslöjar om en bild är skapad av AI eller inte. Inte ens särskilda AI-verktyg som påstår sig kunna identifiera fejkade bilder klarar uppgiften fullt ut. Det är en insikt som delas av både Måns Jonasson och Björn Appelgren, folkbildningsansvarig på Internetstiftelsen.
En av de största förändringarna är tillgängligheten. Du behöver varken vara tekniskt kunnig eller ha en dyr utrustning. Möjligheten att skapa bilder har demokratiserats, vilket i grunden är något positivt.
AI används i dag till mycket gott: för att illustrera artiklar, visualisera inredning, skapa material till skola och arbete eller ge liv åt kreativa idéer som annars aldrig blivit verklighet.
Men samma verktyg kan också användas för att vilseleda, manipulera och skada. Det öppnar också för att sprida lögner, påverka opinioner och skapa falska bevis, berättar Björn Appelgren.
Exemplen är många: fejkade nyhetsbilder som sprids i sociala medier, AI-genererade sexvideo på kända kvinnor i Sverige, eller falska nätbutiker som använder påhittade produktbilder för att lura kunder. I flera fall får det verkliga konsekvenser – både ekonomiskt och psykiskt.
Det kan vara frestande att se AI-bilder som något helt nytt och skrämmande. Men sanningen är att bilder aldrig har varit helt pålitliga. Redan under 1800-talet manipulerades fotografier för att påverka hur personer och händelser uppfattades. Ett välkänt exempel är porträttet av Abraham Lincoln där hans huvud klipptes ihop med en annan politikers kropp (källa: Wikipedia om bildmanipulation).
Under 1900-talet lät både Hitler och Stalin retuschera bort personer från officiella fotografier för att skriva om historien. Och under 2000-talet väckte kraftig bildredigering inom mode- och skönhetsreklam debatt om skeva kroppsideal.
Skillnaden i dag är hastigheten, enkelheten – och svårigheten att upptäcka manipulationen.
– Det har alltid gått att manipulera bilder. Det nya nu är hur snabbt och lätt det blivit, och hur svårt det är att upptäcka, säger Björn Appelgren.
När det inte längre går att avgöra äkthet genom att granska detaljer i bilden måste vi byta strategi. Lösningen är inte bättre syn – utan bättre källkritik.
I stället för att stirra oss blinda på pixlar och skuggor behöver vi ställa frågor om sammanhanget. Björn Appelgren beskriver det källkritiska arbetet som ett pussel där flera bitar måste läggas samtidigt.
En ensam bild säger väldigt lite. Det är först när vi sätter in den i ett större sammanhang som den får betydelse.
Att detta är en utmaning för många bekräftas i Internetstiftelsens rapport Källkritik i Sverige. Där uppger ungefär en fjärdedel av svenskar som använder sociala medier att de någon gång trott på information som senare visat sig vara falsk.
Trots att verktyg finns använder få dem. Bara var femte person uppger att de någon gång gjort en omvänd bildsökning för att kontrollera en bilds ursprung.
– Det visar att vi både behöver höja kunskapen om källkritiska metoder och göra verktygen enklare att använda, säger Björn Appelgren.
AI-bilder är inte bara ett teoretiskt problem. Här följer några konkreta exempel från de senaste åren: I Dublin samlades hundratals människor för att se en Halloween-parad som aldrig existerade, efter att AI-genererade annonser spridits i sociala medier. I USA spreds bilder på Donald Trump omgiven av svarta supportrar i ett försök att påverka afroamerikanska väljare. Liknande exempel finns från Sverige och från konflikter som kriget mellan Israel och Hamas, där AI-bilder används som propaganda (källor enligt Emelie Molinders artikel på Internetkunskap).
När bilder används för att manipulera känslor, opinioner och politiska uppfattningar blir källkritik inte bara en individuell färdighet – utan mer en demokratisk nödvändighet.
Många hoppas på tekniska lösningar – som märkning av AI-genererat material på sociala plattformar. Men enligt Måns Jonasson är det en svår väg.
– Det kommer alltid nya verktyg och tjänster. Jag tror snarare att vi i framtiden kommer behöva märka upp det som är äkta, än att försöka märka allt som är falskt.
Än så länge finns ingen helt tillförlitlig teknik för att märka AI-genererat material. Därför är vår egen förmåga att tänka kritiskt fortfarande det starkaste skyddet vi har.
Vi lever i en tid där bilder inte längre är bevis. Där det som ser verkligt ut kan vara helt påhittat. Det kan kännas obehagligt, men också befriande.
För när vi slutar lita blint på bilder och i stället börjar ställa frågor, tar vi tillbaka kontrollen. Källkritik har blivit nödvändigt och handlar om nyfikenhet, eftertanke och ansvar.
I AI-eran är det kanske inte tekniken som avgör vad som är sant – utan hur vi väljer att använda vårt omdöme.
Läs-mer-tips: Falska jobbannonser lurar allt fler.
Källa: Molinder, Emelie. "Blotta ögat räcker inte – så avslöjar du falska bilder i en tid av AI" , publicerad på Internetkunskap, Internetstiftelsen.
Prenumerera för att ta del av intressant läsning och exklusiva erbjudanden.
Jag samtycker till att ta emot nyhetsbrev och har tagit del av Du och Livets personuppgiftspolicy.