E55

Nu kan bedragare låta som dina anhöriga – varning för AI-bedrägeri

bedragare telefon barnbarn
Bedragare kan analysera information om sina offer och anpassa både språk, ton och innehåll för att öka trovärdigheten. Foto: Vitaly Gariev/Unsplash
Sandra Sahlén
Sandra Sahlén
Uppdaterad: 20 mars 2026Publicerad: 20 mars 2026

AI används nu för att lura människor med röster som låter helt verkliga. En ny rapport varnar för att sårbara grupper drabbas hårdast och i Sverige pekas pensionärer ut som särskilt utsatta.

ANNONS
ANNONS

Mest läst i kategorin

Ryttare galopperar längs en strand medan oljetankrar och lastfartyg står i kö vid Hormuzsundet. 11 mars 2026.
Ekonomi

Experter: Tar månader att åtgärda stoppet i Hormuz

20 mars 2026
Macbook
Ekonomi

MacBook Pro M5 Pro överraskar – enorm kraftökning

20 mars 2026
Elsystemet klarade den kalla vintern väl, enligt Svenska kraftnät. Arkivbild.
Ekonomi

Expert: Höga svenska priser räddar elsystemet

20 mars 2026
Statsminister Ulf Kristersson (M) träffar svenska journalister under EU-toppmötet i Bryssel.
Ekonomi

Inget stopp för utsläppshandel i EU

20 mars 2026
aktier
Spela klippet
E55 Studio

Så bygger du en stark utdelningsportfölj enligt experten

20 mars 2026

E55 har tidigare rapporterat om hur bedragare i allt högre grad utger sig för att vara en anhörig. I vissa fall används teknik som gör att rösten låter som offrets eget barn eller barnbarn, vilket gör situationen extra svår att genomskåda.

Metoden bygger ofta på stress och starka känslor, där den som ringer påstår att något akut har hänt och att pengar behövs omedelbart. Det gör att många agerar snabbt utan att kontrollera uppgifterna.

WEF varnar för AI-bedrägerier

En ny global rapport från World Economic Forum visar att AI snabbt förändrar hur bedrägerier genomförs.

Tekniken gör det möjligt att skapa realistiska mejl, ljud och videor som är mycket svåra att skilja från verkligheten. Det handlar också om falska dokument som kan passera traditionella kontroller.

Rapporten lyfter särskilt att AI förstärker riskerna för sårbara grupper som i allt högre grad utsätts för manipulation och bedrägerier.

ANNONS

Röstkloning – så fungerar det

Det som gör utvecklingen särskilt allvarlig är hur snabbt röstkloning har blivit både tillgänglig och träffsäker.

Med dagens AI-verktyg kan en bedragare återskapa en persons röst med bara några sekunders ljud. Material kan hämtas från sociala medier, videos eller telefonsvarare. Därefter kan rösten användas i realtid i ett samtal.

ANNONS

Rapporten beskriver hur AI inte bara ökar volymen av bedrägerier utan också deras precision. Angripare kan analysera information om sina offer och anpassa både språk, ton och innehåll för att öka trovärdigheten.

Det innebär att ett telefonsamtal inte längre bara låter trovärdigt utan också känns personligt. En bedragare kan referera till familjemedlemmar, tidigare händelser eller andra detaljer som stärker illusionen.

Samtidigt gör AI det möjligt att skala upp den här typen av attacker. Där en bedragare tidigare kunde ringa ett fåtal personer kan samma metod nu användas mot tusentals samtidigt.

Pensionärer en särskild måltavla

Även om rapporten talar om sårbara grupper i bred mening är kopplingen tydlig.

Äldre personer är ofta mer utsatta för just den här typen av bedrägerier. Det handlar både om ekonomiska faktorer och om beteenden. Många har sparade tillgångar och är vana vid att hantera ärenden via telefon.

När tekniken dessutom gör samtalen mer trovärdiga ökar risken ytterligare.

Bedrägerier i stor skala

Hur kraftfull tekniken är syns redan internationellt.

ANNONS

Rapporten lyfter exempel där deepfake-material använts för att lura människor i stor skala, bland annat genom att imitera välkända personer i olika sammanhang.

Det visar att tekniken inte längre är experimentell utan redan används i organiserad brottslighet.

Svårare att avslöja

Tidigare gick många bedrägerier att känna igen på språkfel eller märkliga formuleringar.

Med AI försvinner dessa varningssignaler. Bedragare kan tala korrekt svenska, använda rätt ton och anpassa sitt budskap efter mottagaren.

Det gör att även personer som normalt är försiktiga kan bli lurade.

Så skyddar du dig

  • Var extra uppmärksam om någon ringer och säger att det är en anhörig i kris
  • Lägg på och ring tillbaka på ett nummer du själv har sparat
  • Kontrollera alltid med en annan närstående innan du för över pengar
  • Lämna aldrig ut koder eller bankuppgifter

AI har gjort bedrägerier mer personliga och mer trovärdiga än tidigare. När rösten i telefonen låter som någon du litar på räcker det inte längre att lita på magkänslan.

ANNONS

Det krävs att man stannar upp, kontrollerar och vågar ifrågasätta även det som låter helt äkta.

Läs även: Bedragare lurar till sig mångmiljardbelopp – så skyddar du dig – E55

Läs mer från E55 - vårt nyhetsbrev är kostnadsfritt:
Sandra Sahlén
Sandra Sahlén

Erfaren projektledare och skribent med bakgrund inom Content Marketing.

Sandra Sahlén
Sandra Sahlén

Erfaren projektledare och skribent med bakgrund inom Content Marketing.

ANNONS