Til forsiden
Chat med oss
25-02-2025

Kunstig intelligens som våpen for cyberkriminelle

Kunstig intelligens (AI) endrer alt – også kriminaliteten. Kripos ferske rapport «Cyberkriminalitet 2025» slår fast at vi står overfor et taktskifte: kriminelle blir mer aggressive, mer sofistikerte – og de har fått et nytt, kraftig våpen: kunstig intelligens (AI).

Deepfakes og AI-genererte svindelforsøk har allerede kostet selskaper millioner av kroner globalt. Bedrageri og utpressing har fått en ny dimensjon der cyberkriminelle bruker AI til å manipulere ansatte, forfalske identiteter og automatisere angrep. Spørsmålet er: Hvor godt rustet er norske virksomheter til å håndtere denne utviklingen?

 

 

Hvordan påvirker AI cybersikkerheten?

Kriminelle aktører benytter AI til flere formål innen IT-sikkerhet. De analyserer enorme mengder data for å identifisere sårbarheter, skaper overbevisende phishing-e-poster og genererer syntetiske stemmer og videoer som lurer ansatte til å utføre handlinger de ellers aldri ville gjort.

Noen eksempler

  • DNB-svindelen: AI-genererte deepfake-videoer ble brukt for å forsøke å svindle ansatte gjennom falske videomøter.
  • Falske CEO-anrop: Selskaper har rapportert om deepfake-genererte stemmer som etterligner ledere og gir ansatte ordre om pengeoverføringer.
  • Automatisert phishing: AI brukes til å skrive feilfrie, kontekstsensitive e-poster som imiterer legitime forespørsler fra kunder eller partnere.
  • Manipulerte sosiale medier-profiler: Avanserte botnett med AI-genererte identiteter brukes til å spre feilinformasjon og gjennomføre sosial ingeniørkunst.

8 eksempler på kriminelles bruk av AI

Vi har samlet en oversikt over eksempler på hvordan kriminelle bruker kunstig intelligens (AI): 

 

  1. Sofistikerte phishing-angrep: Kriminelle bruker AI til å generere svært overbevisende falske e-poster og nettsider som etterligner legitime organisasjoner. Dette øker sannsynligheten for at mottakere blir lurt til å gi fra seg sensitiv informasjon.
     
  2. Utvikling av skadevare: Med AI kan angripere automatisere utviklingen av skadevare som er i stand til å tilpasse seg ulike miljøer, unngå deteksjon og utnytte sårbarheter mer effektivt.
     
  3. Deepfake-teknologi: AI brukes til å lage falske videoer og lydopptak som er nesten umulige å skille fra ekte. Dette kan brukes i direktørsvindel, der angripere utgir seg for å være en leder for å lure ansatte til å overføre penger eller gi tilgang til sensitiv informasjon.
     
  4. Automatisert sosial manipulering: Gjennom analyse av store datamengder kan AI identifisere individuelle mål og skreddersy angrep basert på personens atferd og preferanser, noe som øker sjansene for suksess.
     
  5. Forbigåelse av sikkerhetssystemer: Kriminelle kan bruke AI til å teste og identifisere svakheter i eksisterende sikkerhetssystemer, og deretter utvikle metoder for å omgå disse.
     
  6. Generering av ulovlig innhold: KI brukes til å produsere falske bilder, videoer eller lydopptak, kjent som deepfakes, som kan brukes til utpressing eller desinformasjon.
     
  7. Automatisering av kriminelle prosesser: Gjennom KI kan kriminelle effektivisere og skalere sine operasjoner, for eksempel ved å automatisere phishing-angrep eller utvikle avansert skadevare.
     
  8. Forbedring av eksisterende metoder: KI bidrar til å gjøre tradisjonelle angrep mer sofistikerte og vanskeligere å oppdage, som ved å forbedre sosial manipulering eller skjule ondsinnet programvare.
     

 

Norske virksomheter må prioritere cybersikkerhet


Selv om Norge ikke er blant de mest utsatte landene globalt, er det ingen grunn til å lene seg tilbake. Norge er en digital stormakt med høy tillit mellom mennesker og bedrifter – noe som også kan gjøre oss sårbare. Tillit er et fundament i norsk næringsliv, men AI-drevne angrep utnytter nettopp denne tilliten. For å styrke cybersikkerheten må norske virksomheter handle nå.

 

Noen av de viktigste tiltakene inkluderer:

  • Tofaktorautentisering (2FA): Mange angrep skyldes fortsatt enkle sikkerhetshull som manglende 2FA.
  • Oppdateringer og patching: Ransomware og andre angrep kunne vært unngått ved å holde systemer oppdaterte.
  • Bevisstgjøring og opplæring: Ansatte må forstå risikoen og lære å gjenkjenne AI-genererte svindelforsøk.
  • Samarbeid mellom offentlig og privat sektor: Cybertrusler krever kollektiv innsats. Politiet, myndigheter og næringsliv må dele informasjon og bygge felles digital motstandskraft.

 

AI i forsvar og angrep – IT-sikkerhetens dobbeltsverd

AI er ikke bare et verktøy for angriperne – det kan også brukes til forsvar. Moderne sikkerhetsløsninger baserer seg på AI for å oppdage mistenkelig aktivitet, analysere trusler og forbedre responsen på cyberangrep.

Men AI er ingen magisk løsning. Bedrifter må være bevisste på hvilke AI-verktøy de tar i bruk og hvilke data de gir dem tilgang til. En AI-agent i feil hender kan kartlegge sensitiv informasjon og avsløre sårbarheter som angripere kan utnytte.

Hør mer om AI og cybersikkerhet

Hvordan kan virksomheter beskytte seg mot AI-drevne trusler? Hva sier ekspertene om framtidens cybersikkerhet og IT-sikkerhet? Lytt til podkasten «Teknologi og mennesker» med Joachim Hartgen-Sverdrup, seniorrådgiver i Kripos, og Jens Dale Røttereng, Cyber Security Incident Handler i Atea.