LATEST NEWS

- News from the industry

AI kan göra cyberattackerna värre

Men vi kan göra oss redo att möta hotet
Cyberattacker är dyra. För många offer kan kostnaden för att begränsa, neutralisera och återhämta sig från en attack uppgå till åtskilliga miljoner kronor – och det är innan du tar hänsyn till effekterna på varumärkets rykte, medarbetarnas moral och mycket mer. Men vi behöver inte vara rädda för AI – bara vara rätt förberedda. Genom att förstå hur angripare kan missbruka AI, kan vi bli bättre på att stärka vårt egna cyberförsvar.

Vår senaste internationella undersökning bland företag med 100 till 5 000 anställda visade att den genomsnittliga årliga kostnaden för att hantera säkerhetsincidenter under 2023 var 5,34 miljoner dollar. De flesta av de tillfrågade företagen rapporterade att attackerna hade blivit mer sofistikerade (62 procent) och allvarliga (55 procent) och att det tog längre tid att utreda och åtgärda incidenterna.

När angriparna börjar utnyttja AI för att öka volymen, hastigheten och förfiningen i sina attacker kommer trenderna att förstärkas. AI-aktiverade cyberattacker kan också anpassa sig och lära sig av de försvar de möter. Till exempel har det traditionella försvaret länge handlat om att använda mönster- eller signaturbaserade block – men de kan AI-aktiverade attacker lära sig och hittar snabbt ett sätt att kringgå dem.

Hälften av företagen i vår undersökning räknar med att AI kommer att ge hackare mer makt, men bara 39 procent anser att de är tillräckligt förberedda för att bemöta automatiserade AI-drivna hot. Det är dyster statistik, men den är inte så oroande som den kan verka. Om du vet att du har säkerhetsluckor kan du åtgärda dem. Och det är hög tid att göra det nu.

Vår nya CISO-guide till AI inom cybersäkerhet visar hur cyberangripare kan utnyttja AI-teknik i sina attacker:

1. Att utveckla och lansera mer övertygande e-postattacker. Phishing har länge varit ett kraftfullt vapen i cyberbrottslingarnas arsenal och en del av framgången beror på dess förmåga att utvecklas över tid. Den huvudsakliga tillämpningen av AI vid phishing, spear phishing och e-posthot mot företag är att automatiskt skapa innehåll. Generativ AI kan användas för att skapa personliga och i sammanhanget relevanta meddelanden – och det kan öka sannolikheten för att attacken lyckas. AI-verktyg kan också hjälpa till att förfalska legitima e-postadresser, söka igenom offentlig information för att identifiera mål och skräddarsy attacker samt efterlikna kommunikationsmönster för att lura mottagarna. Att det saknas grammatiska fel i AI-genererade texter gör det ännu svårare för traditionella säkerhetsverktyg som identifierar skadliga meddelanden med hjälp av avvikelser som orsakats av en människa.

2. Att skapa eller anpassa skadlig kod. Tillkomsten av skadliga AI-drivna verktyg som WormGPT och EvilGPT signalerar en förändring av cyberhoten. Dessa verktyg gör att motståndarna automatiskt kan upptäcka sårbarheter och utnyttja svagheter, och det kan leda till en kraftig ökning av antalet zero day-attacker. AI kan dessutom göra att de kan skapa adaptiv skadlig kod, d.v.s. skadlig kod som kan ändra sitt beteende för att undgå upptäckt. Andra exempel på AI-drivna attacker mot skadlig kod är unika och skadliga bilagor, dynamisk skadlig kod som anpassar sig till målmiljön och förvränger innehåll för att undvika att upptäckas av statiska analysverktyg.

3. Att bygga större botnät för DDoS-attacker. AI-drivna botnät har en större förmåga att samordna och automatisera arbetet och det ökar risken för massiva DDoS-attacker (distributed-denial-of-service). AI-drivna botnät kan systematiskt undvika CAPTCHA-verktyg och andra kontrollmekanismer. De kan också utvecklas för att undvika traditionella algoritmer som baseras på historiska data för att identifiera botar.

4. Deepfakes. AI-genererade deepfake-videor och -ljud har visat sig vara kraftfulla verktyg för att imitera verkligheten. I dag kan alla som har tillgång till rätt videomaterial och ljudinspelningar använda AI-drivna verktyg för att skapa realistiska falska bilder och röstsimuleringar. Genom att bädda in sådana deepfakes i phishing-meddelanden kan angripare skapa mycket övertygande innehåll för att lura mottagarna. AI-aktiverat röstbedrägeri kan till exempel utge sig för att vara kända företagsledare och influencers för att sprida bedrägerier eller desinformation i sociala medieplattformar. Andra deepfake-bedrägerier kan leda till direkta ekonomiska förluster för företag.

5. Lokalisering av innehåll. AI-verktyg kommer att göra det möjligt att i hög grad lokalisera phishing-mejl och skräddarsy dem efter språkliga, kulturella och branschspecifika sammanhang. Det kan handla om flerspråkiga phishing-mejl, innehåll med referenser till regional kultur, branschspecifik jargong och till lokala varumärken och institutioner – allt för att göra phishingförsöken mer autentiska och öka sannolikheten för att de ska lyckas.

6. Stöld av åtkomst och referenser. Många cyberattacker inleds med stöld av inloggningsuppgifter för att ge angriparna tillgång till ett konto och hela nätverk. AI-verktyg kan hjälpa angripare på flera sätt. De kan t.ex. använda AI för att skapa mycket övertygande falska inloggningssidor som ser ut som legitima webbplatser. De kan utöka attackerna genom att snabbt testa stora mängder kombinationer av användarnamn och lösenord från dataintrång. AI-baserade verktyg för att knäcka lösenord eller CAPTCHA kan vara mer effektiva än traditionella metoder, vilket ytterligare försvårar försvarsmekanismerna.

7. Förgiftade AI-träningsmodeller. AI-modeller som används för applikationer är beroende av en stor uppsättning data för att träna modellerna. Bra data ger bra resultat. Om datasäkerheten bryts och data förvrängs på ett skadligt sätt av angripare, kan AI-systemen leverera farliga och oförutsägbara resultat. Datasäkerhet är därför av yttersta vikt i verksamheter som använder AI, särskilt de som förlitar sig på AI för att fatta automatiska beslut, till exempel i anslutna IoT-system som trafiksignaler och flödeskontroller.
När företag och organisationer förbereder sig för en AI-driven värld är det viktigt att lära sig hur angripare kan missbruka AI-verktyg och AI-teknik. På så sätt kan man stärka sitt försvar och anpassa sina metoder för att upptäcka och förebygga säkerhet på rätt sätt.

AI erbjuder många affärsmässiga fördelar och dess värde för cybersäkerheten är både enormt och bevisat. Vi behöver därför inte vara rädda för att angripare använder AI – men vi måste vara redo.

Peter Graymon
Regional Sales Director Nordics
pgraymon@barracuda.com
+46 709 178014

LATEST NEWS

- News from the industry
5/15/2024
Jordfelsbrytare uppfyller europeiska standarder 71% av styrelser tonar ner cyberriskernas allvarGenerativ AI förändrar mjukvaruutvecklingenSårbarheter utnyttjas 43 procent snabbare Jättetak får nytt luftrenande tätskikt
5/14/2024
Montico ny utbildningsaktörYstaMaskiner present­erar nytt kättinghuvud Vårt modulära PLC Handla bra grejer till jobbetAllt fler superdatorer drivs med AMD
5/13/2024
FactoryTalk Optix FANUC Nordic välkomnar Bob Struijk som VDAnpassning och bearbetning Swecons marknadschef framtidsspanarLättanvänd mjukvara för byggledning
5/10/2024
Swecon ny återförsäljare Ruggade IT-lösningar för försvar och säkerhetProduktivitet i fokusRädda reliken En vecka kvar till Elmia Produktionsmässor
5/9/2024
Nyttja både plastens och metallens egenskaper