Schrijf je in voor onze dagelijkse nieuwsbrief om al het laatste nieuws direct per e-mail te ontvangen!

Inschrijven Ik ben al ingeschreven

U maakt gebruik van software die onze advertenties blokkeert (adblocker).

Omdat wij het nieuws gratis aanbieden zijn wij afhankelijk van banner-inkomsten. Schakel dus uw adblocker uit en herlaad de pagina om deze site te blijven gebruiken.
Bedankt!

Klik hier voor een uitleg over het uitzetten van uw adblocker.

Meld je nu aan voor onze dagelijkse nieuwsbrief en blijf up-to-date met al het laatste nieuws!

Abonneren Ik ben al ingeschreven

"Cyberaanval gevaarlijker door kunstmatige intelligentie"

Meer dan de helft van de bedrijven ziet vernieuwingen op het gebied van kunstmatige intelligentie, oftewel 'artificial intelligence' (AI), als bedreiging voor de cyberveiligheid van de organisatie. Vorig jaar was dit nog geen kwart. De risicoperceptie is het sterkst bij de grootste bedrijven, zo blijkt uit een enquête van ABN AMRO en onderzoeksbureau MWM2 onder 895 organisaties.

AI lijkt vooral op het gebied van 'social engineering' de aanvalskracht te verhogen. Hierbij worden mensen gemanipuleerd om bijvoorbeeld vertrouwelijke informatie te delen of een anderszins schadelijke actie uit te voeren. Met AI kan deze manipulatie nog slinkser en overtuigender plaatsvinden. Zo maakt generatieve AI het nu wel heel gemakkelijk om phishing-mails te creëren. Deze vorm van AI is in staat om op basis van enkele instructies zelf teksten te schrijven – grammaticaal correct, zonder spelfouten en in een taal naar keuze. Volgens IBM X-Force daalt de ontwikkeltijd van een phishing-mail hierdoor van zestien uur naar vijf minuten.

Ook interactieve gesprekken kunnen nu aan AI-modellen worden uitbesteed. In een automatische chat kunnen bijvoorbeeld inloggegevens worden ontfutseld of betalingen in gang worden gezet. Door toepassing van 'deepfake'-technologie, waarbij beeld- of geluidsmateriaal wordt gecreëerd dat niet van echt te onderscheiden is, kunnen kwaadwillenden hun slachtoffer doen geloven dat ze met iemand anders van doen hebben.

Overtuigende kloon van de CEO
In Hong Kong maakte een financieel medewerker van een multinational meer dan 25 miljoen dollar over naar fraudeurs, nadat hij in een videovergadering terechtkwam met een deepfake-versie van de CFO en andere collega's. In oktober vorig jaar werd bij de Nederlandse onlinebank Bunq een soortgelijke poging ondernomen, toen een medewerker werd uitgenodigd voor een videogesprek met – zo bleek later – een AI-kloon van topman Ali Niknam. In een LinkedIn-bericht noemt Niknam de kloon "overtuigend".

Volgens het Britse National Cyber Security Centre (NCSC) zullen alle soorten aanvallers profiteren van deze nieuwe mogelijkheden op het gebied van social engineering, van geavanceerde staatshackers tot de minder capabele cybercriminelen. Ook het automatisch scannen van bedrijfsdata op waarde wordt voor alle kwaadwillenden gemakkelijker, waardoor de schade door datalekken de komende jaren waarschijnlijk zal groeien.

AI maakt capabele aanvallers nog sterker
Generatieve AI wordt ook toegepast om malware te schrijven. De Britten schatten in dat vooral de reeds zeer capabele aanvallers hiervan zullen profiteren. Staatshackers die bijvoorbeeld al grote datasets met malware tot hun beschikking hebben, kunnen hiermee AI-modellen trainen om nieuwe schadelijke software te maken die de huidige beveiligingssystemen niet kunnen detecteren.

Het NCSC stipt aan dat de ontwikkeling van malware vooralsnog ook menselijke expertise vergt – iets wat volgens hen eveneens geldt voor 'lateral movement', waarbij indringers overspringen van het ene naar het andere systeem. Dit betekent dat minder professionele hackers niet ineens op alle fronten exponentieel slagvaardiger worden door AI. "Het kan wel een steuntje in de rug vormen", stelt CEO Maarten Roerink van cybersecuritydienstverlener MMOX. "Beginnende hackers kunnen zo eerder tot kwaadaardige codes komen."

Datalekken door chatbots

Bedrijven die zelf gebruikmaken van slimme chatbots op basis van generatieve AI, lopen het risico dat medewerkers in deze gesprekken vertrouwelijke informatie delen. Samsung riep het gebruik van generatieve AI-tools door medewerkers een halt toe nadat was gebleken dat een van hen een stuk broncode had ingevoerd in ChatGPT in de hoop dat de chatbot met een oplossing kon komen voor een fout in de code. Ook kwamen er transcripten van interne meetings in de gesprekken terecht.

Op deze manier kan gevoelige data niet alleen weglekken naar de AI-leverancier, maar kan ongewild ook informatie met andere gebruikers worden gedeeld. In maart 2023 rapporteerden meerdere ChatGPT-gebruikers dat zij de onderwerpen uit de chathistorie van andere gebruikers konden zien in hun eigen account. Daarnaast kunnen gevoerde gesprekken weer als trainingsdata worden gebruikt om het AI-model te verfijnen, en juist die trainingsdata blijken niet altijd goed vergrendeld te zijn. Eind vorig jaar brachten Google-onderzoekers naar buiten hoe zij ChatGPT van concurrent OpenAI hadden verleid tot het prijsgeven van trainingsdata. Het risico op datalekken via chatbots is daarmee reëel.

AI als wapen tegen cybercriminaliteit

AI kan ook ten behoeve van cyberveiligheid worden gebruikt. "Het zijn altijd de boefjes die als eerste een bepaalde technologie omarmen, maar het duurt nooit lang voordat ook de verdediging ermee aan de slag gaat", zegt Arwi van der Sluijs, algemeen directeur van cybersecuritydienstverlener NFIR. Zo kan AI helpen om nieuwe patronen te identificeren die duiden op verdachte activiteit in een netwerk. Waar het identificeren van zulke patronen voorheen gebeurde door handmatig grote hoeveelheden data te bestuderen en bureauonderzoek te doen, kan dit nu grotendeels automatisch. "Sterker nog: dankzij AI kunnen we incidenten gaan voorspellen."

De huidige dynamiek krijgt overigens steeds meer weg van een wapenwedloop. In een wereld waarin door AI gegenereerde malware en phishing-mails een feit zijn, moeten beveiligingssystemen op hun beurt deze nieuwe dreigingen leren herkennen. Dat kan ook middels AI. Wel moet het onderliggende model dan genoeg voorbeelden hebben gezien van deze nieuwe generatie boosdoeners. Goedwillende bedrijven zetten daarom eerst generatieve AI in om malware en phishing-mails te schrijven, en gebruiken deze vervolgens om een effectief herkenningsmodel mee te trainen.

Bron: ABN AMRO

Publicatiedatum: