AI inlichting: Hacker gebruiken nu ook kunstmatige intelligentie voor cyberaanvallen

Je hebt vast wel gehoord van de razendsnelle opkomst van kunstmatige intelligentie. Maar wat als ik je vertel dat deze technologie niet alleen onze dagelijkse taken vergemakkelijkt, maar ook een nieuwe, gevaarlijke dimensie toevoegt aan cybercriminaliteit? Microsoft waarschuwt dat hackers AI al steeds vaker inzetten om aanvallen te plegen. Dit betekent dat je online beveiliging nu onder druk staat op manieren die we ons een paar jaar geleden nog niet konden voorstellen.

AI: De nieuwe beste vriend van de hacker

Vroeger kostte het hackers veel tijd en moeite om geavanceerde aanvallen voor te bereiden. Nu is dat anders. Microsoft’s nieuwste rapport, de ‘Threat Intelligence Report’, onthult dat criminele hackers generatieve AI-tools omarmen. Deze tools versnellen hun operaties, vergroten hun bereik en verlagen de drempel om complexe cyberaanvallen uit te voeren. Het is geen verre toekomstmuziek meer; het gebeurt nu.

Hoe hackers AI misbruiken

Volgens beveiligingsexperts worden AI-modellen ingezet voor vrijwel elk stadium van een cyberaanval. Van het verzamelen van initiële informatie tot het uitvoeren van acties ná het binnendringen van een systeem, AI wordt een onmisbaar onderdeel van hun arsenaal.

Denk hierbij aan de volgende toepassingen:

  • Het creëren van overtuigende phishing-e-mails die nauwelijks van echt te onderscheiden zijn.
  • Het sneller genereren en verbeteren van kwaadaardige software, oftewel malware.
  • Het schrijven van geautomatiseerde scripts die aanvallen efficiënter maken.
  • Het analyseren van gestolen data om nog meer schade aan te richten.
  • Het configureren van de benodigde infrastructuur voor grootschalige cyberoperaties.

Belangrijk om te weten: AI automatiseert nog niet het hele aanvalsproces. Het fungeert meer als een ‘efficiëntieversterker’. Het versnelt technische taken en vereenvoudigt processen, maar de strategische beslissingen – zoals welk doelwit te kiezen en welke tactieken te gebruiken – worden nog steeds door mensen genomen.

Bekende hacker groepen integreren AI

Het is geen speculatie meer; er zijn concrete voorbeelden. Onderzoekers hebben met name hacker groepen uit Noord-Korea, zoals ‘Jasper Sleet’ (Storm-0287) en ‘Coral Sleet’ (Storm-1877), actief AI zien gebruiken in hun operaties. Een van hun favoriete tactieken is het creëren van valse digitale identiteiten en zich vervolgens voor te doen als IT-medewerkers bij Westerse technologiebedrijven. Dit geeft hen heimelijk toegang tot interne systemen.

Hoe AI hierbij helpt:

  • Genereren van geloofwaardige cv’s die potentiële werkgevers imponeren.
  • Produceren van lijsten met namen uit verschillende landen, om een authentiek profiel te creëren.
  • Opstellen van realistische e-mailadressen die overeenkomen met de nepidentiteit.
  • Schrijven van professionele sollicitatiebrieven die werkgevers overtuigen.

Stel je voor: hackers kunnen AI vragen om honderden Griekse namen te genereren of suggesties voor e-mailadressen voor een specifieke persoon. Deze informatie gebruiken ze vervolgens om bijna onherkenbare nep-profielen te bouwen. Bovendien kan AI vacatures analyseren op professionele platforms om te bepalen welke vaardigheden nodig zijn voor bepaalde functies. Dit helpt hen bij het creëren van nog overtuigendere kandidatenprofielen.

AI en de ontwikkeling van malware

Een ander cruciaal gebied waar AI nuttig is voor cybercriminelen, is het creëren van malware en de technische infrastructuur voor aanvallen.

Aanvallers kunnen AI-tools inzetten voor:

AI inlichting: Hacker gebruiken nu ook kunstmatige intelligentie voor cyberaanvallen - image 1

  • Schrijven van programmeercodefragmenten.
  • Oplossen van fouten in bestaande malware.
  • Vertalen van code van de ene programmeertaal naar de andere.
  • Testen en configureren van serverinfrastructuur.

In sommige gevallen hebben onderzoekers zelfs experimentele malware aangetroffen die dynamisch van gedrag kan veranderen of tijdens de uitvoering nieuwe scenario’s genereert. Sommige groepen gebruiken AI ook om snel valse bedrijfswebsites te bouwen, servers te configureren en aanvallen te testen voordat ze live gaan.

Hoe AI-beveiliging wordt omzeild

De meeste moderne AI-systemen hebben ingebouwde beveiligingsmechanismen om de creatie van schadelijke code te voorkomen. Echter, cybercriminelen zoeken constant naar manieren om deze beperkingen te omzeilen.

Een veelgebruikte methode is de zogenaamde ‘jailbreak’. Hierbij worden specifieke manieren van vragen stellen gebruikt, waardoor het model inhoud genereert die normaal geblokkeerd zou worden. Hierdoor kunnen zelfs systemen met beveiligingsmaatregelen soms toch voor criminele doeleinden worden misbruikt.

Experimenten met autonome AI-agenten

Onderzoekers zien ook de eerste pogingen tot het gebruik van AI-systemen gebaseerd op ‘agents’ – programma’s die zelfstandig taken kunnen uitvoeren en zich aanpassen aan de resultaten. Deze technologie staat echter nog in de kinderschoenen. Volgens Microsoft worden de meeste cyberoperaties met AI nog steeds door mensen gecontroleerd, waarbij AI slechts een ondersteunende rol speelt.

Een wereldwijde trend

Microsoft is niet het enige technologiebedrijf dat de toename van AI in cybercriminaliteit opmerkt. Ook onderzoekers van Google hebben vergelijkbare conclusies getrokken, wat duidt op een breed gebruik van generatieve modellen zoals ‘Gemini’ in verschillende fasen van aanvallen. Nieuw onderzoek van Amazon en onafhankelijke beveiligingsexperts toont aan dat tijdens een campagne waarbij meer dan 600 ‘FortiGate’ firewalls werden gecompromitteerd, aanvallers ook diverse generatieve AI-platforms hebben ingezet.

Hoe organisaties zich kunnen beschermen

Aanvallen die door AI worden versterkt, lijken vaak sterk op traditionele cyberaanvallen. Daarom is het cruciaal dat organisaties hun basale beveiligingsmaatregelen blijven versterken.

De belangrijkste focuspunten voor bescherming zijn:

  • Het detecteren van ongebruikelijke aanmeldingsactiviteiten.
  • Sterkere bescherming tegen phishing en identiteitsfraude.
  • Strengere controle op de toegang tot interne systemen.
  • Bescherming van AI-systemen zelf tegen misbruik.

Experts voorspellen dat met de snelle technologische ontwikkelingen, de rol van AI in cybercriminaliteit alleen maar zal toenemen. Dit betekent dat organisaties en technologiebedrijven voortdurend hun beveiligingssystemen moeten blijven verbeteren om zich aan te passen aan de nieuwe dreigingen in de digitale wereld.

Wat betekent deze ontwikkeling voor jouw online veiligheid? Deel je gedachten in de comments!

Plaats een reactie