• Cybercriminelen gebruiken nog niet massaal de kracht van AI om meer en betere malware te maken.
  • Dat blijkt uit nieuw onderzoek van cybersecurity-experts van Cisco Talos over trends rond cybercriminaliteit in 2024.
  • Digitale criminelen gebruiken AI vooral om phishing-aanvallen te optimaliseren en om AI-modellen te voeden met desinformatie.
  • Lees ook: Nederland gaat tegen internationale trend in: minder incidenten met ransomware in 2024

Waar tot kort geleden nog verwacht werd dat cybercriminelen AI (artificial intelligence) zouden gaan inzetten om meer aanvallen uit te voeren en meer malware te genereren, blijkt dit vooralsnog niet het geval.

Dat komt naar voren in maandag gepubliceerd onderzoek van cyberbeveiliger Cisco Talos over nieuwste trends bij cybercriminaliteit in 2024.

De reden dat AI nog niet voor harde technische oplossingen, zoals betere malware, en daarmee aanvalsmogelijkheden, wordt ingezet, is dat dit nog te veel menselijke hulp vereist.

Zogenoemde large language models (de technologie waar AI-chatbots als ChatGPT op werken) vereisen nog veel sturing als het aankomt op bijvoorbeeld het schrijven van softwarecode die goed genoeg werkt. Het blijkt dat cybercriminelen juist hier niet op zitten te wachten, en AI meer willen inzetten om werk uit handen te nemen.

Het viel de cybersecurity-experts van Cisco Talos op dat de cybercriminelen zich met hun AI-gebruik vooral richten op de ouderwetste aanvalswegen zoals phishing en het verkrijgen van persoonsgegevens door misleiding. AI helpt hierin immens, omdat het veel makkelijker wordt om overtuigende, gepersonaliseerde, niet van echt te onderscheiden berichten te maken. Hierdoor wordt het lastiger voor bijvoorbeeld ontvangers van phishing e-mails om aanvallen te herkennen.

Ook wordt AI in toenemende mate ingezet om volledig geautomatiseerd en in sneltreinvaart veel meer zwaktes in beveiligingssoftware te ontdekken en te exploiteren. Deze trend is al langer zichtbaar, maar vond afgelopen jaar nog meer tractie onder cybercriminelen.

Het goede nieuws is dat just bij het ontdekken van zwakheden in software, de verdediging hiertegen meer slagkracht heeft dankzij AI. Experts hebben tegenover Business Insider meerdere malen verklaard dat de inzet van AI voor cybersecurity ervoor zorgt dat het mogelijk is om de overhand te houden tegenover kwaadwillenden.

Criminelen pogen AI-modellen te beïnvloeden door ze te voeden met misleidende data

Naast directe cyberaanvallen pogen criminelen in landen als China en Rusland AI-modellen ook te beïnvloeden om het verspreiden van desinformatie te stimuleren, of de werking van AI-toepassingen te verslechteren.

Volgens Cisco zijn er inmiddels miljoenen websites opgetuigd die vol staan met nepinformatie die aan AI-bots wordt gevoerd als trainingsdata. Hierdoor worden AI-modellen deels getraind op misleidende informatie, waarmee bijvoorbeeld propaganda verspreid kan worden.

Bijkomend nadeel van het verspreiden van deze desinformatie, is dat mensen, overheden en bedrijven op meerdere vlakken gemanipuleerd kunnen worden. Dit kan bijvoorbeeld doorsijpelen in politieke besluitvorming, met alle gevolgen van dien.

Over het algemeen stellen de onderzoekers van Cisco Talos dat het gebruik van AI onder cybercriminelen nog achter blijft bij hetgeen met had verwacht. Dat wil niet zeggen dat het risico laag is, want criminelen hebben nog steeds de mogelijkheid om de kracht van AI te gebruiken voor nieuwe manieren van aanvallen. Hierdoor wordt het steeds belangrijker om ook de verdediging kracht bij te zetten met de implementatie van AI. Alleen zo kan de ontwikkeling snel genoeg gaan om de nieuwste innovaties van cybercriminelen bij te benen. Met andere woorden: traditionele beveiligingssystemen zijn niet meer afdoende.

LEES OOK: Banken in de VS maken zich zorgen over wat cybercriminelen kunnen met AI