De lancering van ChatGPT heeft de wereld veroverd en van de ene op de andere dag een groot aantal nieuwe kansen (en uitdagingen) gecreëerd. Van het helpen van studenten tot het genereren van grappen: nieuwe AI-tools bieden onbeperkte toepassingen voor praktisch alles.

David Hoelzer

Een bijdrage van David Hoelzer, Fellow bij SANS Institute

Nu het stof is neergedaald, rijst de vraag over wat deze tools betekenen voor de toekomst van cyberbeveiliging. In onze digitale wereld maken hackers misbruik van elke nieuwe tool. Technologieën worden door mensen gebouwd en daarbij horen menselijke fouten. Ergo: technologische vooruitgang biedt hackers nog meer nieuw speelgoed. Wat zijn de nadelen, en hoe kunnen we voorop blijven lopen om ervoor te zorgen dat AI louiter voordelen oplevert?

Misbruik van chatbots

Hoewel een machine learning-chatbot baanbrekende mogelijkheden kent, breidt het ook de toolkits van hackers uit. Nu er elke dag 450.000 nieuwe stukjes malware worden gedetecteerd en dagelijks 3,4 miljard dagelijkse phishing-e-mails onze inbox bereiken, zijn dit soort aanvallen zo gewoon en geavanceerd dat ze moeilijker dan ooit te detecteren zijn. Nu de opwinding over de AI-tools is afgenomen, trekken velen het beveiligingselement in twijfel.

De eenvoudigste en meest voorkomende toepassing van AI-chatbots voor cybercriminelen zal het genereren van geavanceerde phishing e-mail zijn. Wanneer er vroeger typefouten in stonden, gingen alarmbellen af. Een veel voorkomende tactiek van hackers is het opzettelijk gebruik van typefouten om zo e-mailfilters te omzeilen. Je kunt chatbots vragen om een tekst met een paar typefouten. Het hangt dus af van in welk stadium cybercriminelen zich bevinden in het leren van hun phishing-pogingen.

Bovendien zou een mens de inhoud die door ChatGPT is gemaakt, kunnen samenvoegen om tot een stukje code te komen. Uit onderzoek is gebleken dat de AI-chatbots momenteel gemakkelijk te beïnvloeden zijn en tekstprompts op webpagina’s embedden. Cybercriminelen kunnen dus ‘indirecte promptinjectie’ gebruiken, waarbij ze in het geheim instructies op een webpagina insluiten. Als een gebruiker onbewust een chatbot vraagt om een pagina op te nemen, kan deze de geplaatste prompt activeren.

Onderzoekers hebben zelfs ontdekt dat de chatbot van Bing andere geopende tabbladen kan vinden, zodat hackers instructies eenvoudigweg kunnen insluiten op elke openstaand tabblad. Cybercriminelen kunnen gebruikers vervolgens gemakkelijk manipuleren via de AI-tool en zo gevoelige informatie ontfutselen.

“OpenAI wil zien wat ChatGPT doet en hoe mensen het toepassen. De makers willen AI voor iedereen beschikbaar stellen. Hun zorg is echter dat, wanneer slechts een kleine groep over AI-capaciteiten beschikt, deze mensen uiteindelijk ‘supermensen’ worden. Daarom is het zo belangrijk dat (security)teams voor het opsporen van bedreigingen begrijpen hoe deze tools werken. Zonder gedegen kennis kan het lastig zijn om het management op de hoogte te houden van de risico’s en kansen.”

– David Hoelzer, SANS Institute

Moeten we ons zorgen maken?

Het is belangrijk om te onthouden dat ChatGPT alleen voorspellingen doet over de hele geschiedenis van een chat. Het kan momenteel niet worden gericht op het automatiseren van ransomware-aanvallen. Het is een onderzoeksinstrument dat is ontwikkeld om de wereld te laten zien wat mogelijk is, om te zien hoe mensen het gebruiken en om potentiële commerciële toepassingen te verkennen. Het is belangrijk om te onthouden dat we AI-chatbots niet indirect trainen elke keer dat we ze gebruiken.

OpenAI wil zien wat ChatGPT doet en hoe mensen het toepassen. De makers willen AI voor iedereen beschikbaar stellen. Hun zorg is echter dat, wanneer slechts een kleine groep over AI-capaciteiten beschikt, deze mensen uiteindelijk ‘supermensen’ worden. Daarom is het zo belangrijk dat (security)teams voor het opsporen van bedreigingen begrijpen hoe deze tools werken. Zonder gedegen kennis kan het lastig zijn om het management op de hoogte te houden van de risico’s en kansen.

Ten goede gebruiken

Bedrijven zouden AI binnenkort zelfs ten goede kunnen gebruiken door cyberaanvallen via phishing te voorkomen, omdat de tools kunnen worden getraind om de taal te herkennen die doorgaans wordt gebruikt en daardoor eventuele afwijkingen hiervan op te sporen.

De mogelijkheden die AI voor de toekomst kan bieden, zijn interessant. Het is echter belangrijk om de bedreigingen die daarmee gepaard gaan goed in de gaten te houden. Zoals elke transitie in de manier waarop we dingen online doen, introduceren AI-chatbots nieuwe mogelijkheden voor cybercriminelen. Voorlichting over specifieke bedreigingen is dé sleutel tot het vermijden van aanvallen. Als gebruikers precies weten hoe hackers kunnen targeten, kunnen ze deze beter weren.

Sluit je aan bij FERM

Blijf alert. Installeer updates en let op phishing mails. Gebruik MFA. En – voor alle bedrijven in de Rotterdamse haven – sluit je aan bij FERM. Zodat je daarnaast ook acute dreigingsinformatie kunt ontvangen, vragen kunt stellen aan de vertrouwde community om je heen, en ondersteund kunt worden in de stappen richting NIS2.

Kijk voor meer informatie op ferm-rotterdam.nl/lid-worden
Aan deelname is altijd een kosteloze proefperiode van 3 maanden verbonden.
Ook krijg je direct en zonder voorwaarden een voucher van 500 euro voor diensten uit ons portfolio.
Besluit je na 3 maanden om participant te blijven, dan krijg je 1/3 van de fee ook direct als voucher retour.

Vind FERM ook op LinkedIn

Deel dit bericht