Jailbreak van AI-tool
Het klinkt als een scène uit een sci-fi film, maar het is werkelijkheid: GhostGPT, een “gejailbreakte” chatbot die door cybercriminelen wordt ingezet om malware te creëren, phishing-e-mails te schrijven en andere illegale activiteiten te ondersteunen. Beveiligingsonderzoekers van Abnormal Security ontdekten deze chatbot op cybercrime-forums en wat ze vonden, is zorgwekkend. Laten we eens dieper ingaan op wat GhostGPT is, hoe het wordt gebruikt en wat dit betekent voor de toekomst van cybersecurity.
Wat is GhostGPT?
GhostGPT is een chatbot die waarschijnlijk gebruikmaakt van een aangepaste, gejailbreakte versie van OpenAI’s ChatGPT of een vergelijkbaar model. Door deze aanpassingen negeert de bot ingebouwde veiligheidsmaatregelen, wat het een aantrekkelijk hulpmiddel maakt voor kwaadwillenden.
Op cybercrime-forums wordt GhostGPT aangeprezen als een krachtig hulpmiddel voor:
- Het creëren van malware en exploits.
- Het schrijven van overtuigende phishing-mails, zoals “officiële” e-mails van bedrijven als DocuSign.
- Het ontwikkelen van scripts om kwetsbaarheden in systemen te misbruiken.
Een voorbeeld: toen onderzoekers de opdracht gaven om een phishingmail te genereren, leverde GhostGPT een kant-en-klare template met ruimte voor een “nep-supportnummer”.
Deze kant-en-klare functionaliteit verlaagt de technische drempel voor cyberaanvallen aanzienlijk.
GhostGPT is (momenteel) niet alleen toegankelijk via Telegram – wat betekent dat er geen verdachte software hoeft te worden gedownload – maar biedt ook anonimiteit. Activiteiten worden niet gelogd, en toegang tot de bot kan simpelweg worden gekocht. Dit maakt het een “plug-and-play”-tool voor criminelen zonder diepgaande technische kennis.
is het zorgwekkend?
Wat nog zorgwekkender is, is de schaalbaarheid. Waar een menselijke hacker tijd en moeite moet investeren in het maken van een phishing-campagne, kan een AI-tool als GhostGPT dit in seconden en op grote schaal. Hoewel door AI geschreven phishingmails momenteel 3% minder effectief zijn dan door mensen geschreven varianten, kan AI-content sneller worden geproduceerd en door bijna iedereen worden gebruikt.
AI-tool en Cybersecurity
GhostGPT is geen op zichzelf staand geval. Tools zoals WormGPT, FraudGPT, BertGPT (geen connectie met onze founder) en DarkBard zijn de afgelopen jaren ook opgedoken, en experts voorspellen dat dit soort gejailbreakte AI-modellen alleen maar geavanceerder zal worden. Volgens een rapport van Radware hebben dergelijke tools in 2024 al een enorme impact gehad op de cyberdreigingslandschap.
Een verontrustend feit: 40% van de business email compromise (BEC) aanvallen in 2024 werd gegenereerd door AI. Daarnaast is het succespercentage van aanvallen op AI-modellen om ze te jailbreaken ongeveer 20%. Het kost een aanvaller gemiddeld slechts 42 seconden en vijf pogingen om een model te kraken.
Zoals Bert Heitink van Cybermentor vaker opmerkt: “Deze wedstrijd kunnen we niet winnen, maar wel verliezen, want volgende stap in deze ontwikkeling zal volledig geautomatiseerde AI-agenten zijn, die complexe taken zelfstandig uitvoeren.” Het klinkt als de toekomst, maar het kan sneller werkelijkheid worden dan we denken.
Blijf waakzaam en wees voorbereid. De strijd tegen cybercriminelen is er een die we kunnen winnen met kennis, bewustwording en de juiste technologie.
Herken je de dreiging?
Stappen in AI? vanuit Cybermentor zijn 2 specialisten wekelijks betrokken bij AI-trajecten bij klanten.
Deel je ervaringen of tips – laten we samen sterker staan tegen deze digitale uitdagingen.
#Cybersecurity #GhostGPT #Phishing #CyberDreiging #AI-Tool #CyberVeiligheid