AI verandert de wereld van cybersecurity ingrijpend

AI in security

Artificiële intelligentie heeft een aanzienlijke impact op cybersecurity. Terwijl cybercriminelen hun aanvallen intensiveren en automatiseren, integreren organisaties steeds vaker AI in hun verdedigingsecosysteem.

Fabrice Clement

AI heeft de dreigingen voor cybersecurity vergroot. Omdat cybercriminelen niet langer gehinderd worden door menselijke beperkingen, intensiveren en automatiseren zij hun aanvallen, maken zij meer gebruik van kwetsbaarheden en zetten zij phishing gerichter in. Dit betekent ook dat organisaties AI moeten integreren in hun volledige cybersecurity-ecosysteem om geschikte tegenmaatregelen te kunnen toepassen . De rol en verantwoordelijkheden van CISO’s worden daardoor ingrijpend gewijzigd. Er vindt een verschuiving plaats van reactief naar proactief, met name dankzij threat intelligence en geautomatiseerde loganalyse.

“Phishingaanvallen bijvoorbeeld worden tegenwoordig in meerdere talen en met een steeds verfijnder taalgebruik uitgevoerd”, zegt Fabrice Clément, CISO van Proximus Groep. “AI kijkt niet alleen naar regels, maar ook naar gedragingen, waardoor bedrijven veranderingen in patronen beter kunnen herkennen en processen kunnen automatiseren, zoals het afhandelen van waarschuwingen en het omleiden van potentiële slachtoffers naar waarschuwingspagina’s.”

"De effectiviteit van AI vormt een belangrijke uitdaging. Het doel van onze cybersecurity is om doeltreffender te zijn dan onze tegenstanders."

Fabrice Clément, Chief Information Security Officer (CISO) bij Proximus Groep

Een kwestie van effectiviteit

Fabrice is ervan overtuigd dat de effectiviteit van artificiële intelligentie de grootste uitdaging vormt voor CISO’s bij het bestrijden van dreigingen. “Dankzij AI worden menselijke tegenstanders steeds efficiënter. Ze kunnen enorme hoeveelheden data gebruiken, bijvoorbeeld via social engineering of informatie over organisaties, om hun aanvallen preciezer en gerichter uit te voeren. Het doel van onze cybersecurity is om doeltreffender te zijn dan onze tegenstanders.”

"De dreiging komt niet langer alleen van groepen cybercriminelen, maar ook van vijandige staten die enorme middelen in technologie kunnen investeren."

Benoît Hespel, Head of AI bij Proximus ADA
Benoit Hespel

Het profiel van cybercriminelen verandert

Vroeger hadden hackers gespecialiseerde vaardigheden nodig, maar dat is veranderd. “Een paar jaar geleden volstond het om ChatGPT te vragen hoe je een keylogger maakt en dan kreeg je de code”, herinnert Benoît Hespel, Head of AI bij Proximus ADA. “Sindsdien zijn er beschermingssystemen ingebouwd in de publieke LLM’s om dit soort misbruik tegen te gaan. Toch blijft de dreiging groeien op het dark web, waar criminelen andere grote taalmodellen creëren, gebruiken en delen om malware te ontwikkelen.”

“Tegenwoordig kan elke kwaadwillende persoon een tool vinden om een aanval uit te voeren. Het resultaat? Meer aanvallers, meer automatisering en meer doelwitten tegelijk, aangestuurd door gespecialiseerde AI-agents.”

AI versterkt offensieve tactieken

Naast het versterken van social engineering, personaliseert AI ook phishing en perfectioneert het deepfakes. “Of het nu gaat om tekst, video, geluid, beeld of QR-codes, het wordt steeds moeilijker om echt van nep te onderscheiden. Sommige bots slagen er zelfs in om in Teams in te loggen, een identiteit te vervalsen en informatie te verzamelen”, benadrukt Benoît. “Bepaalde malware kan zich bovendien aanpassen en leren van de omgeving waarin ze wordt ingezet, waardoor het meer schade veroorzaakt en moeilijker te detecteren is.”

Adversariële aanvallen

Binnen bedrijven worden AI-projecten vaak beheerd door andere teams dan de IT-afdeling. Voor Benoît vormt dit een nieuw kanaal van dreigingen: “AI-modellen worden veel minder gecontroleerd en begeleid dan conventionele IT-projecten. Iemand die toegang heeft tot zo’n model kan het tegen de maker gebruiken, bijvoorbeeld door prompts in grote taalmodellen in te voeren of door de data te vervuilen, zodat het model een bepaald type fraude, activiteit of correlatie niet meer detecteert.” Dit noemt men adversariële AI-aanvallen.

“Het komt voor dat ontwikkelaars aan ChatGPT vragen welke open source-bibliotheek ze moeten gebruiken om een programma te ontwikkelen. ChatGPT geeft dan drie namen, waarvan er één volledig verzonnen is. Dit is het zogenaamde hallucinatieverschijnsel dat inherent is aan LLM’s. Een hacker kan deze fictieve bibliotheek echter creëren en er een achterpoortje of malware in plaatsen. Zodra een ontwikkelaar de bibliotheek installeert, kan de wolf de stal binnendringen.”

AI in security

Lees dit artikel verder en ontdek hoe AI zowel defensieve als offensieve cyberbeveiliging versterkt en organisaties helpt zich beter te wapenen tegen nieuwe dreigingen.

Ontvang onze slimste inzichten in je mailbox

Blijf op de hoogte en innoveer! Abonneer je op onze nieuwsbrief waarin we nieuws delen over onze partners, projecten en trends.

Privacy agreement
This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.