Artificial Intelligence
& Cybersecurity
Waarom het zo belangrijk is
“Generatieve AI heeft ervoor gezorgd dat cyberaanvallen niet alleen vaker voorkomen, maar ook slimmer en geavanceerder worden. Tijd dus voor betere verdediging.” – Axios
AI | SLIM BEVEILIGD
AI as a new cyber trheat
cybersecurity for ai
Innovations & opportunities
AI ALS NIEUWE CYBERDREIGING
HOE CYBERCRIMINELEN AI GEBRUIKEN
AI verandert het spel. Criminelen kunnen nu veel sneller, slimmer en op grotere schaal aanvallen uitvoeren. En ze hoeven niet eens techneuten te zijn.
Volgens het WEF kan AI-gestuurde cybercriminaliteit de wereldeconomie in 2025 $10,5 biljoen kosten. De vraag is niet of AI tegen jouw organisatie wordt ingezet, maar wanneer, en hoe goed je daarop voorbereid bent.
DEEPFAKES EN MISLEIDING
SOCIAL ENGINEERING: SUPERCHARGED
AI kan inmiddels zó realistisch beeld en geluid maken, dat mensen het verschil niet meer zien of horen. Dat verandert alles:
- Deepfake-imitaties: Van CEO’s tot IT-beheerders en zelfs familieleden: iedereen kan worden nagemaakt. In 2020 gebruikten criminelen deepfake-audio om zich voor te doen als een CEO en zo $35 miljoen buit te maken.
- Synthetic identities: AI maakt fake profielen die zelfs KYC-checks omzeilen. Ze lijken echt, maar bestaan helemaal niet.
We zijn allang voorbij de ‘Nigerian prince’-scams. Dit is social engineering 2.0: geautomatiseerd en als wapen ingezet.
Case Study
“Stop alles, we worden gehackt!” De stem van de IT-manager klinkt serieus. “Ik ben erin getrapt — reset m’n wachtwoord meteen!”
Het netwerkteam trekt de stekker eruit, reset alles, geeft nieuwe inloggegevens.
Achteraf blijkt: de stem was nep. Geen aanval, tot ze die zélf veroorzaakten. Terwijl het team het nep-incident probeerde op te lossen, stapten de echte aanvallers zo naar binnen met gloednieuwe inloggegevens.
OUDE TRUCS, NIEUWE DREIGINGEN
AI als wapen
Phishing is dankzij AI niet langer handwerk, maar massaproductie.
- Schalen: Wat vroeger uren kostte, gebeurt nu in minuten. Honderden hyper-gepersonaliseerde mails per keer.
- Effectiviteit: AI-phishing mails halen succespercentages tot 54%.
Combineer dat met AI’s vermogen om social media-data, datalekken en bedrijfscommunicatie te analyseren, en je hebt geautomatiseerde aanvallen die harder en sneller toeslaan.
van Recon tot Breach
AI op de automatische piloot
Zodra er een opening is, doet AI de rest.
- Automatische verkenning: LinkedIn, GitHub, datalekken… AI scant het allemaal en zoekt zwakke plekken.
- Wachtwoorden kraken: AI breekt 60% van alle 8-karakterwachtwoorden binnen een uur.
- Slimme malware: Ransomware als Ryuk past zich aan, ontwijkt detectie en zoekt zelf waardevolle data op. and hunts high-value assets.
What used to take coordinated teams of hackers can now be done by a single script kiddie with the right toolkit. And whatever tools they may need are readily available online.
AI Maakt het makkelijk
CYBERCRIME
AS-A-SERVICE
Geen skills of tools? Geen probleem.
- Ransomware-as-a-Service (RaaS) biedt kant-en-klare aanvalskits met AI erin. Alleen die markt is al goed voor $14 miljard per jaar.
- Dark web tools verkopen voor een paar tientjes, compleet met handleiding en “klantenservice”.
AI maakt het zo laagdrempelig dat letterlijk iedereen met een crypto-wallet serieuze schade kan aanrichten.
DUIDELIJKHEID EN REGELS
Security in AI
AI biedt enorme kansen, maar brengt ook een hoop nieuwe risico’s met zich mee — zeker als je AI zelf bouwt of integreert. Denk aan prompt injection, model theft, unauthorized API access, of gevoelige data in je trainingsset.
Hoe beveilig je AI dan? Door echt Zero Trust toe te passen. Dus geen automatisch vertrouwen, alleen toegang op basis van identiteit, context en gedrag. Concreet betekent dit:
- Monitoren: Kijk live mee en grijp direct in bij rare dingen.
- Segmenteren: Houd AI modellen, data en API’s apart binnen je netwerk.
- Beperken: Alleen toegang voor mensen die het écht nodig hebben, en regelmatig herzien.
Case Study
AI is niet anders dan een timmerman die een elektrische zaag krijgt: goed gebruikt is het een geweldig hulpmiddel. Maar je moet wel weten waar de risico’s zitten en hoe je je ertegen beschermt.
Dit komen wij regelmatig tegen als het gaat om AI:
- AI-systemen die in de cloud worden ingezet zonder goede netwerksegmentatie
- Modellen en datasets die voor iedereen in het bedrijf toegankelijk zijn, of erger nog, voor iedereen met een link.
- Geen duidelijk beleid over wie waar toegang toe heeft en waarom.
Bijvoorbeeld: een medewerker vraagt of ze een eigen AI-agent mogen gebruiken om interne documenten te verwerken. Ze hebben er eentje gevonden die moeiteloos draait via een clouddienst en “alleen toegang nodig heeft tot de gedeelde map.”
Klinkt handig, maar… wat als die agent gevoelige informatie begint te lekken naar derden? Wat als de broncode of het model zelf wordt aangepast? Of als een aanvaller die agent gebruikt als opstap naar je interne systemen?
Innovatie en kansen
AI als versneller
Uit onderzoek blijkt dat slechts 20% van de bedrijven zich goed voorbereid voelt tegen AI-aangedreven aanvallen. 56% van de respondenten zegt dat generatieve AI het aantal én de complexiteit van cyberdreigingen heeft vergroot. – Axios
Het probleem zit niet in technologie, maar in afstemming. Tussen data en beslissingen. Tussen techteams en de board. Tussen wat de SOC ziet en wat de CISO moet uitleggen.
Hier ligt de kracht van AI, mits goed toegepast: het draait niet om méér automatisering, maar om minder ruis, beter inzicht en slimmer handelen.
Case Study
“Worden we alweer aangevallen?” De CFO zucht — niet van schrik, maar uit vermoeidheid. Vijf incidenten dit kwartaal. Drie budgetpieken van IT. Eén auditrapport waar ze geen raad mee weet.
“Ik krijg voortdurend updates,” zegt ze, “maar niemand zegt wat ik moet doen. Of waarom we steeds op het randje balanceren.”
De CIO kijkt niet eens op. “We hebben geen gebrek aan tools. Wel aan overzicht. Honderd dashboards, nul prioriteit.”
De CISO knikt. “Tegen de tijd dat ik iets aankaart, is het al te laat.” Stilte.
De CRO leunt naar voren. “Ik moet verzekeraars ervan overtuigen dat we ons risico onder controle hebben. Eerlijk? Ik weet het zelf niet eens.”
Dan de CEO: “We hebben alle technologie van de wereld. En toch voelt niemand zich veilig.”
DE VERSCHUIVING IS al BEGONNEN
Slimme ai in security
Cybersecurity is niet langer alleen verdediging, het is strategie. AI lost niet alles op, maar bepaalt wel wie voorop blijft lopen.
Organisaties die AI slim inzetten om ruis weg te nemen en businessdoelen te koppelen aan security, zullen voorop blijven. De rest blijft verdrinken in meldingen, wachtend op duidelijkheid die nooit komt.
Slimme AI in security zou het volgende moeten doen:
- Ruis filteren
AI moet onderscheid maken tussen wat dringend is en wat belangrijk is. Het moet leren wat echt relevant is voor het bedrijf, niet alleen wat technisch afwijkend is. - Silo’s verbinden
AI moet signalen koppelen en het volledige dreigingsbeeld tonen. - Respons versnellen
Triage en respons moeten automatisch zijn en regelmatig geoefend worden. - In bedrijfsrisico’s denken
Security metrics moeten vertalen naar risico, impact en kosten. - Meebewegen met innovatie
Security moet niet achteraf worden toegevoegd, maar direct meebewegen met de snelheid van digitale transformatie.
ON2IT’s oplossingen
Fight fire with fire
AI is een tweesnijdend zwaard. Het kan verdedigers versterken, maar op dit moment geeft het vooral aanvallers een voorsprong. Ze gebruiken AI om aanvallen slimmer, sneller en moeilijker te herkennen te maken.
Sinds 2010 helpt ON2IT organisaties bij het bouwen van Zero Trust omgevingen. Vandaag de dag hoort AI daar gewoon bij. Wij bieden een breed scala aan tools en oplossingen, zoals:
- Investeren in Zero Trust, anomaliedetectie en geautomatiseerde respons
- Inzetten van AI-gedreven securityoplossingen die meebewegen met de snelheid en intelligentie van moderne dreigingen
- Teams voortdurend trainen in nieuwe aanvalstactieken
- De respons verbeteren met slimme automatisering, zonder vertraging of onderbreking
Ons AI Playbook
Blogs
Cybersecurity for AI: How to protect AI systems you use or own
AI holds tremendous promise, but it also creates a whole new attack surface. Especially when organizations build or integrate AI solutions themselves. Think prompt injection, model theft, unauthorized API access, or training data quietly containing sensitive information.