Vraag van de week: Is lokaal uitgevoerde AI de nieuwe dreiging voor cybercriminaliteit?

Gepubliceerd op 8 augustus 2025 om 17:07

Bij Cybercrimeinfo krijgen we regelmatig de vraag over de recente ontwikkelingen van AI en de potentiële gevaren die deze technologie met zich meebrengt. AI heeft onmiskenbaar de kracht om tal van industrieën te transformeren, van de gezondheidszorg tot de softwareontwikkeling. Het biedt enorme voordelen, maar het brengt ook aanzienlijke risico's met zich mee, vooral als de technologie in de verkeerde handen valt. Hoewel veel AI aanbieders momenteel voorzorgsmaatregelen nemen om misbruik te voorkomen, blijkt de opkomst van lokaal uitgevoerde AI modellen zonder toezicht een nieuwe dreiging te vormen.

In dit artikel bespreek ik de risico's van lokaal uitgevoerde AI modellen, de gevaren van misbruik door cybercriminelen en de mogelijkheden die deze technologie biedt voor geavanceerde cyberaanvallen. Als specialist op het gebied van cybercrime deel ik mijn eigen ervaring met het testen van AI modellen en leg ik uit waarom het belangrijk is om waakzaam te blijven tegenover de gevaren van lokaal uitgevoerde AI modellen.

De ontwikkeling van AI en de risico’s van misbruik

De afgelopen jaren is AI snel geëvolueerd en steeds toegankelijker geworden voor een breder publiek. Wat ooit alleen mogelijk was voor grote techbedrijven, is nu beschikbaar voor ontwikkelaars, bedrijven en zelfs individuen. Deze modellen kunnen voor legitieme doeleinden worden gebruikt, maar ook voor misbruik. AI modellen kunnen bijvoorbeeld programmeercode genereren, debuggen en optimaliseren in verschillende programmeertalen, maar ze kunnen ook realistische afbeeldingen en video’s creëren die nauwelijks van echte beelden te onderscheiden zijn.

Door deze kracht kunnen cybercriminelen AI gebruiken om cyberaanvallen te automatiseren en te verbeteren. Phishing is een van de meest voor de hand liggende voorbeelden. AI kan automatisch gepersonaliseerde phishingmails genereren die goed zijn afgestemd op de ontvanger, zodat ze moeilijker te herkennen zijn als valse berichten. De techniek maakt het mogelijk om miljoenen mensen te targeten met op maat gemaakte aanvallen, wat de effectiviteit van de aanval vergroot.

Daarnaast biedt AI de mogelijkheid om malware te ontwikkelen die steeds complexer wordt en automatisch zichzelf aanpast aan de systemen die het aanvalt. In plaats van handmatig code te schrijven, kunnen cybercriminelen AI inzetten om deze processen te automatiseren. Dit maakt de ontwikkeling van nieuwe en moeilijker te detecteren aanvallen veel efficiënter. Malware kan bijvoorbeeld worden geoptimaliseerd om specifiek kwetsbaarheden in systemen te vinden en uit te buiten, waardoor de effectiviteit van de aanval aanzienlijk wordt vergroot.

Lokaal uitgevoerde AI, de opkomst van ongecontroleerd gebruik

Een van de grootste zorgen met betrekking tot AI is het feit dat deze technologie steeds vaker lokaal kan worden uitgevoerd. In plaats van dat AI modellen draaien op gecontroleerde servers van aanbieders zoals OpenAI, Google of Microsoft, kunnen ze nu ook lokaal draaien op persoonlijke computers of servers. Dit betekent dat er geen externe controle is die het gebruik van AI modellen kan reguleren of beperken. Hierdoor kunnen AI modellen gemakkelijk worden ingezet voor illegale of immorele doeleinden, zonder dat er iemand is die toezicht houdt.

Zelf ben ik, Peter Lahousse van Cybercrimeinfo, bezig met het testen van twee AI modellen op mijn lokale systemen. Het eerste model is gespecialiseerd in het genereren van programmeercode in verschillende programmeertalen, zoals Python, JavaScript, SQL, Bash en C/C++. Dit model kan niet alleen code schrijven en debuggen, maar ook unit tests genereren en best practices implementeren, wat het zeer geschikt maakt voor het ontwikkelen van geavanceerde aanvalstechnieken. Het feit dat dit model lokaal kan draaien, betekent dat ik alle parameters zelf kan aanpassen en de gegenereerde code kan optimaliseren voor mijn specifieke doeleinden. Deze vrijheid kan echter ook door cybercriminelen worden misbruikt om geavanceerde malware te ontwikkelen.

Model 1: is gespecialiseerd in het genereren van programmeercode in verschillende programmeertalen

Het tweede model dat ik gebruik, is gespecialiseerd in het genereren van afbeeldingen en video’s. Dit model kan realistische beelden creëren die moeilijk van echte foto’s en video’s te onderscheiden zijn. Deze technologie kan gemakkelijk worden ingezet om deepfakes te maken, die bijvoorbeeld gebruikt kunnen worden voor afpersing of het verspreiden van misleidende informatie. Het feit dat ik dit model lokaal kan draaien zonder toezicht betekent dat ik de gegenereerde beelden kan aanpassen en misbruiken voor allerlei kwaadaardige doeleinden, zonder dat iemand dat kan detecteren of tegenhouden.

Model 2: gespecialiseerd in het genereren van afbeeldingen en video’s

Gevaren van misbruik, van afpersing tot ernstigere risico’s

Het gebruik van lokaal uitgevoerde AI modellen zonder toezicht biedt cybercriminelen enorme mogelijkheden om kwaadaardige activiteiten te ontplooien. Zoals eerder besproken, kunnen deze modellen worden ingezet voor phishing aanvallen, malwareontwikkeling en het creëren van deepfakes. Maar de risico’s gaan verder dan dat. Het potentieel voor afpersing en andere ernstige misdaden neemt toe door de beschikbaarheid van AI zonder ethische richtlijnen of controle.

AI modellen die in staat zijn om extreem realistische beelden en video's te creëren, bieden cybercriminelen de mogelijkheid om nepbeelden te maken waarin iemand in een ongunstige of schadelijke situatie wordt geplaatst. Deze nepbeelden kunnen worden gebruikt voor chantage, waarbij het slachtoffer wordt bedreigd met de verspreiding van deze valse beelden om geld of andere gunsten af te dwingen. Daarnaast kunnen deepfakes worden ingezet om de reputatie van iemand te beschadigen of hen in verlegenheid te brengen, wat ernstige gevolgen kan hebben, niet alleen voor het slachtoffer zelf, maar ook voor de samenleving. Door de opkomst van zulke technologieën wordt het steeds moeilijker om te onderscheiden wat echt en nep is, wat kan leiden tot een verlies van vertrouwen in visuele media.

Een nog verontrustender risico is het misbruik van AI voor veel ernstiger zaken, zoals kindermisbruik. Met de mogelijkheid om valse afbeeldingen of video’s van kinderen te genereren, kan AI de toegang tot dergelijke beelden veel gemakkelijker maken voor kwaadwillende individuen. Dit is niet alleen een ethisch dilemma, maar ook een groot juridisch probleem. AI die voor dergelijke doeleinden wordt gebruikt, kan ernstige gevolgen hebben voor de veiligheid van kinderen en de samenleving als geheel.

De anonimiteit die lokaal uitgevoerde AI modellen bieden, maakt het extra moeilijk om misbruik op te sporen en tegen te gaan. Cybercriminelen kunnen hun activiteiten uitvoeren zonder dat hun acties eenvoudig worden geïdentificeerd of gevolgd door wetshandhavers. Dit maakt het noodzakelijk dat er strengere controlemechanismen komen om het gebruik van AI te reguleren en te voorkomen dat de technologie voor schadelijke doeleinden wordt ingezet.

Wat kunnen we doen, regulering en preventie

De gevaren van lokaal uitgevoerde AI modellen moeten serieus genomen worden. Aangezien veel van deze modellen gratis te downloaden zijn en lokaal kunnen draaien zonder toezicht, is het moeilijk om ze effectief te reguleren. Het is duidelijk dat we te maken hebben met een complexe en snel evoluerende technologie, en eerlijk gezegd weten we niet precies hoe we dit het beste kunnen aanpakken.

Wat wel duidelijk is, is dat we moeten nadenken over manieren om misbruik van AI modellen te voorkomen en de risico’s te beperken. Er is een dringende behoefte aan bewustwording rondom het gebruik van lokaal uitgevoerde AI modellen, zowel bij bedrijven als bij individuen. De technologie is krachtig en biedt veel mogelijkheden, maar het misbruik ervan kan ernstige gevolgen hebben, van deepfakes tot andere kwaadaardige toepassingen.

Als gemeenschap, van cybersecurityprofessionals tot beleidsmakers en technologie experts, is het belangrijk om samen na te denken over praktische oplossingen. Hoe kunnen we technologie en ethiek combineren om een verantwoorde omgang met AI te waarborgen? Welke maatregelen kunnen we nemen om de risico’s te minimaliseren, terwijl we de voordelen van AI blijven benutten?

AI is een ongelooflijk krachtige technologie, maar het misbruik ervan kan grote schade aanrichten. Dit is iets waar we gezamenlijk voor moeten waken. Laten we samen blijven werken aan een oplossing, door kennis te delen, van elkaar te leren en proactief stappen te ondernemen om de samenleving te beschermen tegen de gevaren van ongecontroleerde AI.

Oproep tot online brainstormsessie:

De uitdagingen rond lokaal uitgevoerde AI modellen zijn groot, en we hebben nog geen kant-en-klare oplossing. Daarom wil ik het idee opperen om gezamenlijk, online, na te denken over hoe we de risico's van misbruik kunnen beperken. Ik nodig experts, onderzoekers en iedereen met interesse uit om samen ideeën te delen over hoe we ongecontroleerde AI veiliger kunnen maken.

Als jij ook geïnteresseerd bent in dit onderwerp en mee wilt denken, vul dan het onderstaande invulformulier in. Na ontvangst van de formulieren zal ik een datumprikker sturen om een online sessie in te plannen. Dit biedt ons de kans om onze gedachten en ideeën gezamenlijk uit te wisselen en mogelijke stappen te verkennen.

Ik doe graag mee aan deze online brainstormsessie




















Ik kijk ernaar uit om samen met jullie te werken aan oplossingen en inzichten. Vul het formulier in en laten we samen stappen zetten richting een veiligere AI toekomst!

Luister de podcast. Die legt complexe onderwerpen uit in eenvoudige taal, zodat iedereen het kan volgen. Te beluisteren via Spotify of YouTube.

Vraag van de week

Tip van de week

Reactie plaatsen

Reacties

Er zijn geen reacties geplaatst.