Artificial intelligence (ai) is een geweldig hulpmiddel in tal van situaties. Het toegenomen vermogen om data te analyseren en toe te passen is ook voor duistere doeleinden aan te wenden. Wees er als organisatie van bewust dat ai ook tegen je gebruikt kan worden. Erken en hérken de cyberdreigingen van ai en de risico’s die hieraan verbonden zijn.
Uit onderzoek van McKinsey uit 2023 blijkt dat veertig procent van de organisaties wereldwijd wil investeren in de inzet van ai. Verder blijkt dat vier van de vijf respondenten ai soms inzetten en iets meer dan twintig procent zelfs regelmatig. Het gebruik van generative ai (gen-ai) lijkt op alle niveaus binnen organisaties te zijn ‘geland’, van de werkvloer tot de bestuurskamer. Naast de vele voordelen die oplossingen als ChatGPT, Gemini, Picsart en Dall-E bieden, kleven er ook nadelen aan. Zo vermelden deze tools vaak niet wanneer er op de teksten en afbeeldingen die gegenereerd worden copyrights rusten. Ook ben je niet zeker van de waarheidsgetrouwheid van de tekst; het is immers gecreëerd uit een bulk aan data waarvan de kwaliteit niet is gecontroleerd.
Misleidende gegevens
Er zijn zelfs gevallen bekend waarbij kwaadwillenden bewust de trainingsset van een ai-model voeden met misleidende gegevens. Het doel is om het model onjuiste patronen te laten leren, waardoor de nauwkeurigheid en betrouwbaarheid onder druk komen te staan. Dit noemen we in jargon data poisoning. In dit kader is het ook goed om te wijzen op de risico’s van model theft, het stelen of overnemen van een ai-model. Cyberaanvallers proberen hierbij de parameters of de structuur van een ai-model te stelen met query attacks. Door de antwoorden te analyseren, kunnen zij een replica van het model maken. Zo kunnen zij bijvoorbeeld inzicht krijgen in het intellectuele eigendom van organisaties.
Tegelijkertijd lijken organisaties zich (nog) niet te realiseren dat platforms als ChatGPT publieke omgevingen zijn. Data die je als input geeft, kan in ook weer als output gebruikt worden. Samsung verbood het gebruik van ChatGPT toen bleek dat medewerkers (delen van) broncode ingevoerd hadden, waarschijnlijk met het verzoek om deze te bewerken. Zij beseften niet dat de broncode op deze manier in handen zou komen van ChatGPT-maker OpenAI. Ook banken als Bank of America, Goldman Sachs, Deutsche Bank, Citigroup en Wells Fargo & Co verbieden ChatGPT op de werkvloer. Het risico bestaat dat bijvoorbeeld bedrijfsgeheimen of vertrouwelijke informatie in verkeerde handen vallen.
Kinderziektes
Dit soort incidenten kun je nog scharen onder de noemer kinderziektes. Je ziet ook dat organisaties beleid formuleren en best practices delen om dit soort incidenten te voorkomen. De gevolgen worden ingrijpender wanneer organisaties slachtoffer worden van cyberaanvallen, die tot stand komen met ai, zoals deepfakes. Deze deepfakes zijn een vorm van social engineering en vormen een steeds grotere bedreiging. We hebben het dan over een toepassing van ai die gebruikmaakt van technieken zoals machine learning en neurale netwerken om realistische, maar vervalste audiovisuele content te creëren. Allereerst worden fragmenten van de doelstem verzameld, via filmpjes of podcasts die publiekelijk toegankelijk zijn. Vervolgens worden deze audiogegevens geanalyseerd, zodat kenmerken zoals intonatie en accent kunnen worden nagebootst. En vervolgens kan met AI nieuwe spraak worden gegenereerd die klinkt als de doelstem. Ditzelfde proces kan worden gevolgd om nepvideo’s te maken.
Zo leiden deepfakes tot een krachtig aanvalsmiddel. Zo krachtig dat een medewerker van een multinational ervan overtuigd was dat hij met zijn cfo in een videogesprek zat. Stem en uiterlijk waren niet van echt te onderscheiden en de medewerker werd zo aangezet om een transactie te doen ter waarde van 24 miljoen euro. Dat geld verdween uiteraard in verkeerde handen. Dit zet je als organisatie wel aan het denken: zet je filmpjes of podcasts met executives online of word je nu een stuk voorzichtiger? En waar we dachten dat medewerkers stappen hadden gezet in hun securitybewustzijn, moeten we hen blijven helpen om geavanceerde social engineering-aanvallen te herkennen en de risico’s op een incident te verkleinen.
Kaf
Om de nieuwe, geavanceerde aanvallen tijdig te onderscheppen en te voorkomen, gebruikt de cybersecuritysector zelf ook ai. Ai helpt bijvoorbeeld om het kaf van het koren te scheiden, zodat experts in bijvoorbeeld het Security Operations Center veel gerichter naar de grootste bedreigingen op zoek kunnen gaan en sneller kunnen reageren. Zo zou je kunnen denken dat er een balans is: beide zijden van het spectrum gebruiken ai en zo is er sprake van een status quo. Maar daarbij gaan we eraan voorbij dat verdedigers alles moeten zien tegen te houden, terwijl de aanvallers aan één treffer genoeg hebben. Er is dus geen evenwicht en daarom moeten we nog waakzamer zijn en de gevaren van ai in relatie tot cyberaanvallen op juiste waarde schatten.