• Een groep oplichters maakte in 2020 een bank in de Verenigde Arabische Emiraten 30 miljoen euro afhandig door zich telefonisch voor te doen als de CEO van een groot bedrijf.
  • Volgens beveiligingsexperts gaat oplichting met stemvervalsing veel vaker voorkomen, omdat de technologie simpel en goedkoop is.
  • Ook legitiem gebruik van de deepfake-technologie is vaak controversieel.

Op 15 januari 2020 wisten criminelen omgerekend ruim 30 miljoen euro buit te maken door de stem van een CEO te vervalsen. Ze belden de manager van een bank in de Verenigde Arabische Emiraten en vroegen hem het geld te verdelen over meerdere rekeningen wereldwijd. Dit deed de man omdat hij de stem herkende, meldt Forbes op basis van opgedoken documenten.

De bankmanager zou een telefoontje ontvangen hebben van de CEO van een groot bedrijf. De CEO claimde dat zijn bedrijf midden in een overnameprocedure zat en dat er een flinke som geld overgemaakt moest worden.

Hij had naar eigen zeggen advocaat Martin Zelner ingehuurd die de rest van de zaken zou overzien. De zaken leken te kloppen, want niet alleen herkende de bankmanager de stem van de CEO, omdat hij vaker met hem zakendeed, maar ook had hij verschillende e-mails uit naam van Zelner ontvangen omtrent de overname.

De vermeende advocaat Zelner gaf de bankmanager specifieke instructies om ruim 30 miljoen euro op te delen en over te maken naar meerdere bankrekeningen verspreid over de hele wereld.

Deep voice-technologie

De bankmanager had op dat moment geen idee dat hij opgelicht werd met wat de politie van Dubai ‘deep voice’-technologie noemt. Hiermee hadden de criminelen de stem van de CEO gekloond en gebruikt om het geld los te krijgen.

Het is niet de eerste keer dat dit soort stemvervalsing wordt gebruikt om geld te stelen. In 2019 was een energiebedrijf in het Verenigd Koninkrijk doelwit van een soortgelijke praktijk. Toen werd een medewerker van het bedrijf gebeld door iemand die klonk als zijn baas. Deze vertelde hem dat er binnen een uur 220.000 euro naar een Hongaarse toeleverancier overgemaakt moest worden.

Beveiligingsexperts denken dat we deze vorm van criminaliteit in de toekomst vaker zullen zien. De deep voice-technologie is relatief simpel te gebruiken en is ook nog eens gemakkelijk en goedkoop te verkrijgen.

“Audio- en visuele deep fakes vertegenwoordigen de fascinerende ontwikkeling van de technologie van de 21e eeuw, maar ze zijn ook potentieel ongelooflijk gevaarlijk en vormen een enorme bedreiging voor gegevens, geld en bedrijven” zegt Jake Moore, cyberbeveiligingsdeskundige bij beveiligingsbedrijf ESET, tegenover Forbes.

Vervalste stemmen gaan vaker voorkomen

Volgens Moore is het makkelijker om audio te bewerken dan om zogenoemde visuele deepfakes te maken (gefingeerde videobeelden van mensen die eigenlijk helemaal niet in de video voorkomen). Daarom gaan we veel vaker geconfronteerd worden met vervalste audio. En bedrijven die zich hier niet tegen wapenen, kunnen doelwit worden van aanvallen met de nieuwe technologie.

Het is niet ondenkbaar dat de vervalsing van stemmen en de inzet daarvan voor diefstallen of andere criminele zaken binnenkort volledig geautomatiseerd worden. Iedereen die een audio-opname van zijn of haar stem ergens online heeft staan, kan hierdoor doelwit worden van deze nieuwe vorm van criminaliteit.

Deepfake-technologie wordt niet alleen door criminelen gebruikt. Als je even rondneust op YouTube, vind je al snel video’s die laten zien wat er mogelijk is als de technologie wordt ingezet voor entertainment. Neem onderstaande video van Tom Cruise bijvoorbeeld, daar werkte de echte Tom Cruise niet aan mee.

Maar ook in de entertainmentwereld is het gebruik van deepfake-technologie regelmatig onderwerp van discussie.

Bij het verschijnen van de documentaire over het leven van de overleden topchef Anthony Bourdain, bleek zijn stem nagemaakt te zijn om de voice-over in te spreken. Fans konden dit absoluut niet waarderen.

LEES OOK: Wetenschappers hebben een manier gevonden om deepfakes te herkennen op basis van de reflectie van iemands ogen