Dwingen deepfakes ons terug naar het analoge tijdperk?
Deepfakes bereiken een nieuw niveau van gevaarlijkheid nu hackers menselijke stemmen nabootsen om geld over te maken. Waar eindigt dit?
Het is het jaar 2025 en we leven opnieuw in grotten. Mijn vrouw/medeholbewoonster komt binnen met de visvangst van de dag. Ikzelf ben een man aan het kampvuur; ik doe de was-in-de-beek en de plas. Strijken doe ik met een platte steen en ik lust niet graag vis. Ik weet dat het moeilijke jaren zijn en dat iedereen water bij de wijn nog meer water moet doen, maar vandaag slaat de wanhoop weer toe.
Hoe het zover kwam? In 2017 kwamen voor het eerst deepfakes in omloop: slimme IT-mensen vonden een manier om met behulp van machine learning gezichten van bekende actrices op de lichamen van porno-actrices te plaatsen. Het leek net alsof die actrice ook écht bezig was met porno. Het bleek bovendien niet eens zo moeilijk om de deepfakes overtuigend te maken.
De jaren erop evolueerde de technologie steeds verder, ook al waarschuwden vele slimme mensen voor het gevaar en riepen ze op om voorzichtig te zijn met de ontwikkeling van de toepassingen die zo’n dingen mogelijk maakten.
Helaas, zonder veel impact. In het vermaledijde jaar 2019 doken namelijk plots de eerste deepfake-telefoontjes op. En het was al zo slecht gesteld met onze veiligheid: het was immers al langer mogelijk om biometrische beveiliging te omzeilen. Irisscanners bleken minder goed in het scannen van irissen dan gedacht – ze konden om de tuin worden geleid met afbeeldingen. Vingerafdruksensoren werden gefopt met 3D-prints die werden gemaakt op basis van een foto van een duim op televisie.
Maar we hadden onze stem nog. Niemand die ons dat kon afpakken. Tot ze dat plots wel konden. Iets unieker dan een stem is er nochtans niet: iemand die jou kent, herkent je meteen als je hen aanspreekt. Stemmen vervormen konden we natuurlijk. Niet als onszelf klinken was makkelijk.
Toen begonnen de telefoontjes. Slimmerds wisten computergestuurde modellen te ontwikkelen die klonken als je baas. Als je baas je een opdracht geeft om een bepaalde leverancier te betalen, dan doe je dat, toch? Waarom zou je zelfs twijfelen aan de authenticiteit van het telefoontje? Je ként je baas, je kent zijn stem en je wéét hoe die spreekt. Dat sommige klanken onduidelijk zijn omdat er net een trein passeert, dat hoort bij de soundtrack van het leven. Geen reden om argwanend te zijn, toch?
Daarna brak de hel los. Eerst stukje bij beetje, daarna als een vloedgolf waarop de vier ruiters des doods op een Pegasus komen aanstormen. Met de Walkuren in hun zog – afhankelijk van welke mythologie je het leukst vindt, kan je zelf je doemscenario kiezen. Een druppel die verandert in een stroom en ontwikkelt tot een tsunami.
Zo gaan die dingen: iemand vindt iets leuk uit en plots explodeert het succes. Zoals Niantic dat de vraag naar Pokémon Go niet aankon en hulp nodig had van Google om servers bij te plaatsen. Zo gebeurde het ook met de deepfakes: eerst enkelen, algauw duizenden. En het wordt steeds makkelijker (slik).
Na de porno volgden dus de geldoverschrijvingen. Al snel gingen bedrijven overkop. Opnieuw eerst de kleintjes, daarna zelfs groteren. Orders die gevoelig waren werden steeds minder per mail of telefoon doorgegeven. Mensen gingen weer over op vocale overdracht. De maatschappij kende regressie: technologie werd gewantrouwd en op sommige plekken zelfs geweerd. Mensen hadden opnieuw sociaal contact en even leken de deepfakes een zegen die slechts was vermomd als een zwarte plaag.
Tot de deepfakes opdoken op het nieuws. President Trump had de oorlog verklaard aan Noord-Korea, dat op zijn beurt enkele kernkoppen afschoot ter voorbarige zelfverdediging. Wereldoorlog 3 brak uit en niet veel later zat ik hier, in mijn grot, als man aan de kampvuurhaard.