De zanger Mart Hoogkamer is geschrokken van een realistisch ogende AI-video die in zijn naam rondgaat. Een oplettende fan stuurde hem de beelden via Instagram met de vraag of ze wel echt met Mart aan het appen was. Toen hij de beelden zag, besloot de zanger direct zijn volgers te waarschuwen: dit lijkt échte content, maar het is gemaakt met kunstmatige intelligentie.
Mart waarschuwt voor nepvideo
Op zijn Instagram-story schrijft Mart dat AI hem begint te benauwen. Hij deelt een bericht van een volger, Rommie, die twijfelt of zij via WhatsApp met de échte zanger spreekt. Bij haar vraag voegt ze een video toe waarop een man te zien is die als twee druppels water op Mart lijkt. Voor wie vluchtig kijkt, lijkt er weinig aan de hand: het oogt hooguit als een slecht opgenomen smartphonevideo. Toch is het geen authentieke opname, maar een deepfake.
Hoe de misleiding begon
De fan kreeg via WhatsApp een filmpje toegestuurd. De persoon in beeld spreekt haar bij naam aan en zegt dat hij de video opneemt om te bewijzen dat hij echt Mart is. Precies die persoonlijke toon maakt deepfakes zo overtuigend. Zodra Rommie argwaan kreeg, besloot ze de zanger via Instagram te benaderen voor bevestiging. Dat bleek cruciaal. Mart plaatste de video zelf in zijn verhaal om te laten zien hoe ver de technologie inmiddels is en schreef er verbijsterd bij: “Dit is toch leip?”
Een geloofwaardige kopie
De kracht van de video zit in het detail. De mimiek lijkt te kloppen, de stem voelt vertrouwd en de boodschap is precies afgestemd op het doel: vertrouwen winnen. Waar deepfakes eerder nog onrealistisch oogden, zijn de nieuwste versies vaak alleen bij heel nauwkeurig kijken te ontmaskeren. Kleine onnauwkeurigheden verraden soms de herkomst: lichte haperingen rond de lippen, onnatuurlijk knipperen, vreemde compressieartefacten of audio die net niet helemaal synchroon loopt met de mondbewegingen.
Signalen waarop je kunt letten
Wie zo’n video ontvangt, kan op een paar dingen letten voordat er wordt teruggeschreven of – erger nog – geld of persoonlijke gegevens worden gedeeld:
- Controleer de afzender. Is het nummer of account bekend en geverifieerd? Officiële accounts hebben vaak een vinkje of duidelijke contactinformatie.
- Stel een controlevraag. Vraag iets wat alleen de echte persoon kan weten en dat niet publiekelijk te vinden is.
- Let op de timing en toon. Scammers creëren vaak tijdsdruk en spelen in op emoties.
- Kijk de video meerdere keren en vertraagd. Let op onregelmatigheden in licht, schaduwen, gezichtscontouren en stem-sync.
- Zoek naar inconsistenties met eerdere content. Klopt de omgeving, kleding, eventuele tatoeages of accessoires?
Niet alleen bekende gezichten
Het incident staat niet op zichzelf. De laatste tijd duiken vaker AI-gegenereerde beelden op rondom bekende gezichten en populaire shows. Zo waren er vorig jaar al discussies over ongepaste visuals op een scherm tijdens een K3-optreden en verschenen er gemanipuleerde beelden van realitydeelnemers die een scheef beeld konden geven van hun gedrag. Onlangs gingen bovendien talloze AI-video’s rond van YouTuber en bokser Jake Paul. In die clips is te zien hoe hij make-up aanbrengt en intiem is met anderen dan zijn verloofde Jutta Leerdam. Ook dat bleek nep. Oplettende kijkers merkten fouten op: afwezige frames, onlogische lichtval en tatoeages die niet overeenkwamen met de werkelijkheid.
Waarom dit nu vaker gebeurt
De drempel om realistische AI-content te maken is drastisch gedaald. Open source-tools en laagdrempelige apps maken het mogelijk om in korte tijd iemand na te bootsen, inclusief stem en intonatie. Voor oplichters is het een goudmijn: ze kunnen vertrouwen kapen, bekende namen misbruiken en hun doelen persoonlijk benaderen. Die ontwikkeling vraagt om meer digitale weerbaarheid bij het publiek, maar ook om actie van platforms en makers.
Wat zeggen wet en platformen
In Europa komt strengere regelgeving aan voor AI en deepfakes. Onder transparantieregels moeten makers en verspreiders van synthetische media duidelijk maken dat een video of audio kunstmatig is gegenereerd, zeker als er risico bestaat op misleiding. Ook sociale platforms leggen vaker labels op deepfakes of verwijderen misleidende content, al gebeurt dat nog lang niet overal consequent en snel. Voor artiesten en publieke figuren is het daarom belangrijk om zelf actief te communiceren, zoals Mart nu doet, en hun achterban te wijzen op officiële kanalen.
Wat je kunt doen als je wordt benaderd
Word je onverwacht gecontacteerd door een bekende Nederlander, een collega of familielid via een nieuw nummer of een onbekend account met een video of spraakbericht? Volg dan deze stappen:
- Stop en verifieer. Bel of bericht de persoon via een eerder bekend nummer of een officieel account om te checken of het bericht legitiem is.
- Deel geen privégegevens. Verstrek geen codes, adressen, kopieën van identiteitsbewijzen of betaalgegevens voordat je verificatie hebt.
- Let op betaalverzoeken. Vraagt iemand om een snelle betaling of cadeaubonnen? Dat is een klassiek alarmteken.
- Maak een screenshot en bewaar het bewijs. Dat helpt bij melding aan het platform en – indien nodig – bij aangifte.
- Meld het. Breng het sociale platform op de hoogte en overweeg aangifte als er sprake is van oplichting of identiteitsmisbruik.
De rol van artiesten en fans
Het voorbeeld van Mart laat zien dat de samenwerking tussen artiest en fan cruciaal is. Dankzij de alertheid van Rommie kon de zanger snel reageren en anderen waarschuwen. Artiesten doen er goed aan hun volgers te informeren over hun officiële kanalen, herkenbare contactvormen en typische communicatie. Fans kunnen op hun beurt twijfels meteen uitspreken en niet zomaar aannemen dat een persoonlijke video altijd écht is, hoe levensecht hij er ook uitziet.
Vooruitblik en gesprek
Deepfakes zullen niet verdwijnen. Integendeel: de kwaliteit verbetert en de verspreiding gaat sneller. Dat maakt digitale hygiëne belangrijker dan ooit. Controleer bronnen, verifieer afzenders en neem de tijd voordat je reageert. Makers, platforms en wetgevers hebben ieder een taak om misleiding tegen te gaan. Maar uiteindelijk begint veiligheid bij de eerste check van de ontvanger. Mart geeft met zijn waarschuwing het goede voorbeeld door transparant te zijn en het probleem zichtbaar te maken.
Samengevat: een AI-video kan verbluffend echt lijken, maar met een paar eenvoudige controles voorkom je dat je erin trapt. Blijf kritisch, deel geen gevoelige informatie en verifieer altijd via een tweede kanaal. Heb jij recent een verdachte video of boodschap ontvangen? Laat het ons weten en praat mee op onze sociale media.
Bron: shownieuws.nl