• General Terms and Conditions
  • Cookies
  • Contact us
  • About us
  • Privacy Policy
  • Intellectual Property
Faqts
  • Dieren
  • Entertainment
  • Gezondheid
  • Nieuws
  • Weetjes & Tips
  • Videos
  • Dieren
  • Entertainment
  • Gezondheid
  • Nieuws
  • Weetjes & Tips
  • Videos
No Result
View All Result
Faqts

Mart Hoogkamer heeft een zéér belangrijke waarschuwing voor al zijn fans

De zanger Mart Hoogkamer is geschrokken van een realistisch ogende AI-video die in zijn naam rondgaat. Een oplettende fan stuurde hem de beelden via Instagram met de vraag of ze wel echt met Mart aan het appen was. Toen hij de beelden zag, besloot de zanger direct zijn volgers te waarschuwen: dit lijkt échte content, maar het is gemaakt met kunstmatige intelligentie.

Mart waarschuwt voor nepvideo

Op zijn Instagram-story schrijft Mart dat AI hem begint te benauwen. Hij deelt een bericht van een volger, Rommie, die twijfelt of zij via WhatsApp met de échte zanger spreekt. Bij haar vraag voegt ze een video toe waarop een man te zien is die als twee druppels water op Mart lijkt. Voor wie vluchtig kijkt, lijkt er weinig aan de hand: het oogt hooguit als een slecht opgenomen smartphonevideo. Toch is het geen authentieke opname, maar een deepfake.

Hoe de misleiding begon

De fan kreeg via WhatsApp een filmpje toegestuurd. De persoon in beeld spreekt haar bij naam aan en zegt dat hij de video opneemt om te bewijzen dat hij echt Mart is. Precies die persoonlijke toon maakt deepfakes zo overtuigend. Zodra Rommie argwaan kreeg, besloot ze de zanger via Instagram te benaderen voor bevestiging. Dat bleek cruciaal. Mart plaatste de video zelf in zijn verhaal om te laten zien hoe ver de technologie inmiddels is en schreef er verbijsterd bij: “Dit is toch leip?”

Een geloofwaardige kopie

De kracht van de video zit in het detail. De mimiek lijkt te kloppen, de stem voelt vertrouwd en de boodschap is precies afgestemd op het doel: vertrouwen winnen. Waar deepfakes eerder nog onrealistisch oogden, zijn de nieuwste versies vaak alleen bij heel nauwkeurig kijken te ontmaskeren. Kleine onnauwkeurigheden verraden soms de herkomst: lichte haperingen rond de lippen, onnatuurlijk knipperen, vreemde compressieartefacten of audio die net niet helemaal synchroon loopt met de mondbewegingen.

Signalen waarop je kunt letten

Wie zo’n video ontvangt, kan op een paar dingen letten voordat er wordt teruggeschreven of – erger nog – geld of persoonlijke gegevens worden gedeeld:

  • Controleer de afzender. Is het nummer of account bekend en geverifieerd? Officiële accounts hebben vaak een vinkje of duidelijke contactinformatie.
  • Stel een controlevraag. Vraag iets wat alleen de echte persoon kan weten en dat niet publiekelijk te vinden is.
  • Let op de timing en toon. Scammers creëren vaak tijdsdruk en spelen in op emoties.
  • Kijk de video meerdere keren en vertraagd. Let op onregelmatigheden in licht, schaduwen, gezichtscontouren en stem-sync.
  • Zoek naar inconsistenties met eerdere content. Klopt de omgeving, kleding, eventuele tatoeages of accessoires?

Niet alleen bekende gezichten

Het incident staat niet op zichzelf. De laatste tijd duiken vaker AI-gegenereerde beelden op rondom bekende gezichten en populaire shows. Zo waren er vorig jaar al discussies over ongepaste visuals op een scherm tijdens een K3-optreden en verschenen er gemanipuleerde beelden van realitydeelnemers die een scheef beeld konden geven van hun gedrag. Onlangs gingen bovendien talloze AI-video’s rond van YouTuber en bokser Jake Paul. In die clips is te zien hoe hij make-up aanbrengt en intiem is met anderen dan zijn verloofde Jutta Leerdam. Ook dat bleek nep. Oplettende kijkers merkten fouten op: afwezige frames, onlogische lichtval en tatoeages die niet overeenkwamen met de werkelijkheid.

Waarom dit nu vaker gebeurt

De drempel om realistische AI-content te maken is drastisch gedaald. Open source-tools en laagdrempelige apps maken het mogelijk om in korte tijd iemand na te bootsen, inclusief stem en intonatie. Voor oplichters is het een goudmijn: ze kunnen vertrouwen kapen, bekende namen misbruiken en hun doelen persoonlijk benaderen. Die ontwikkeling vraagt om meer digitale weerbaarheid bij het publiek, maar ook om actie van platforms en makers.

Wat zeggen wet en platformen

In Europa komt strengere regelgeving aan voor AI en deepfakes. Onder transparantieregels moeten makers en verspreiders van synthetische media duidelijk maken dat een video of audio kunstmatig is gegenereerd, zeker als er risico bestaat op misleiding. Ook sociale platforms leggen vaker labels op deepfakes of verwijderen misleidende content, al gebeurt dat nog lang niet overal consequent en snel. Voor artiesten en publieke figuren is het daarom belangrijk om zelf actief te communiceren, zoals Mart nu doet, en hun achterban te wijzen op officiële kanalen.

Wat je kunt doen als je wordt benaderd

Word je onverwacht gecontacteerd door een bekende Nederlander, een collega of familielid via een nieuw nummer of een onbekend account met een video of spraakbericht? Volg dan deze stappen:

  • Stop en verifieer. Bel of bericht de persoon via een eerder bekend nummer of een officieel account om te checken of het bericht legitiem is.
  • Deel geen privégegevens. Verstrek geen codes, adressen, kopieën van identiteitsbewijzen of betaalgegevens voordat je verificatie hebt.
  • Let op betaalverzoeken. Vraagt iemand om een snelle betaling of cadeaubonnen? Dat is een klassiek alarmteken.
  • Maak een screenshot en bewaar het bewijs. Dat helpt bij melding aan het platform en – indien nodig – bij aangifte.
  • Meld het. Breng het sociale platform op de hoogte en overweeg aangifte als er sprake is van oplichting of identiteitsmisbruik.

De rol van artiesten en fans

Het voorbeeld van Mart laat zien dat de samenwerking tussen artiest en fan cruciaal is. Dankzij de alertheid van Rommie kon de zanger snel reageren en anderen waarschuwen. Artiesten doen er goed aan hun volgers te informeren over hun officiële kanalen, herkenbare contactvormen en typische communicatie. Fans kunnen op hun beurt twijfels meteen uitspreken en niet zomaar aannemen dat een persoonlijke video altijd écht is, hoe levensecht hij er ook uitziet.

Vooruitblik en gesprek

Deepfakes zullen niet verdwijnen. Integendeel: de kwaliteit verbetert en de verspreiding gaat sneller. Dat maakt digitale hygiëne belangrijker dan ooit. Controleer bronnen, verifieer afzenders en neem de tijd voordat je reageert. Makers, platforms en wetgevers hebben ieder een taak om misleiding tegen te gaan. Maar uiteindelijk begint veiligheid bij de eerste check van de ontvanger. Mart geeft met zijn waarschuwing het goede voorbeeld door transparant te zijn en het probleem zichtbaar te maken.

Samengevat: een AI-video kan verbluffend echt lijken, maar met een paar eenvoudige controles voorkom je dat je erin trapt. Blijf kritisch, deel geen gevoelige informatie en verifieer altijd via een tweede kanaal. Heb jij recent een verdachte video of boodschap ontvangen? Laat het ons weten en praat mee op onze sociale media.

Bron: shownieuws.nl

Meer Artikelen > Meer Artikelen >

Populaire Posts

Video: Wijkagent Bibi zorgt voor ophef door grote fout tijdens filmpje
Video

Video: Wijkagent Bibi zorgt voor ophef door grote fout tijdens filmpje

Nieuw in de wijk en nu al trending. Wijkagent Bibi uit Amsterdam dacht dat ze een leuk idee had om...

Lees meerDetails
Dringende terugroepactie Lidl: ‘Breng dit product zo snel mogelijk terug!’

Terugroepactie Lidl om dit beroemde seizoensproduct. ‘Breng deze direct terug!’

Video: Dit is misschien wel de knapste basisschooljuf ooit!

Video: Dit is misschien wel de knapste basisschooljuf ooit!

Dit is hoeveel geld je mag sparen zonder belasting te betalen!

De hypotheekrenteaftrek afschaffen? Deze partijen zijn ervoor!

Onze gedachten gaan momenteel uit naar Isa Hoes (53) ‘Hartverscheurend’

Onze gedachten gaan momenteel uit naar Isa Hoes (53) ‘Hartverscheurend’

  • General Terms and Conditions
  • Cookies
  • Contact us
  • About us
  • Privacy Policy
  • Intellectual Property

Copyright © Faqts.net - Cookies

No Result
View All Result
  • Dieren
  • Entertainment
  • Gezondheid
  • Nieuws
  • Weetjes & Tips
  • Videos

Copyright © Faqts.net