Sukčių tactiek veranderd: Geen ‘bot’-boerderijen meer, maar AI die onvermoeibaar is

Heb je de laatste tijd een toename in verdachte telefoontjes opgemerkt, waarbij er een verrassend natuurlijke stem aan de andere kant klinkt? Je bent niet de enige. Telefonische oplichtingspraktijken zijn niet verdwenen; ze zijn simpelweg geëvolueerd. Cybercriminelen hebben kunstmatige intelligentie (AI) aan hun arsenaal toegevoegd, en daarmee de spelregels volledig veranderd.

Vroeger moesten oplichters enorme, illegale callcenters onderhouden (vaak in derde wereldlanden) of complexe ‘bots’ creëren die vooraf opgenomen, primitieve geluidsfragmenten massaal afspeelden om grootschalige aanvallen uit te voeren. Nu is dat niet meer nodig. Eén krachtig AI-model is voldoende om duizenden unieke, levende gesprekken tegelijk te genereren.

Van primitieve ‘bot’ naar intelligente gesprekspartner

Traditionele geautomatiseerde telefoongesprekken (‘robocalls’) waren gemakkelijk te herkennen. Het was een statische opname die niet reageerde op wat jij zei. De nieuwe generatie AI-systemen werkt totaal anders.

Deze nieuwe algoritmes zijn gekoppeld aan grote taalmodellen (vergelijkbaar met ‘ChatGPT’) en geavanceerde stemcomputers.

Hoe het werkt:

  • Wanneer je opneemt en “Hallo?” zegt, converteert de software je stem onmiddellijk naar tekst.
  • Het AI-model genereert vervolgens een logisch antwoord volgens een vooraf opgesteld scenario van de oplichter (bijvoorbeeld zich voordoen als bankmedewerker of politieagent).
  • De stemcomputer spreekt dit antwoord uit met een natuurlijke, menselijke intonatie.

Massaal en onvermoeibaar:

  • Dit proces duurt slechts een fractie van een seconde. Eén server kan tegelijkertijd 10.000 van zulke ‘live’ gesprekken voeren met verschillende mensen, zich real time aanpassend aan het antwoord van elk slachtoffer.
  • AI wordt niet moe, raakt niet gestrest en slaapt nooit.

Sukčių tactiek veranderd: Geen 'bot'-boerderijen meer, maar AI die onvermoeibaar is - image 1

Waarom deze aanvallen zo gevaarlijk zijn geworden

De overgang naar kunstmatige intelligentie heeft drie nieuwe, uiterst gevaarlijke bedreigingen gecreëerd waar veel inwoners nog niet op voorbereid zijn:

1. Perfecte stemklonen (Deepfakes)

Hedendaagse AI heeft slechts 3 seconden nodig van een stemopname van jou of een naaste (die verkregen kan worden uit een ‘Instagram’, ‘TikTok’ of ‘Facebook’ video) om een perfecte stemkloon te creëren. Oplichters kunnen je bellen met de stem van je kind, kleinkind of baas, en onder het mom van paniek geld laten overmaken. In een staat van emotionele shock is het bijna onmogelijk om een AI-kloon van een echt mens te onderscheiden.

2. Real-time gebruik van persoonlijke informatie

AI kan gelekte databases in milliseconden verwerken. Een “robot”-oproeper zal je niet alleen bij naam aanspreken, maar kan ook je huisadres, automodel of zelfs de laatste cijfers van je bankkaart vermelden, om zo een maximale indruk van betrouwbaarheid te wekken (bijvoorbeeld: “Hallo, hier van de beveiligingsafdeling van uw bank, we zien een verdachte transactie op uw rekening die eindigt op 1234”).

3. Onophoudelijke oproepen

Omdat de kosten voor het uitvoeren van dergelijke aanvallen microscopisch klein zijn geworden, kunnen oplichters je nummer letterlijk blijven bestoken totdat je bezwijkt of een fout maakt.

Hoe herken je een AI-gesprek en bescherm je jezelf?

Hoewel de technologie verbetert, heeft kunstmatige intelligentie nog steeds zwakke punten. Experts op het gebied van cyberbeveiliging adviseren de volgende verdedigingsregels:

  • Let op onnatuurlijke pauzes: Zelfs de snelste AI heeft tijd nodig om je antwoord te verwerken. Als je na het stellen van een onverwachte, onlogische vraag (bijvoorbeeld: “Hoe is het weer momenteel buiten jouw raam?”) een onnatuurlijke pauze van enkele seconden hoort, of een volledig irrelevant antwoord krijgt, heb je waarschijnlijk contact met een algoritme.
  • Voer een ‘veiligheidswortel’ in het gezin in: Dit is een van de meest effectieve beschermingen tegen stemklonen. Spreek met je gezinsleden een geheime woord of zin af. Als je een oproep ontvangt waarbij je ‘kind’ of ‘partner’ dringende financiële hulp vraagt, vraag dan naar het veiligheidswortel.
  • Zeg niet zomaar ‘Ja’: Oplichters beginnen vaak een gesprek met de vraag “Kun je me horen?”. Jouw duidelijke ‘Ja’ kan worden opgenomen en later worden gebruikt als jouw instemming voor het bevestigen van diensten of contracten. Het is beter om te antwoorden: “Ik luister.”
  • De eerste stap: hang op: Als je wordt gebeld door een bank, politie of belastingdienst en dringende actie eist (een pincode dicteren, op een link klikken die is gestuurd) – hang onmiddellijk op. Zoek zelf het officiële nummer van de instantie op het internet en bel terug. Echte functionarissen of bankmedewerkers zullen nooit telefonisch om je inloggegevens vragen.

Naarmate technologieën vorderen, moet onze waakzaamheid ons belangrijkste schild worden. Kunstmatige intelligentie kan emoties en menselijke stemmen nabootsen, maar het kan het koele, kritische denkvermogen van een mens niet overwinnen.

Plaats een reactie