Een 60-jarige Amerikaan heeft drie maanden lang een gevaarlijk dieet gevolgd op advies van een AI-chatbot, met een trip naar het psychiatrisch ziekenhuis als gevolg.
De man, vegetariër van levensstijl, besloot zijn gewone keukenzout volledig te schrappen. In plaats daarvan gebruikte hij – op aanraden van de chatbot – natriumbromide: een wit, geurloos poeder met een zoute smaak.
Klinkt misschien als een hippe, nieuwe zoutvervanger, maar niets is minder waar. Natriumbromide werd vroeger wel gebruikt in kalmerende middelen, maar is in veel landen verboden in voedingsmiddelen. Het kan namelijk ernstige schade toebrengen aan het zenuwstelsel. En dat is precies wat er gebeurde.
Na een paar maanden begon de man steeds vreemder gedrag te vertonen. Hij mompelde constant in zichzelf, werd extreem achterdochtig en beweerde dat zijn buren hem via het stopcontact in de gaten hielden. Het ging zo ver dat hij zich thuis opsloot en zijn familie niet meer binnenliet. Zijn verklaring? “Ze willen mijn groente afpakken.”
Zijn familie trok uiteindelijk aan de bel. De man werd opgenomen en kreeg de juiste medische behandeling. Gelukkig herstelde hij volledig, maar het had heel anders kunnen aflopen.
Gezondheidsexperts waarschuwen nu voor het blind volgen van AI-adviezen, zeker als het gaat om voeding of medische keuzes. Een verkeerde vervanger voor iets simpels als zout kan namelijk levensgevaarlijk zijn — en in dit geval zelfs leiden tot een aandoening die vooral in de 19e eeuw voorkwam.
Hakuna Matata mag dan geen zorgen betekenen, maar in dit geval geldt: check altijd even een échte arts voordat je je dieet overhoop gooit.