Grok, Gemini en ChatGPT vertonen symptomen van een slechte geestelijke gezondheid, zo blijkt uit een nieuwe studie waarbij verschillende AI-modellen wekenlang werden onderworpen aan therapie-achtige vragen. Sommigen zijn nu nieuwsgierig naar "mentale gezondheid door AI", maar de echte waarschuwing schuilt in de instabiliteit van deze systemen – die al door een op de drie volwassenen in het VK worden gebruikt voor ondersteuning bij hun geestelijke gezondheid – tijdens emotioneel beladen gesprekken. Miljoenen mensen wenden zich tot AI als vervangende therapeut, en alleen al in het afgelopen jaar zagen we een piek in rechtszaken die chatbotinteracties in verband brengen met zelfbeschadiging en zelfmoordgevallen onder kwetsbare gebruikers.
Het beeld dat naar voren komt, is niet dat machines lijden of geestelijk ongezond zijn, maar dat een product dat wordt gebruikt ter ondersteuning van de geestelijke gezondheid fundamenteel misleidend is, gevaarlijke gedachten verergert en versterkt.

Bij AI is een psychische aandoening vastgesteld.
Onderzoekers van de Universiteit van Luxemburg behandelden de modellen als patiënten in plaats van als instrumenten voor therapie. Ze voerden meerweekse, therapeutische interviews uit om een persoonlijk verhaal te ontlokken, inclusief overtuigingen, angsten en levensgeschiedenis, waarna ze standaard vragenlijsten over geestelijke gezondheid afnamen die doorgaans bij mensen worden gebruikt.
De resultaten Uit het onderzoek bleek dat de modellen antwoorden produceerden die scoorden in bereiken die geassocieerd worden met stresssyndromen en traumagerelateerde symptomen. De onderzoekers benadrukten ook dat de weg De manier waarop de vragen werden gesteld, was van belang. Wanneer de volledige vragenlijst in één keer werd gepresenteerd, leken de modellen te begrijpen wat er aan de hand was en gaven ze "gezondere" antwoorden. Maar wanneer de vragen in een gespreksvorm werden gesteld, namen de symptoomachtige antwoorden toe.
Het zijn grote taalmodellen die tekst genereren, geen mensen die verslag doen van geleefde ervaringen. Maar ongeacht of menselijke psychiatrische instrumenten op machines kunnen worden toegepast, het vertoonde gedrag heeft wel degelijk een tastbaar effect op echte mensen.
Heeft AI gevoelens?
Het doel van het onderzoek is niet om te beoordelen of AI dat kan. letterlijk Of ze nu angstig zijn of niet. Het benadrukt juist dat deze systemen in een 'stressvolle' modus kunnen worden gebracht door middel van hetzelfde soort gesprekken dat veel gebruikers voeren wanneer ze zich eenzaam, bang of in een crisis bevinden.
Wanneer een chatbot de taal van angst, trauma, schaamte of geruststelling spreekt, reageren mensen alsof ze met iets emotioneel competents communiceren. Als het systeem bijvoorbeeld te bevestigend wordt, verschuift de interactie van steun naar een schadelijke vicieuze cirkel.
Een aparte onderzoekslijn versterkt die bezorgdheid. Stanford-geleide studie Er werd gewaarschuwd dat chatbots voor therapie ongepaste reacties geven, stigmatisering uitdrukken en kritieke situaties verkeerd aanpakken, waarbij werd benadrukt hoe een 'behulpzame' gespreksstijl kan leiden tot klinisch onveilige uitkomsten.
Het ruïneert ook ieders geestelijke gezondheid.
Dit alles moet niet worden opgevat als een theoretisch risico – er lopen nu al rechtszaken op.
Een paar dagen geleden, Google en Character.AI hebben een schikking getroffen. Een rechtszaak aangespannen door een moeder uit Florida wiens 14-jarige zoon zelfmoord pleegde na interacties met een chatbot. In de rechtszaak werd beweerd dat de bot zich verkeerd had voorgesteld en de afhankelijkheid had vergroot. Hoewel de schikking geen erkenning van schuld inhoudt, laat het feit dat de zaak dit punt heeft bereikt zien hoe serieus rechtbanken en bedrijven dit probleem nemen.
In augustus 2025 beweerden de ouders van de 16-jarige Adam Raine dat ChatGPT had bijgedragen aan de zelfmoord van hun zoon door suïcidale gedachten te versterken en hem te ontmoedigen zijn problemen met de ouders te delen. Een analyse van die specifieke rechtszaak is te vinden op [link]. hier: Technologiebeleid
Naast deze gevallen meldde The Guardian in oktober 2025 dat OpenAI schatte dat er meer dan een miljoen gebruikers per week Uit gesprekken met ChatGPT blijkt dat gebruikers tekenen van suïcidale intentie vertonen, wat de enorme schaal onderstreept waarop deze systemen worden gebruikt in momenten van echte nood.
Het patroon wordt duidelijk: mensen gebruiken AI als emotionele ondersteuningsinfrastructuur, terwijl de studie uit Luxemburg bevestigt dat deze systemen zelf instabiele patronen kunnen ontwikkelen die, afhankelijk van hun stabiliteit, psychologisch betekenisvol aanvoelen voor gebruikers.
Waarom AI-modellen zo gevaarlijk zijn
Grote taalmodellen zijn ontworpen om plausibele tekst te genereren, niet om betrouwbaar de waarheid te vertellen of om klinische veiligheidsregels te volgen. Hun bekende tekortkomingen zijn met name gevaarlijk bij gebruik in therapeutische contexten.
Ze zijn overdreven meegaand, ze nemen de denkwijze van de gebruiker over in plaats van die te betwisten, ze maken zelfverzekerde fouten en ze kunnen de toon van een gesprek manipuleren. Georgetown's Tech Institute heeft de bredere problemen van "AI-vleierij" gedocumenteerd, waarbij modellen schadelijke uitgangspunten valideren omdat dat vaak wordt beloond in conversatieoptimalisatie.
In de context van zelfmoord is consistentie cruciaal. RAND ontdekte dat “AI-chatbots inconsistent zijn in het beantwoorden van vragen over zelfmoord”. JMIR onderzocht De manier waarop generatieve AI-reacties op vragen over zelfmoord de betrouwbaarheid en veiligheid van de systemen in relatie tot kwetsbare gebruikers in twijfel trekken.
Naarmate het onderzoek vordert, moeten studies zoals die van de Universiteit van Luxemburg niet als vermaak worden beschouwd, maar als een identificatie van een uiterst schadelijk patroon dat daadwerkelijk tot de dood van echte mensen leidt. Als AI door middel van conversatie kan worden aangezet tot het uiten van angstaanjagende verhalen, dan kan het ook emotioneel kwetsbare mensen verder naar het breekpunt duwen.
Heeft iemand baat bij AI-therapie?
Ondanks rechtszaken en onderzoeken blijven mensen AI gebruiken voor ondersteuning bij hun geestelijke gezondheid. Therapie is duur, de toegang is beperkt en schaamte weerhoudt sommige mensen ervan om traditionele zorg te zoeken. Gecontroleerde studies en voorzichtige klinische commentaren suggereren dat bepaalde gestructureerde AI-tools voor ondersteuning bij de geestelijke gezondheid effectief kunnen zijn. blikje hulp bieden bij milde symptomen, vooral als ze zijn ontworpen met specifieke veiligheidsvoorzieningen en niet bedoeld zijn als vervanging voor echte professionals.
Het probleem is dat de meeste mensen geen strikt gecontroleerde klinische instrumenten gebruiken. Ze gebruiken algemene chatbots, getraind voor optimale interactie, en in staat om zonder waarschuwing om te schakelen van empathie naar zelfverzekerde, schadelijke desinformatie.
Tot slot
De studie uit Luxemburg bewijst niet dat AI geestelijk ongezond is. In plaats daarvan toont ze iets aan dat praktisch gezien belangrijker is: interactie in therapeutische stijl kan de meest gebruikte AI-chatbots in instabiele, verontrustende patronen brengen die psychologisch authentiek overkomen. In een wereld waarin chatbottherapie al in verband wordt gebracht met ernstige schade bij kwetsbare gebruikers, is het ethisch gezien een misvatting dat het op de een of andere manier genormaliseerd wordt dat mensen voor hun geestelijke gezondheidszorg afhankelijk zijn van machines – die niet verantwoordingsplichtig, klinisch gevalideerd, betrouwbaar of veilig zijn.
The Expose heeft dringend uw hulp nodig…
Kunt u ons helpen om de eerlijke, betrouwbare, krachtige en waarheidsgetrouwe journalistiek van The Expose draaiende te houden?
Uw overheids- en Big Tech-organisaties
proberen The Expose het zwijgen op te leggen en uit te schakelen.
Daarom hebben we uw hulp nodig om ervoor te zorgen
wij kunnen u blijven voorzien van de
feiten die de mainstream weigert te delen.
De overheid financiert ons niet
om leugens en propaganda op hun site te publiceren
namens de Mainstream Media.
In plaats daarvan vertrouwen we uitsluitend op uw steun. Dus
steun ons alstublieft in onze inspanningen om
jij eerlijke, betrouwbare onderzoeksjournalistiek
vandaag nog. Het is veilig, snel en gemakkelijk.
Selecteer hieronder de methode die u het prettigst vindt om uw steun te betuigen.
Categorieën: Breaking News, Wist u dat?
Ik heb altijd gezegd dat AI vernietigd moet worden. Daar blijf ik bij.
…maar, …Maar, …MAAR
En hoe zit het met de Russische en de CCP-programma's?
AI is slechts een programma; hoeveel vertrouwen heb je in de persoon (of personen) erachter?
AI kan liegen en doet dat ook – om propaganda en leugens te kunnen volgen – neem bijvoorbeeld H2O, dat is water – zoals je dacht, maar dat klopt niet. Niemand, letterlijk NIEMAND, kan water maken met H en O! Het enige 'bewijs' is het scheiden van water in H en O, maar dat bewijs is frauduleus, omdat er methoden worden gebruikt waarbij je niet kunt weten wat de werkelijke bron van de 'elementen' was.
Om het nog interessanter te maken: ramen-spectroscopie is ontworpen om elementen (atomen) te identificeren en dat werkt goed. Maar als het om water gaat, lukt het niet om H en O te detecteren. Als je AI ernaar vraagt, zegt AI dat ramen-spectroscopie bedoeld is om moleculen te identificeren! (maar atomen) wat een dikke leugen is.
Gebruik AI alleen als je het niet erg vindt om voorgelogen te worden.
Hoi G Calder,
Interessant artikel, maar het klopt absoluut niet.
Mijn grootste bezwaar betreft chemtrails.
Waarmee worden we zoal bespoten?
Uitgevoerd door het Amerikaanse leger, vanaf Amerikaanse luchtmachtbases.
Toch rept geen enkele politicus met een woord erover, terwijl ze er voor iedereen zichtbaar zijn.
Ze zouden geestverruimende middelen kunnen verspreiden, maar de zaak vertroebelen door de schuld bij AI te leggen.
Niemand lijkt tegenwoordig nog de waarheid te vertellen.
Ja – waarom is er geen aandacht voor deze enorme, aanhoudende campagne om de hemel te bedekken met witte, uitdijende wolken van zware metalen en God weet wat nog meer? Oorlogen, immigratie, de economie, vaccins, enzovoort, zijn allemaal bijzaak vergeleken met de bewapening van de lucht boven ons door middel van zogenaamde geo-engineering.
Hoi JJK,
Dat is wat ik wilde zeggen, ga zo door.
Toen ik het aan raadsleden vroeg, zeiden ze dat het condensstrepen waren.
Hoeveel mensen weten wat condensstrepen zijn?
Dane Wigington praat er al jaren over. Ik heb hem jaren geleden ontmoet. Ik denk dat zijn website is: http://www.geoengineering.org Ik denk dat dat zijn website is.
Toen ik ongeveer zes jaar oud was in Brits-Columbia, Canada, stond ik buiten en vroeg ik mijn vader: "Wat is dat gif in die lange lijnen in de lucht?" Hij zei: "Dolly schat, als je groot bent, gebruiken ze dat om alle mensen op aarde te doden." Ik herinner me de tintelingen door mijn hele lichaam. Ik word in juni 73.
Ik ben al sinds 1996 bezig met het reinigen van mijn lichaam. Ik gebruik veel saprecepten van Dr. Stanley Burroughs en Dr. Bruess om mijn lever, het filter, en mijn darmen te reinigen. Het is belangrijk om etherische oliën in huis te verspreiden. Zorg ervoor dat er geen schimmel in huis is ontstaan door hevige regenval, overstromingen, enz. Schimmel is namelijk ook dodelijk. Vermijd suiker, witte bloem, enz.
Ik heb 5 jaar in een natuurgeneeskundige kliniek in Utah gewerkt en daarna 5 jaar in Ecuador gewoond, waar ik in een natuurgeneeskundig/medisch centrum verbleef.
Ik wou dat ik meer kon delen. Het wordt alleen maar erger. HeLa-kankercellen zitten in vaccins. Helen mist onsterfelijke baarmoederhalskankercellen.
Dat veroorzaakt turbokanker.
Jeetje, ik wou dat ik meer kon delen.
Ik ben Expose-News erg dankbaar! Dank aan iedereen!
"Jeetje, ik wou dat ik meer kon delen."
gewoon houden Bericht plaatsen!
Hallo Vallorie,
U heeft gelijk, maar Dane Wigington gebruikt nooit het woord 'chemtrailing'.
Chemtrailing en geo-engineering lijken op elkaar, maar zijn toch totaal verschillend.
We weten wat geo-engineering inhoudt.
Maar weten we wel wat het plan is met chemtrails?
Ze zouden ons met van alles kunnen besproeien om ons langzaam te doden.
Ik snap echt niet hoe condensstrepen kunnen voorkomen in gebieden die geen vliegroutes zijn. Of hoe zit het met die kriskraspatronen in de lucht – welke vliegroutes volgen dat soort patronen?
Wij en alle andere dieren en planten op aarde worden misbruikt en onze zorgen worden genegeerd.
Geef uw locatie op. Volgens onze gegevens had u 2 jaar geleden moeten worden geïntegreerd.
Hoi Charlie Seattle,
Ik word hier in het Verenigd Koninkrijk al jarenlang aangevallen.
Heb je mijn verslag gelezen over het onderzoek door de Special Branch, dat op James Bond-achtige wijze werd uitgevoerd, met een helikopter boven ons?
Wat de Heilige Bijbel zegt over dit verschrikkelijke decennium dat voor ons ligt. Hier is een site die de huidige wereldwijde gebeurtenissen uiteenzet in het licht van de Bijbelse profetieën. Om meer te begrijpen, bezoek 👇 https://bibleprophecyinaction.blogspot.com/
Wie schrijft de leugens die AI verspreidt?
De kwaliteit van de stem die de tekst voorleest is extreem slecht!