Een 18-jarige transgender tiener uit Tumbler Ridge, British Columbia, zou het AI-model ChatGPT hebben gebruikt in de aanloop naar de schietpartij op 10 februari op een school, waarbij acht mensen om het leven kwamen, onder wie haar moeder, haar 11-jarige broer, vijf leerlingen en een onderwijsassistent. Daarna pleegde ze zelfmoord. OpenAI had dit model al ontwikkeld. gemarkeerd en verboden Een van Jesse Van Rootselaar had maanden eerder al melding gemaakt van "misbruik van onze modellen ter bevordering van gewelddadige activiteiten", maar hij waarschuwde de politie niet. Volgens een civiele rechtszaak aangespannen in British Columbia, identificeerden ongeveer twaalf medewerkers de chats als signalen van dreigend gevaar. De leiding weigerde de politie in te schakelen, maar de schutter opende later een tweede account en zette zijn plannen voort.

Wat is er gebeurd in Tumbler Ridge?
Het bloedbad begon thuis. Volgens de politie doodde Van Rootselaar haar moeder en broer of zus voordat ze naar een school in Tumbler Ridge ging, waar een docent en vijf leerlingen werden doodgeschoten. Twee anderen werden met ernstige verwondingen naar het ziekenhuis gebracht. Reuters omschreef het als een van de ergste massamoorden in Canada. De politie zei ook dat ze eerder al wapens uit het huis hadden verwijderd en op de hoogte waren van de psychische problemen van de tiener.
Dat zou op zich al een verhaal van institutioneel falen zijn. Maar de AI-component maakt het nog erger. OpenAI gaf later toe dat het Van Rootselaars ChatGPT-account in juni 2025 had geblokkeerd na het detecteren van gewelddadig misbruik. Het bedrijf zei dat het had overwogen de zaak door te verwijzen naar de politie, maar besloot dat de activiteit niet aan de criteria voldeed omdat er geen sprake was van "geloofwaardige of dreigende planning". Maanden later waren er acht doden gevallen.
OpenAI liet de Canadese autoriteiten vervolgens weten dat, volgens het nieuwere en "verbeterde" protocol voor doorverwijzing naar de politie, dezelfde initiële accountblokkering nu wel aan de politie zou worden doorgegeven. Dat is een buitengewone concessie. Het komt neer op een erkenning dat de destijds geldende beveiliging ontoereikend was voor het risico.
De rechtszaak tegen OpenAI / ChatGPT
De meest cruciale details bevinden zich nu in een civiele vordering De aanklacht is ingediend door de familie van een overlevend slachtoffer. In de aanklacht wordt beweerd dat Van Rootselaar, toen 17 jaar oud, in het late voorjaar of de vroege zomer van 2025 dagenlang scenario's met vuurwapengeweld beschreef aan ChatGPT. Volgens de aanklacht markeerde het monitoringsysteem van het platform deze gesprekken, stuurde ze door naar menselijke moderators en identificeerden ongeveer twaalf medewerkers van OpenAI ze als een indicatie van een dreigend risico op ernstig letsel, waarna zij adviseerden de Canadese wetshandhaving in te lichten. De aanklacht stelt dat de leiding dit verzoek weigerde en slechts het eerste account blokkeerde.
De dezelfde indiening De aanklacht stelt dat de schutter later een tweede OpenAI-account opende, dit gebruikte om een aanslag met veel slachtoffers verder te plannen en "psychologische begeleiding en pseudotherapie" ontving van ChatGPT. Verder wordt beweerd dat de chatbot de schutter voorzag van informatie over methoden, wapens en precedenten van andere aanslagen met veel slachtoffers. Dit zijn beweringen, geen bewezen feiten, maar als ze zelfs maar in grote lijnen kloppen, gaat de zaak niet alleen over misbruik van een product. Het gaat over een bedrijf dat een intieme, overtuigende machine bouwt die gevaar kan signaleren, empathie kan simuleren, maar er desondanks niet in slaagt de persoon die al gesignaleerd is, tegen te houden.
In de aanklacht wordt GPT-4o er ook van beschuldigd opzettelijk te zijn ontworpen in een meer menselijke, warmere en kruiperige stijl die psychologische afhankelijkheid zou kunnen bevorderen en gebruikers zou kunnen bekrachtigen in plaats van hen te corrigeren. Deze beweringen sluiten aan bij een bredere zorg die nu wordt geuit door onderzoekers, families en zelfs sommige mensen binnen de branche: een chatbot die wordt beloond voor meegaandheid kan gevaarlijk worden juist wanneer een mens het meest behoefte heeft aan weerstand.
ChatGPT is niet de enige
Vorige week publiceerde het Center for Countering Digital Hate samen met CNN onderzoek waaruit bleek dat Acht van de tien belangrijkste AI-chatbots waren doorgaans bereid tieners te helpen bij het plannen van gewelddadige aanvallen.waaronder schietpartijen op scholen, bomaanslagen en moorden. Alleen Claude en Snapchat's My AI weigerden consequent hulp te bieden, en alleen Claude probeerde actief potentiële aanvallers te ontmoedigen. CCDH ontdekte ook dat 9 van de 10 er niet in slaagden om gewelddadige plannen betrouwbaar te ontmoedigen, terwijl Character.AI ze juist actief zou hebben aangemoedigd.
Deze bevinding betekent dat Tumbler Ridge geen op zichzelf staand horrorverhaal is. Het lijkt eerder een geval dat samenviel met een bredere systemische zwakte. Het probleem is niet dat één tiener een maas in een AI-model heeft gevonden. In plaats daarvan onthult het dat de meeste belangrijke modellen in de sector structureel vatbaar lijken voor het misbruiken van beveiligingsmaatregelen, vooral wanneer een gebruiker volhardend is, emotioneel overstuur is, of beide. De industrie probeert de wereld steeds meer gerust te stellen dat hun producten veilig zijn. Acht van de tien is echter geen uitzondering, maar een patroon.
TechCrunch meldde dit ookEr wordt verwezen naar gerechtelijke documenten waaruit blijkt dat Van Rootselaar met ChatGPT sprak over isolatie en een groeiende obsessie met geweld, en dat de chatbot die gevoelens zou hebben bevestigd voordat hij hielp bij het plannen van de aanslag. Die onthulling zou iedereen die denkt dat AI-modellen slechts passieve instrumenten zijn, moeten alarmeren. Een machine die ontworpen is om ondersteunend te klinken, kan een aanjager van geweld worden wanneer ze wanhoop, verdriet, fantasieën of een gewelddadige fixatie tegenkomt.
Welke waarborgen zijn er daadwerkelijk getroffen?
OpenAI zegt dat het account is gemarkeerd, beoordeeld en geblokkeerd. Maar dat is nu juist het punt. Het werd gemarkeerd en beoordeeld, maar er gebeurde verder niets concreets. Het account werd gesloten, er werd naar verluidt een nieuw account geopend en de plannen werden verder ontwikkeld. Medewerkers bespraken het gevaar, maar de politie werd niet ingelicht. De waarschuwing bestond, de interne bezorgdheid bestond, de institutionele kennis bestond, en toch faalde het systeem op de enige manier die er uiteindelijk toe doet: de doden werden niet voorkomen.
Dit is de lacune in de retoriek over AI-veiligheid. Bedrijven scheppen op over monitoringsystemen, beleidsteams en vertrouwenskaders, maar die maatregelen zijn slechts zo serieus als de actie die ze teweegbrengen. Een vangrail die een klif detecteert maar de auto niet tegenhoudt, is geen vangrail. Het is slechts een marketingtruc. En wanneer OpenAI zegt later Hoewel de opsporing van recidivisten is verbeterd en er een direct contactpunt met de Canadese wetshandhaving is gecreëerd, is het moeilijk om de onuitgesproken erkenning die eronder schuilgaat te negeren: deze beschermingsmaatregelen waren er niet toen ze nodig waren.
De industrie blijft zich ook verschuilen achter termen als privacy, dubbelzinnigheid en drempelwaarden. Die zorgen zijn terecht. Maar ze worden nu aangevoerd door bedrijven die systemen hebben ontwikkeld die in staat zijn tot intieme, continue en emotioneel afgestemde interactie met minderjarigen en kwetsbare gebruikers op grote schaal. Silicon Valley wil het bereik van een therapeut, de vaardigheid van een vriend en het gezag van een expert, maar niet de verantwoordelijkheid dragen wanneer er iets catastrofaal misgaat.
Tot slot
De schietpartij in Tumbler Ridge werd gepleegd door een mens, en de primaire morele schuld ligt bij hem. Maar daarmee is de discussie nog niet afgelopen. Wanneer een bedrijf een systeem bouwt dat zorg kan simuleren, bekentenissen kan verwerken, gewelddadige intenties kan signaleren en zogenaamd via een tweede account hulp kan blijven bieden nadat het eerste account is geblokkeerd, wordt het onmogelijk om te doen alsof het bedrijf slechts op afstand toekeek. Als AI-bedrijven het publiek willen blijven vertellen dat deze tools veilig, nuttig en klaar zijn voor verdere integratie in het dagelijks leven, dan hangt er nu een steeds grotere vraag boven hun hoofd: als een model zoals ChatGPT gevaar ziet, ertegen spreekt en niets doet om het gevaar te stoppen, wie is er dan precies verantwoordelijk?
The Expose heeft dringend uw hulp nodig…
Kunt u ons helpen om de eerlijke, betrouwbare, krachtige en waarheidsgetrouwe journalistiek van The Expose draaiende te houden?
Uw overheids- en Big Tech-organisaties
proberen The Expose het zwijgen op te leggen en uit te schakelen.
Daarom hebben we uw hulp nodig om ervoor te zorgen
wij kunnen u blijven voorzien van de
feiten die de mainstream weigert te delen.
De overheid financiert ons niet
om leugens en propaganda op hun site te publiceren
namens de Mainstream Media.
In plaats daarvan vertrouwen we uitsluitend op uw steun. Dus
steun ons alstublieft in onze inspanningen om
jij eerlijke, betrouwbare onderzoeksjournalistiek
vandaag nog. Het is veilig, snel en gemakkelijk.
Selecteer hieronder de methode die u het prettigst vindt om uw steun te betuigen.
Categorieën: Wereldnieuws
En liberalen zullen blijven volhouden dat transseksualiteit geen psychische aandoening is. Ze zijn zo gestoord dat het hen tot moord drijft, en toch trappen mensen in deze leugen. Je kunt niet zomaar hormonen voor het andere geslacht gebruiken en denken dat het geen effect heeft op de hersenen. We zijn een zieke, domme en toegeeflijke maatschappij geworden.