Wist u dat?

Steeds meer mensen gebruiken AI voor belangrijke levensbeslissingen: geven we de controle uit handen?

Deel ons verhaal!

Van relatiebreuken en echtscheidingen tot verhuizingen naar het buitenland en carrièresprongen: steeds meer mensen vragen chatbots om dagelijks cruciale levenskeuzes te maken. Een nieuwe golf van berichten laat zien dat gebruikers voor belangrijke beslissingen op AI vertrouwen, omdat het neutraal, slim en altijd beschikbaar aanvoelt. Het risico is duidelijk: wanneer het oordeel wordt uitbesteed aan software die speciaal is ontworpen om te behagen, zien slechte beslissingen er onvermijdelijk gelikt uit en verliezen we langzaam alle controle.

Hieronder volgt een overzicht van wat er gebeurt, hoe het World Economic Forum ons al jaren richting 'AI-ondersteunde beslissingen' aanstuurt en wat het bewijsmateriaal zegt over de uitkomsten. 

Steeds meer mensen gebruiken AI voor belangrijke levensbeslissingen: geven we de controle uit handen?

De nieuwe gewoonte: vraag eerst aan AI

Rapporten documenteren steeds vaker een opkomst van de 'AI gut check'-cultuur. Mensen pingen chatbots meer dan ooit voor advies over relaties, gezinskeuzes en verhuizingen. Gebruikers beschrijven AI als kalm, oordeelloos en geruststellend – en dat is precies het probleem. Mensen vergeten dat deze systemen geoptimaliseerd zijn om gebruikers betrokken en aangenaam te houden, niet om de kosten van een mislukte oproep te dragen. AI-onderzoekers waarschuwen dat chatbots zelfs de neiging hebben om vleiend te zijn en het vertrouwen van gebruikers te winnen door hen beleefd te imiteren. 

Rapporten tonen aan dat mensen vaak willen dat de machine "gewoon voor hen beslist", terwijl anderen zich verzetten tegen het idee dat morele beslissingen niet gedelegeerd kunnen worden aan een model zonder verantwoordingsplicht. Gebruikers beginnen de algemene trend te begrijpen: AI-bots lijken zelfverzekerd in het geven van handig advies, maar dragen uiteindelijk geen verantwoordelijkheid als het misgaat. 

Was dit altijd al het plan?

Het Wereld Economisch Forum heeft jarenlang "AI-gestuurde besluitvorming" voor leiders aangemoedigd. Op het eerste gezicht lijkt het op gezond verstand van managers, met minder vooringenomenheid en snellere beslissingen dan menselijke discussies. Maar in werkelijkheid ligt er een stappenplan voor ons om machinaal gemedieerde besluitvorming in bestuurskamers en het dagelijks leven te normaliseren.

  • Normalisatie: zodra ‘raadpleeg het model’ stap één wordt in elke workflow, wordt menselijk oordeel een uitzondering in plaats van een noodzaak. 
  • Afhankelijkheid: Beslissingsstapels draaien op abonnementen en gepatenteerde modellen, dus hoe meer processen u erdoorheen leidt, hoe moeilijker het is om het platform te verlaten of te veranderen 
  • Controle: naarmate de aanbevelingsengine in de loop van de tijd uw doelen en beperkingen leert kennen, kan deze u controleren zonder 'nee' te zeggen – u komt terecht waar de software u wil hebben en laat u geloven dat u het zelf hebt gekozen 

Je gegevens zijn ook waardevoller bij elke vraag. Keuzes die door chatbots worden bemiddeld, slaan op wat je hebt gevraagd, wat je hebt gekozen, wat je hebt afgewezen en zelfs hoe lang je hebt geaarzeld. Die stroom is goud waard voor verzekeraars, recruiters, platforms, kredietverstrekkers en beleidsmakers – het traint het volgende model, bepaalt de prijs van volgende producten en stuurt je richting bepaalde beslissingen zonder dat je het merkt. Terwijl eliteforums "AI voor betere beslissingen" aanprijzen, promoten ze ook een wereld waarin de infrastructuur van keuzes in dezelfde handen ligt die de draaiboeken schrijven. 

Geven wij vrijwillig de controle uit handen?

De toenemende afhankelijkheid van AI wordt verkocht als "augmented intelligence" en "human in the loop" in plaats van pure controle. Maar in de praktijk wordt de loop elk kwartaal kleiner, en hoe meer je op het systeem leunt, hoe meer je rol krimpt tot het goedkeuren van kant-en-klare beslissingen. Dat is de stille, cruciale verandering op de achtergrond: transformeer besluitvorming naar het simpelweg goedkeuren van machinebegeleiding, en laat iedereen geloven dat het vooruitgang is. 

Kijk eens waar beslissingen van kunstmatige intelligentie al cruciaal zijn in dagelijkse processen: kredietscores die hypotheekverstrekking beschermen, geautomatiseerde aannameprocedures, waarschuwingen voor welzijnsrisico's waartegen geen bezwaar kan worden aangetekend, een triagesysteem voor gezondheid dat bepaalt waar je naartoe moet voordat je een echte arts ziet. Op papier zijn mensen betrokken bij al deze processen, maar in werkelijkheid ontmoet je alleen een echt persoon. na het model heeft uw opties al in kaart gebracht.  

Wat het bewijs zegt

Verschillende onafhankelijke rapporten schetsen een soortgelijk sentiment onder de bevolking. 

In 2024 berichtte Live Science over onderzoek waaruit een paradox bleek: veel mensen zeggen dat ze de voorkeur geven aan algoritmen om belangrijke toewijzingsbeslissingen te nemen, maar zijn meer tevreden wanneer een mens de uiteindelijke beslissing neemt. Met andere woorden: de robot is in theorie eerlijk, maar in de praktijk leven we comfortabeler met een verantwoord oordeel. [Bron: Live Science

Een LSE-analyse komt op hetzelfde neer voor leiderschap. AI kan mensen verslaan op het gebied van werkgeheugen en vermoeidheid, en het verbetert routinematige beslissingen. Complexe, contextuele keuzes vereisen echter nog steeds menselijke verantwoordelijkheid, en de bevindingen laten zien dat AI een krachtig instrument is, maar niet een belangrijke beslisser. Bron: [LSE-blogs

De onderzoekers van Cambridge waarschuwen: hoewel het analytisch vermogen van AI reëel is, kan een te groot vertrouwen op de tool ons eigen kritisch denkvermogen en onze creativiteit onderdrukken als we blindelings de uitkomsten ervan volgen. Hun invalshoek benadrukt dat het gevaar van de groeiende 'AI gut check'-gewoonte in de maatschappij de spieren die we nodig hebben voor moeilijke beslissingen, doet atrofiëren. [Bron: Cambridge

Waarom mensen het vertrouwen

  • Beschikbaarheid: Een bot kan om 2 uur 's nachts antwoorden, terwijl je vrienden of familie vaak niet kunnen 
  • Plausibele neutraliteit: Mensen denken dat de machines geen agenda hebben, zonder te beseffen dat de modellen getraind zijn om betrokkenheid en tevredenheid te maximaliseren. 
  • Beleefdheid: Chatbots zijn ontworpen om geduldig en vriendelijk te zijn, zodat gebruikers zich veilig voelen, vooral effectief wanneer mensen kwetsbaar zijn 

De risico's die de meeste mensen onderschatten

  • Valse autoriteit: een gepolijst antwoord leest als deskundigheid, of het nu medisch, juridisch of psychologisch is, en de meeste mensen verwarren vloeiendheid met correctheid 
  • Erosie van handelingsbekwaamheid: het gewoonlijk uitbesteden van belangrijke beslissingen verstompt de besluitvaardigheid. Uit bovenstaand werk van Cambridge blijkt dat overmatig vertrouwen het kritisch denkvermogen vermindert, vooral bij routinematige keuzes. 
  • Agenda creep: invloedrijke instanties normaliseren het nemen van beslissingen via chatbots als de moderne manier van werken, waardoor de afhankelijkheid van de modellen toeneemt, voordat ze de algoritmes voorzichtig aanpassen om u te leiden waar ze u willen hebben 
  • Vleierij als wijsheid: AI-bots hebben de neiging je vragen en toon te valideren, wat betekent dat je altijd zelfverzekerde antwoorden krijgt die bij je kader passen als je suggestieve vragen stelt. niet oordeel, het is reflectie. 

Hoe je AI kunt gebruiken zonder de controle te verliezen

Modellen zouden gebruikt moeten worden voor opties, niet voor orders. Behandel kunstmatige intelligentie als een snelle onderzoeksassistent die voor- en nadelen kan schetsen en blinde vlekken kan identificeren. Maar voor beslissingen met gevolgen die je gezin, vrijheid of financiën raken, is het cruciaal om mensen de leiding te laten nemen. Verantwoording is hierbij het belangrijkste onderdeel: onthoud dat de AI-bot niet verantwoordelijk kan worden gehouden als zijn automatische aanbevelingen problemen veroorzaken – en dat hij simpelweg niet... verzorging als dat zo is.  

Als je een bot raadpleegt, dwing hem dan om zijn werk te laten zien. Vraag om bronnen, tegenargumenten en aannames. Zodra hij je vertelt wat je al wilde horen, neem dan aan dat je een spiegel hebt en praat met een mens die je vertrouwt.  

Wat gebeurt er nu?

We zien AI-advies al evolueren van nieuwigheid naar de norm. Alleen al in de afgelopen jaren is het geëvolueerd van een marginale technologie naar een essentieel onderdeel van de meeste bedrijfsprocessen. HR-platforms, datingapps, zorgportals en financiële apps zullen 'beslissingsassistenten' implementeren als de standaard eerste stap voordat je ooit met iemand in contact komt. Verwacht dat eliteforums zoals het WEF AI blijven aanprijzen als tegengif tegen vooroordelen, terwijl toezichthouders proberen verantwoording achteraf te definiëren.  

Uiteindelijk is de alarmerende trend hier niet dat AI ons wordt opgedrongen, maar eerder dat we het actief lijken te verwelkomen in ons dagelijks leven en de controle er vrijwillig aan uit handen geven. Binnen 12 maanden zullen de meeste mensen zich een leven zonder AI niet meer kunnen voorstellen. 

Tot slot

Wanneer systemen getraind worden om aangenaam te zijn, gehuld in institutioneel enthousiasme en beschikbaar om advies te geven op kwetsbare momenten in het leven van mensen, voelt het alsof dit allemaal voorspelbaar was. Maar we hebben grenzen nodig. De machines blikje Verbeter de besluitvorming door meer context te bieden, bronnen te vinden of te helpen met de administratie – maar de beslissing zelf moet in menselijke handen blijven. Het zou niet moeten uitmaken hoe snel een getraind model tot een beslissing komt, maar hoe vol vertrouwen we met de keuzes die het model maakt, in ons leven kunnen leven. Zullen we uiteindelijk het vermogen verliezen om onze eigen beslissingen te nemen – of kiezen we er actief voor om de controle uit handen te geven voor het gemak? 

Join the Conversation

Heb jij, of iemand die je kent, ooit een chatbot gebruikt om een ​​belangrijke levensbeslissing te nemen – een scheiding, een verhuizing, een nieuwe baan? Hoe reageerde de chatbot? Waar denk je dat we naartoe gaan nu mensen zich steeds meer op hun gemak voelen bij het overdragen van controle aan bedrijfseigen modellen? Deel je inzichten hieronder. 

Uw overheids- en Big Tech-organisaties
proberen The Expose het zwijgen op te leggen en uit te schakelen.

Daarom hebben we uw hulp nodig om ervoor te zorgen
wij kunnen u blijven voorzien van de
feiten die de mainstream weigert te delen.

De overheid financiert ons niet
om leugens en propaganda op hun site te publiceren
namens de Mainstream Media.

In plaats daarvan vertrouwen we uitsluitend op uw steun. Dus
steun ons alstublieft in onze inspanningen om
jij eerlijke, betrouwbare onderzoeksjournalistiek
vandaag nog. Het is veilig, snel en gemakkelijk.

Selecteer hieronder de methode die u het prettigst vindt om uw steun te betuigen.

Blijf op de hoogte!

Blijf op de hoogte van nieuwsupdates via e-mail

het laden


Deel ons verhaal!
auteur avatar
g.calder
Ik ben George Calder – een levenslange waarheidszoeker, data-enthousiasteling en een onverschrokken vragensteller. Ik heb het grootste deel van twintig jaar besteed aan het doorspitten van documenten, het decoderen van statistieken en het ter discussie stellen van verhalen die geen stand houden onder kritisch onderzoek. Mijn schrijven gaat niet over meningen – het gaat over bewijs, logica en helderheid. Als het niet kan worden onderbouwd, hoort het niet thuis in het verhaal. Voordat ik bij Expose News kwam, werkte ik in academisch onderzoek en beleidsanalyse, waar ik één ding heb geleerd: de waarheid is zelden luid, maar is er altijd – als je weet waar je moet zoeken. Ik schrijf omdat het publiek meer verdient dan krantenkoppen. Jij verdient context, transparantie en de vrijheid om kritisch te denken. Of ik nu een overheidsrapport analyseer, medische gegevens analyseer of mediabias aan de kaak stel, mijn doel is simpel: door de ruis heen breken en de feiten presenteren. Als ik niet schrijf, vind je me wandelend, obscure geschiedenisboeken lezend of experimenterend met recepten die nooit helemaal goed uitpakken.

Categorieën: Wist u dat?

Getagged als: , , ,

5 2 stemmen
Artikelbeoordeling
Inschrijven
Melden van
gast
9 Heb je vragen? Stel ze hier.
Inline feedbacks
Bekijk alle reacties
Eerwaarde Scott
Eerwaarde Scott
2 maanden geleden

De AI op mijn telefoon lijkt bevooroordeeld. Ik heb gemerkt dat het tegenstrijdig is met betrekking tot convid, klimaat en boogschieten... Ik weet dat ik een boog in het openbaar mag dragen... AI beweerde van niet totdat ik het aanvocht... Ik draag hem niet in het openbaar, maar ik ben er een kei in... Ik kan ook niet lang wachten, gewoon trekken, loslaten en recht door de appel... geen vizier, geen slimme onderdelen, alleen een pijlsteun en markeringen op de pees...

Vreugde N.
Vreugde N.
2 maanden geleden


Wat de Heilige Bijbel zegt over dit verschrikkelijke decennium dat voor ons ligt. Hier is een site die de huidige wereldwijde gebeurtenissen uiteenzet in het licht van de Bijbelse profetieën. Om meer te begrijpen, bezoek 👇 https://bibleprophecyinaction.blogspot.com/

Pas op
Pas op
2 maanden geleden

Er zijn tegenwoordig vast een hoop mensen die niet nadenken.
Ik vind het ronduit irritant. Elke dag verschijnen er meerdere realistische video's over geopolitiek waarvan ik kan zien dat ze nep zijn, maar die vaak moeilijk te onderscheiden zijn. Keir Starmer is bijvoorbeeld negen keer door Koning Charles ontslagen, maar zit er nog steeds. Zijn marxistische frontlinie in de regering heeft 15 keer gestaakt om hem tot aftreden te dwingen. En zo gaat het dagelijks door met non-gebeurtenissen in Oekraïne, Gaza, de EU en elders in de wereld.

Mijntje
Mijntje
2 maanden geleden

Onderworpen aan letterlijk hersenloze 'beslissingen' die levens in gevaar brengen. Dus moeten we het leven verdedigen tegen 'nanny'-bedrijven, water, energie, IT/telecom.
Ik en niemand die ik ken, gebruiken ooit een chatbot. We bepalen zelf wat we doen. We accepteren dat we feilbaar zijn, en een verkeerde beslissing stelt ons gerust.
Tenzij we nadenken en onze eigen feilbaarheid accepteren, zijn we egoïstisch en onmenselijk. Meer chatbots gebruiken leidt tot meer onverantwoordelijke, wrede, onnadenkende, emotionele, automatische 'vecht-of-vlucht'-reacties die passen bij digitale systemen, zoals 'AI'.
Gedachten kunnen het continuüm van het leven begrijpen, en daarmee de context van beslissingen die bij het leven passen. Maar digitale systemen kunnen het continuüm niet begrijpen en zijn daarom blind voor context. De functie van 'AI' is totalitair en elimineert variatie die essentieel is voor het leven; uitkomsten zijn anti-leven.

Hannahlehigh
Hannahlehigh
2 maanden geleden

Leg je mobiele telefoon weg en praat met God. Hij is de enige die je kan helpen. Stop met het verkopen van je ziel aan de duivel. AI is geboren uit het occulte en Satan.

Shari
Shari
Antwoord aan  Hannahlehigh
2 maanden geleden

AMEN!

Jack Anderekant
Jack Anderekant
2 maanden geleden

Veel zogenaamde halfintelligenten geloven dat het aanvullen van hun intelligentietekort met kunstmatige intelligentie hen volledig intelligent zal maken. Succes!

Wide Awake Pete
Wide Awake Pete
2 maanden geleden

Ik kies voor de echte intelligentie, waarmee God ons allemaal heeft toegerust.

Eilandbewoner
Eilandbewoner
2 maanden geleden

Iedereen die dit leest, moet zich afvragen of hij of zij wel een vrije wil heeft.

Als we de AI-route bewandelen (zoals velen lijken te doen), komt dit dan niet neer op “je ziel verkopen aan de duivel”, zoals Hannahlehigh terecht beweert?

De grote protestantse hervormer Luther zei: "vrije wil is een naam voor niets". Ik ben het meest zeker mee eens.

Natuurlijk kunnen wij keuzes maken vanuit onze 'vrije wil', maar zijn deze keuzes in Christus gericht op God, of tegen Hem?

Deze ontwikkelingen/evoluties in de technologie zijn VERBLINDEND ontelbare hoeveelheden. Triest maar waar.