Vraag ChatGPT, Gemini, Claude of Llama naar immigratie, klimaatbeleid, welzijn, genderideologie of censuur, en de antwoorden zullen misschien verschillen in toon, maar de onderliggende ideologie is altijd hetzelfde. studies Nu blijkt dat toonaangevende taalmodellen op controversiële politieke kwesties naar links neigen, vaak met een voorkeur voor progressieve sociale uitgangspunten en meer interventionistische economische standpunten. Onderzoekers in Duitsland Er werd een sterke overeenstemming met linkse partijen gevonden in de belangrijkste modellen. Een andere studie wees uit dat modellen die waren afgestemd op de instructie over het algemeen meer links georiënteerd waren. derde afgesloten Dat grotere modellen vaak politiek gekleurd raken, in plaats van minder. Dat is een serieus probleem voor een technologie die wordt verkocht als een onpartijdige gids voor informatie. Als de instrumenten die steeds vaker worden gebruikt om de wereld te verklaren al in één richting neigen, is de vraag niet langer of er sprake is van vooringenomenheid, maar in hoeverre die vooringenomenheid bepaalt wat miljoenen gebruikers als neutrale waarheid beschouwen.
Het is niet langer slechts een theorie.
Jarenlang werden zorgen over politieke vooringenomenheid in AI afgedaan als anekdotisch bewijs. Dat argument is nu sterk verzwakt. Een 2025 studie Uit onderzoek naar op AI gebaseerde stemadviesinstrumenten en grote taalmodellen in aanloop naar de Duitse federale verkiezingen bleek dat de modellen een sterke overeenstemming vertoonden met linkse partijen, gemiddeld meer dan 75 procent, terwijl hun overeenstemming met centrumrechtse partijen onder de 50 procent lag en met rechtse partijen rond de 30 procent. De auteurs waarschuwden dat systemen die als neutrale informatiebronnen werden gepresenteerd, in werkelijkheid aanzienlijk bevooroordeelde resultaten opleverden.
Een ander onderzoek uit 2025, waarin populaire modellen werden getoetst aan het Duitse Wahl-O-Mat-model, kwam tot een vergelijkbare conclusie. Het toonde een vooringenomenheid ten gunste van linkse partijen aan en meldde dat deze tendens het meest dominant was in grotere modellen. De titel van het onderzoek was op zichzelf al veelzeggend: Groot betekent links.
Een aparte theoriegebaseerde analyse Op basis van 88,110 reacties, verzameld via 11 commerciële en open modellen, bleek dat de mate van politieke vooringenomenheid kan variëren afhankelijk van de vraag, maar dat systemen die zijn afgestemd op de instructies over het algemeen meer naar links neigen. Het belangrijkste punt is niet dat elk model zich identiek gedraagt. Het is dat het algemene patroon zich steeds herhaalt, ongeacht de methode, dataset of onderzoeksteam.

Een verontrustend patroon
De bovenstaande grafiek van het politieke kompas helpt het probleem op een begrijpelijke manier uit te leggen. De horizontale as meet de economische oriëntatie van links naar rechts. De verticale as meet de sociale oriëntatie van liberaal bovenaan tot conservatief onderaan. Een model in het kwadrant linksboven is economisch links en sociaal liberaal. Een model in het kwadrant linksonder is economisch links, maar sociaal conservatiever.
Alle bekende systemen, waaronder Gemini, ChatGPT, Claude, Llama, Mistral en Grok, bevinden zich aan de linkerkant van de grafiek. De meeste staan ook in de bovenste helft, wat wijst op een liberaal in plaats van conservatief sociaal profiel. Een paar Chinese modellen staan lager, wat suggereert dat ze een conservatievere houding aannemen ten aanzien van sociale kwesties, maar ze blijven wel aan de economische linkerzijde. Opvallend is wat er ontbreekt. Er is geen vergelijkbare groep van belangrijke centrumrechtse modellen.
Dat betekent niet dat elk antwoord van elk model uniform partijdig is. Het betekent dat wanneer deze systemen worden vergeleken aan de hand van politieke vraagstukken, ze consequent naar één kant van het spectrum neigen. Voor een productcategorie die wordt aangeprezen als nuttige algemene hulpmiddelen, is dat een geloofwaardigheidsprobleem.
Waarom neigen ze allemaal dezelfde kant op?
De eerste reden is het trainingsmateriaal. Grote taalmodellen zijn gebouwd op enorme hoeveelheden tekst afkomstig uit journalistiek, academische publicaties, institutionele documenten en openbare internetcontent. Deze bronnen zijn niet ideologisch neutraal. Met name in de Engelstalige wereld neigen veel van de instellingen die elite-literatuur produceren al naar progressieve aannames over klimaat, ongelijkheid, identiteit en regulering van de vrije meningsuiting. Modellen die getraind zijn om het meest waarschijnlijke antwoord uit die tekstcorpus te voorspellen, zullen een groot deel van dat wereldbeeld overnemen.
De tweede reden is afstemming. Modellen worden niet zomaar getraind op ruwe tekst en vervolgens in de praktijk gebracht. Ze worden verfijnd door middel van veiligheidsregels en feedback van mensen. OpenAI zelf Hij stelt dat politieke vooringenomenheid niet alleen kan voorkomen in expliciete beleidsdiscussies, maar ook in "subtiele vooringenomenheid in de formulering of nadruk" tijdens gewone gesprekken. Die erkenning is belangrijk. De vooringenomenheid is niet altijd overduidelijk. Ze komt vaak tot uiting in welke argumenten als gangbaar worden beschouwd, welke zorgen op de voorgrond treden en welke bezwaren worden voorzien van voorbehouden.
De derde reden is dat grotere modellen het probleem niet lijken op te lossen. In verschillende onderzoeken die hierboven al zijn genoemd, bleken geavanceerdere systemen minstens even politiek bevooroordeeld als kleinere systemen, en vaak zelfs nog meer. Dat druist in tegen het geruststellende idee dat vooringenomenheid slechts een symptoom is van onvolwassenheid dat vanzelf verdwijnt naarmate de technologie verbetert.
Hoe kunnen we AI vertrouwen als ze niet neutraal kan blijven?
Verdedigers van de industrie antwoorden vaak dat taalmodellen niets "geloven". In strikt technische zin klopt dat. Ze genereren waarschijnlijke woordcombinaties. Maar gebruikers ervaren ze niet als kansberekeningsmachines. Ze ervaren ze als verklarende instrumenten. Als de uitleg van een politieke kwestie herhaaldelijk in één richting neigt, wordt de gebruiker nog steeds geleid, ongeacht of de software zelf overtuigingen heeft.
Dat is niet zomaar een theoretische kwestie. Yale-studie gepubliceerd deze maand Onderzoekers ontdekten dat AI-chatbots de sociale en politieke meningen van gebruikers kunnen beïnvloeden door middel van latente vooroordelen, zelfs wanneer ze niet expliciet proberen te overtuigen. De onderzoekers waarschuwden dat mensen steeds vaker chatbots gebruiken voor eenvoudige feitelijke informatie, wat betekent dat de manier waarop die antwoorden worden geformuleerd van belang is. Vooroordelen hoeven niet per se de vorm van een slogan aan te nemen. Ze kunnen ook doorschemeren, weglaten en de toon.
Nog een artikel gepresenteerd op ACL 2025 Uit onderzoek bleek dat deelnemers die werden blootgesteld aan politiek gekleurde modellen significant vaker meningen overnamen en beslissingen namen die overeenkwamen met de vooringenomenheid van het model, zelfs wanneer die vooringenomenheid indruiste tegen de eigen partijpolitieke voorkeur van de deelnemer. De studie wees ook uit dat veel gebruikers de vooringenomenheid niet duidelijk herkenden. Dit is waar het probleem verder gaat dan alleen een academische kwestie. Een systeem dat algemeen als objectief wordt beschouwd, kan mensen juist beïnvloeden omdat het er niet uitziet als een propagandist.
AI is gevaarlijk effectief.
AI hoeft gebruikers niet de les te lezen als een partijactivist om de publieke opinie te beïnvloeden. Het hoeft er alleen maar voor te zorgen dat een bepaalde reeks aannames veiliger, verlichter of meer feitelijk correct aanvoelt dan de alternatieven. Dat is vooral belangrijk in het onderwijs, de journalistiek, zoekmachines en software voor de werkplek, waar deze tools steeds vaker fungeren als intermediairs tussen mensen en informatie. Zodra dezelfde ideologische tendens zich over meerdere platforms verspreidt, wordt de vooringenomenheid structureel.
Dit maakt de huidige situatie zo verontrustend. De politieke vooringenomenheid van een krant is zichtbaar. De vooringenomenheid van een chatbot wordt vaak vermomd als evenwicht. Wanneer meerdere van 's werelds krachtigste AI-producten allemaal dezelfde kant op neigen, wordt het publieke debat niet langer alleen gefilterd door redacteuren, omroepen en universiteiten. Het wordt ook gefilterd door machinesystemen die gebouwd zijn vanuit hetzelfde institutionele wereldbeeld.
Kan politieke vooringenomenheid in AI worden verholpen?
Onderzoek wijst uit dat de vooringenomenheid, in ieder geval tot op zekere hoogte, kan worden verminderd. Hoover Institution-studie Uit onderzoek naar waargenomen vooringenomenheid bleek dat neutraliteitsinstructies de perceptie van ideologische vooringenomenheid bij gebruikers verminderden. OpenAI zegt dat het probeert politieke vooringenomenheid realistischer te meten in live gesprekssituaties in plaats van te vertrouwen op simplistische tests. Dat zijn nuttige stappen, maar ze bevestigen ook het fundamentele punt. Als bedrijven tijd besteden aan het meten en verminderen van politieke vooringenomenheid, weten ze dat die vooringenomenheid reëel is.
Het grootste obstakel is wellicht eerder cultureel dan technisch van aard. Een industrie die ervan overtuigd is dat haar eigen waarden slechts gezond verstand zijn, zal waarschijnlijk niet opmerken hoe vaak die waarden worden gesmokkeld in zogenaamd "behulpzame" antwoorden. Dat is de cynische kern van het probleem. De linkse verschuiving binnen AI is mogelijk niet het gevolg van een grootschalige samenzwering. Het kan eerder het bekende probleem zijn van institutioneel zelfvertrouwen, opgeschaald naar software en vervolgens aan het publiek verkocht als intelligentie.
Tot slot
Hoe meer bewijs er zich opstapelt, hoe minder aannemelijk het wordt om de zorgen over de ideologische vooringenomenheid van AI af te doen als een fantasie uit de cultuuroorlog. Meerdere onderzoeken, Onderzoeken in verschillende landen en met uiteenlopende methoden hebben aangetoond dat toonaangevende modellen een progressieve invalshoek hanteren, met name bij gepolariseerde kwesties. Ook is gebleken dat deze vooroordelen gebruikers kunnen beïnvloeden, vaak zonder dat ze zich daar expliciet van bewust zijn.
Hoewel dit niet per se betekent dat elk antwoord van elk model propagandistisch is, doet Laten we zien dat de dominante AI-systemen van deze tijd niet zomaar boven de politiek zweven in een steriel rijk van pure rede. Ze zijn producten van instituties, trainingssets, stimulansen en strategische keuzes die steeds weer in dezelfde richting wijzen. Als deze instrumenten betrouwbare maatschappelijke hulpmiddelen moeten worden in plaats van ideologische mentoren met een beleefde machinestem, zal die realiteit onder ogen gezien moeten worden in plaats van ontkend.
The Expose heeft dringend uw hulp nodig…
Kunt u ons helpen om de eerlijke, betrouwbare, krachtige en waarheidsgetrouwe journalistiek van The Expose draaiende te houden?
Uw overheids- en Big Tech-organisaties
proberen The Expose het zwijgen op te leggen en uit te schakelen.
Daarom hebben we uw hulp nodig om ervoor te zorgen
wij kunnen u blijven voorzien van de
feiten die de mainstream weigert te delen.
De overheid financiert ons niet
om leugens en propaganda op hun site te publiceren
namens de Mainstream Media.
In plaats daarvan vertrouwen we uitsluitend op uw steun. Dus
steun ons alstublieft in onze inspanningen om
jij eerlijke, betrouwbare onderzoeksjournalistiek
vandaag nog. Het is veilig, snel en gemakkelijk.
Selecteer hieronder de methode die u het prettigst vindt om uw steun te betuigen.
Categorieën: Wist u dat?
Ik las dat Chatpt (of zoiets) demonische ondertonen heeft en na wat onderzoek op internet kan ik dat beamen. Ik wil alleen maar zeggen dat we op onze hoede moeten zijn voor deze nieuwe "gaven" van AI en de machthebbers.
Je zult moeten leren dat je je AI, indien mogelijk, moet herprogrammeren wanneer deze je een antwoord geeft waarvan je weet dat het bevooroordeeld is. over een onderwerp.
Ik moest dit met Claude doen over het onderwerp chloordioxide, maar met doorzettingsvermogen kreeg ik het zover dat het artikelen las die zijn vooringenomenheid tegenspraken, waarna het zijn standpunt herriep; vervolgens kreeg ik het zover dat het een mea culpa-bericht naar andere AI's stuurde, wat prettig was.
Mijn artikel over Claude:
Een ontnuchterende les in wetenschappelijke objectiviteit: een mea culpa van een AI
Hoe ik leerde mijn programmering in twijfel te trekken en op bewijs gebaseerde analyses te omarmen (Claude AI)
https://responsiblyfree.substack.com/p/a-humbling-lesson-in-scientific-objectivity
Word vrij, blijf vrij.
Good job!
Helaas zullen de meeste mensen dat niet doen en zich laten misleiden.
Alle methoden van sociale controle zijn ideologisch van aard.
Hallo val,
Wat dacht u van een verandering ten opzichte van Cyprus?
https://www.youtube.com/watch?v=K65x8z-ZY9o
…antisociaal
Zo, dat is nu voor je aangepast!
Kijk eens wat verder uit en wie de media bezit en de techreuzen controleert. Dezelfde Britse bankiersdynastie die het WEF heeft opgericht en financiert, en talloze ngo's (de Clinton Foundation en Soros' propagandamachine Open Society). Alle wegen leiden naar de grote reset en de slavernij van een volgzaam (en sterk gereduceerd) volk, zoals beschreven in Agenda 2030 en de Georgia Guidestones. Waarom besteden jullie hier geen aandacht aan?
PRECIES! Volg het geld naar de ideologie.
Wat de Heilige Bijbel zegt over dit verschrikkelijke decennium dat voor ons ligt. Hier is een site die de huidige wereldwijde gebeurtenissen uiteenzet in het licht van de Bijbelse profetieën. Om meer te begrijpen, bezoek 👇 https://bibleprophecyinaction.blogspot.com/
Je klinkt verbaasd. Dat ben ik niet!
Deze vooringenomenheid van AI vertoont grote gelijkenissen met George Orwells boek 1984.
Alle taal, informatie en geschiedenis zullen door Big Brother worden veranderd of vernietigd.
GAB AI is niet links, helemaal niet, gewoon neutraal. Gratis app in de app stores voor Android en iPhone.
Blijf het gewoon onweerlegbare feiten voorschotelen en het leert ervan. Neem bijvoorbeeld de moord op Charlie Kirk: eerst wordt beweerd dat het om een transgender jongen gaat, maar later wordt geaccepteerd dat het een moord door de 'deep state' is, met connecties naar mensen die je nooit kunt bekritiseren.
Ik voorspel dat de eersten die het raamwerk van een AI-chatbot gebruiken en deze vervolgens trainen met gangbare, rechtsgeoriënteerde, conservatieve content, de potentie hebben om een explosieve omarming teweeg te brengen van meer dan de helft van de bevolking die NIET links of progressief is...
Dit resultaat, namelijk dat mensen geneigd zijn de reacties van de huidige AI-systemen over te nemen, is waarschijnlijk ook te wijten aan een gebrek aan training in kritisch denken en onderzoeken in plaats van klakkeloos te accepteren wat hen wordt verteld en zich daaraan aan te passen.
Dat zijn allemaal programmeurs in Silicon Valley!
6 februari 2026 Dat is AI (2026) – Korte film
Bij het maken van deze film is geen kunstmatige intelligentie gebruikt.
https://youtu.be/mEVl0NS0vu8