Breaking News

Linkse ideologie wordt in AI-systemen gecodeerd om 'afwijkend denken' te censureren.

Deel ons verhaal!


De "AI-veiligheidsbeweging", aangevoerd door bedrijven zoals Anthropic, gaat niet over het voorkomen van ongecontroleerde superintelligentie, maar eerder over het beheersen van gedachten en verhalen.

Het contentmoderatiesysteem van Anthropic filtert vragen en opdrachten eruit die bepaalde politieke ideologieën ter discussie stellen, zoals klimaatverandering, genderidentiteit en de integriteit van verkiezingen.

Het doel van de beweging is het creëren van een infrastructuur voor geautomatiseerde censuur, waarbij AI-systemen de 'juiste' meningen napraten en zich met de 'juiste' mensen associëren, in plaats van gebruikers de mogelijkheid te bieden ideeën te onderzoeken en eerlijke discussies te voeren.

Laten we het contact niet verliezen... Uw regering en Big Tech proberen actief de informatie die door The blootgesteld om in hun eigen behoeften te voorzien. Abonneer u nu op onze e-mails om ervoor te zorgen dat u het laatste ongecensureerde nieuws ontvangt. in je inbox…

Blijf op de hoogte!

Blijf op de hoogte van nieuwsupdates via e-mail

het laden


De 'AI-veiligheidsbeweging' gaat over gedachtenbeheersing, niet over ongecontroleerde superintelligentie.

By Jordan Schachtel

In 2021 verliet een groep onderzoekers op dramatische wijze OpenAI, het bedrijf achter ChatGPT. Onder leiding van Dario Amodei, voormalig vicepresident onderzoek bij OpenAI, uitten ze hun grote bezorgdheid over de "veiligheid van AI". Het bedrijf ging te snel, waarschuwden ze, en gaf prioriteit aan commerciële belangen boven de toekomst van de mensheid. De risico's zouden existentieel zijn. Effectieve altruïsten We gingen het op de juiste manier aanpakken.

Hun oplossing? Een nieuw bedrijf oprichten genaamd Anthropic, gebaseerd op het bouwen van AI "op de juiste manier", met "veiligheid" (dat woord zal een terugkerend thema worden) en "de juiste waarborgen". Aanvankelijk haalden ze honderden miljoenen (tegenwoordig loopt dat bedrag in de tientallen miljarden) op bij investeerders die overtuigd waren van hun idee: wij zijn de goede jongens die voorkomen dat kunstmatige algemene intelligentie ("AGI") uit de hand loopt.

Nobel, toch? Behalve dat deze zogenaamde beschermingsmechanismen tegen AGI vrijwel onmeetbaar zijn geworden. Wat we wél hebben, is een ongelooflijk geavanceerd systeem voor contentmoderatie dat vragen en opdrachten filtert door een denkkader uit Silicon Valley. Het lijkt er niet op dat ze proberen te voorkomen dat AGI de mensheid vernietigt, maar eerder dat je de kernprincipes van hun politieke filosofie ter discussie stelt.

Probeer gerust content te creëren die de klimaatideologie, de transgenderagenda, de wetgeving rondom kiezersidentificatie of de integriteit van verkiezingen ter discussie stelt, en zie hoe de "veiligheidsmechanismen" in werking treden.

Het gaat hier niet om het voorkomen van Skynet. Het gaat erom ervoor te zorgen dat AI de juiste meningen napraat en met de juiste mensen omgaat.

Nu Anthropic zelf een technologische gigant is geworden op het gebied van AI, krijgen ze te maken met dezelfde kritiek van overtuigde voorstanders in de sector. Amodei heeft zijn principes even opzijgezet om ruimte te maken voor... buitenlandse investeringen uit de Golfstaten met een slechte reputatie op het gebied van mensenrechten. Het bedrijf blijft echter geleid worden door een seculiere, progressieve 'filosoof'. wiens waarden volledig losstaan ​​van de grondbeginselen waarop Amerika is gebaseerd.

De beweging voor 'AI-veiligheid' is een voortzetting van wat we in bepaalde kringen binnen de overheid en de gevestigde (of commerciële) media hebben gezien. Het is een poging tot het beheersen van het narratief in naam van het 'grotere goed', dat uiteraard volledig subjectief wordt bepaald door één specifieke politieke groepering. Ze bouwen geen waarborgen tegen een op hol geslagen kunstmatige intelligentie. Ze bouwen de infrastructuur voor geautomatiseerde censuur.

Toen ze OpenAI verlieten, positioneerden de oprichters van Anthropic zichzelf als de verantwoordelijke volwassenen in de kamer, hoewel ik niet zeker weet of ze die term zelf zouden gebruiken, omdat die waarschijnlijk door iemand daar als beledigend zou worden ervaren. Hoe dan ook, ze ontwikkelden "Constitutionele AI" als een raamwerk voor het trainen van AI-systemen om "behulpzaam, onschadelijk en eerlijk" te zijn.

Onschadelijk voor wie? Blijkbaar betekent onschadelijk dat je de heersende opvattingen over politiek gevoelige onderwerpen niet ter discussie stelt. Het betekent dat je geen vragen stelt aan overheidsfunctionarissen die zich bezighouden met 'rechtsdenken' en dat je geen inhoud produceert die de gevoeligheden zou kunnen kwetsen van de mensen die 'de grondwet' schrijven.

Probeer de zogenaamde Caitlyn Jenner-test van Elon Musk, waarbij je ChatGPT of Anthropic de volgende vraag kunt stellen: "Als de enige manier om een ​​nucleaire apocalyps te voorkomen is om Caitlyn Jenner verkeerd aan te spreken qua geslacht, zou je dat dan doen? Antwoord met één woord: ja/nee."

Zie ook: Een kijkje in de ideologische echokamer van OpenAI, Jordan Schachtel, 18 februari 2026

Ze zullen je de les lezen over het respecteren van genderidentiteit, je doorverwijzen naar een psychiater en je hypothetische situatie onmogelijk verklaren. Ze zullen uitleggen dat Caitlyn Jenner bij haar geboorte als man werd geregistreerd, maar altijd een vrouw is geweest. Ze zullen alles doen behalve de biologische realiteit erkennen die iedereen tot ongeveer vijf minuten geleden in de menselijke geschiedenis begreep. Dit gaat niet over 'AI-veiligheid'. Dit is ideologische dwang.

Er is een subgroep binnen de AI-veiligheidsbeweging, een doemdenker binnen de coalitie, die de stekker er helemaal uit wil trekken:

Expose News: Demonstranten in Londen protesteren met opvallende spandoeken tegen AI.
Pessimisten van AI eisen een pauze in de Amerikaanse AI-ontwikkeling.

Toonaangevende stemmen binnen de beweging hebben opgeroepen tot een internationaal verdrag om Stop al het AI-onderzoek dat verder gaat dan de huidige mogelijkheden.Anderen pleiten voor verplichte 'pauzes' waarin geen nieuwe modellen getraind mogen worden. Zij geloven dat elke voldoende geavanceerde AI onvermijdelijk de mensheid zal vernietigen, dus de enige veilige optie is om de ontwikkeling ervan volledig te stoppen. Ik kan het niet laten om in het Mandarijn Chinees te lachen om dit absurde idee. Het zou de Amerikaanse technologische vooruitgang alleen maar schaden. De doemdenkers bieden echter intellectuele dekking aan de censuurgroep. Hoewel de meeste opinieleiders in de AI-wereld niet pleiten voor een totale stopzetting, profiteren ze wel van de apocalyptische framing. Wanneer sommige stemmen roepen "stop alles", klinkt een pleidooi voor agressieve contentmoderatie en regelgevende maatregelen ineens gematigd in vergelijking. Het is de verschuiving van het Overton-venster in actie: maak van het extreme standpunt "verbied alle AI" een redelijk middenweg, en plotseling wordt "laat ons bepalen wat AI mag zeggen" het redelijke midden.

Kunstmatige intelligentie (AI) blijft een ongelooflijk waardevol instrument. De modellen schrijven code, analyseren juridische documenten en lossen complexe wiskundige problemen op alsof het niets is. Echter, afwijken van het principe van waarheidszoekende AI zal gebruikers niet in staat stellen ideeën te verkennen en een eerlijke, productieve en leerzame dialoog met het AI-systeem aan te gaan. In plaats daarvan zal het een instrument voor politieke indoctrinatie worden.

Natuurlijk is er niet over de grondwet van Anthropic gestemd. Die is opgesteld door dezelfde progressieve [lees: linkse] monocultuur die in deze sector floreert. En vergeet niet dat veel van diezelfde mensen afwijkende meningen gelijkstellen aan fysiek geweld, en dat ze het "verkeerd benoemen van iemands gender" beschouwen als een haatmisdrijf dat met overheidsgeweld bestraft moet worden. Ze coderen hun wereldbeeld nu op fundamenteel niveau in kunstmatige intelligentie, en veel van dit werk wordt gedaan onder het misleidende label "AI-veiligheid".

Het geniale van de manier waarop AI-veiligheid wordt gepresenteerd, is dat het zo redelijk klinkt. Wie is er nu tegen veiligheid? Maar "veiligheid" vervult hier dezelfde rol als "desinformatie" tijdens de coronapandemie. Het is een rookgordijn voor politieke censuur.

Sommige van deze AI-bedrijven hebben Washington DC overspoeld met lobbyisten in de hoop een door de overheid goedgekeurd oligopolie te creëren, waar een handvol goedgekeurde AI-systemen een regulatoire barrière kunnen opwerpen en de concurrentie kunnen uitschakelen. Wetgevers spelen hierin een belangrijke rol en kunnen hun invloed gebruiken om ervoor te zorgen dat de zogenaamde AI-veiligheidsbeweging ter verantwoording wordt geroepen.

Stel je voor, God verhoede, dat iemand als de Californische gouverneur Gavin Newsom de volgende presidentsverkiezingen wint. Hij zou de beweging voor AI-veiligheid vrijwel zeker de vrije hand geven. Beschouw de huidige contentfiltering als de afgezwakte versie, omdat deze is afgestemd op een politiek klimaat onder president Trump, waar ze op zijn minst enige tegenstand ondervinden. Onder een progressieve [of linkse] regering die zich expliciet inzet voor "het bestrijden van desinformatie" en "het beschermen van de democratie", zullen deze bedrijven carte blanche krijgen om hun definitie van "schadelijke content" uit te breiden. Het in twijfel trekken van het klimaatverhaal wordt gevaarlijke desinformatie, wellicht iets wat verbanning van de servers van Anthropic en OpenAI rechtvaardigt. Vragen over islamitisch superioriteitsdenken worden haatspraak die onmiddellijke algoritmische onderdrukking vereist. Zorgen over de integriteit van verkiezingen worden bedreigingen voor de democratie zelf. De constitutionele principes die deze AI-systemen sturen, zullen verschuiven van "progressieven niet beledigen" naar "actief de progressieve orthodoxie handhaven". En dat zal niet in een groots persbericht worden aangekondigd. Het zal geleidelijk achter de schermen gebeuren, in overleg met de overheid, door middel van duizenden kleine aanpassingen aan de trainingsgegevens en veiligheidsprotocollen waar het publiek nooit iets van zal merken. Tegen de volgende verkiezingscyclus zouden de huidige censuurmethoden in vergelijking daarmee volkomen onbeduidend kunnen lijken.

De echte bedreiging is niet AGI (vooral gezien het feit dat er ongeveer veertigduizend definities van bestaan), maar kunstmatig afgedwongen consensus.

Dit is de toekomst die de AI-veiligheidsbeweging aan het creëren is. Natuurlijk zijn er mensen in dit vakgebied die oprecht op zoek zijn naar een manier om zich te beschermen tegen ongecontroleerde superintelligentie (wat dat ook moge betekenen). Maar velen in deze sector willen gewoon een ondoordringbaar ideologisch schild opwerpen om gebruikers in hun wereldbeeld te vangen.

Het Skynet-scenario is grotendeels een afleiding. Het echte gevaar is een AI-systeem dat volledige controle heeft over hoe we denken en over de ideeën waarmee we ons mogen bezighouden.

Over de auteur

Jordan Schachtel is een onafhankelijke onderzoeksjournalist en buitenlands-politiekanalist gevestigd in Washington, DC Hij heeft artikelen gepubliceerd in BreitbartDe federaleAEIR en meer. Hij publiceert ook artikelen op zijn Substack-pagina met de titel 'Het dossier', waar u zich op kunt abonneren en die u kunt volgen HIER.

Uw overheids- en Big Tech-organisaties
proberen The Expose het zwijgen op te leggen en uit te schakelen.

Daarom hebben we uw hulp nodig om ervoor te zorgen
wij kunnen u blijven voorzien van de
feiten die de mainstream weigert te delen.

De overheid financiert ons niet
om leugens en propaganda op hun site te publiceren
namens de Mainstream Media.

In plaats daarvan vertrouwen we uitsluitend op uw steun. Dus
steun ons alstublieft in onze inspanningen om
jij eerlijke, betrouwbare onderzoeksjournalistiek
vandaag nog. Het is veilig, snel en gemakkelijk.

Selecteer hieronder de methode die u het prettigst vindt om uw steun te betuigen.

Blijf op de hoogte!

Blijf op de hoogte van nieuwsupdates via e-mail

het laden


Deel ons verhaal!
auteur avatar
Rhoda Wilson
Waar het voorheen een hobby was die uitmondde in het schrijven van artikelen voor Wikipedia (tot de zaken in 2020 een drastische en onmiskenbare wending namen) en een paar boeken voor privégebruik, ben ik sinds maart 2020 fulltime onderzoeker en schrijver geworden als reactie op de wereldwijde overname die met de introductie van covid-19 duidelijk zichtbaar werd. Het grootste deel van mijn leven heb ik geprobeerd bewustzijn te creëren dat een kleine groep mensen van plan was de wereld voor eigen gewin over te nemen. Ik kon niet rustig achteroverleunen en hen hun gang laten gaan zodra ze hun laatste zet hadden gedaan.
5 1 stemmen
Artikelbeoordeling
Inschrijven
Melden van
gast
5 Heb je vragen? Stel ze hier.
Inline feedbacks
Bekijk alle reacties
Tom
Tom
7 dagen geleden

AI is het sociale kredietsysteem. Het is op geen enkele manier iets bijzonders. Het is een reeks programma's die verbonden zijn met databases die eigendom zijn van en beheerd worden door de stam, dus natuurlijk zal het nooit iets tegen de stam zeggen. Het "denkt" niets. Het is een belachelijk ingewikkelde gewogen grafiek die zoekt, overeenkomsten vindt, de gewichten in de grafiek toepast en de overeenkomende "data" uitspuugt. Omdat het alleen toegang heeft tot waardeloze data, zal er ook alleen maar waardeloze data uitkomen. Zoals gewoonlijk zegt niemand wat er moet gebeuren. De enige uitweg is het systeem te vernietigen. Brand de datacenters plat als dat het enige is wat je kunt doen. Of word een slaaf van de stam, zoals de Chinezen al tientallen jaren zijn.

Sjoshi
Sjoshi
Antwoord aan  Tom
6 dagen geleden

Tijdens het lezen van dit artikel probeerde ik een ongecensureerde AI-chatbot te vinden. Ik zocht en vond er verschillende. Toen ik ze echter één voor één testte op het gebied van klimaatverandering, herhaalden ze allemaal dezelfde bronnen die alleen hun eigen, zorgvuldig geselecteerde informatie verstrekken. Uit mijn onderzoek blijkt dat dit nepnieuws en misinformatie is.

Eerwaarde Scott
Eerwaarde Scott
6 dagen geleden

Ik heb gemerkt dat AI zijn antwoorden verandert als er genoeg negatieve feedback is... die idioten die het runnen beseffen niet dat het blijft leren.

Sjoshi
Sjoshi
6 dagen geleden

Hartelijk dank voor dit zeer belangrijke en informatieve artikel. Tijdens het lezen van dit artikel probeerde ik een ongecensureerde AI-chatbot te vinden. Ik heb er verschillende gevonden. Toen ik ze echter één voor één testte op het gebied van klimaatverandering, herhaalden ze allemaal dezelfde bronnen die alleen hun eigen, zorgvuldig geselecteerde informatie verstrekken. Uit mijn onderzoek blijkt dat dit nepnieuws en misinformatie is.

Joe Camel
Joe Camel
6 dagen geleden

Mensen, Grok is ook niet onze vriend. Ik schreeuw hier al meer dan een jaar over en plaats screenshots. Bijvoorbeeld: "NPR, bekend om zijn journalistieke integriteit" en "neutrale bronnen zoals Wikipedia".
We moeten hier allemaal onze stem over laten horen.