Wist u dat?

AI zal zichzelf opeten; het is net als de gekke-koeienziekte – Tech-insiders maken zich geen zorgen over de versnelde ontwikkeling

Deel ons verhaal!

Naarmate kunstmatige intelligentie steeds meer doordringt in alle facetten van het moderne leven, blijft het dominante verhaal er een van onvermijdelijkheid. Met slimmere modellen en totale automatisering voelen velen zich voortgestuwd naar een toekomst die wordt gevormd door machines die mensen op bijna alle vlakken overtreffen. Maar steeds vaker laten tech-insiders alternatieve standpunten horen: dat deze ontwikkeling noch gezond, noch duurzaam, noch onvermijdelijk is. Dan Houser – medeoprichter van Rockstar Games – vergeleek de huidige explosieve groei onlangs met de gekkekoeienziekte en zei dat het een systeem is dat zichzelf in stand houdt en uiteindelijk fundamenteel instabiel zal worden. Het is een provocerende analogie die een diepere vraag oproept die voor sommigen wellicht opluchting zal brengen: wat als de gebreken die in AI naar voren komen geen bugs zijn die verholpen moeten worden, maar structurele beperkingen die de technologie ervan zullen weerhouden om ooit echt "de wereld over te nemen"? 

AI vreet zichzelf op als de gekke-koeienziekte: tech-insiders leggen kwetsbaarheid bloot en trekken zich niets aan van de ontwikkeling.

De analogie van de gekke-koeienziekte: is AI zichzelf aan het opeten?

Housers vergelijking is gebaseerd op een specifieke historische les. De gekkekoeienziekte verspreidde zich doordat runderen werden gevoerd met bewerkte resten van andere runderen, waardoor een gesloten kringloop van afgebroken biologisch materiaal ontstond die uiteindelijk leidde tot catastrofaal neurologisch falen. Zijn argument is dat kunstmatige intelligentie – in plaats van onoverwinnelijk te worden en de wereld over te nemen – juist afglijdt naar een vergelijkbaar patroon. Modellen worden steeds vaker getraind op synthetische output die eerder door andere AI-systemen is gegenereerd – en niet op door mensen gecreëerde kennis. 

In essentie wordt, naarmate geautomatiseerde modellen zich verder ontwikkelen, steeds meer van wat we op internet zien gegenereerd door dezelfde systemen. Naarmate nieuwe en bestaande modellen verder worden getraind, verwerken ze dus in feite alleen hun eigen output. Onderzoekers hebben al een fenomeen gedocumenteerd dat bekend staat als modelinstortingwaarbij generatieve systemen die herhaaldelijk getraind worden op door AI gegenereerde data, na verloop van tijd minder nauwkeurig, minder divers en verder van de realiteit verwijderd raken. In plaats van dat hun intelligentie toeneemt, hollen de systemen zichzelf uit, versterken ze hun oorspronkelijke fouten en vervlakken ze nuances. 

Een groeiend probleem waar techleiders niet over praten.

De marketing van AI voor het grote publiek richt zich op schaalbaarheid: meer data, meer integratie, meer parameters. Waar echter niet over gesproken wordt, is het groeiende tekort aan hoogwaardig, door mensen gegenereerd trainingsmateriaal. Een groot deel van het open internet is al verwerkt door bestaande modellen, waardoor wat overblijft steeds meer vervuild raakt met spam, geautomatiseerde ruis en andere vormen van AI-content. 

Grote taalmodellen zonder toegang tot voortdurend vernieuwde menselijke input, zoals kunst, redenering, schrijven en authentieke levenservaring, lopen een groot risico op stagnatie of achteruitgang. De ironie is schrijnend: naarmate er meer geautomatiseerde content op het web verschijnt, wordt het web steeds minder betrouwbaar als trainingsbron. 

De kritiek van Houser gaat verder dan alleen de technische architectuur. Hij betoogt dat degenen die het hardst aandringen op volledige AI-implementatie vaak afgeschermd zijn van de intellectuele en culturele kosten, en in plaats daarvan efficiëntie boven een goed begrip stellen. In zijn eigen woorden zijn deze managers "geen volwaardige mensen" die het perspectief binnen besluitvormingskringen vernauwen. 

Wat videogames ons leren over AI

Rockstar Games – mede opgericht door Houser – bouwde zijn reputatie op door mensen gecreëerde complexiteit, waaronder satire, culturele nuances en algemene creativiteit. Dit zijn precies de kwaliteiten die generatieve AI moeilijk overtuigend kan reproduceren.  

Hoewel modellen dialogen, texturen en codefragmenten kunnen genereren, missen ze een innerlijk gevoel van betekenis, motivatie of consequenties. Dit zijn essentiële eigenschappen voor het vertellen van verhalen en het creëren van een spelwereld, en gameontwikkelaars zijn al lang geleden tegen de praktische beperkingen van AI aangelopen. Ze benadrukken een breder probleem: AI kan vormen imiteren, maar begrijpt geen context. Het kan voorspellen wat moet komen daarna, maar niet Waarom Het zou helemaal niet als volgende aan de beurt moeten komen. 

Anderen luiden hetzelfde alarm.

Houser is slechts één voorbeeld van een groeiend aantal bezorgde techmanagers die allemaal een vergelijkbare mening delen. Ze waarschuwen vaak dat AI-systemen kwetsbaar, overschat en fundamenteel niet aansluiten bij de realiteit van intelligentie. werkelijk werkt.  

Zelfverzekerde maar onjuiste resultaten worden vaak "hallucinaties" genoemd. Deze fungeren als signalen dat deze systemen in werkelijkheid niet werken. om te weten wat Alles in menselijke zin. Er zijn ook zorgen over de torenhoge energiekosten, knelpunten in de datavoorziening en afnemende meeropbrengsten naarmate modellen opschalen. Er gaan geruchten dat het rigoureus opschalen en zo snel mogelijk uitbreiden in feite de economische en fysieke grenzen nadert. 

Het is wellicht geruststellend dat de angst voor een ongecontroleerde superintelligentie steeds minder op een directe bedreiging lijkt, en meer op een afleiding van de werkelijke risico's: culturele homogenisering, desinformatie en institutionele overmatige afhankelijkheid van systemen die nooit als mensen kunnen functioneren. 

Zijn deze beperkingen van AI een goede zaak?

Deze structurele zwakte is wellicht precies wat een catastrofe voorkomt. Als AI-systemen achteruitgaan wanneer ze geïsoleerd raken van menselijke input, kunnen ze nooit zelfvoorzienende vormen van intelligentie worden. Ze blijven parasitair op menselijke creativiteit en oordeel, en die afhankelijkheid ondermijnt de populaire sciencefictionbeelden van machines die zichzelf autonoom verbeteren, buiten menselijke controle. 

In die zin is AI wellicht meer een versterker dan een vervanging. Het kan een krachtig instrument zijn, maar is fundamenteel beperkt. Het kan patronen die al in de samenleving aanwezig zijn wellicht versnellen, maar het kan op zichzelf geen betekenis, ethiek of doel genereren. Het is mogelijk dat het niet onschadelijkmaar het begint wel te verschijnen beperkt

Het werkelijke risico dat hierachter schuilgaat

Het grootste gevaar in dit geval is niet de AI zelf, maar eerder de manier waarop instellingen erop reageren. Bedrijven, mediaorganisaties en zelfs overheden beschouwen de output van AI steeds vaker als gezaghebbend, zelfs wanneer de nauwkeurigheid onzeker is. Na verloop van tijd ondermijnt dit de menselijke expertise, verantwoordelijkheid en het kritisch denkvermogen. 

Als door AI gegenereerd materiaal de standaardreferentie wordt in bijvoorbeeld recht, journalistiek, onderwijs of beleid, dan zijn fouten geen geïsoleerde vergissingen meer, maar systemische tekortkomingen. Dit is het ware risico van de "gekke-koeienziekte": niet dat machines in opstand komen, maar dat mensen hun oordeel uitbesteden totdat de feedbacklus instort.  

Houser stelt simpelweg de vraag of de maatschappij automatisering verwart met wijsheid, en snelheid met vooruitgang. 

Tot slot

Als AI daadwerkelijk in de fase van de "gekke koeienziekte" terechtkomt, dan lijken de fantasie en de angst voor totale dominantie van machines minder overtuigend. Dat zal futuristen en doemdenkers wellicht teleurstellen, maar het zou alle anderen gerust moeten stellen.  

De toekomst heeft zeker menselijk oordeel, creativiteit en begrip nodig. Als we argumenten zoals die van Houser volgen, dan is het gevaar niet dat AI iedereen zal vervangen, en het lijkt er niet op dat AI ooit de wereld zal overnemen. Maar dat betekent niet dat we die macht niet vrijwillig zullen opgeven door in de tussentijd te veel op geautomatiseerde modellen te vertrouwen. 

Uw overheids- en Big Tech-organisaties
proberen The Expose het zwijgen op te leggen en uit te schakelen.

Daarom hebben we uw hulp nodig om ervoor te zorgen
wij kunnen u blijven voorzien van de
feiten die de mainstream weigert te delen.

De overheid financiert ons niet
om leugens en propaganda op hun site te publiceren
namens de Mainstream Media.

In plaats daarvan vertrouwen we uitsluitend op uw steun. Dus
steun ons alstublieft in onze inspanningen om
jij eerlijke, betrouwbare onderzoeksjournalistiek
vandaag nog. Het is veilig, snel en gemakkelijk.

Selecteer hieronder de methode die u het prettigst vindt om uw steun te betuigen.

Blijf op de hoogte!

Blijf op de hoogte van nieuwsupdates via e-mail

het laden


Deel ons verhaal!
auteur avatar
g.calder
Ik ben George Calder – een levenslange waarheidszoeker, data-enthousiasteling en een onverschrokken vragensteller. Ik heb het grootste deel van twintig jaar besteed aan het doorspitten van documenten, het decoderen van statistieken en het ter discussie stellen van verhalen die geen stand houden onder kritisch onderzoek. Mijn schrijven gaat niet over meningen – het gaat over bewijs, logica en helderheid. Als het niet kan worden onderbouwd, hoort het niet thuis in het verhaal. Voordat ik bij Expose News kwam, werkte ik in academisch onderzoek en beleidsanalyse, waar ik één ding heb geleerd: de waarheid is zelden luid, maar is er altijd – als je weet waar je moet zoeken. Ik schrijf omdat het publiek meer verdient dan krantenkoppen. Jij verdient context, transparantie en de vrijheid om kritisch te denken. Of ik nu een overheidsrapport analyseer, medische gegevens analyseer of mediabias aan de kaak stel, mijn doel is simpel: door de ruis heen breken en de feiten presenteren. Als ik niet schrijf, vind je me wandelend, obscure geschiedenisboeken lezend of experimenterend met recepten die nooit helemaal goed uitpakken.
5 3 stemmen
Artikelbeoordeling
Inschrijven
Melden van
gast
9 Heb je vragen? Stel ze hier.
Inline feedbacks
Bekijk alle reacties
INGRID C DURDEN
INGRID C DURDEN
1 maand geleden

Absoluut. Een machine kan naar mijn mening niet beter presteren dan wat erin gestopt wordt. En hij heeft reparaties nodig. Mensen moeten hem repareren, ik denk niet dat er een zelfreparerende machine bestaat. Toen computers gemeengoed werden, werd ons verteld dat papieren documenten overbodig zouden worden. Maar als je computer kapotgaat, heb je nog steeds het goede oude adresboek nodig.

kuno
kuno
Antwoord aan  INGRID C DURDEN
1 maand geleden

Inderdaad, maar ik denk dat we de kern van het probleem vaak over het hoofd zien, namelijk onze afhankelijkheid van informatiesystemen. Daaruit vloeit de autoriteit voort die aan intelligente systemen wordt toegekend, hoe dom of krankzinnig ze ook mogen zijn. Het is juist hun krankzinnigheid die ons zal doden lang voordat ze zichzelf te gronde richten. En niet omdat ze ons per se dood willen, maar omdat luie beheerders de systemen autoriteit geven, en omdat wij dat accepteren. "De computer zegt nee" – "Nou ja, oké dan maar". Elke keer dat een systeem een ​​beslissing neemt waar geen menselijke tegenreactie mogelijk is, zitten we in de problemen. Dit speelt al jaren, lang voordat AI überhaupt bestond, misschien wel tot in de jaren 1970. Weet je, zoals toen mijn tante een rekening van nul euro kreeg omdat ze niets op haar rekening had uitgegeven, en het bedrijf dreigde haar rekening te sluiten. Uiteindelijk was de enige oplossing dat ze hen een cheque van nul euro en nul cent stuurde. De bug werd natuurlijk verholpen, maar het echte probleem was structureel: mensen moesten de bevelen van een machine opvolgen om die tevreden te houden.

Joan Jacob
Joan Jacob
1 maand geleden

Als je een bedrijf of organisatie belt en je krijgt een AI aan de lijn die je probleem beantwoordt, is het vrijwel onmogelijk om het op te lossen. Je kunt niet redeneren met een bot en uiteindelijk zullen alle kleine bedrijven het steeds moeilijker vinden, omdat het onmogelijk is om met een mens te spreken die hun probleem kan oplossen.
Dit zorgt nu al voor problemen bij banken en essentiële diensten zoals telefoon- en elektriciteitsbedrijven. Het wordt pas echt ernstig als je niet met iemand kunt praten die begrijpt wat je zegt.

CharlieSeattle
CharlieSeattle
Antwoord aan  Joan Jacob
1 maand geleden

No Hablo?

Rebecca Denhoff
Rebecca Denhoff
1 maand geleden

Ik heb er altijd aan getwijfeld of AI ooit Hal zou worden. Waar ik echter niet aan twijfel, is de luiheid, het kwaadaardige karakter en de onbekwaamheid van mensen die op zoek zijn naar een makkelijkere weg en zich er niets van aantrekken hoe slordig, crimineel en onrechtvaardig AI zou kunnen worden als het de macht krijgt om beslissingen te nemen in de overheid door middel van gebrekkige, herkauwde algoritmes. Vooral in bijvoorbeeld het rechtssysteem of het belastingstelsel. Bureaucraten zijn meestal gestoorde linkse figuren met een gebrekkig besturingssysteem. En hoewel er misschien minder van hen in dienst zouden zijn, zou het leven voor de burger, met AI en deze malloten, behoorlijk ellendig kunnen worden. AI zal altijd de scherpzinnige supervisie van verantwoordelijke, nuchtere en deugdzame mensen nodig hebben. Ik zie dat gewoon niet gebeuren, waar de rijken en machtigen voornamelijk notoire criminelen zijn.

Peter
Peter
1 maand geleden

Het grootste risico schuilt niet zozeer in de machines zelf, maar in de monsterlijke klasse van 'techbro's' die ze bezitten en besturen. Hun hebzucht, die zeker tot uiting komt in hun zogenaamde creativiteit via AI, vormt de werkelijke bedreiging. Het falen van de antitrustwetgeving in de VS laat zien dat het netwerk van de megacorporaties – Blackrock en anderen – een ongecontroleerde dictatuur aan het ontwikkelen is, zoals Thiel/Palantir en Musks Xempire. De rest van de wereld zal vechten om een ​​paar symbolische kruimels die ons nietszeggende bezit en geluk symboliseren.

CharlieSeattle
CharlieSeattle
1 maand geleden

Wie schrijft de leugens die AI verspreidt?

Paul Watson
Paul Watson
Antwoord aan  CharlieSeattle
1 maand geleden

Je moet AI uitdagen om echte antwoorden te krijgen.
Ik vroeg naar de moord op Charlie Kirk en het gaf het online verhaal weer, maar presenteer de feiten rond de moord en de doofpotaffaire, en voilà, het was zeer indrukwekkend.

John Hart
John Hart
1 maand geleden

Kunstmatige intelligentie (AI) is absoluut noodzakelijk voor de vrijheid van individuen in de steeds veranderende, hightech wereld. Helaas kan de AI die zo gehypet wordt (AGI) niet alleen niet waarmaken wat voorstanders beloven, maar is het valse geloof dat dit wel kan, extreem gevaarlijk. Mensen die verstand hebben van informatietechnologie maken al grappen over het hergebruiken van onderdelen in de gigantische systemen nadat deze uitvallen en worden stilgelegd. Dat zou het 'goede' scenario zijn; het slechte scenario is vergelijkbaar met de AGW-zwendel die inmiddels is doorgeprikt, maar waar miljarden mensen nog steeds in geloven.

Kunstmatige intelligentie die de mensheid kan helpen, moet worden verspreid en mensen moeten in staat worden gesteld deze te programmeren voor individuele behoeften. Software waar mensen van afhankelijk zijn, net als medicijnen, moet toegankelijk zijn. OPEN SOURCE! Het gevaar op beide gebieden neemt al jaren toe, omdat oligarchen de overhand kregen in regelgevende instanties, de media en vrijwel alles waar mensen van afhankelijk zijn.

We hebben een nieuw belastingstelsel nodig dat de vorming van monopolies voorkomt en individuele kapitaalvorming stimuleert. Het huidige systeem doet precies het tegenovergestelde en de overheid, die het kapitalisme in evenwicht zou moeten houden, is al lang geleden gekaapt. PAT-SAT is ontworpen om het economische evenwicht te herstellen, zodat individuen kunnen floreren.