Breaking News

AI is voor het grootste deel dure rommel

Deel ons verhaal!


Als er ooit sprake was van "garbage in, garbage out", dan is het wel AI. En uiteindelijk is het allemaal gedreven door het doel om informatie te censureren die niet in het politiek correcte narratief past.

Laten we het contact niet verliezen... Uw regering en Big Tech proberen actief de informatie die door The blootgesteld om in hun eigen behoeften te voorzien. Abonneer u nu op onze e-mails om ervoor te zorgen dat u het laatste ongecensureerde nieuws ontvangt. in je inbox…

Blijf op de hoogte!

Blijf op de hoogte van nieuwsupdates via e-mail

het laden


Waarom algoritmen en onderzoek voor AI-‘misinformatie’ meestal dure troep zijn

By Professor Norman Fenton

Het verhaal over de laptop van Hunter Biden is slechts een van de vele verhalen die door de commerciële media (en de meeste academici) als 'onzin' werden beschouwd.desinformatie"maar die later als waar bleken te zijn. Mark Zuckerberg heeft nu toegegeven dat Facebook (Meta), samen met de andere grote technologiebedrijven, onder druk werd gezet om censureren het verhaal vóór de Amerikaanse verkiezingen van 2020 en vervolgens onder druk gezet door de regering Biden/Harris om verhalen over COVID te censureren die ten onrechte als desinformatie werden geclassificeerd.

Het probleem is dat dezelfde soort mensen die bepaalden wat desinformatie was en wat niet (meestal mensen van links) ook degenen waren die werden gefinancierd om algoritmen voor kunstmatige intelligentie (‘AI’) te ontwikkelen om te ‘leren’:

  1. welke mensen ‘verspreiders van desinformatie’ waren; en
  2. welke nieuwe beweringen ‘misinformatie’ waren.

Tussen 2016 en 2022 heb ik in het Verenigd Koninkrijk vele onderzoeksseminars bijgewoond over het gebruik van AI en machine learning om "misinformatie en desinformatie te bestrijden". Vanaf 2020 werd het voorbeeld van Hunter Bidens laptop vaak gebruikt als een belangrijk voorbeeld van "leren", dus algoritmen classificeerden het als "misinformatie" met subclassificaties zoals "Russische propaganda" of "complottheorie".

Bovendien begon elke presentatie die ik bijwoonde steevast met, en werd gedomineerd door, voorbeelden van “misinformatie” waarvan werd beweerd dat ze gebaseerd waren op “Trump-leugens”, zoals die onder de Washington Post beweerden dat het de “30,573 valse of misleidende beweringen waren die Trump in vier jaar tijd heeft gedaan.” Maar veel van deze zogenaamd valse of misleidende beweringen waren al bekend bij iedereen buiten de Voogd/New York Times/Washington Post leesbubbel. Ze beweerden bijvoorbeeld dat Trump zei dat "neonazi's en blanke supremacisten heel fijne mensen waren" en dat iedereen die dit ontkende desinformatie verspreidde, terwijl zelfs de extreemlinkse Snopes HAD debunked dat in 2017. Op dezelfde manier beweerden ze dat er “bewijs was dat Biden dementie had” of dat “Biden graag het haar van jonge meisjes rook” desinformatie ondanks dat meerdere video's precies dat laten zien – dus geloof uw ogen niet; nog maar een week voordat Bidens dementie niet langer verborgen kon worden tijdens zijn live-debatten met het presidentschap, waren de commerciële media onvermurwbaar dat zulke video's misinformatie en 'goedkope trucs' waren.

Maar de academici die deze Trump-, Biden- en andere politieke voorbeelden presenteerden, lachten iedereen uit die de betrouwbaarheid van de zelfbenoemde orakels die bepaalden wat wel en geen desinformatie was, in twijfel durfde te trekken. Tijdens een grote conferentie die via Zoom plaatsvond, plaatste ik een bericht in de chat: "Is iemand die Trump niet haat welkom in deze bijeenkomst?" Het antwoord was: "Nee. Trump-aanhangers zijn niet welkom en als u er een bent, moet u nu vertrekken." Helaas geloven de meeste academici niet in vrijheid van gedachte, laat staan ​​in vrijheid van meningsuiting als het gaat om standpunten die het "progressieve" narratief op welke manier dan ook ter discussie stellen.

Naast de verhalen over Biden en Trump met betrekking tot "misinformatie" die waar bleken te zijn, waren er ook meerdere voorbeelden van covid-gerelateerde verhalen (zoals verhalen die beweerden dat de sterftecijfers zeer laag waren en dat de vaccins niet effectief en veilig waren) die als misinformatie werden geclassificeerd en ook waar bleken te zijn. In al deze gevallen werd iedereen die deze verhalen verspreidde, geclassificeerd als "verspreider van misinformatie", "complotdenker", enz. En het zijn dit soort aannames die bepalen hoe de AI-algoritmen voor "misinformatie" die door organisaties zoals Facebook en Twitter zijn ontwikkeld en geïmplementeerd, werken.

Laat me een vereenvoudigd voorbeeld geven. De algoritmen beginnen over het algemeen met een database van beweringen die vooraf zijn geclassificeerd als 'misinformatie' (hoewel veel daarvan waar bleken te zijn) of 'geen misinformatie' (hoewel veel daarvan onwaar bleken te zijn). Zo werden de volgende beweringen geclassificeerd als misinformatie:

  • “Hunter Biden liet een laptop met bewijs van zijn criminele gedrag achter in een reparatiewerkplaats.”
  • “De covid-vaccins kunnen ernstig letsel en de dood veroorzaken.”

Het omgekeerde van elke verklaring die als ‘misinformatie’ werd geclassificeerd, werd geclassificeerd als ‘geen misinformatie’.

Een deel van deze statements wordt gebruikt om het algoritme te 'trainen' en andere om het algoritme te 'testen'.

Stel dat de laptopverklaring een van de verklaringen is die gebruikt wordt om het algoritme te trainen en de vaccinatieverklaring een van de verklaringen die gebruikt wordt om het algoritme te testen. Omdat de laptopverklaring als desinformatie wordt geclassificeerd, leert het algoritme dat mensen die een tweet met de laptopverklaring reposten of liken, "misinformatieverspreiders" zijn. Op basis van andere berichten die deze mensen plaatsen, kan het algoritme hen bijvoorbeeld ook classificeren als "extreemrechts". Het algoritme zal waarschijnlijk vaststellen dat sommige mensen die al geclassificeerd zijn als "extreemrechts" of "misinformatieverspreiders" – of mensen met wie ze connecties hebben – ook een verklaring plaatsen zoals: "De covidvaccins kunnen ernstig letsel en de dood veroorzaken." In dat geval heeft het algoritme "geleerd" dat deze verklaring hoogstwaarschijnlijk misinformatie is. En voilà, omdat het de "test"-verklaring de "juiste" classificatie geeft, is het algoritme "gevalideerd".

Bovendien zal het algoritme, wanneer het wordt geconfronteerd met een nieuwe testverklaring zoals "De covid-vaccins stoppen de infectie door covid niet" (wat ook vooraf werd geclassificeerd als "misinformatie"), ook "correct leren" dat dit "misinformatie" is, omdat het al "geleerd" heeft dat de verklaring "De covid-vaccins kunnen ernstig letsel en de dood veroorzaken" misinformatie is en dat mensen die de laatste verklaring beweerden - of mensen die met hen in verband staan ​​- ook de eerste verklaring beweerden.

De manier waarop ik heb geschetst hoe het AI-proces is ontworpen om ‘misinformatie’ te detecteren, is ook de manier waarop ‘wereldwijd toonaangevende experts op het gebied van misinformatie’ hun experiment om het 'persoonlijkheidstype' te 'profileren' dat vatbaar is voor desinformatie. Dezelfde methoden worden nu ook gebruikt om profiel en monitor mensen die door academische ‘experts’ als ‘extreemrechts’ of racistisch worden beschouwd.

Daarom werd (en wordt nog steeds) enorm veel onderzoek besteed aan de ontwikkeling van "slimme" algoritmen die simpelweg de waarheid online censureren of leugens verspreiden. Een groot deel van de financiering voor dit onderzoek is gerechtvaardigd omdat "desinformatie" nu een van de grootste bedreigingen voor de internationale veiligheid vormt. Zo werd in januari 2024 het World Economic Forum opgericht. gedeclareerd dat “misinformatie en desinformatie de grootste mondiale risico’s op de korte termijn waren.” Ook de voorzitter van de Europese Commissie, Ursula von der Leyen, gedeclareerd dat "misinformatie en desinformatie grotere bedreigingen vormen voor het mondiale bedrijfsleven dan oorlog en klimaatverandering." Alleen al in het Verenigd Koninkrijk heeft de overheid honderden miljoenen ponden aan financiering verstrekt aan talloze universitaire onderzoekslaboratoria die zich bezighouden met misinformatie. Alleen al in maart 2024 werd het Turing Instituut, dat verschillende toegewijde teams heeft die op dit en nauw verwante gebieden werken, Bekroond £100 miljoen extra overheidsfinanciering – het had sinds de oprichting in 700 al zo'n £2015 miljoen ontvangen. Ironisch genoeg bevat het Britse nationale risicoregister van HM Government uit 2023 het volgende als chronisch risico:

Toch blijft het prioriteit geven aan onderzoeksfinanciering op het gebied van AI om dit verhoogde risico van ‘schadelijke misinformatie en desinformatie’ te bestrijden!

Zoals Mike Benz heeft duidelijk gemaakt In zijn recente werk en interviews (ondersteund met gedetailleerd bewijs) stelt hij dat bijna alle financiering voor de universiteiten of onderzoeksinstituten wereldwijd die dit soort werk doen, samen met de "factcheckers" die het gebruiken, afkomstig is van het Amerikaanse ministerie van Buitenlandse Zaken, de NAVO en het Britse ministerie van Buitenlandse Zaken, die, in de nasleep van de Brexit-stemming en de verkiezing van Trump in 2016, vastbesloten waren de opkomst van "populisme" overal te stoppen. Het is deze doelstelling die de waanzinnige AI-race om het internet te censureren heeft aangewakkerd. Kijk naar Deze video waarin Mike Benz ons meeneemt door een gebeurtenis die in 2019 plaatsvond:

Het werd georganiseerd door de Atlantic Council, een NAVO-frontorganisatie, om journalisten van mainstream organisaties over de hele wereld te trainen in het bestrijden van misinformatie. Merk op hoe ze duidelijk maken dat 'misinformatie' voor hen ook 'misinformatie' omvat, wat zij definiëren als informatie die weliswaar waar is, maar die hun eigen verhaal zou kunnen schaden. Ze leggen uit hoe ze dergelijke 'misinformatie' de kop kunnen indrukken, met name afkomstig van de socialemediaberichten van (destijds) president Trump in de aanloop naar de verkiezingen van 2020. Ondanks beweringen dat dit niet is gebeurd (en dergelijke beweringen werden inderdaad als misinformatie geclassificeerd), hebben de journalisten die hierbij betrokken waren, later... heel openlijk opgeschept dat ze dat niet alleen deden, maar dat het ook de herverkiezing van Trump in 2020 verhinderde.

Update: Twee zeer relevante artikelen van collega's:

Over de auteur

Norman Fenton is emeritus hoogleraar risico-informatiemanagement aan de Queen Mary University of London. Hij is tevens directeur van Agena, een bedrijf dat gespecialiseerd is in risicomanagement voor kritieke systemen. Hij is opgeleid als wiskundige en richt zich momenteel op kritische besluitvorming, met name op het kwantificeren van onzekerheid met behulp van causale, probabilistische modellen die data en kennis combineren (Bayesiaanse netwerken). De aanpak kan worden samengevat als "smart data in plaats van big data".

Uw overheids- en Big Tech-organisaties
proberen The Expose het zwijgen op te leggen en uit te schakelen.

Daarom hebben we uw hulp nodig om ervoor te zorgen
wij kunnen u blijven voorzien van de
feiten die de mainstream weigert te delen.

De overheid financiert ons niet
om leugens en propaganda op hun site te publiceren
namens de Mainstream Media.

In plaats daarvan vertrouwen we uitsluitend op uw steun. Dus
steun ons alstublieft in onze inspanningen om
jij eerlijke, betrouwbare onderzoeksjournalistiek
vandaag nog. Het is veilig, snel en gemakkelijk.

Selecteer hieronder de methode die u het prettigst vindt om uw steun te betuigen.

Blijf op de hoogte!

Blijf op de hoogte van nieuwsupdates via e-mail

het laden


Deel ons verhaal!
auteur avatar
Rhoda Wilson
Waar het voorheen een hobby was die uitmondde in het schrijven van artikelen voor Wikipedia (tot de zaken in 2020 een drastische en onmiskenbare wending namen) en een paar boeken voor privégebruik, ben ik sinds maart 2020 fulltime onderzoeker en schrijver geworden als reactie op de wereldwijde overname die met de introductie van covid-19 duidelijk zichtbaar werd. Het grootste deel van mijn leven heb ik geprobeerd bewustzijn te creëren dat een kleine groep mensen van plan was de wereld voor eigen gewin over te nemen. Ik kon niet rustig achteroverleunen en hen hun gang laten gaan zodra ze hun laatste zet hadden gedaan.

Categorieën: Breaking News, Wereldnieuws

Getagged als:

3.3 3 stemmen
Artikelbeoordeling
Inschrijven
Melden van
gast
6 Heb je vragen? Stel ze hier.
Inline feedbacks
Bekijk alle reacties
chrisirish67
chrisirish67
1 jaar geleden

Kunstmatige idiotie is gewoon controle.

Dave Owen
Dave Owen
Antwoord aan  chrisirish67
1 jaar geleden

https://www.rumormillnews.com/cgi-bin/forum.cgi?read=245638
Is Lord Scriven een AI-robot in het Britse parlement?

blauw gebied
blauw gebied
1 jaar geleden

Wetende dat niet alleen AI er is, dat we 5G hebben met 6G om de hoek en dat ik mezelf de laatste tijd van elke computer heb losgemaakt en terug ben gegaan naar de goede oude tijd: potlood, boeken en papier en ik ben nog nooit zo gelukkig geweest, zelfs contant betalen Yo ho naar de Kerstman en hij is een bedrieger die ik aanbid

Dave Owen
Dave Owen
Antwoord aan  blauw gebied
1 jaar geleden

Hoi bluearea,
Laat zien hoe 5G bloedstolsels veroorzaakt bij C19-ontvangers.
https://www.rumormillnews.com/cgi-bin/forum.cgi?read=245596

Chris
Chris
1 jaar geleden

Ik hoorde dat AI wordt geprogrammeerd om informatie te censureren (muzen). Ik moest cynisch lachen. Het is alsof – het hele gekke idee achter het creëren van AI is om iets te creëren dat lijkt op wat een mens zou zijn als hij echt onpartijdig zou worden – maar nu is ook dit gecorrumpeerd – door criminelen die hun criminele gedrag verbergen en verbergen. Het goede nieuws is dat een jonge Indiaan in Californië een AI heeft ontworpen – perplexity.ai – met een algoritme dat menselijke nieuwsgierigheid nabootst, zodat het elke vraag blijft extrapoleren en nooit besluit dat het "de waarheid" kent. Ik heb het net getest met het verhaal over de laptop van Hunter Biden en het rapporteerde gewoon alle bekende feiten over de zaak, inclusief het aanstaande proces waarin het bewijs van de laptop zal worden gebruikt.

Ik hoorde dat Perplexity mensen in dienst heeft onder de noemer DEI, dus ik vroeg de robot waarom, en hij zei: "zodat de kans groter is dat we inclusieve, evenwichtige informatie krijgen" (zoiets); dus wees ik erop dat DEI-mensen, juist omdat ze zichzelf in die categorie plaatsen, hun eigen vooroordelen en blinde vlekken hebben. Hoe kan evenwichtige informatie dan gegarandeerd worden? Hij gaf een zeer doordacht en weloverwogen antwoord – in feite zei hij dat ik een goed punt had, maar dat hij het antwoord niet wist – "maar hier is een heleboel gerelateerde informatie die je misschien wilt overwegen"...

Dus, voordat perplexity.ai onder de hamer gaat, zou je het misschien eens moeten proberen. Ik heb er op geen enkele manier mee te maken, mocht je je dat afvragen. Ik ben een semi-gepensioneerde kunstenaar en woon in een bus ergens op de Antipoden 🙂

Dave Owen
Dave Owen
Antwoord aan  Chris
1 jaar geleden