Wist u dat?

OpenAI moet Sora intrekken: hoe deepfake AI-video's ons allemaal in gevaar brengen

Deel ons verhaal!

OpenAI toont een "roekeloze minachting" voor productveiligheid, het recht van mensen op een eigen evenbeeld en zelfs de stabiliteit van de democratie, aldus een brief van waakhond Public Citizen. Het Sora-videoplatform wordt doorgaans gebruikt voor korte content op sociale media, met clips die vermakelijk genoeg zijn om geliket en gedeeld te worden. Een populair thema zijn nepbeelden van deurbelcamera's, waarbij iets ongewoons gebeurt dat toch enigszins geloofwaardig blijft – zoals een kangoeroe die bij iemand aanbelt, of een losjes vermakelijk straatbeeld dat zich ontvouwt – maar de software zou snel een gevaar voor ons allemaal kunnen worden. 

Public Citizen heeft OpenAI zojuist opgeroepen om Sora niet langer openbaar te maken. Ze noemden het een roekeloze release die deepfakes, identiteitsdiefstal en desinformatie over verkiezingen een enorme boost geeft. Is het echt zo erg als ze beweren? 

OpenAI toont een “roekeloze minachting” voor productveiligheid, het recht van mensen op hun eigen gelijkenis, de stabiliteit van de democratie en heeft zelfs geleid tot zelfmoorden, met zijn Sora AI-videosoftware, aldus Public Citizen

Het gevaar van deepfakes

Public Citizen schreef een brief aan OpenAI en het Amerikaanse Congres waarin ze eisten dat Sora offline zou worden gehaald totdat er robuuste, testbare maatregelen zijn genomen. Ze beweren dat de app onverantwoordelijk en te vroeg is gelanceerd om een ​​concurrentievoordeel te behalen zonder de nodige veiligheidsmaatregelen te overwegen. Het gebruik van gelijkenissen zonder wederzijdse toestemming en wijdverbreide misleiding vormen de belangrijkste risico's, aangezien synthetische video's zich sneller verspreiden dan het publiek de authenticiteit ervan kan verifiëren.  

JB Branch, pleitbezorger voor technologiebeleid van Public Citizen en auteur van de brief, zegt: "Onze grootste zorg is de potentiële bedreiging voor de democratie. Ik denk dat we een wereld betreden waarin mensen niet echt kunnen vertrouwen op wat ze zien. En we beginnen strategieën in de politiek te zien waarbij de eerste afbeelding of video die wordt vrijgegeven, is wat mensen zich herinneren." 

Branch vervolgde: "Ze trappen het gaspedaal in zonder acht te slaan op mogelijke schade. Veel hiervan lijkt te voorzien. Maar ze brengen liever een product op de markt, zorgen ervoor dat mensen het downloaden, zorgen ervoor dat mensen eraan verslaafd raken, dan dat ze het juiste doen en deze dingen van tevoren stresstesten en zich zorgen maken over de problemen van gewone gebruikers." 

OpenAI veroorzaakte zelfmoorden, claimt rechtszaak

Zeven nieuwe rechtszaken die vorige week zijn aangespannen bij rechtbanken in Californië, beweren dat de chatbot mensen tot zelfmoord en schadelijke waanbeelden heeft aangezet, zelfs als ze geen psychische problemen hadden. Namens zes volwassenen en een tiener hebben het Social Media Victims Law Center en het Tech Justice Law Project rechtszaken aangespannen waarin OpenAI wordt beschuldigd van het willens en wetens voortijdig uitbrengen van zijn GPT-4o-versie vorig jaar, ondanks interne waarschuwingen dat de versie gevaarlijk vleiend en psychologisch manipulatief was. Vier van de slachtoffers pleegden zelfmoord.  

Public Citizen is niet betrokken bij de rechtszaken, maar onderschrijft de zorgen die daarin worden geuit. Branch zegt dat OpenAI naaktheid blokkeert, maar dat vrouwen nog steeds "online op andere manieren worden lastiggevallen". Een 404 Media-rapport van vorige week meldde een stortvloed aan door Sora gemaakte video's van vrouwen die worden gewurgd.  

Waarvoor worden Sora AI-video's gebruikt?

Sora maakt het voor iedereen mogelijk om cinematografische nepscènes te maken, of het nu gaat om fictieve deurbelscènes, playbackende beroemdheden of fotorealistische minidrama's die eruitzien als ooggetuigenverslagen. Deze fragmenten zijn ontworpen om grappig, deelbaar en griezelig te zijn – uiteindelijk voor dopamine. Maar wanneer ze worden gedeeld op online platforms, verdwijnt de context en veel mensen verwerken ze alsof ze echt zijn.  

De Washington Post testte de theorie. Ze uploadden een door Sora gemaakte nepvideo naar acht grote platforms met fraudebestendige contentgegevens. Slechts één platform – YouTube – identificeerde en onthulde de kunstmatige aard ervan, maar verborg het label in de beschrijving. Als platforms geen duidelijke signalen kunnen of willen afgeven over wat echt en wat nep is, is er geen manier om kijkers te beschermen tegen misleidende content. 

Waar het mis kan gaan – en al misgaat

  • verkiezingen: Een handvol realistische vervalsingen, zoals gefabriceerde schietpartijen door de politie, valse bekentenissen van kandidaten en vervalste rapporten over buitenlands beleid, kunnen de opkomst beïnvloeden en onrust veroorzaken lang voordat er feitencontroles kunnen worden uitgevoerd. Public Citizen waarschuwt voor de impact van Sora op "de stabiliteit van de democratie". 
  • Pesterijen en afpersing: Seksuele deepfakes zonder wederzijdse toestemming, reputatieschade en algemene afpersingscampagnes vormen al een probleem bij stilstaande beelden – video vermenigvuldigt de schade  
  • Hoaxes over openbare veiligheid: Nepbeelden van rampen of noodmeldingen verspreiden zich sneller dan correcties, waardoor hulpverleners en het publiek in verwarring raken. Sora's griezelige realisme in alledaagse situaties is ongeëvenaard, en het is moeilijker dan ooit om het verschil te zien. 
  • Economische fraudeSynthetische video's van CEO's, publieke figuren of invloedrijke personen kunnen klassieke spraak- of e-mailfraude creëren, waarbij werknemers of particulieren worden aangezet tot het overmaken van geld. Stemklonen is al een manier om banken te misleiden – stel je ook de kracht van nepvideo's voor. 

Wat OpenAI zegt te doen om gevaren aan te pakken

OpenAI is begonnen met het beperken van cameo's van publieke figuren en heeft gebruikerscontroles ingevoerd voor "AI-zelfs" waar een persoonlijke avatar zou kunnen verschijnen. Aan de ene kant erkennen ze het risico duidelijk. Maar aan de andere kant pakken ze het volledige probleem niet effectief aan. Ze stelden dat "overmatige moderatie enorm frustrerend is" voor nieuwe gebruikers, en dat het belangrijk is om conservatief te zijn "terwijl de wereld zich nog aan deze nieuwe technologie aanpast." 

In oktober maakten ze publiekelijk overeenkomsten bekend met de familie van Martin Luther King Jr. om "respectloze afbeeldingen" van de leider van de burgerrechtenbeweging te voorkomen, terwijl het bedrijf werkte aan betere waarborgen. OpenAI kondigde dezelfde overeenkomst ook aan met bekende acteurs, de vakbond SAG-AFTRA en talentenbureaus. 

"Dat is allemaal leuk en aardig als je beroemd bent," zei Branch, maar hij benadrukte een ander probleem. "Het is een patroon dat OpenAI heeft: ze zijn bereid te reageren op de verontwaardiging van een zeer kleine groep mensen. Ze zijn bereid iets uit te brengen en zich daarna te verontschuldigen. Maar veel van deze problemen zijn ontwerpkeuzes die ze kunnen maken vóór de release." 

Het grotere AI-plaatje

De brief van Public Citizen komt op een moment dat steeds duidelijker wordt dat we platforms bouwen die misleiding makkelijker dan ooit maken, in plaats van systemen te creëren die ons ertegen beschermen. Sora-video's kunnen boeiend zijn, maar toch niet te onderscheiden op scrollsnelheid, en zonder geloofwaardige labels die de synthetische content voor gebruikers benadrukken, laten we het publiek simpelweg wennen aan nepcontent en uiteindelijk niet meer in staat zijn het verschil te zien.  

OpenAI heeft deepfakes niet uitgevonden, en concurrenten zullen er alles aan doen om ze te evenaren. Echt leiderschap vereist dat we vertragen totdat de veiligheidsvoorzieningen aanwezig zijn, in plaats van zo snel te handelen dat we nooit de juiste bescherming kunnen inbouwen. In de tussentijd zullen toezichthouders blijven eisen dat deepfakes uit het publieke domein worden verwijderd totdat gewone mensen het onderscheid tussen feit en fictie kunnen maken. 

Tot slot

Denk je dat je het verschil tussen de nieuwste AI-video's en de werkelijkheid goed kunt zien? Wat is het grootste risico nu deze technologie voor iedereen beschikbaar is? Wat kunnen we eraan doen? Deel je mening hieronder. 

Uw overheids- en Big Tech-organisaties
proberen The Expose het zwijgen op te leggen en uit te schakelen.

Daarom hebben we uw hulp nodig om ervoor te zorgen
wij kunnen u blijven voorzien van de
feiten die de mainstream weigert te delen.

De overheid financiert ons niet
om leugens en propaganda op hun site te publiceren
namens de Mainstream Media.

In plaats daarvan vertrouwen we uitsluitend op uw steun. Dus
steun ons alstublieft in onze inspanningen om
jij eerlijke, betrouwbare onderzoeksjournalistiek
vandaag nog. Het is veilig, snel en gemakkelijk.

Selecteer hieronder de methode die u het prettigst vindt om uw steun te betuigen.

Blijf op de hoogte!

Blijf op de hoogte van nieuwsupdates via e-mail

het laden


Deel ons verhaal!
auteur avatar
g.calder
Ik ben George Calder – een levenslange waarheidszoeker, data-enthousiasteling en een onverschrokken vragensteller. Ik heb het grootste deel van twintig jaar besteed aan het doorspitten van documenten, het decoderen van statistieken en het ter discussie stellen van verhalen die geen stand houden onder kritisch onderzoek. Mijn schrijven gaat niet over meningen – het gaat over bewijs, logica en helderheid. Als het niet kan worden onderbouwd, hoort het niet thuis in het verhaal. Voordat ik bij Expose News kwam, werkte ik in academisch onderzoek en beleidsanalyse, waar ik één ding heb geleerd: de waarheid is zelden luid, maar is er altijd – als je weet waar je moet zoeken. Ik schrijf omdat het publiek meer verdient dan krantenkoppen. Jij verdient context, transparantie en de vrijheid om kritisch te denken. Of ik nu een overheidsrapport analyseer, medische gegevens analyseer of mediabias aan de kaak stel, mijn doel is simpel: door de ruis heen breken en de feiten presenteren. Als ik niet schrijf, vind je me wandelend, obscure geschiedenisboeken lezend of experimenterend met recepten die nooit helemaal goed uitpakken.

Categorieën: Wist u dat?

Getagged als: , , , ,

4.5 2 stemmen
Artikelbeoordeling
Inschrijven
Melden van
gast
10 Heb je vragen? Stel ze hier.
Inline feedbacks
Bekijk alle reacties
Eerwaarde Scott
Eerwaarde Scott
3 maanden geleden

Ik heb altijd gezegd dat AI vernietigd moet worden. Sterker nog, nooit ontwikkeld. Nu is het te laat. De kat is uit de zak, nu weet je dat we een kat in de zak zijn verkocht. We kunnen net zo goed bewakingscamera's afschaffen, want geen enkel digitaal beeldmateriaal is meer geldig. Digitale ID? Nee, dat is veel te riskant. De mensheid komt erachter dat AI een slechtere uitvinding is dan de atoombom. Wetenschappers moeten worden afgeschermd van de rest van de samenleving. Ze zijn makkelijk om te kopen... klimaathoax, covidhoax, en richten veel schade aan...

Robert Skappel
Robert Skappel
3 maanden geleden

Ja, ik ben het ermee eens dat AI in zijn huidige vorm moet verdwijnen! Het is erg gevaarlijk, vooral voor kinderen!

plebney
plebney
3 maanden geleden

Dat is maar goed ook. AI is relatief nieuw, dus het zal nog wel even duren voordat het grote publiek begrijpt dat absoluut niets wat op internet te vinden is, te vertrouwen is. De nep-genererende AI helpt hierbij.
Binnenkort zullen de meeste mensen beseffen dat je er niets van kunt vertrouwen. Dit had natuurlijk altijd al geweten moeten zijn, maar zelfs de domste mensen zullen het snel beseffen.
Lees het hele artikel. Het zogenaamde "gevaar" komt niet van liegen, maar van mensen die leugens geloven. Zo begrijpen zelfs de domste mensen nu dat politici tegen hen liegen.
Hoeveel mensen kunnen zeggen: "Jeetje, ik ben nog nooit in mijn hele leven voorgelogen totdat ik een AI-video zag." De zogenaamde "veiligheids"-motivatie is nooit meer dan een poging tot censuur en controle.
Een of andere gek gaat op een schietpartij omdat de stemmen in zijn hoofd hem vertellen mensen te doden? Stemmen in het hoofd zijn een gevaar voor iedereen! Laten we stemmen in de hoofden van mensen verbieden!

Jim Peden
Jim Peden
Antwoord aan  g.calder
3 maanden geleden

Goed artikel! Het is natuurlijk niet alleen Sora – er zijn er inmiddels veel meer. Ik heb Google's Veo3 gebruikt om een ​​korte film te maken (mijn eerste poging en het was niet makkelijk! – https://panocracy.substack.com/p/panocracy-the-movie-introduction)

Ik denk dat mensen alle uitgezonden informatie zullen bekijken vanuit het perspectief van hun eigen vooroordelen. Als je Trump steunt, zul je sceptisch staan ​​tegenover negatieve berichtgeving en het accepteren als die positief is. Hetzelfde geldt voor Starmer, enzovoort.

De voortdurende situatie waarbij de BBC beelden van Trump manipuleert voor de programma's Panorama en Newsnight bewijst (als dat al nodig was) dat mis/desinformatie zich niet beperkt tot AI.

Ik heb ontdekt dat juist de mensen in de hogere klassen het meest vatbaar zijn voor misinformatie. De arbeidersklasse doet bijna alles af als een managementtruc! Degenen die voor hun levensonderhoud afhankelijk zijn van het geschreven en gesproken woord, zijn over het algemeen veel naïever.

Kelman
Kelman
3 maanden geleden

Lang voordat deze AI opkwam, maakten opeenvolgende regeringen zich al schuldig aan allerlei vormen van bedrog.
Er is blijkbaar ook geen sprake van verantwoording.

Vreugde N.
Vreugde N.
3 maanden geleden


Wat de Heilige Bijbel zegt over dit verschrikkelijke decennium dat voor ons ligt. Hier is een site die de huidige wereldwijde gebeurtenissen uiteenzet in het licht van de Bijbelse profetieën. Om meer te begrijpen, bezoek 👇 https://bibleprophecyinaction.blogspot.com/

Een Yousleh Zeeter
Een Yousleh Zeeter
3 maanden geleden

Mijn zoon heeft een app die hij onschuldig gebruikt... Hij is momenteel helemaal weg van het weer, vooral van tornado's. Hij heeft video's gemaakt door buiten te filmen en vervolgens tornado's te genereren die huizen in de buurt verwoesten en puin achterlaten. Ze zien er eigenlijk best realistisch uit!... Het nadeel is als het voor snode doeleinden wordt gebruikt en wie weet of de volgende valse vlag op deze manier wordt gecreëerd... We hadden al 9/11 en 7/7 lang voordat deze technologie bestond!...

Eilandbewoner
Eilandbewoner
2 maanden geleden

“Stabiliteit van de democratie”???

Democratie is the het ultieme symbool van instabiliteit: een man met één been is stabieler!

Uw lezers kunnen toch inmiddels wel zien dat de democratie tekortschiet?

Novak
Novak
2 maanden geleden

Als u dat wilt, dan is dit een goed idee. Hoezo? Zorg dat het goed is. Džiň (Kraken) doorl vypuštěn. Het is niet anders. Poslední zhasne. Přeji hezký den.

Poslední zhasne.