Breaking News

Emotietracking – AI op de werkvloer: werknemers zijn bang om bekeken – en verkeerd begrepen – te worden.

Deel ons verhaal!

We hebben de waarschuwingen van Yuval Noah Harari gehoord: als we er niet in slagen om kunstmatige intelligentie (AI) te reguleren, menselijke hersenen zullen binnenkort gehackt worden", een uitspraak die aantoonbaar inspeelt op de grootste angsten van de mensheid over AI. Dit geldt misschien wel het meest, aangezien Schwabs adviseur Harari zegt dat "een mens hacken betekent dat je die persoon beter leert kennen dan hij zichzelf kent", wat degenen die de technologie bezitten in staat kan stellen ons steeds meer te manipuleren.

We kunnen ervan uitgaan dat deze extreme bedreiging van onze privacy zich in de toekomst zal voordoen, maar het hacken dat Harari beschrijft is meer spreekwoordelijk dan letterlijk en heeft al plaatsgevonden in omgevingen zoals Facebook en YouTube waar we naar content worden geleid die de algoritmes interessant voor ons achten. Het lijkt er nu op dat velen geleidelijk ongevoelig zijn geworden voor het "hacken" en de manipulatie, waardoor het zonder al te veel protest kan toenemen.

Maar hoe zou u zich voelen als uw werkplek bijhield hoe u zich voelt? vraagt Nazanin Andalibi die universitair docent informatie is aan de Universiteit van Michigan. In het onderstaande artikel bespreekt hij emotionele AI, die al op de werkvloer wordt gebruikt.

Emotietracking – AI op de werkvloer: werknemers zijn bang om bekeken – en verkeerd begrepen – te worden.

By Nazanin Andalibi

Emotie kunstmatige intelligentie toepassingen biologische signalen Zoals stemgeluid, gezichtsuitdrukkingen en gegevens van draagbare apparaten, maar ook tekst en hoe mensen hun computers gebruiken, en die beloven te detecteren en te voorspellen hoe iemand zich voelt. Het wordt gebruikt in zowel alledaagse contexten, zoals entertainment, als in contexten met een hoog risico, zoals op het werk, bij personeelswerving en in de gezondheidszorg.

Een breed scala aan industrieën gebruik al emotionele AI, waaronder callcenters, financiën, bankwezen, verpleging en verzorging. Meer dan 50% van de grote werkgevers in de VS maakt gebruik van emotionele AI met als doel de interne toestand van werknemers af te leiden, een praktijk die groeide tijdens de COVID-19-pandemieCallcenters houden bijvoorbeeld in de gaten wat hun telefonisten zeggen en wat hun toon is.

Geleerden hebben hun zorgen geuit over de wetenschappelijke validiteit van emotionele AI en vertrouwen op omstreden theorieën over emotieZe hebben ook de potentie van emotionele AI benadrukt voor inbreuk op de privacy en tentoonstellen racialegeslacht  en  handicap vooroordeel.

Sommige werkgevers maken gebruik van de technologie alsof het perfect is, terwijl sommige geleerden proberen de vertekening ervan verminderen en de validiteit ervan verbeterenhet volledig in diskrediet brengen of suggereren het verbieden van emotie-AI, tenminste totdat er meer bekend is over de gevolgen ervan.

Ik bestudeer de sociale implicaties van technologieIk geloof dat het cruciaal is om de implicaties van emotionele AI te onderzoeken voor mensen die eraan worden blootgesteld, zoals werknemers – met name degenen die gemarginaliseerd worden door hun ras, geslacht of handicap. Kan AI je emoties daadwerkelijk lezen? Niet helemaal.

Zorgen van werknemers

Om te begrijpen waar het gebruik van emotionele AI op de werkplek naartoe gaat, heeft mijn collega Karen Boyd en ik ging op onderzoek uit concepten van uitvinders van emotionele AI op de werkplek. We analyseerden patentaanvragen die emotionele AI-technologieën voor de werkplek voorstelden. Patentaanvragers claimden onder andere de voordelen van het beoordelen en ondersteunen van het welzijn van werknemers, het garanderen van de veiligheid op de werkplek, het verhogen van de productiviteit en het ondersteunen van besluitvorming, zoals het maken van promoties, het ontslaan van werknemers en het toewijzen van taken.

We vroegen ons af wat werknemers van deze technologieën vinden. Zouden zij deze voordelen ook ervaren? Zouden werknemers het bijvoorbeeld nuttig vinden als werkgevers hen welzijnsondersteuning bieden?

Mijn medewerkers Shanley CorviteKat RoemmichTillie Ilana Rosenberg en ik voerden een enquête uit die deels representatief was voor de Amerikaanse bevolking en deels oversampled was voor mensen van kleur, transgenders, non-binaire personen en mensen met een psychische aandoening. Deze groepen lopen mogelijk meer risico op schade door emotionele AI. Ons onderzoek telde 289 deelnemers uit de representatieve steekproef en 106 deelnemers uit de oversampled. We ontdekten dat 32% van de respondenten gaf aan dat ze geen voordeel ervoeren of verwachtten van het gebruik van emotionele AI, ongeacht of dit nu actueel is of verwacht wordt, op de werkplek.

Hoewel sommige werknemers potentiële voordelen van het gebruik van emotie-AI op de werkplek noemden, zoals een betere ondersteuning van het welzijn en meer veiligheid op de werkplek, zoals beschreven in patentaanvragen, uitten ze ook allemaal hun zorgen. Ze maakten zich zorgen over de schade aan hun welzijn en privacy, de schade aan hun werkprestaties en arbeidsstatus, en over vooroordelen en het stigma dat hen zou worden opgelegd vanwege hun geestelijke gezondheid.

Zo maakte 51% van de deelnemers zich zorgen over privacy, merkte 36% op dat werkgevers mogelijkerwijs onjuiste conclusies zouden trekken en dat 33% zich zorgen maakte dat emotionele AI-gegenereerde conclusies gebruikt zouden kunnen worden om onrechtvaardige beslissingen te nemen over werkgelegenheid.

Stemmen van deelnemers

Een deelnemer met meerdere gezondheidsproblemen zei: "Het besef dat ik geanalyseerd word, zou ironisch genoeg een negatief effect hebben op mijn mentale gezondheid." Dit betekent dat, ondanks de beweerde doelen van emotionele AI om het welzijn van werknemers op de werkplek te bepalen en te verbeteren, het gebruik ervan juist tot het tegenovergestelde effect kan leiden: verminderd welzijn door verlies van privacy. Ander werk van mijn collega's Roemmich, Florian Schaub en ik stel voor dat het verlies van privacy door emotie-AI een breed scala aan gevolgen kan hebben privacyschendingen, waaronder psychologisch, autonomie, economisch, relatie, fysiek en discriminatie.

Over de bezorgdheid dat emotionele surveillance hun baan in gevaar zou kunnen brengen, zei een deelnemer met een gediagnosticeerde psychische aandoening: "Ze zouden kunnen besluiten dat ik niet langer geschikt ben voor mijn werk en me ontslaan. Ze zouden kunnen besluiten dat ik niet capabel genoeg ben en geen loonsverhoging geven, of denken dat ik niet genoeg werk."

Deelnemers aan het onderzoek noemden ook de mogelijkheid van verergerde machtsongelijkheid en zeiden dat ze bang waren voor de dynamiek die ze met werkgevers zouden hebben als emotionele AI op hun werkplek zou worden geïntegreerd. Ze wezen erop dat het gebruik van emotionele AI de reeds bestaande spanningen in de werkgever-werknemerrelatie mogelijk zou kunnen verergeren. Zo zei een respondent: "De mate van controle die werkgevers al over werknemers hebben, suggereert dat er weinig controle zou zijn op hoe deze informatie zou worden gebruikt. Elke 'toestemming' [van] werknemers is in deze context grotendeels illusoir." Emotionele AI is slechts één manier waarop bedrijven werknemers monitoren.

Tot slot wezen de deelnemers op mogelijke nadelen, zoals de technische onnauwkeurigheden van emotionele AI die mogelijk een verkeerde indruk van werknemers wekken, en emotionele AI die vooroordelen en stigmatisering tegen werknemers creëert en in stand houdt. Bij het beschrijven van deze zorgen benadrukten de deelnemers hun angst dat werkgevers zouden vertrouwen op onnauwkeurige en bevooroordeelde systemen voor emotionele AI, met name ten aanzien van mensen van kleur, vrouwen en transgenders.

Zo zei een deelnemer: "Wie bepaalt welke gezichtsuitdrukkingen 'gewelddadig' overkomen, en hoe kun je mensen als een bedreiging beschouwen alleen al op basis van hun gezichtsuitdrukking? Een systeem kan gezichten lezen, zeker, maar geen gedachten. Ik kan me gewoon niet voorstellen hoe dit iets anders dan destructief zou kunnen zijn voor minderheden op de werkvloer."

Deelnemers merkten op dat ze ofwel zouden weigeren te werken op een plek waar emotionele AI wordt gebruikt – een optie die voor velen niet beschikbaar is – ofwel zich zouden gedragen alsof emotionele AI hen gunstig zou interpreteren om hun privacy te beschermen. Een deelnemer zei: "Ik zou enorm veel energie verspillen aan het maskeren van mijn energie, zelfs als ik alleen op kantoor was, wat me erg afgeleid en onproductief zou maken", wijzend op hoe het gebruik van emotionele AI extra emotionele arbeid zou opleveren voor werknemers.

Is het de moeite waard?

Deze bevindingen geven aan dat emotionele AI de bestaande uitdagingen waar werknemers op de werkvloer mee te maken hebben, verergert. Dit ondanks het feit dat voorstanders beweren dat emotionele AI deze problemen helpt oplossen.

Als emotionele AI inderdaad werkt zoals beweerd, en meet wat het belooft te meten, en zelfs als de problemen met vooroordelen in de toekomst worden aangepakt, kunnen werknemers nog steeds te maken krijgen met schadelijke gevolgen, zoals extra emotioneel werk en verlies van privacy.

Als deze technologieën niet meten wat ze beweren, of als ze bevooroordeeld zijn, dan zijn mensen overgeleverd aan algoritmen die als valide en betrouwbaar worden beschouwd, terwijl dat niet zo is. Werknemers zouden nog steeds moeite moeten doen om de kans te verkleinen dat ze door het algoritme verkeerd worden geïnterpreteerd, of om emotionele uitingen te doen die gunstig zijn voor het algoritme.

Hoe dan ook, deze systemen functioneren als panopticon-achtige technologieën, die de privacy in gevaar brengen en het gevoel geven dat je wordt bekeken.

Bron: Nazanin Andalibi besteld, The Conversation

Uw overheids- en Big Tech-organisaties
proberen The Expose het zwijgen op te leggen en uit te schakelen.

Daarom hebben we uw hulp nodig om ervoor te zorgen
wij kunnen u blijven voorzien van de
feiten die de mainstream weigert te delen.

De overheid financiert ons niet
om leugens en propaganda op hun site te publiceren
namens de Mainstream Media.

In plaats daarvan vertrouwen we uitsluitend op uw steun. Dus
steun ons alstublieft in onze inspanningen om
jij eerlijke, betrouwbare onderzoeksjournalistiek
vandaag nog. Het is veilig, snel en gemakkelijk.

Selecteer hieronder de methode die u het prettigst vindt om uw steun te betuigen.

Blijf op de hoogte!

Blijf op de hoogte van nieuwsupdates via e-mail

het laden


Deel ons verhaal!
auteur avatar
Patricia Harris

Categorieën: Breaking News

Getagged als:

5 1 stemmen
Artikelbeoordeling
Inschrijven
Melden van
gast
14 Heb je vragen? Stel ze hier.
Inline feedbacks
Bekijk alle reacties
Mark Deacon
Mark Deacon
2 jaar geleden

Wanneer mogen we de hersenen van Klaus Schwab hacken om te weten hoe slecht hij is?

Aluna
Aluna
Antwoord aan  Mark Deacon
2 jaar geleden

Hij is al gehackt, oftewel hij is een slaaf die via zijn geest wordt bestuurd en die de plannen en ambities van de elite moet presenteren.
Niets hiervan is door hem ontwikkeld.
De kwaadaardige meesterbreinen achter de Nieuwe Wereldorde zijn te vinden in de VS: de CIA en het Amerikaanse leger.
Ze werken al tientallen jaren aan deze doelen en bezitten alle patenten.

grommende donder
grommende donder
Antwoord aan  Aluna
2 jaar geleden

Ja, vele jaren geleden werd er tegen mijn wil een RFID-apparaat van militaire kwaliteit in mijn arm geïnjecteerd, en de lokale politie gebruikte dit om me te intimideren. Ze proberen alles wat ik zie of zie als onrechtvaardig te beschouwen om me te manipuleren of op de een of andere manier te misbruiken. En dit is nu ouderwets vergeleken met wat ze nu hebben.
Pas op.

CharlieSeattle
CharlieSeattle
Antwoord aan  Mark Deacon
1 jaar geleden

Voer een atoombom op Davos uit en dood ze allemaal.

grote chagrijn
grote chagrijn
2 jaar geleden

Ik maak me grote zorgen over het toenemende gebruik van AI. Het lijkt erop dat dit weer een stap in de goede richting is.

in leven
in leven
2 jaar geleden

Ik ben zo blij dat ik met pensioen ben en dat ik dit soort onzin niet meer hoef te pikken.

Robbi
Robbi
2 jaar geleden

VERWIJDER DEZE CAPACITEIT VAN DE WERKPLEK…
HET IS SLAVERNIJ EN NIET ACCEPTEERBAAR.
CONSTANTE BEWAKING IS EEN GEVANGENIS.

De hagedis van Oz
De hagedis van Oz
2 jaar geleden

Gezien de demografische veranderingen in veel westerse en Aziatische landen, met een vergrijzende beroepsbevolking en dalende geboortecijfers, zal de macht verschuiven naar de werknemers. De arbeidsmarkt krimpt en werkgevers moeten concurreren om arbeidskrachten. Veranderende opvattingen over opleidingen, waarbij werkgevers het aantal leerlingplaatsen en stagiairs schrappen, betekent dat ook de beschikbare pool van geschoolde arbeidskrachten krimpt.

Dit alles belooft veel goeds voor mensen, vooral voor degenen met vaardigheden en enig zelfvertrouwen om werkgevers te vertellen waar ze hun AI en bijbehorende gadgets kunnen plaatsen. Het tekort aan arbeidskrachten na de Zwarte Dood leidde tot een grotere mobiliteit van de arbeiders en het einde van het feodale stelsel. Onze huidige heren en meesters zullen zich in een vergelijkbare situatie bevinden als de 15e-eeuwse rijken die te kampen hadden met het grote tekort aan horigen.

Eerlijk gezegd komt emotieregistratie op mij over als gewoon weer een AI-hype. Hoeveel kost het? Doet het wat het belooft in de glanzende brochure? Hoe pluk je er de vruchten van? Wat voor personeel blijf je behouden als degenen met vaardigheden en capaciteiten 'f*ck this' zeggen en stoppen?

Het fundamentele probleem met intellectueel eigendom is dat het rondwaart in de hoofden van mensen. Wanneer die hoofden de deur uit gaan, verdwijnt de knowhow van uw bedrijf met hen mee.

Dan
Dan
2 jaar geleden

Het hele artikel is onzin. Dat een eigenaar van een paar slaven ergens de bloeddruk van de slaaf probeerde te meten, betekent nog niet dat hun "hersenen gehackt zijn". Het is gewoon weer een hoop onzinjournalistiek om geld te verdienen. En het leidt je af van de dingen die ertoe doen.

CharlieSeattle
CharlieSeattle
1 jaar geleden

Ik zag er altijd verward uit als ik op mijn werk een probleem moest oplossen.

Craig Mark
Craig Mark
1 jaar geleden

Lees de Bijbel als je durft. Openbaring hoofdstuk 13.