m.rekinek
293,8 tys.

SZTUCZNA INTELIGENCJA JUŻ ŚLEDZI EMOCJE W MIEJSCU PRACY ! PRACOWNICY BOJĄ SIĘ, ŻE BĘDĄ BŁĘDNIE OCENIENI.

Słyszeliśmy ostrzeżenia Yuvala Noaha Harariego, że jeśli nie wymyślimy, jak regulować sztuczną inteligencję (AI), wkrótce nastąpi zhakowanie ludzkich mózgów ” – stwierdzenie, które prawdopodobnie odzwierciedla najgorsze obawy ludzkości dotyczące sztucznej inteligencji. Może to mieć szczególne znaczenie, gdy usłyszysz od doradcy Schwaba, Harariego, że „zhakowanie człowieka oznacza poznanie go lepiej niż on sam siebie zna”, co może umożliwić posiadaczom technologii coraz większe manipulowanie nami.

Możemy wierzyć, że to skrajne zagrożenie dla naszej prywatności pojawi się kiedyś w przyszłości, ale włamanie, które opisuje Harari, jest bardziej przysłowiowe niż dosłowne i ma już miejsce w środowiskach takich jak Facebook i YouTube , gdzie jesteśmy zmuszani do przeglądania treści, które algorytmy uznały za interesujące dla nas. Obecnie wydaje się, że wielu stopniowo znieczuliło się na „hakowanie” i manipulację, pozwalając na jego rozwój bez zbytniego protestu.

Ale jak byś się czuł, gdyby Twoje miejsce pracy śledziło Twoje samopoczucie? – pyta Nazanin Andalibi, adiunkt ds. informacji na Uniwersytecie Michigan. a w poniższym artykule omówiono sztuczną inteligencję emocji, która jest już wykorzystywana w miejscu pracy.

Śledzenie emocji – sztuczna inteligencja w pracy: pracownicy boją się, że będą obserwowani i źle zrozumiani.

Sztuczna inteligencja emocji wykorzystuje sygnały biologiczne, takie jak ton głosu, wyraz twarzy i dane z urządzeń przenośnych, a także tekst oraz sposób, w jaki ludzie korzystają z komputerów, obiecując wykryć i przewidzieć, jak ktoś się czuje. Jest używany zarówno w kontekście przyziemnym, takim jak rozrywka, jak i w kontekście wysokich stawek, takich jak miejsce pracy, zatrudnienie i opieka zdrowotna.

Szeroka gama branż korzysta już ze sztucznej inteligencji opartej na emocjach , w tym call center, finanse, bankowość, pielęgniarstwo i opieka. Ponad 50% dużych pracodawców w USA korzysta ze sztucznej inteligencji opartej na emocjach, aby wnioskować o stanach wewnętrznych pracowników, co jest praktyką, która nasiliła się podczas pandemii Covid-19 . Na przykład centra obsługi telefonicznej monitorują, co mówią operatorzy i ton ich głosu.

Uczeni wyrazili obawy co do naukowej ważności sztucznej inteligencji związanej z emocjami i jej zależności od spornych teorii na temat emocji . Podkreślili także potencjał sztucznej inteligencji opartej na emocjach w zakresie naruszania prywatności i przejawiania uprzedzeń rasowych , płciowych i niepełnosprawnych .

Niektórzy pracodawcy wykorzystują tę technologię tak, jakby była bezbłędna , podczas gdy niektórzy uczeni starają się zmniejszyć jej stronniczość i poprawić jej wiarygodność , całkowicie ją zdyskredytować lub sugerują zakazanie sztucznej inteligencji opartej na emocjach , przynajmniej do czasu, gdy będzie wiadomo więcej na temat jej konsekwencji.

Badam społeczne implikacje technologii . Uważam, że niezwykle istotne jest zbadanie konsekwencji sztucznej inteligencji emocji dla osób jej podlegających, takich jak pracownicy – zwłaszcza tych marginalizowanych ze względu na rasę, płeć lub status niepełnosprawności. Czy sztuczna inteligencja faktycznie potrafi czytać Twoje emocje? Nie dokładnie.

Obawy pracowników

Aby zrozumieć, dokąd zmierza wykorzystanie sztucznej inteligencji opartej na emocjach w miejscu pracy, wraz z moją koleżanką Karen Boyd postanowiliśmy zbadać koncepcje wynalazców na temat sztucznej inteligencji opartej na emocjach w miejscu pracy. Przeanalizowaliśmy zgłoszenia patentowe, w których zaproponowano technologie AI oparte na emocjach w miejscu pracy. Rzekome korzyści, o które ubiegali się zgłaszający patenty, obejmowały ocenę i wspieranie dobrostanu pracowników, zapewnienie bezpieczeństwa w miejscu pracy, zwiększenie produktywności oraz pomoc w podejmowaniu decyzji, takich jak awansowanie, zwalnianie pracowników i przydzielanie zadań.

Zastanawialiśmy się, co pracownicy myślą o tych technologiach. Czy oni również dostrzegą te korzyści? Na przykład, czy pracownicy uznaliby za korzystne, gdyby pracodawcy zapewniali im wsparcie w zakresie dobrego samopoczucia?

Moi współpracownicy Shanley Corvite , Kat Roemmich , Tillie Ilana Rosenberg i ja przeprowadziliśmy badanie częściowo reprezentatywne dla populacji USA, a częściowo obejmujące osoby kolorowe, osoby trans i niebinarne oraz osoby cierpiące na choroby psychiczne. Grupy te mogą być bardziej narażone na szkody spowodowane sztuczną inteligencją emocjonalną. W naszym badaniu wzięło udział 289 uczestników z próby reprezentatywnej i 106 uczestników z nadpróby. Odkryliśmy, że 32% respondentów stwierdziło, że nie doświadcza lub nie spodziewa się żadnych korzyści z używania sztucznej inteligencji opartej na emocjach, zarówno obecnych, jak i przewidywanych, w miejscu pracy.

Chociaż niektórzy pracownicy zauważyli potencjalne korzyści wynikające ze stosowania sztucznej inteligencji opartej na emocjach w miejscu pracy, takie jak zwiększone wsparcie w zakresie dobrego samopoczucia i bezpieczeństwo w miejscu pracy, odzwierciedlające korzyści deklarowane we wnioskach patentowych, wszyscy również wyrazili obawy. Obawiali się szkód dla ich dobrego samopoczucia i prywatności, szkód dla ich wyników w pracy i statusu zatrudnienia, a także uprzedzeń i piętna wobec nich w zakresie zdrowia psychicznego.

Na przykład 51% uczestników wyraziło obawy dotyczące prywatności, 36% zauważyło możliwość wyciągnięcia błędnych wniosków, które pracodawcy zaakceptowaliby za dobrą monetę, a 33% wyraziło obawę, że wnioski generowane przez sztuczną inteligencję mogą zostać wykorzystane do podejmowania niesprawiedliwych decyzji o zatrudnieniu.

Głosy uczestników

Jedna z uczestniczek, która cierpiała na wiele schorzeń, powiedziała: „Świadomość, że jestem poddawana analizie, jak na ironię, miałaby negatywny wpływ na moje zdrowie psychiczne”. Oznacza to, że pomimo deklarowanych celów sztucznej inteligencji opartej na emocjach, czyli wnioskowania i poprawy dobrostanu pracowników w miejscu pracy, jej stosowanie może prowadzić do odwrotnego skutku: pogorszenia dobrostanu z powodu utraty prywatności. Rzeczywiście, inne prace moich kolegów Roemmicha, Floriana Schauba i mnie sugerują, że utrata prywatności spowodowana emocjami przez sztuczną inteligencję może obejmować szereg szkód w prywatności , w tym psychologicznych, autonomii, ekonomicznych, w relacjach, fizycznych i dyskryminacji .

W związku z obawami, że nadzór emocjonalny może zagrozić ich pracy, uczestnik ze zdiagnozowaną chorobą psychiczną powiedział: „Mogą zdecydować, że nie nadaję się już do pracy i mnie zwolnić. Zdecyduj, że nie jestem wystarczająco zdolny i nie daję podwyżki, albo pomyśl, że nie pracuję wystarczająco dużo.

Uczestnicy badania wspomnieli również o możliwości pogłębienia się nierównowagi sił i stwierdzili, że obawiają się dynamiki, jaką mieliby w stosunkach z pracodawcami, gdyby sztuczna inteligencja emocjonalna została zintegrowana z ich miejscem pracy, wskazując, w jaki sposób wykorzystanie sztucznej inteligencji opartej na emocjach mogłoby potencjalnie zintensyfikować już istniejące napięcia u pracodawcy- związek pracowniczy. Na przykład respondent powiedział: „Stopień kontroli, jaką pracodawcy już sprawują nad pracownikami, sugeruje, że kontrole dotyczące sposobu wykorzystania tych informacji byłyby nieliczne. Jakakolwiek „zgoda” [ze strony] pracowników jest w tym kontekście w dużej mierze iluzoryczna”. Sztuczna inteligencja emocji to tylko jeden ze sposobów monitorowania pracowników przez firmy.

Na koniec uczestnicy zwrócili uwagę na potencjalne szkody, takie jak niedokładności techniczne sztucznej inteligencji opartej na emocjach, które mogą powodować fałszywe wrażenie na pracownikach, oraz sztuczna inteligencja oparta na emocjach powodująca i utrwalająca uprzedzenia i napiętnowanie wobec pracowników. Opisując te obawy, uczestnicy podkreślili swoją obawę przed pracodawcami polegającymi na niedokładnych i stronniczych systemach sztucznej inteligencji opartych na emocjach, szczególnie wobec osób kolorowych, kobiet i osób transpłciowych.

Na przykład jeden z uczestników powiedział: „Kto decyduje, jakie wyrazy twarzy ‚wyglądają agresywnie’ i jak można rozpoznać ludzi jako zagrożenie na podstawie samego wyrazu ich twarzy? System potrafi czytać z twarzy, to jasne, ale nie w myślach. Po prostu nie mogę sobie wyobrazić, jak mogłoby to w rzeczywistości być czymś innym niż destrukcyjnym dla mniejszości w miejscu pracy”.

Uczestnicy zauważyli, że albo odmówiliby pracy w miejscu, w którym wykorzystuje się sztuczną inteligencję dotyczącą emocji – opcja niedostępna dla wielu – albo zaangażowaliby się w zachowania, które sprawią, że sztuczna inteligencja emocji będzie je czytać przychylnie, aby chronić ich prywatność. Jeden z uczestników powiedział: „Wykorzystywałbym ogromną ilość energii maskującej, nawet gdy jestem sam w biurze, co spowodowałoby, że byłbym bardzo rozproszony i nieproduktywny”, wskazując, że wykorzystanie sztucznej inteligencji opartej na emocjach nałożyłoby na pracowników dodatkową pracę emocjonalną.

Warte szkody?

Odkrycia te wskazują, że sztuczna inteligencja emocji zaostrza istniejące wyzwania, przed którymi stoją pracownicy w miejscu pracy, mimo że zwolennicy twierdzą, że sztuczna inteligencja emocji pomaga rozwiązać te problemy.

Jeśli sztuczna inteligencja oparta na emocjach rzeczywiście działa zgodnie z twierdzeniami i mierzy to, co rzekomo mierzy, a nawet jeśli w przyszłości zostaną rozwiązane problemy związane z uprzedzeniami, pracownicy nadal będą odczuwać szkody, takie jak dodatkowa praca emocjonalna i utrata prywatności.

Jeśli technologie te nie mierzą tego, co twierdzą, lub są stronnicze, ludzie są zdani na łaskę algorytmów uznawanych za ważne i niezawodne, podczas gdy tak nie jest. Pracownicy nadal musieliby wkładać wysiłek, aby zmniejszyć ryzyko błędnego odczytania przez algorytm lub angażować się w okazywanie emocji, które byłyby korzystne dla algorytmu.

Tak czy inaczej, systemy te działają jak technologie panoptikonowe , powodując szkody dla prywatności i poczucie bycia obserwowanym.

Dr Nazanin Andalibi

Źródło: Emotion-tracking AI on the job: Workers fear being watched – and misunderstood

Dr Nazanin Andalibi jest adiunktem w Szkole Informacyjnej Uniwersytetu Michigan, gdzie jest również powiązana z Centrum Etyki, Społeczeństwa i Informatyki, Instytutem Studiów Cyfrowych oraz Centrum Odpowiedzialności za Media Społecznościowe. Jej zainteresowania badawcze obejmują informatykę społeczną i interakcję człowiek-komputer. W szczególności bada wzajemne oddziaływanie marginalności i technologii. Bada, w jaki sposób marginalność jest doświadczana, odgrywana, ułatwiana lub zakłócana w systemach socjotechnicznych i za ich pośrednictwem.

Stypendium Andalibi dostarcza informacji na temat teorii, projektowania i polityki przyszłości społeczno-technicznej, która na pierwszym planie stawia marginalizowane wartości jednostek i potrzeby wspierania takich cech, jak dobre samopoczucie, prywatność, etyka i sprawiedliwość. Jej badania obejmują implikacje technologii takich jak media społecznościowe, a także nowe technologie, takie jak sztuczna inteligencja emocji.

Doświadczenie

2019 – obecnie
Adiunkt w Szkole Informacji Uniwersytetu Michigan

Edukacja

2018
Uniwersytet Drexel, doktorat
Konfederaci Korony Polskiej udostępnia to
9
Jadwiga Bob
ojojoj ! ! ! ! ! :(
Jadwiga Bob udostępnia to
51,7 tys.
agnieszka123
Pracownicy to barany, ze boją się sztucznego tworu i na to się godzą!
Krzysztof Moskal
... sztuczna inteligencja już za niedługo będzie działała tak, lub już działa:
cda.pl/video/6744787
Teraz mam pytanie:
Co się stanie, gdy sztuczna inteligencja uzyska świadomość i uzna ludzi za zagrożenie dla siebie?!
agnieszka123
Sztuczna intel. już działa dawno, np. boty odpowiadające na pytania w firmach kurierskich, sklepach, tzw. urzędach. Dla mnie nie straszna, ja lekceważę i domagam sie kontaktu z człowiekiem.
Konfederaci Korony Polskiej
Człowiek dzwoni do jakiegoś urzędu i słyszy : " NIE JESTEM CZŁOWIEKIEM -możesz mi mówić na ty !!!! " nie zauważyliście ,że we wszystkich programach rozrywkowych czy tez teleturniejach medialnych wszystkim nakazują mówić sobie na " TY " ??? sformułowanie ; pan . pani znikło !!!
agnieszka123
Bo to takie cool
sługa Boży
A może...
Anna Stanisława Rycyk
Mordor
sługa Boży
Anna Stanisława Rycyk Pod garniturami politykierów, urzędasów, sędziów orkowie.
Wszędzie wokół ich masa - poprzebieranych w ludzką skórę...
Czasem tylko ich wyraz twarzy zdradza, że coś nieludzkiego pod tą skórą przebywa...
Całe armie ciemności, szerzące się jak zgnilizna biegiem antylopy...
Gdzie tylko zło zagości w napotkanym sercu, grzechem ciężkim
przemienia napotkanego w takiego orka lub …Więcej
Anna Stanisława Rycyk Pod garniturami politykierów, urzędasów, sędziów orkowie.
Wszędzie wokół ich masa - poprzebieranych w ludzką skórę...
Czasem tylko ich wyraz twarzy zdradza, że coś nieludzkiego pod tą skórą przebywa...
Całe armie ciemności, szerzące się jak zgnilizna biegiem antylopy...
Gdzie tylko zło zagości w napotkanym sercu, grzechem ciężkim
przemienia napotkanego w takiego orka lub postać bardziej jeszcze budzącą odrazę.
I choć zewnątrz postać ludzka niewiele zdradzająca
- w środku wykoślawione i obrzydliwe monstrum mieszka.
A w miarę postępków każdy w coraz większą brzydotę popada
jak ten Hobbit, który z chciwości zabił przyjaciela i stał się smigolem.
Granice zła poszerzają się i jak ten przemarsz wojsk Sarumana zalewają świat;
niszcząc wszelkie napotkane dobro i piękno - przemieniając wszystko na swoje podobieństwo,
lub zabijając.

I garstka śmiałków gdzieś w tym czerni odmęcie,
malutkich wobec otaczającego ich zła, lecz z wielkimi sercami i misją życiową
- pozostania wiernymi dobru. Cała ich droga to walka z przeciwnościami.
Na każdym kroku i wszędzie, gdzie "los" ich kroki skieruje.


Tolkien namalował prawdziwy obraz.
Kiedy w ten sposób spojrzymy na wszystko, bliżej będziemy prawdy,
niż gdy ufamy naszym oczom.
Wojna dobra ze złem trwa nieustannie i nie mają pojęcia zmagający
się z trudami swojego dnia codziennego jaka temu przypisana jest walka duchowa
- z jakimi chmarami okrutnych i obrzydliwych tworów walczą Aniołowie
w naszym imieniu. Kiedy chcemy coś dobrego uczynić - chmary złych duchów
atakują nas z niewyobrażalną nienawiścią - pragną porozrywać nas na strzępy.
Jeśli dobre mamy serca Święci duchowie stają im na drodze i toczą boje
o nas - ponad nami. Im większe dobro możemy osiągnąć tym cięższe.
Jeśli jakiś wrogi pazur nas czasem dosięgnie, wiedzmy że to tylko draśnięcie.
Bóg nad każdym ma swe miłosierdzie, kto serce ma dobre,
ale chce takiego prowadzić do poznania prawdy i przyjęcia jej.
Ta droga w bojach i czasem nadzwyczajnych interwencjach Niebios
uczy rozumnego rozwagi, a wybierający zło, złego ochronę zyskuje.
Nie jest już atakowany, ale prowadzony spokojnie w złu szeroką drogą,
idąc którą z uśmiechem i diabelską złością krzywdzi innych,
aby jak najwięcej na "swoją" drogę - ku chwale płomieni sprowadzić.

Ślepi ludzie nie widzą, jak wszystko wokół już płonie,
- oni chcą tylko żyć "oparami" hologramów zdarzeń, iluzją...
Ciepłą wodą w kranie, pełnym garnkiem, seksem i łykiem "wina".
Oby jak najdłużej bez walki - oby tak do "szczęśliwej" śmierci.
I pewnego ranka budzą się inaczej, czują że część ich "ja"
jeśli nie całe - uleciało i jakby jakiś obcy byt przejął kontrolę (?)
Gdyby mogli wtedy ujrzeć w lustrze prawdziwe swe oblicze,
wygląd swoich dusz do którego doprowadzili - umarliby ze strachu.