Czy zastąpią nas roboty? Analiza wpływu sztucznej inteligencji oraz innych technologii na rynek pracy. Część 3/4

1504

Na jakie studia wysłać swoje dzieci?

Przytoczone w poprzednich częściach artykułu źródła wskazują, że wzrost zapotrzebowania na pracę może zbalansować lub przekroczyć efekt redukcji zatrudnienia. Łatwiej jednak odpowiedzieć kto straci, niż kto zyska, bo analizy nie są jednoznaczne jeśli spróbować zsyntetyzować ich wyniki. Wspólny dla w/w raportów jest jednak wniosek, że zawody obejmujące proste, powtarzalne i rutynowe czynności są najbardziej narażone na automatyzację. Uwzględniając wyłącznie aspekt technologiczny (pomijając np. społeczne i polityczne uwarunkowania) ubędzie pracy dla kasjerów, magazynierów, pracowników produkcji, księgowych, analityków wykonujących głównie raporty i zestawienia, kadrowców oraz innych pracowników administracyjnych, a także kierowców a nawet informatyków odpowiadających za niektóre zadania administracyjne. Zyskają na wartości umiejętności i zdolności właściwe głównie ludziom, takie jak: kreatywnośćinteligencja emocjonalna czy rozwinięte umiejętności poznawcze, które będą kształtować takie kompetencje jak krytyczne myślenierozwiązywanie problemówdoradzanieprzekonywanie. Maszyny potrafią tworzyć muzykę oraz obrazy, a być może nawet potrafią pisać proste opowiadania dla dzieci czy kryminały klasy „b”, ale komunikacja z ludźmi, szczególnie jeśli ma być ciekawa i finezyjna wymaga znajomości kontekstu kulturowego. Sarkazm, miłość, współczucie, serdeczność, poczucie humoru czy zdrowy rozsądek wydają się trudne do automatyzacji (na szczęście). Rozwój w zakresie sztucznej inteligencji, wg niektórych, podważa wcześniejsze zdania. Maszyny bowiem, szczególnie w zakresie analizy informacji i podejmowania decyzji radzą sobie coraz lepiej, w niektórych obszarach lepiej niż ludzie. Odczytywanie ludzkich emocji i nastrojów może także z czasem wychodzić maszynom lepiej niż nam, ludziom. Inteligencja ta, nawet jeśli ma wymiar emocjonalny, pozostanie wszakże sztuczna. W czasach, gdy tyle się mówi o autentyczności, także w kontekście biznesowym, nie sądzę, abyśmy byli skłonni masowo zamienić relacje interpersonalne na kontakty z robotami. Ale oczywiście: pożyjemy – zobaczymy.

O ile ubędzie pracowników obsługi klienta, to przybędzie tych, którzy tych klientów mają zrozumieć i przekonać. Kasy w supermarketach staną się samoobsługowe, ale być może na hali supermarketów będzie więcej osób, które mogą doradzić jaki produkt wybrać. Za uzupełnienie towaru na półce będzie odpowiadać robot (pewnie taki, który nie będzie stwarzać zagrożenia dla ludzi), ale między tymi półkami być może będzie można spotkać specjalistów, którzy podzielą się poradą dietetyczną lub zademonstrują jak obsługuje się najnowocześniejszego robota kuchennego czy sprzątającego. Zwiększy się zapotrzebowanie na inżynierów sprzedaży, menedżerów, projektantów. Będziemy potrzebować więcej nauczycieli, mentorów czy coachów. Oby nie zabrakło lekarzy, pielęgniarzy, specjalistów opiekujących się dziećmi oraz osobami starszymi, a także psychoterapeutów.

Naturalnie, zmiany na poszczególnych rynkach nie będą jednorodne, tj. inaczej zmieni się struktura zatrudnienia w Indiach w porównaniu z krajami Europy zachodniej czy USA. Japonia i Chiny, mimo geograficznej bliskości, także będą realizować inne scenariusze. W dużym uproszczeniu, zgodnie z raportem MGI można będzie obserwować następującą zjawiska w zakresie popytu na pracę w poniższych kategoriach zawodowych:

No alt text provided for this image

Żródło: Bughin, J., Manyika, J., & Woetzel, J. (2017). Jobs lost, jobs gained: Workforce transitions in a time of automation. McKinsey Global Institute.

Zgodnie z powyższą grafiką można się spodziewać następujących trendów:

  • prosta praca fizyczne – mocne spadki zapotrzebowania w rozwiniętych gospodarkach, bez z zmian w gospodarkach rozwijających się
  • obsługa klienta – bez zmian wielkości popytu w krajach rozwiniętych i znaczne wzrosty w krajach rozwijających się
  • skomplikowana praca fizyczna, w nieprzewidywalnym środowisku – niewielkie spadki w krajach rozwiniętych i niewielkie wzrosty w krajach rozwijających się, itd…

Powyższe podsumowanie dotyczy zmian netto, tj. różnicy między wzrostami a spadkami. Niewielkie zmiany lub brak zmian nie oznaczają brak ruchu w danym obszarze. Utrzymanie zbliżonego poziomu popytu na pracowników obsługi klienta w gospodarkach rozwiniętych oznacza w istocie bardzo duże ruchy związane z redukcją stanowisk w infoliniach czy kasjerów, ale zwiększy się liczba inżynierów sprzedaży, przedstawicieli handlowych oraz osób, które mają zadbać o komfort klientów.

Zapotrzebowanie na lekarzy będzie rosnąć wszędzie. Nauczyciele szkolni także powinni notować wzrosty popytu zarówno w gospodarkach rozwiniętych oraz rozwijających się. Wzrośnie zapotrzebowanie na inżynierów, w tym szczególnie na informatyków. Dobrze powinni się mieć architekci, projektanci i artyści, choć w tym ostatnim przypadku pewnie najtrudniej jest przewidzieć pomyślność zatrudnienia. Niewątpliwie warto się uczyć długo i wytrwale. Analiza PWC pokazuje bardzo silny związek między wykształceniem a ryzykiem automatyzacje danego zawodu – korelacja między wykształceniem a tym ryzykiem wynosi 0.554 (grafika poniżej).

No alt text provided for this image

Źródło: Hawksworth, J., Berriman, R., & Goel, S. (2018). Will robots really steal our jobs?: An international analysis of the potential long term impact of automation. PwC.

Przy okazji wyborów politycznych (mimo tego żartu, dyskusji o bieżącej polityce wolałbym uniknąć 🙂 ) warto zwrócić uwagę na plany wydatków na edukację różnych sił politycznych. Wysokość nakładów na szkolnictwo, obliczonych jako ich stosunek do PKB, wykazuje bardzo silny związek z ryzykiem automatyzacji istniejących stanowisk pracy – negatywna korelacja na poziomie -0.77. Podobna, choć słabsza jest zależność między wspomnianym ryzykiem a liczbą uczniów przypadających na jednego nauczyciela w szkołach podstawowych. Innymi słowy, im więcej poszczególne Państwa inwestowały w edukację, tym mniejsze jest prawdopodobieństwo, że osoby zatrudnione w tych krajach stracą pracę w wyniku postępującej automatyzacji. Patrząc na naszą cześć Europy niepokojąca jest wysoka siła związku między stopniem uprzemysłowienia (rozumianym jako udział osób zatrudnionych w firmach produkcyjnych w stosunku do wszystkich zatrudnionych) a ryzykiem automatyzacji pracy – korelacja 0.536 (grafika poniżej). Polskę może dotyczy to w mniejszym stopniu, ale udział zatrudnionych w przemyśle w takich krajach jak Czechy czy Słowacja wynosi prawie 30%.

No alt text provided for this image

Źródło: Hawksworth, J., Berriman, R., & Goel, S. (2018). Will robots really steal our jobs?: An international analysis of the potential long term impact of automation. PwC.

(Nie)przyjazne chatboty

Choć rozwój technologii i jej aplikacja mogą zaskakiwać w niektórych odsłonach, to w dalszym ciągu w wielu obszarach ludzie wydają się niezastąpieni. Mimo postępu w zakresie prac nad językiem naturalnym (NLP – natural language procesing; pojęcie języka naturalnego pozwala odróżnić ten rodzaj języka od języków sztucznych, np. tych, których używają programiści), nie wynaleziono do tej pory chatbota, który byłby tak sprawny, że nieodróżnialny od człowieka. Testu Turinga nie przeszedł w stu procentach jeszcze żaden chatbot. Test ten zawdzięcza swoją nazwę Alanowi Turingowi, który w 1950 opisał system, który miałby naśladować ludzkie myślenie. Na razie żaden z robotów nie oszukał sędziów w takim stopniu, aby uwierzyli oni, że bot jest człowiekiem. Od blisko 30 lat przyznawana jest nagroda Leobnera, której kryteria opierają się na teście Turinga. W tym roku, we wrześniu po raz kolejny wygrał Mitsuku (most humanlike chatbot), ale w dalszym ciągu nie zdołał on udowodnić, że jest człowiekiem. W zasadzie to ona i każdy może spróbować z nią porozmawiać https://www.pandorabots.com/mitsuku/ Ja próbowałem pogadać o wojnie z terroryzmem. Odpowiedzi były mało roztropne, co oczywiście nie oznacza od razu, że nie rozmawiałem z człowiekiem 😉 Postęp w rozwoju chatbotów jest ewidentny i niewątpliwie można zauważyć, że w ostatnim 10-leciu powstały aplikacje, których ludzkie cechy są coraz bardziej wyraźne. W 2014 roku, program udający nastolatka, Eugene’a Goostmana, „oszukał” 1/3 sędziów, co wywołało żywą dyskusję na temat tego czy bot przeszedł test Turinga.

W zeszłym roku na łamach czasopisma Zarządzanie Zasobami Ludzkimi ukazała się analiza funkcjonalności kilku znanych chatbotów stosowanych w rekrutacji, której dokonała związana z Uniwersytetem Ekonomicznym w Katowicach, Agata Berdowska. Porównanie obejmowało następujące narzędzia: Watson (firmy IBM), Tasha (firmy Sutherland), Mya (firmy Firstjob), SGT STAR (chatbot U.S Army), Pounce (firmy AdmitHub, używany m. in. przez Uniwersytet Stanu Georgia), Emplocity (pierwszy polskojęzyczny chatbot). Niewątpliwą zaletą tych aplikacji jest ich wysoka wydajność – np. sierżant STAR, przez kilkanaście lat zadał ponad 11 milionów pytań. Analiza wykazała jednak, że boty dobrze wykonują podstawowe zadania, jak odpowiadanie na proste pytania (jak będzie przebiegał proces rekrutacji?, jakie są dostępne wakaty?), czy zadawanie prostych pytań (ile masz lat doświadczenia? jakie masz wykształcenie? jaki jest twój zawód? jakiej pracy szukasz?). Choć niektóre z botów starają aktywnie pozyskiwać pasywnych kandydatów a także zadawać pytania przesiewowe i dokonywać wstępnej oceny kandydatów (Watson i Mya), to ich użyteczność sprowadza się raczej do asystenta ds. rekrutacji, którego kompetencje nie wykraczają poza umiejętności początkującego stażysty. Oczywiście, systemy te mają tę przewagę, że nie mają gorszych dni, nie chorują a nawet jeśli udzielą dziwnej odpowiedzi, to kandydat pewnie nie pomyśli: „jak w tej firmie traktują ludzi?”.

No alt text provided for this image

Źródło: Berdowska, A. (2018). Wspomaganie procesu rekrutacji pracowników za pomocą chatbotów – analiza wybranych rozwiązań. Zarządzanie Zasobami Ludzkimi5(124)

Nawet jeśli chatboty będą coraz bliższe ludziom, nie oznacza to automatycznie, że pracodawcy zastąpią nimi handlowców czy rekruterów. Załóżmy, że inteligencja maszyn, także w wymiarze społecznym dorówna ludziom. Swoją drogą trudno mi uwierzyć, że będzie można niebawem swobodnie porozmawiać z robotem o sztuce oraz opowiadać sobie wzajemnie dowcipy (choć ponoć Alexa opowiada już kawały). To założenie rodzi pytanie czy my będziemy chcieli obcować z robotami tak jak obcujemy z ludźmi? W obecnych czasach terminy customer experience czy employee/candidate experience robią zawrotną karierę. Czy w świetle postulatów o humanizacji stosunków zawodowych wprowadzanie robotów do komunikacji z pracownikami lub kandydatami do pracy ma sens? Doświadczenia takich firm jak Unilever pokazują, że ma. Oprócz ewidentnych korzyści ekonomicznych, opinia pracowników, którzy doświadczyli kontaktu z botami, jest z grubsza pozytywna. Agata Berdowska powołując się na badanie firmy Allegis, wskazuje, że „58% kandydatów było zadowolonych z interakcji z rozwiązaniami z zakresu SI na wczesnych etapach rekrutacji.” a „66% osób było zadowolonych z możliwości skorzystania z narzędzi SI do przygotowania się do rozmowy kwalifikacyjnej i umówienia spotkania z rekruterem„ Nie oznacza to, że zagrożeń nie ma. Są!

Naukowcy z Akademii Leona Koźmińskiego i Uniwersytetu SWPS (Aleksandra Przegalińska, Leon Ciechanowski, Mikołaj Magnuski) oraz MIT (Peter Gloor) przeprowadzili bardzo ciekawe eksperymentalne studium polegające na badaniu psychofizjologicznych reakcji osób poddanych interakcji z chatbotem. Uczestnicy tego eksperymentu byli podłączeni do aparatu EMG (elektromiografia służy do diagnostyki czynności elektrycznej mięśni – w tym przypadku przedmiotem zainteresowania były ruchy brwi), RSP (respirometr – urządzenie służy do badania oddechu), EKG (pewnie większość z nas przechodzi takie badanie) oraz aparatu mierzącego reakcję skórno-galwaniczną. Badani byli podzieleni na dwie grupy. Pierwsza czatowała z komputerem wyłącznie za pomocą znaków tekstowych, tj. uczestnik pisał na klawiaturze, a robot odpowiadał tekstem pisanym. W przypadku drugiej grupy, awatar widoczny na ekranie komputera dodatkowo czytał swoje odpowiedzi. Oprócz pomiaru reakcji psychofizjologicznych uczestnicy wypełnili kwestionariusz, w którym mogli wyrazić swój stosunek do chatbota oraz ocenić jego podobieństwo do ludzkiej istoty. Wyniki kwestionariusza wyraźnie pokazały, że awatar wzbudził więcej negatywnych emocji niż zwykły, tekstowy chatbot. Nie dość tego – awatar był postrzegany jako mniej kompetentny. Jednocześnie uczestnicy uważali, że był mniej ludzki i dziwny (inhuman & weird), przy czym bardziej przypominał człowieka. Badanie reakcji psychofizjologicznych także wykazało istotne różnice między grupami, np. interakcja z awatarem prowadziła do podwyższenia tętna. Odkryto interesujące związki z wynikami kwestionariusza, np. im chatbot był postrzegany jako mniej kompetentny, tym wywoływał silniejszą reakcję skórno-galwaniczną. Jednym zdaniem, obcowanie z tekstowym chatbotem było przyjemniejsze niż z awaterem. Jak to jednak jest, że im robot jest bardziej podobny do człowieka tym jest postrzegany jako bardziej „nieludzki” i wywołuje negatywną emocjonalną reakcję?

No alt text provided for this image

Zdjęcie: Franck V.

Wyniki przytoczonego studium potwierdzają rezultaty innych badań, które opisują tzw. uncanny valley effect (tłumaczone jako dolina niesamowitości, zainteresowanych odsyłam do wikipedii https://en.wikipedia.org/wiki/Uncanny_valley). Badania z udziałem zarówno dorosłych jak i dzieci wykazały, że interakcja z maszyną czy innym obiektem, który nie przypomina człowieka jest przyjemniejsza w porównaniu do kontaktu z humanoidem. Są także badania, które podobne zjawisko dokumentują w odniesieniu do małp. Ciekawe są hipotezy, które tłumaczą ten efekt. Maszyna, która jest bardzo podobna do człowieka, ale jednak tym człowiekiem nie jest wywołuje reakcje podobne do tych wynikających interakcji z chorym człowiekiem (np. zarażonym patogenem), co z biologicznego punktu widzenia jest całkiem sensowne – unikając chorych, unikamy zarażenia. Są też inne wytłumaczenia, odnoszące się norm religijnych czy kulturowych i choć to bardzo ciekawe, to zbyt odległe od przedmiotu tego artykułu, aby wątek rozwijać. Niezależnie od biologicznej, ewolucyjnej czy kulturowej przyczyny efektu uncanny valley, autorzy wspomnianego studium wprost sugerują ostrożność w projektowaniu chatbotów, które do złudzenia przypominają ludzi „chatbots should not be designed to pretend to be human — at least not if they do so ineptly.”

Zainteresowanym tematem polecam prelekcję prof. Aleksandry Przegalińskiej (pełną bibliografię źródeł do artykułu udostępnię każdemu na życzenie):

(Nie)sprawiedliwe algorytmy

Awersja do maszyn może być jeszcze większa, gdy te mają decydować o naszym życiu, lub przynajmniej o tak ważnej jego części jak kariera zawodowa. Ostatnio sporo kontrowersji budzą praktyki stosowane przez takie korporacje jak Unilever czy potentat w branży turystycznej – Hilton International. Współpracują one z firmą HireVue, która oferuje rozwiązania z obszaru preselekcji pracowników. Rozmowa chatbota z kandydatem jest nagrywana i wstępna ocena dopasowania tegoż kandydata jest dokonywana przez maszynę. Na jakiej podstawie? Otóż algorytm bierze pod uwagę mimikę kandydata, jego intonację i tembr głosu oraz słownictwo użyte w trakcie rozmowy. To nie treść wypowiedzi i jej sens ma tu kluczowe znaczenie, ale pewne powierzchowne, niewerbalne i werbalne zachowania. Takie podejście wydaje się przeczyć teorii z obszaru doboru personelu, wynalazki jednak mogą wyprzedzać stan wiedzy naukowej, więc warto bez uprzedzeń przyjrzeć się bliżej temu rozwiązaniu.

Oczywiście, system najpierw się uczy, tj. takie same rozmowy na samym początku chatbot odbywa z pracownikami danej firmy i poszukuje wzorca odróżniającego najlepszych „performerów” od ich słabszych koleżanek i kolegów. Zakładam, że system takie korelacje odnajduje i ci najlepsi prezentują charakterystyczny dla siebie sposób wypowiedzi. Takich samych zachowań następnie bot szuka u kandydatów do pracy. Można mieć pewne zastrzeżenia, że walidacja narzędzia (ustalanie jego trafności) odbywa się w innych warunkach niż te, w których narzędzie jest później stosowane – kandydaci są w zupełnie innym stanie emocjonalno-motywacyjnym niż zatrudnione osoby, które w wolnym czasie pogadają sobie z chatbotem – ale podobny zarzut można było przedstawić innym metodom selekcji, które później okazały się trafne. System być może trafnie ocenia kandydatów, nawet jeśli trudno dziś wytłumaczyć jego mechanizm, ale to jest właśnie jego słabość – brak transparentności z perspektywy osoby starającej się o pracę. Kandydat nie wie jakie kryteria selekcji są w istocie stosowane. Przegląda Internet w poszukiwaniu poradników jak przejść przez rozmowę z botem HireVue – taki poradnik można znaleźć m.in. na stronach Duke University. Poniższy poradnik znaleziony na platformie YouTube ma ponad 62 tys. wyświetleń.

Kandydat zatem kombinuje jak ustawić kamerę, na jakim tle się zaprezentować, ile czasu się uśmiechać, ile kontaktu wzrokowego utrzymywać i jaka intonacja głosu zyska aprobatę maszyny. Na koniec nie dostaje feedbacku, który mu jasno przedstawi jakich kompetencji mu brakuje. System dla kandydata działa jak magiczna, czarna skrzynka. Ani pracodawca, ani kandydat, ani producent systemu nie wiedzą do końca czym kieruje się algorytm rekomendując tego czy innego kandydata. Biorąc pod uwagę obecne trendy w rekrutacji – employer branding, candidate experience – wydaje się, że to głównie kolosalne oszczędności powodują, że system staje się tak popularny. Unilever zyskuje ok 1 mln dolarów rocznie na redukcji kosztów naboru personelu dzięki HireVue. W ostatnich dniach na łamach Washington Post pojawił się bardzo ciekawy, choć trochę stronniczy artykuł nt. HireVue

Pod artykułem pojawiło się w ciągu dwóch dni blisko tysiąc komentarzy. Przeczytałem kilkadziesiąt – WSZYSTKIE były jednoznacznie negatywne, niekiedy odwołując się do twórczości Orwella. Sam artykuł jest w moim odczuciu bardzo krytyczny w stosunku do HireVue, ale w dalszym ciągu jednoznaczność komentarzy podaje w wątpliwość możliwość pozytywnego odbioru tej technologii przez użytkowników – kandydatów. Pomijając to kto komentuje i dlaczego, nie sądzę, aby stanowcza większość aktywnych czytelników Washington Post to haterzy 🙂 HireVue jeszcze do artykułu się nie odniosło, przynajmniej nie na swoim profilu na LinkedIn. Warto byłoby zobaczyć jak temat wygląda z innej perspektywy.

Nie śmiem doradzać HireVue, ale warto, aby architekci tego systemu zapoznali się z najnowszą publikacją badaczy związanych z ALK, SWPS, UW oraz MIT z września tego roku, pt. „In bot we trust: A new methodology of chatbot performance measures”. Zaufanie i otwartość na interakcje z chatbotami zależeć może od:

  • wiary w dobre „intencje” botów,
  • przewidywalności tych maszyn oraz
  • TRANSPARENTNOŚCI, której HireVue chyba trochę brakuje.

Pogoni za nowymi funkcjonalnościami sztucznej inteligencji powinno towarzyszyć rozwijanie technologii, które pozwolą nam zrozumieć mechanizmy stojące za decyzjami systemów. Mam nadzieję, że zarówno w debacie nt. AI oraz w laboratoriach działów R&D na popularności będzie zyskiwać XAI (explainable artificial intelligence). Dla dobra nas wszystkich… włączając producentów rozwiązań opartych na AI 🙂

Następny odcinek artykułu będzie w dalszym ciągu poświęcony ograniczeniom, które może napotkać automatyzacja… Będzie to ostatnia zaplanowana część artykułu.

Czy zastąpią nas roboty? (…) część 1/4
Czy zastąpią nas roboty? (…) część 2/4
Czy zastąpią nas roboty? (…) część 4/4

_______________________________________

dziękuję za przeczytanie tego odcinka do końca 🙂

Źródło: Adam Pokrzywniak