Stanowisko ws. wpływu zarządzania algorytmicznego na środowisko pracy

Wyobraź sobie, że firma w której pracujesz analizuje ruchy myszki monitorując jak długo i intensywnie pracujesz albo sprawdza twoje kontakty z zakładowym związkiem zawodowym. Wyobraź sobie, że twój grafik, a nawet stawka godzinowa, są codziennie “optymalizowane” poprzez algorytm w zależności od obrotów lub ruchu w sklepie – o tym, o której i za ile pójdziesz jutro do pracy dowiesz się dopiero dzisiaj. Wyobraź sobie, że w ramach rekrutacji wymaga się od ciebie włączenia kamery w celu np. analizy twoich emocji lub prosi o podanie wrażliwych, osobistych danych, które będą analizowane przez sztuczną inteligencję w nieznany ci sposób. Czy zgadzasz się na zbieranie takich danych w sytuacji w której bardzo zależy ci na pracy?

To wszystko istniejące przykłady algorytmicznego zarządzania pracą: zastosowania rozwiązań sztucznej inteligencji do monitorowania, planowania, koordynowania, oceniania czy nagradzania pracy ludzi. Zarządzanie algorytmiczne opiera się na pozyskiwaniu danych generowanych, świadomie lub nieświadomie, przez osoby pracujące oraz przetwarzaniu tych danych przez zatrudniających.

Ten typ zarządzania pracą poprzez wykorzystanie sztucznej inteligencji tworzy nową rzeczywistość w środowisku pracy (swojego rodzaju cyfrowy tayloryzm XXI wieku). Ta rzeczywistość niebawem zawita do twojego zakładu lub firmy – rozwój aplikacji AI (ang. “artificial intelligence” – sztuczna inteligencja) służących do zarządzania pracą jest zawrotnie szybki, a oferowane rozwiązania są wdrażane mimo, a czasem dzięki, brakom regulacji prawnych w tym obszarze. Dzieje się tak ponieważ zarządzanie algorytmiczne przynosi korzyści właścicielom i zarządzającym firmami: generuje wzrost poprzez zmniejszanie kosztów i przyspieszenie procesów.

Systemy zarządzania pracą poprzez sztuczną inteligencję przynoszą również wiele korzyści dla jakości pracy: ograniczenie uciążliwości pracy dzięki robotyzacji, znaczące przyspieszenie procesów decyzyjnych dzięki zbieraniu i analizie danych, uproszczenie skomplikowanych procesów czy poprawę bezpieczeństwa pracy.

Nie można jednak zapomnieć o tym, że zarządzanie algorytmiczne niesie ze sobą bardzo poważne ryzyka, które wpływają negatywnie na środowisko pracy z perspektywy pracownic i pracowników. Oto kilka przykładów takiego ryzyka:
(Nad)użycie danych wrażliwych. Pozyskiwane dane obejmować mogą zarówno te podstawowe, wprowadzane do różnorodnych systemów przez osoby pracujące, jak również bardzo wrażliwe dane zbierane w ramach elektronicznego monitoringu i nadzoru tj.: treści wiadomości elektronicznych, dane biometryczne, dane o przemieszczaniu się, informacje o zdrowiu.
Bezprawny nadzór nad pracownikiem. Rynek oferuje aplikacje do monitoringu i elektronicznego nadzoru, których działanie jest niezgodne z prawem, np.: nagrywanie osoby pracującej w domu bez jej wiedzy.
– Zastąpienie algorytmami ludzkich decyzji. Systemy AI umieją wyciągać daleko idące wnioski na podstawie różnorodnych danych (social media, nagrania twarzy, ruchy pracownika w magazynie) często pozyskiwanych z zaskakujących źródeł. Wnioski te są używane do generowania decyzji dotyczących osób pracujących w ramach zarządzania algorytmicznego. W praktyce zarządzania, takich decyzji algorytmów nie negocjuje się z pracownikami ponieważ są traktowane jako obiektywne i nieomylne przez zatrudniających.
Brak kontroli nad pozyskiwaniem danych. Osoby pracujące nie mają jasności co do tego, jakie dane są zbierane podczas pracy, a co za tym idzie, nie są w stanie udzielić świadomej zgody na takie praktyki.
Nieprzejrzystość algorytmów. Zautomatyzowane decyzje np. co do obciążenia pracą, oceny pracy, wynagrodzenia, awansu, są podejmowane według kryteriów, które są niejasne dla osób pracujących.
– Dalsze uelastycznianie godzin pracy i płacy poprzez algorytmizację. Arbitralne ustalanie zmiennych godzin pracy pracownikom na podstawie baz danych np. o ruchu klientów czy obrotach powoduje dalsze zachwianie stabilności życia osób pracujących poprzez brak przewidywalności harmonogramu pracy i wynagrodzenia.
Naruszanie prawa do “odłączenia się” od pracy w domu. Zaburzenie granicy między pracą i życiem prywatnym w przypadku danych zbieranych podczas pracy z domu. Pracownicy są praktycznie pod ciągłym nadzorem, nieustannie w pracy.
Algorytmy dyskryminują pracowników. Ustawienia algorytmu mogą powodować, że niektóre grupy osób pracujących mogą być dyskryminowane (np. brakiem przyjęcia do pracy, awansu) ze względu na swoje cechy. Uprzedzenia rasowe, płciowe czy wobec orientacji seksualnych są często “wbudowane” w dane używane do trenowania algorytmów AI i wobec tego często automatycznie powielają wzorce dyskryminacyjne istniejące w społeczeństwie.
– Rozprzestrzenianie się pracy “platformowej”. Zamiast umowy o pracę pracownicy są jedynie użytkownikami aplikacji, a ich czasem pracy, zadaniami, czy oceną zarządza algorytm. Rozprzestrzenianie się wzorców zarządzania i relacji z pracownikami, które rozwijane są w organizacjach platformowych (takich jak np. Uber).

Razem uważa, że aby chronić interesy osób pracujących, konieczne jest pilne wprowadzenie wstępnych działań, które ograniczą opisane ryzyka.
Krótkoterminowo oznacza to:
– Wprowadzenie rozwiązań obligujących zatrudniających do pełnej jawności wobec osób pracujących odnośnie do:
– zbieranych danych w ramach pracy,
– sposobu wykorzystania danych,
– udostępniania zebranych danych innym podmiotom (np. dostawcom aplikacji, firmom ubezpieczeniowym, rekrutacyjnym, urzędom),
– przechowywania danych.
– Wprowadzenie konieczności uzgodnień zatrudniających z przedstawicielami osób pracujących (w tym: związkami zawodowymi) odnośnie sposobów gromadzenia i wykorzystywania danych oraz stosowania aplikacji z obszaru zarządzania algorytmicznego.
– Uwzględnienie tego obszaru jako podlegającego kontroli przez odpowiednie instytucje.
– Wdrożenie „prawa do odłączenia” w odniesieniu do pracy zdalnej (zgodnie z rezolucją Parlamentu Europejskiego z 21.01.2021).
– Traktowanie pracy wykonywanej na rzecz organizacji platformowych jako podlegającej ochronie zatrudnionych zgodnie z obowiązującym prawem.

W dłuższej perspektywie proponujemy:
– Poziom EU: utworzenie niezależnej, europejskiej instytucji, która będzie przeprowadzać ciągły audyt aplikacji AI tworzonych na rynku pod kątem zgodności z europejskimi standardami pracy;
– Poziom krajowy: rozwój kompetencji instytucjonalnych, pozwalających na kontrolowanie zgodności zarządzania algorytmicznego z prawem pracy.

Chcemy, żeby Polska została liderem we wprowadzaniu rozwiązań porządkujących ten obszar. Wiele rozwiązań można wprowadzić na poziomie krajowym, zmieniając np. zapisy prawa pracy. Obserwujemy takie działania w innych krajach (np. Hiszpania).

Jednocześnie zdajemy sobie sprawę, że skala zjawiska i potencjał wyzysku osób pracujących poprzez zarządzanie algorytmiczne wymaga:
a) ciągłej obserwacji rozwoju rynku algorytmów zarządzających, oraz
b) dalej idących regulacji w tym zakresie.

Naszym celem powinny być działania porządkujące obszar od strony prawnej i działania wyprzedzające skutki, które negatywnie wpływają na środowisko pracy. Działania profilaktyczne ściślej chronią osoby pracujące niż działania naprawcze. Tylko w ten sposób można ograniczyć dehumanizację pracy, wynikającą z zarządzania algorytmicznego.

Za powyższym stanowiskiem głosowało 24 radnych przy jednym głosie wstrzymującym się.

Zdjęcie: ThisisEngineering RAEng