Sztuczna inteligencja w rekrutacji pracowników

Sztuczna inteligencja w rekrutacji. Wyzwanie dla społecznej odpowiedzialności biznesu

  • 7 czerwca 2023
  • Autor: Mieczysław Bąk
Sztuczna inteligencja wykorzystywana jest w rekrutacji pracowników już od kilku lat, pozwalając na oszczędność czasu i zasobów firmy. Liczne programy i platformy, oferowane działom personalnym umożliwiają dobór odpowiednich kandydatów i kandydatek do poszukiwanych kwalifikacji, umiejętności czy cech często nie tylko w oparciu o dane dostarczone w CV, ale też wykorzystując pozyskane z innych, ogólnie dostępnych źródeł, np. z mediów społecznościowych. Sztuczna inteligencja pozwala na szybki przegląd CV i ustalenie, którzy z nich najlepiej odpowiadają kwalifikacjom i doświadczeniu wymaganym na danym stanowisku. Początkowo, łączono z AI[1] nadzieję, że nowe technologie pozwolą na bardziej obiektywne dobieranie kandydatów, pozbawione osobistych, subiektywnych ocen i uprzedzeń. Dosyć szybko stwierdzono jednak, że nowa technologia, ułatwiająca pracę działów personalnych niesie również zagrożenia dla właściwego doboru zespołów pracowniczych i może zagrozić przestrzeganiu praw człowieka.

Niespełnione oczekiwania bezstronności

Już w 2018 r. Amazon wstrzymał wykorzystywanie systemu rekrutacji opartego na sztucznej inteligencji, ponieważ okazało się, że nie zapewnia on równego traktowania kobiet. Narzędzie to dawało niskie oceny życiorysom z terminami „kobieta” lub „kobiety” w aplikacjach na stanowiska techniczne i wręcz obniżało rangę wykształcenia z dwóch żeńskich szkół wyższych. W tym przypadku program oparty na sztucznej inteligencji odzwierciedlał uprzedzenia autorów, odpowiedzialnych za dobór danych. Oddziaływanie takich uprzedzeń udowodnił eksperyment przeprowadzony w 2003 roku przez Narodowe Biuro Rozwoju Gospodarczego w USA (National Bureau of Economic Research NBER). Badając funkcjonowanie systemu zatrudniania, pracownicy Biura wysłali dwa zestawy fikcyjnych życiorysów z identycznymi informacjami o wykształceniu i doświadczeniu. Jeden zestaw życiorysów miał afroamerykańskie nazwiska, a drugi zestaw – europejskie. Okazało się, że europejscy „wnioskodawcy” otrzymali o 50% więcej kontaktów niż ich afroamerykańscy odpowiednicy, co ponawia pytanie: jak możemy stworzyć bardziej sprawiedliwe narzędzia rekrutacyjne? Najwyraźniej algorytmy stosowane w programach rekrutacyjnych nie dają gwarancji bezstronności[2].

W przypadku firmy Amazon algorytmy kierujące zautomatyzowanym narzędziem rekrutacyjnym zostały przeszkolone w zakresie wyboru kandydatów i kandydatek poprzez identyfikację słów kluczowych najczęściej używanych w życiorysach najlepszych pracowników firmy. Jednak bardzo trudno jest zbudować algorytm, który zrozumie kontekst społeczny. Życiorysy osób wykorzystane do „szkolenia” sztucznej inteligencji mogły być wybrane ze względu na ich lepszą ocenę, wynikającą z przynależności do tej samej grupy społecznej, co oceniający lub z pozazawodowych kontaktów, np. wynikających ze znajomości czy więzi rodzinnych. Trudno więc zakładać, że zestawy danych używanych do „szkolenia” programu są dokładne lub bezstronne, ponieważ są zakodowane przez osoby z określonymi poglądami i uprzedzeniami[3].

Zachowanie praw człowieka

Dostrzegane wady stosowania sztucznej inteligencji nie oznaczają konieczności rezygnacji z tej technologii w procesie rekrutacji. Niewątpliwie kierownictwo firmy ma za zadanie w sposób najbardziej efektywny znaleźć odpowiednich pracowników i zbudować skuteczny i kreatywny zespół. Coraz powszechniej można jednak dostrzec wagę odpowiedzialności firmy wobec wszystkich interesariuszy, co wiąże biznes z przestrzeganiem praw człowieka. Pojęcie to znajduje odzwierciedlenie chociażby w Wytycznych ONZ, które opierają się na przekonaniu, że przedsiębiorstwa są „zobowiązane do przestrzegania wszystkich obowiązujących przepisów i poszanowania praw człowieka”[4]. Przestrzeganie wspomnianych wytycznych oznacza, że firmy powinny dążyć do wyeliminowania w swoich operacjach biznesowych, dyskryminacji czy naruszania godności ludzkiej. Firmy stosujące sztuczną inteligencję powinny dołożyć wszelkich starań do zachowania praw kandydatów podczas procesu selekcji i podejmowania decyzji o zatrudnieniu, takich jak prawo do godności, do wyboru zawodu, prawo do równego traktowania, prywatności, rozwoju osobistego i korzystnych warunki pracy. Sztuczna inteligencja jest rozwijana przez ludzi, którzy popełniają błędy w projektowaniu, programowaniu i korzystaniu z tych rozwiązań. Błędy te mogą prowadzić do naruszeń praw człowieka.

Narastanie wyzwań związanych z rozwojem sztucznej inteligencji

Wyzwania, związane ze stosowaniem sztucznej inteligencji w biznesie, w tym zwłaszcza w zakresie rekrutacji, narastają wraz z rozwojem nowej technologii. Wprowadzenie Chatu GPT i jego ulepszonej wersji GPT-4[5], które w formie dialogu pozwalają otrzymywać odpowiedzi na pytania zadawane w języku naturalnym, bardzo szybko zostało wykorzystane w działach personalnych firm. Wprowadzony w marcu 2023 roku GPT-4 to potężne narzędzie, które można wykorzystać do automatyzacji procesu rekrutacji. Wykorzystując przetwarzanie języka naturalnego, algorytm może szybko wczytać duże ilości danych i ocenić umiejętności i doświadczenie potencjalnych kandydatów i kandydatek. Eliminuje to czasochłonne, ręczne przeglądanie życiorysów. Oprócz automatyzacji procesu rekrutacji, GPT-4 może być również wykorzystany do pomocy firmom w ocenie kwalifikacji i umiejętności potencjalnych pracowników. Algorytm może analizować CV kandydata lub kandydatki i porównywać je z wymaganiami na danym stanowisku, błyskawicznie wyłapując poszukiwane  kwalifikacje osoby kandydującej. Może to zapobiec pominięciu najbardziej wartościowych talentów.  Jak widać, GPT-4 pomaga firmom w zwiększeniu wydajności procesu rekrutacji. Automatyzując wiele ręcznych procesów, firmy mogą zmniejszyć ilość czasu i zasobów potrzebnych do znalezienia i zatrudnienia odpowiednich osób[6].

Zagrożenia dla prawa do samostanowienia

Widoczna autonomia sztucznej inteligencji może zmniejszyć zaangażowanie ludzi, niektóre zadania decyzyjne lub analityczne można przekazać maszynom. W rezultacie nowe zastosowania sztucznej inteligencji mogą być sprzeczne z prawem do samostanowienia, zachowania godności, dokonywania świadomych wyborów i mogą zagrażać ludzkiej wolności. W związku z tym narzędzia rekrutacji oparte na sztucznej inteligencji powinny być wykorzystywane wyłącznie w zakresie, w jakim nie ograniczają one autonomii człowieka tak, aby nie naruszać godności ludzkiej. Mechanizacja procesu prowadzi do niewielkiego lub żadnego bezpośredniego kontaktu międzyludzkiego między poszczególnymi kandydatami i kandydatkami, a przyszłym pracodawcą. Może to prowadzić do uprzedmiotowienia wzajemnych relacji, w wyniku czego zarówno osoby kandydujące co pracy, jak i rekrutujące doświadczyłyby utraty autonomii.

Można argumentować, że autonomia kandydatów i kandydatek jest ograniczona, ponieważ nie mogą wykazać się empatią, a także wszystkimi umiejętnościami miękkimi i kompetencjami społecznymi w wywiadach z maszyną, gdyż ta ostatnia nie może ich w pełni docenić. Warto jednak dodać, że kontakt z maszyną może mieć także dobre strony. Pracownicy działów personalnych nie zawsze są lepszymi słuchaczami lub partnerami do rozmowy w wywiadach. W rzeczywistości aplikujący mogą czuć się mniej zestresowani, gdy dzielą się osobistymi doświadczeniami ze sztuczną inteligencją, niż gdy robią to z człowiekiem.[7]

Niedyskryminacja

Kolejnym wyzwaniem związanym ze stosowaniem sztucznej inteligencji w rekrutacji jest zapewnienie niedyskryminacji. Jak pokazuje przytoczony wcześniej przykład firmy Amazon, brak dyskryminacji, wynikający z prawa do równego traktowania ma zasadnicze znaczenie dla wykorzystania tej technologii. Taka zautomatyzowana dyskryminacja może być nawet gorsza niż dyskryminacja ze strony człowieka, ponieważ uprzedzenia raz wprowadzone do algorytmów, standaryzują i tym samym zwielokrotniają dyskryminację. Sztuczna inteligencja może również wprowadzać nowe rodzaje uprzedzeń, które nie są jeszcze zdefiniowane w literaturze antydyskryminacyjnej.

Mówiąc o możliwej dyskryminacji, warto pamiętać, że procedury selekcji prowadzone przez pracowników czy wynajętych specjalistów nie są wolne od uprzedzeń. Wręcz przeciwnie. Naukowcy zasadniczo zgadzają się, że obecnie stosowane praktyki są dalekie od skuteczności i bezstronności, i że sztuczna inteligencja może potencjalnie zmniejszyć ludzkie uprzedzenia w tych procesach. Na przykład sztuczna inteligencja może zająć się uprzedzeniami wobec kobiet w opisach stanowisk pracy, czyniąc je neutralnymi. Co więcej, na etapach selekcji i oceny można zmniejszyć subiektywność ocen za pomocą algorytmów, które oceniają wszystkich wnioskodawców według tych samych kryteriów, zmniejszając w ten sposób ludzkie uprzedzenia związane na przykład z wyglądem fizycznym wnioskodawców, ponieważ sztuczną inteligencję można nauczyć ignorowania chronionych cech osobistych ludzi i skupiania się wyłącznie na konkretnych umiejętnościach. Tak więc sztuczna inteligencja ma potencjał zmniejszenia ludzkich uprzedzeń i tym samym, lepszego przestrzegania praw człowieka. Ważne jest odpowiednie przeszkolenie i zaprogramowane do działania w ten sam sposób dla wszystkich grup wnioskodawców. W związku z tym audyty, dotyczące prawidłowych zbiorów danych i projektów algorytmicznych mają kluczowe znaczenie dla utrzymania niskiego zagrożenia dyskryminacją[8].

Prywatność danych

Kolejnym ważnym problemem, związanym z wykorzystaniem sztucznej inteligencji jest zachowanie prywatności danych. Jak wspomniano powyżej, nowa technologia daje ogromne możliwości zbierania danych o kandydatach z wykorzystaniem na przykład technologii rozpoznawania twarzy, przeglądania portali społecznościowych i uzyskiwania informacji, często przekraczających te, które potencjalny pracownik dostarczył w CV. W takiej sytuacji niezwykle istotne jest pytanie, jakiego rodzaju i w jakiej ilości danych potencjalny pracodawca może gromadzić i przechowywać w odniesieniu do kandydatów? Dzięki RODO prywatność jest regulowanym obszarem zatrudniania, do którego pracodawcy muszą się dostosować. Ponadto osoby fizyczne mają prawo do ukrywania przed pracodawcami wszelkich danych osobowych, które są nieistotne dla realizacji potencjalnego zadania zawodowego.

Kandydaci biorący udział w procesie rekrutacji muszą mieć możliwość wyrażenia zgody na wykorzystanie ich danych. Trzeba przy tym pamiętać o asymetrii relacji między pracodawcami a osobami aplikującymi. Te ostatnie mogą nie być w stanie odmówić wykorzystania niektórych danych osobowych bez wywołania negatywnych ocen ze strony przyszłych pracodawców. Dylemat ten nie jest jednak spowodowany wykorzystaniem sztucznej inteligencji, ale dotyczy zarówno ogólnego kontekstu zatrudniania, jak i procesów kierowanych przez człowieka. Podobnie, dylemat dotyczący wykorzystania mediów społecznościowych nie jest związany tylko z technologią sztucznej inteligencji. Badanie przeprowadzone w Szwecji wykazało, że co najmniej połowa rekruterów i rekruterek, z którymi przeprowadzono wywiady, przeglądała media społecznościowe kandydatów i kandydatek w pewnym momencie przed zatrudnieniem, jeszcze przed pojawieniem się sztucznej inteligencji.[9]

Przejrzystość decyzji

Kolejnym wyzwaniem związanym ze sztuczną inteligencją może być przejrzystość podejmowanych decyzji. Jak wskazano powyżej, decyzje dotyczące sztucznej inteligencji są poza kontrolą ludzi, co utrudnia śledzenie odpowiedzialności za ich skutki. Często osobom prowadzącym rekrutację może być trudno zrozumieć, dlaczego algorytm zdecydował się w określony sposób. Tymczasem, kandydaci powinni mieć prawo do bycia poinformowanym o uzasadnieniu danej decyzji i prawo do ewentualnego złożenia skargi, gdy czują się niesprawiedliwie potraktowani (prawo do równego traktowania). Dlatego ważne jest, aby firmy rozumiały i mogły wyjaśnić, w jaki sposób działa sztuczna inteligencja oraz jakie dane i kryteria są wykorzystywane do podejmowania decyzji. Stanowi to wyzwanie techniczne dla budowania narzędzi sztucznej inteligencji, tak, aby wykorzystywane programy dawały wytłumaczalne wyniki. Rekrutacja oparta na sztucznej inteligencji może nawet stanowić okazję do większej przejrzystości dzięki łatwości regularnych informacji zwrotnych dla kandydatów w trakcie całego procesu rekrutacji. Robot może informować kandydatów o postępach w trakcie procesu, a technologia sztucznej inteligencji może być wykorzystywana do generowania wstępnych informacji na temat ich mocnych stron i obszarów wymagających rozwoju[10].

Zastosowanie sztucznej inteligencji w rekrutacji będzie najprawdopodobniej szybko się rozwijać, także w małych przedsiębiorstwach. Posługując się nimi istotne będzie zachowanie praw kandydatów i kandydatek, zwłaszcza prawa do autonomii, niedyskryminacji, prywatności i przejrzystości. Ponadto, pomimo szybkiego rozwoju nowej technologii, pracownicy działów personalnych będą musieli mierzyć się z faktem, że sztuczna inteligencja bazuje na uproszczonym modelu ludzkiego zachowania. Trudno jest przy jej pomocy ustalić system wartości kandydatów i kandydatek, ich charyzmę, a także dużej części kompetencji społecznych, rzeczywistej motywacji czy zdolności do refleksji. Dlatego kluczowe jest zachowanie nadzoru nad decyzjami podejmowanymi przez roboty i refleksja nad proponowanymi rozwiązaniami.

 

[1] ang. Artificial Intelligence – sztuczna inteligencja, inteligencja wykazywana przez urządzenia sztuczne (w przeciwieństwie do inteligencji naturalnej).
[2] Mutale Nkonde, Is AI Bias a Corporate Social Responsibility Issue, Harward Business Rewiew, Nov. 4, 2019.
[3] Tamże.
[4] Guiding principles on business and human rights, United Nations, New York and Geneva, 2011, https://www.ohchr.org/documents/publications/guidingprinciplesbusinesshr_en.pdf
[5] https://openai.com/
[6] https://ts2.space/en/chat-gpt-4-and-human-resources-revolutionizing-talent-acquisition-and-management/
[7] A.L. Hunkenschroer, A.  Krebitz, Is AI Recruiting (un)ethical? A human rights perspective on the use of AI for hiring [w:] AI Ethics 3, 199–213 (2023), https://doi.org/10.1007/s43681-022-00166-4
[8] Tamże.
[9] Tamże.
[10] Tamże.

Powiązane wpisy

Skontaktuj się z naszym ekspertem
i poznaj szczegóły uczestnictwa w programie!

    Imię i nazwisko *
    Adres e-mail *
    Numer telefonu

    * Pola oznaczone gwiązdką są obowiązkowe.

    Instytucje wspierające
    Organizator i partnerzy

    Organizator Programu:
    Program afiliowany przy KIG:
    Patronat Honorowy nad Galą 26. edycji programu Przedsiębiorstwo Fair Play

    Korzystanie ze strony oznacza zgodę na wykorzystywanie plików cookie, niektóre mogą być już zapisane w przeglądarce. Więcej informacji można znaleźć na stronie: polityka prywatności.