12:27
15/1/2020

Coraz więcej firm do poszukiwania kandydatów na konkurencyjnym rynku pracy zaprzęga algorytmy “sztucznej inteligencji”. Boty oceniające przyszłych pracowników zwracają uwagę na trochę inne aspekty niż cieleśni rekruterzy. Zaobserwowali to “konsultanci keriery” z Korei Południowej, którzy oferują studentom kurs oszukiwania rekruterskich algorytmów. Wszystko po to, aby studenci mogli śpiewająco przejść proces rekrutacji i otrzymać wymarzoną pracę.

fot. depositphotos.com

Uśmiechaj się oczami, nie ustami

Jak informuje Reuters, kluczowym elementem nowoczesnej rekrutacji jest video konferencja z kandydatem, w trakcie której algorytmy analizują mimikę twarzy kandydata, kiedy odpowiada na różne pytania. Oto przykładowe:

Jesteś na delegacji ze swoim szefem i zauważasz, że używa firmowej karty podczas prywatnych zakupów. Co powiesz?

System ma wykrywać emocje takie jak strach i radość oraz analizować dobór słów kandydata. Wedle Seong-junga, jednego z “konsultantów kariery”, który uczy jak na takich wywiadach zyskać maksymalną liczbę punktów, w trakcie rozmowy analizowanej przez AI “najlepiej uśmiechać się oczami, a nie ustami”.

Oszukiwanie algorytmów i sztucznej inteligencji ma miejsce nie tylko w procesach rekrutacji. Rozmawialiśmy na ten temat w jednym z odcinków naszego niebezpiecznikowego podcastu “Na Podsłuchu”. Zachęcamy do podsłuchania tego odcinka.

Czy to ma sens?

To, że tego typu systemy są wykorzystywane nie dziwi. Technologia wkrada się w każdy aspekt naszego życia. Pytanie — jak zwykle w przypadku kiedy to algorytmy decydują o naszym być albo nie być — czy modele matematyczne mogą być bardziej sprawiedliwe niż ludzie (np. rekruterzy) i czy faktycznie są w stanie lepiej ocenić czyjeś praktyczne zdolności do danej pracy wyłącznie na podstawie oceny mimiki i doboru słów?

Pozostaje mieć nadzieję, że jeśli oszukiwanie algorytmów stanie się popularniejsze i do pracy na wymagające doświadczenia stanowiska zaczną być przyjmowani oszuści, to przełożeni szybko zauważą ich brak kompetencji i zakwestionują obecną formę rekrutacji.

Przeczytaj także:



37 komentarzy

Dodaj komentarz
  1. Dlaczego stosujecie takie socjalistyczne podejście do tematu?
    Martwicie się o kandydatów i o to czy ich algorytmy nie skrzywdzą. A to, że firma dostanie nienajlepszego pracownika to nie ma znaczenia?
    Poza tym pisanie o sprawiedliwości przy doborze pracowników… Jeśli algorytm/rekruter wybierze gorszego kandydata to owszem, ten lepszy a odrzucony może się poczuć skrzywdzony ale przede wszystkim to firma ma gorszego pracownika niż by mogła.

    • Jeśli firma używa dziwnych narzędzi o średnio określonej efektywności, to sama jest sobie winna, prawda?

    • Nie doczytałeś końcówki (chyba, że ją dopiero później dodano):
      “Pozostaje mieć nadzieję, że jeśli oszukiwanie algorytmów stanie się popularniejsze i do pracy na wymagające doświadczenia stanowiska zaczną być przyjmowani oszuści, to przełożeni szybko zauważą ich brak kompetencji i zakwestionują obecną formę rekrutacji.”

      Niestety, ja się akurat obawiam, że przełożeni długo nie zauważą niekompetencji, bo gdyby potrafili, to by nie musieli się zdawać na AI, a rekrutowani by nie przeszli sita.

    • Ad. 1 – ostatni akapit.
      Ad. 2 – “sprawiedliwość” przy doborze pracownika to nie jest właściwe słowo. “Uczciwość” za to jak najbardziej, jak przy każdej wymianie handlowej.

    • Może od razu wprowadźmy program social credit jak w Chinach. I rażenie prądem za każdą przerwę w pracy i oderwanie wzroku od monitora. Firmy na tym skorzystają…

    • Oddaj swoją pensję – to będzie dobre dla firmy i “niesocjalistyczne” xD

      A na poważnie, to skąd takie głupie założenie, że cokolwiek szkodzi jakiemuś przedsiębiorstwu to jest “socjalistyczne”? Liberalizm gospodarczy zakłada przecież, że niewydajne, niedostosowane do rynku przedsiębiorstwa mogą, a wręcz powinny ponosić straty.

    • AI jest tylko do wstępnej selekcji. póki co rekrutera nic nie zastąpi. zresztą i tak na początku jest umowa czasowa próbna, więc jaki problem?

  2. Jak ktoś zawodowo zajmuje się rekrutowaniem pracowników, to komunikację niewerbalną, jak i werbalną ogarnia na pewno dużo lepiej, niż te dziwne algorytmy, a z racji faktu, że i tak wszystko dzieje się z jego udziałem, to nie widzę za bardzo sensu stosowania takich mechanizmów, przynajmniej na dzień dzisiejszy.

    Jako sprzęt rozszerzający możliwości wykrywacza kłamstw, to może i jeszcze się zgodzę, chociaż też nie tak do końca.

  3. @sw3 Firmy same kreują taką politykę, więc mogą winić tylko same siebie. Jak im się to przestanie opłacać, to z tego zrezygnują. Tymczasem nas na rynku pracy nikt nie obroni, byłoby by szkoda, gdyby ktoś miał mieć problem ze znalezieniem pracy dlatego, że się statystycznie krzywo uśmiecha.

  4. pokazuje, że jednak głupota połączona z AI / ML to głupota na sterydach.
    Zresztą po co takie coś? By mieć robota czy pracownika? A potem się dziwią, że ludzie coraz mniej dobrze czują się w pracy.

    • Bo teraz panuje moda na Big Data i AI! A co najzabawniejsze, to wszystkim tym specom i reklamodawcom umyka jedno! Algorytm, to proces opisany przez analityka! A analityk ma swoje preferencje i ograniczenia! Walidacja (autouczenie) wadliwego algorytmu zgodnie z wadliwymi założeniami algorytmu samouczenia, doprowadzi do jeszcze gorszych wyników niż sam autor mógł przewidzieć! Ale tak wygląda cyfrowy świat, gdzie mnóstwo nieuków przestawiających obrazki na ekranie, uznaje że jest specjalistami od tworzenia programów, a nawet algorytmów! A to tylko ignorancja techniczno-zawodowa!

  5. @sw3 – Socjalistyczne? Dziwny dobór słowa do opisywanego tematu. Z Twojego postu brzmi jakbyś poprzez socjalistyczne rozumiał “anty-firmowe”. Jakkolwiek rozumiesz pojęcie “firm” to przecież pracownik też jest “quasi firmą”. Stroną kontraktu. Zatem artykuł opisuję techniki stosowane przez jedną firmę i sposoby wykorzystania tych technik do osiągnięcia celu przez inną “firmę”. Jak najbardziej jest to kapitalistyczne podejście do tematu. Zły pomysł jest rugowany przez działania rynkowe.
    Można rzec, że Twój post ma wydźwięk mocno socjalistyczny,chcesz ograniczać i pewnie sterować tym co osoba może lub nie może robić.
    ps. zakładam że po prostu nie wiesz co socjalistyczny/ne znaczy.

  6. Problem z AI jest taki, że to głupi automat do rozpoznania typowej mimiki. Jak stosowanie tych automatów będzie masowe, to ktoś z wadą wzroku lub połączoną twarzą w ogóle nie dostanie pracy. Nigdzie!
    Mówienie w tym kontekście o sprawiedliwości wobec firmy jest nie na miejscu.

  7. Mi cała ta sprawa kojarzy się mocno z filmem “Raport Mniejszości”. Nie dość że zaczynamy zdawać się na AI w kwestiach jak rekrutacja pracowników, to w grę jak widzę wcale nie wchodzą realne kompetencje, tylko psychologiczna analiza bzdurnych hipotetycznych sytuacji, gdzie kandydat może okazać się np. nie dość uczciwy dla przedsiębiorstwa. Analiza oparta w dużej mierze o podświadome odruchy, bez szansy na dłuższą chwilę zastanowienia. Stąd już tylko krok do uznania kogoś przez boty za potencjalnego przestępcę na podstawie błysku w oczach przy pytaniu o to, co by zrobił jakby przypadkiem dostał login i hasło do konta bankowego Solorza. Myślę, że nie zmierza to wszystko w najlepszym kierunku.

    • “co by zrobił jakby przypadkiem dostał login i hasło do konta bankowego Solorza”

      Okradanie “śpiocha” byłoby głupim pomyslem. Ten pan nie na darmo ma tyle paszportów i kilka nazwisk.

  8. >Jesteś na delegacji ze swoim szefem i zauważasz,
    > że używa firmowej karty podczas prywatnych zakupów. Co powiesz?

    Ze stracilem zainteresowanie kandydowaniem do ich firmy, maja odeslac mi dokumenty a kopie i moje informacje zniszczyc w rozsadnym czasie bo wycofuje moja zgode na przetwazanie danych… Co chca osiagnac takim pytaniem? czy formulowal je 5-latek? czas rekrutacji jest ograniczony, bledy kosztowne, najlepsi (uczciwi/kompetentni/pracownicy) pracownicy moga oczekiwac relacji partnerskich a serwuje sie im taka raczej kupe juz na starcie :/

    Pomijajac priorytety firmy (czym innym sa zakupy na firmowej karcie a czym innym rozliczanie sie z niej) i srodowiko pracy jesli startuja z takimi de* pytaniami: “Co powiesz?”
    Co tutaj jest do powiedzenia? Mozna: 1. rzucic (najprawdopodobniej) falszywymi oskarzeniami (bo nie mamy ich raczej jak zweryfikowac w takiej sutuacji) albo 2. oznajmic zlodziejowi, ze kradnie (co “naprawdopodobniej” dobrze wie ~_~) potencjalnie dajac mu szanse unikniecia konsekwencji naszym kosztem … tylek tez mam mu podcierac?

    Ja wiem, ze na wschodzie kultura potrafi byc mocno pop*ona i wlasciwa odpowiedzia moze byc “Szefie, jak szef chce moge wziasc ewentualne rozbieznosci na karcie na siebie” ale takie pytanie u nas?

  9. Ps. A co do bycia ocenianym przez AI, to chory pomysl i popieram lamanie tego typu algorytmow. To cale takzwane AI to absolutnie bezmyslna maszyna i na 100% od groma ludzi zostanie skreslonych, za jakies glupoty niezwiazane z ich kompetencjami (kolor skory czy rysy twarzy (grupa etniczna) sa tutaj przykladem swietnym i do tego “na czasie”).

    Doskonale widac to na testach wszelakich do wykrywania botow (np. te od googla), ktore odrzucaja jesli zaznaczasz obrazki szybciej niz inni i jestes zbyt spostrzegawczy (trzeba jezdzic mysza po ekranie jak jeł* przez kilka-kilkanascie sekund i losowo odznaczyc poprawna lub zaznaczyc bledna odpowiedz zeby ta kret* maszyna laskawie uznala mnie za czlowieka – a niektorzy komentujacy (tutaj) uwazaja ze te systemy maja decydowac kto bedzie pracowac? … niech zgadne, uwazaja tez ze googlowskie testy sa ciekawym *wyzwaniem* ktore nagradza ich “nadzwyczajna inteligencje” bezproblemowym loginem?)

    • to Korea, inny kontekst, kultura

    • OMG, wreszcie wiem, czemu zaznaczam dobrze, a ten głupi algorytm wciąż mj pisze, że źle :D Dzięki!

  10. Ktos nie wierzy, tutaj mozna sprawdzic:
    http://www.google.com/recaptcha/api2/demo

    W tych odpalajacych sie na tym linku (bo sa chyba rozne grupy) najlepiej widac to na testach z swiatlami. Tu nie jest to problem, na jednym z portali to ku* trzymalo mnie przy kazdym logowaniu kilkanascie-kilkadziesiat okien (bo wbrew pozorom to nie jest tak latwo ustalic jak czesto i gdzie nalezy sie mylic, bo wbrew pozorom “jako system” ludzie sa dosiebie bardzo podobni (miiliony lat ewolucji, dodatkowo maszyna odrzuca wszystkie nietypowe przypadki) wiec trzeba sie wstrzelic z iloscia i jakoscia bledu dokladnie w dystans dzielacy *ofiare* od generalnej populacji…).

    Nie zdziwilbym sie gdyby sie okazalo, ze wypelnianie tych testow (bycie zmuszonym do wolniejszego dzialania czy popelniania tych samych bledow co inni) aktywnie oglupialo. Bo to jest bardzo podobna sytuacja do bledow edukacyjnych czesto popelnianych w szkolach z matematyka/fizyka gdzie nauczyciele nie rozumiejacy omawianych zagadnien potrafia zapobiec zrozumieniu ich przez uczniow (wylaczywszy tych ktorym juz wszczesniej gdzies je wytlumaczono) zazwyczaj przez ignorowanie/wymuszanie bledow wlasnie i bledy logiczne w metodzie rozwiazania.

    • @WkurzonyBialyMis90210

      W pełni się zgadzam z Twoim opisem nauczania matematyki/fizyki: “nauczyciele nie rozumiejacy omawianych zagadnien potrafia zapobiec zrozumieniu ich przez uczniow (wylaczywszy tych ktorym juz wszczesniej gdzies je wytlumaczono) zazwyczaj przez ignorowanie/wymuszanie bledow wlasnie i bledy logiczne w metodzie rozwiazania.”.
      Zdecydowanie tak to działa. I dokładnie dlatego nieraz matematyka w mat-fizie potrafi być prostsza dla uczniów niż w szkole zawodowej. A odkręcenie złych nawyków wpojonych na kiepskich lekcjach trwa latami.

  11. Te algorytmy AI wcale nie są docelowo do rekrutowania – użyto ich tu na przynętę, by na odpowiedniej bazie ‘frajerów’ je przeszkolić w wykrywaniu emocji/kłamstwa. To tak jak z kodem CAPTCHA, głupole myślą, że te kody sa do autoryzacji bycia niebotem, a one są do maszynowego uczenia AI rozpoznawania obrazków.

    offtopic:
    dziś znajoma miała fajną przygode z onetem. Wpierw wysłała maila z załacznikiem, pisząc w mailu, że ten mail ma załacznik. Potem było klasyczne Re Re Re (oczywiście załacznik nie był kopiowany).
    Na końcu Onet przesłał jej komunikat (przed wysłaniem kolejnego Re) brzmiący: “z analizy treści maila wynika, że zamierzałaś przesłać załącznik; czy na pewno chcesz kontynuować?”.

    Jak widzicie szpiegowanie weszło na nowy poziom – onet czyta nasze/wasze maile. Nieważne czy aktywnie czy maszynowo. Czyta i już. Więc uważajcie co piszecie i jakie słowa/klucze zawieracie, bo odpowiednia ustawa nakazuje by onet informował policję, gdy wykryje ‘znamiona przestępstwa’.

    WASZE MAILE SĄ SKANOWANE ONLINE :-)

  12. Czy ktoś może opisać od strony technicznej jak to działa ?
    https://www.nytimes.com/interactive/2019/12/19/opinion/location-tracking-cell-phone.html

    W artykule jest dużo gadania ale nic nie jest wyjaśnione.

  13. Państwu nic do tego czy prywatna firma zatrudni sobie człowieka kompetentnego czy nie.

    Ale państwo powinno bronić kandydata przed firmami gromadzącymi i przetwarzającymi biometrię, w tym behawioralną, bo to są dane niezwykle wrażliwe.

  14. Hm, nie zdziwiłoby, gdyby z takimi testami najlepiej radzili sobie socjopaci …

  15. Rozumiem, że jak ktoś się denerwuje podczas rekrutacji to już koniec. Zestresowany może mieć losowe tiki nerwowe, nie wpadać w wyuczone szufladki i wtedy AI odrzuci takiego kandydata? Może jest to dobre rozwiązanie na szukanie sprzedawcy, prezentera lub sekretarki ale w merytorycznych sprawach to ciekawe jaki daje wynik?

    • tak, masz sie ładnie uśmiechać, bo inaczej bedziesz psuł humor innym zarabiającym 500-1000 euro miesięcznie

    • Pewnie podobny do dzisiejszego. Rekrutacja na programistę jest przeprowadzana patrząc na to jak kandydat się zachowuje a nie co potrafi (sic!). Na handlowca czy sekretarkę- rozumiem, inna specyfika, ale programista?! Oczywiście mówimy nie o paleniu kotów na rozmowie, tylko o normalnej stresującej sytuacji, kiedy pierwszy raz słyszysz pytania z cyklu “gdzie widzisz siebie za 5lat” itp. Złoto.

      AI jest spoko, ale to kolejna rzecz, która może POMÓC (słowo klucz), a nie zrobić za kogoś. To jak systemy w autach- ludzie zapominają, że to ma POMÓC jeździć bezpiecznie, a nie robić to za nas.

      Technologie są po to, żeby było nam łatwiej, a nie po to, żeby nie robić nic.

  16. “Who Watches the Watchers”

    Kto rekrutuje rekruterów? (tych prawdziwych i AI-owych?)

  17. Z AI walczy się używając AI. Równolegle z badaniami nad algorytmami służącymi do analizy i modyfikacji obrazu prowadzone są badania nad tym jak te algorytmy oszukiwać. Okazuje się, że czasem zmieniając jeden piksel na zdjęciu da się całkowicie “wykoleić” algorytm. W tym wypadku mógłby powstać filtr, który na bieżąco modyfikuje video tak, że kandydat egzamin zdaje śpiewająco. Kto mieczem wojuje…

  18. Sza, to ma sens. Tylko niech przez boty przejdą najpierw aktualni pracownicy wraz z kierownictwem ;)

  19. Jeden przykład podparty..koreą południową….dobrze, że nie jeszcze bardziej udziwnioną japonią…
    Sugeruję dystans do tego co wymyślono w korei, jest to zupełnie inna mentalność i umysłowość,stąd to dziwna pytanie.
    Cokolwiek dziwne jest ten upór w wyszukiwaniu coraz to innych i dziwniejszych zastosowań dla programu komputerowego jakim jest “sztuczna inteligencja”.A właściwie..algorytm.
    W profesjonalnej rekrutacji…to zawsze rekruter ma ostatnie słowo a nie jakaś śmieszna “Sztuczna inteligencja”.

    • Tego typu AI wykorzystuje się jako pierwsze sito, swoisty firewall. Ostateczną decyzję (póki co) podejmuje człowiek (i w UE gwarantuje nam to RODO). Taki sposób korzystania znacząco zmniejsza ilość pracy w HR poprzez zaoszczędzenie czasu na spotkania z oszołomami i osobami kompletnie nienadającymi się do pracy, których w rekrutacji pojawia się całkiem sporo. Takie podejście eliminuje ryzyka, ale i częściowo szanse (np. osoba z tikami nerwowymi, która mogłaby się jednak okazać ciekawym nabytkiem). Jak ktoś tu słusznie zauważył jest to gonienie średniej, podróż przez środek krzywej Gaussa.
      Z drugiej strony jeśli taki “automat” “pouczyć”, jakie cechy ma ignorować, to przecież to zrobi. Czyli nadal dużo zależy od człowieka.

  20. Fajny artykuł. Szkoda tylko, że nie ma nic o tym jak pokonać boty rekruterów i zdobyć pracę.

  21. A macie już aplikację do swojej komórki, dzięki której wasza gęba non stop uśmiecha się oczami i ma szczery na 98% wygląd? A tak na serio, to takie algorytmy powinny podlegać najpierw rejestracji i dopuszczeniu do użytkowania przez organizacje krajowe. Nie przyszło wam do głowy, że algorytm może dyskryminować kobiety, afroafrykanów (jak systemy rozpoznawania twarzy w artykule opisywanym przez niebezpiecznika) oraz rudych i zezowatych?

  22. Po pierwsze żeby przełożony miał zauważyć u kogoś brak kompetencji to po pierwsze sam powinien jakieś mieć, a z tym często bywa dziś bardzo krucho.
    Po drugie, wymyśla się jakieś cuda na kiju i testy oraz zaprzęga AI bo albo jest zbyt dużo aplikacji i nikomu się nie chce tego przeglądać, albo z powodu cięć kosztów nie ma w firmie nikogo z umiejętnościami rekrutacyjnymi, bo w ramach cięć kosztów wyleciała dawno temu z firmy i cały proces HR opiera się na outsorcingu.
    Z jednej strony sobie firmy ułatwiają, z drugiej robią coraz bardziej pod górkę. Jak rekrutacje zaczną przechodzić same ładnie uśmiechające się nieogary życiowe, to ciekawe co zrobią (i kto właściwie będzie robił właściwą robotę).

  23. Jedyne na co czekam to to aby był obowiązek podawania wynagrodzenia w ofertach pracy. To jest najważniejsze aby nie marnować czasu na rozmowy czy składanie w miejscach gdzie nie chce się pracować z racji na niskie wynagrodzenie. A uśmiech czy brak to już mniej ważne jak się nie kandyduje na sprzedawcę w sklepie.

Twój komentarz

Zamieszczając komentarz akceptujesz regulamin dodawania komentarzy. Przez moderację nie przejdą: wycieczki osobiste, komentarze nie na temat, wulgaryzmy.

RSS dla komentarzy: