CV z coraz większym prawdopodobieństwem w pierwszej kolejności przeczyta nie człowiek, a sztuczna inteligencja. Systemy śledzenia kandydatów (ATS) i narzędzia oparte na AI stały się codziennością, także w działach HR. Szacuje się, że w Europie już ponad 60% firm korzysta z nich na którymś etapie rekrutacji. To rewolucja, która obiecuje szybkość i efektywność. Rodzi jednak fundamentalne pytanie: jak wdrożyć te innowacje, nie naruszając praw kandydatów i nie narażając firmy na dotkliwe kary? Wątpliwości rozwiewa adwokat Adrian Ilko z Działu Prawa Nowych Technologii w Kancelarii Sobota Jachira.
Poniższy przewodnik proponuje konkretne działania, które możesz wdrożyć w swojej organizacji. Jeżeli potrzebujesz konsultacji lub pomocy prawnej w tym temacie lub innym z prawa nowych technologii i sztucznej inteligencji, skontaktuj się z nami: [email protected].
RODO jako fundament
Każdy proces, w którym algorytm analizuje, ocenia lub kategoryzuje CV, jest operacją na danych osobowych. Oznacza to, że podlega on reżimowi RODO (Ogólne rozporządzenie o ochronie danych), w tym zasadom: legalności, przejrzystości, minimalizacji, ograniczenia celu oraz zapewniania praw kandydatów.
1. Obowiązek informacyjny: jak napisać klauzulę, którą ktoś zrozumie?
RODO wymaga transparentności. Kandydat musi wiedzieć, że jego aplikacja będzie przetwarzana automatycznie i rozumieć, co to dla niego oznacza, tj.:
- że jego aplikacja będzie przetwarzana przez system wykorzystujący AI;
- w jakim celu i na jakich zasadach;
- oraz jakie prawa mu przysługują.
Dlatego należy unikać wklejania skomplikowanych, prawniczych formułek na końcu ogłoszenia. Sformułowania typu: „algorytm profilujący”, „procesor danych” czy „automatyczna kwalifikacja” niewiele wyjaśniają. Zamiast tego warto:
- umieścić informację w widocznym miejscu: najlepiej tuż przy przycisku “Aplikuj”;
- używać prostego języka, by wyjaśnić proces rekrutacji w 1-2 zdaniach, po szczegóły odsyłając do polityki prywatności.
Można skorzystać z przykładowej klauzuli:
“W naszym procesie rekrutacyjnym korzystamy z systemu [Nazwa Systemu], który pomaga nam dokonać wstępnej selekcji aplikacji. System analizuje Twoje CV pod kątem dopasowania kwalifikacji i doświadczenia do wymagań opisanych w ogłoszeniu. Ta zautomatyzowana ocena pomaga nam szybciej rozpatrywać zgłoszenia. Pamiętaj, że kluczowe decyzje w procesie rekrutacji zawsze podejmuje człowiek. Więcej informacji o tym, jak przetwarzamy Twoje dane, znajdziesz w naszej Polityce Prywatności [link do Polityki Prywatności]”.
Jeśli AI analizuje dane także spoza CV (np. uwzględnia informacje z profilu na LinkedIn) uwzględnij to w klauzuli informacyjnej.
2. Prawo do interwencji ludzkiej: jak wdrożyć procedurę odwoławczą?
Art. 22 RODO chroni kandydatów przed decyzjami opartymi wyłącznie na automatycznym przetwarzaniu. Dlatego jeśli wykorzystywany system samodzielnie odrzuca kandydatów, musisz zapewnić kandydatom realną możliwość odwołania.
Deklaracja, że to rekruter zawsze na końcu klika ‘OK’, podczas gdy w rzeczywistości jest to masowe zatwierdzanie decyzji AI, jest tylko pozorną interwencją człowieka, która nie zwalnia z obowiązków wynikających z art. 22 RODO. Dlatego:
- stwórz dedykowany kanał komunikacji: może to być prosty adres e-mail (np. [email protected]) podany w wiadomości z decyzją odmowną;
- zdefiniuj proces: ustal kto w zespole jest odpowiedzialny za rozpatrywanie odwołań oraz jaki jest na to czas (np. 5 dni roboczych);
- zapewnij rzetelną weryfikację: ponowna ocena musi być przeprowadzona przez człowieka, który świadomie analizuje CV w kontekście kluczowych wymagań stanowiska, a nie tylko powtarza ocenę automatu.
Warto zadać sobie pytanie: czy w przyjętej procedurze rekruter jest w stanie merytorycznie uzasadnić, dlaczego kandydat X, odrzucony przez AI, faktycznie nie spełniał kryteriów? Jeśli odpowiedź brzmi “nie”, Twój proces może zostać zakwalifikowany jako oparty wyłącznie na automatyzacji, nawet jeśli teoretycznie na końcu jest zatwierdzany przez człowieka.

AI Act – co to oznacza dla użytkownika systemu?
AI Act kwalifikuje systemy rekrutacyjne jako systemy wysokiego ryzyka. Zgodnie z aktem o sztucznej inteligencji, odpowiedzialność nie spoczywa tylko na twórcach takich systemów, ale także na Tobie jako ich użytkowniku (deployer). Twoją odpowiedzialnością jest świadomy wybór dostawcy i odpowiedzialne korzystanie z narzędzia. Warto stosować się do następujących rad:
1. Wybór dostawcy: nie ufaj marketingowi, zadawaj trudne pytania
Zanim podpiszesz umowę na system AI lub wykupisz subskrypcję na gotowe rozwiązanie chmurowe, przeprowadź własny due diligence. Potraktuj poniższą listę jako obowiązkowy element rozmów z handlowcem.
Przed wdrożeniem systemu AI do swojego procesu rekrutacji sprawdź:
- zgodność z AI Act: czy system jest (lub będzie) w pełni zgodny z wymogami dla systemów AI wysokiego ryzyka?
- dane treningowe i bias (stronniczość): czy dostawca podaje informacje, na jakich zbiorach danych trenowany był algorytm? Jakie kroki podjęte zostaną w Twojej firmie, aby zminimalizować ryzyko dyskryminacyjnego bias-u (np. ze względu na płeć, wiek, pochodzenie, ukończoną uczelnię)?
- dokumentacja i transparentność: czy dostawca udostępnia dokumentację techniczną, wymaganą przez AI Act? Czy logikę działania algorytmu da się w zrozumiały sposób wyjaśnić?
- nadzór ludzki: w jaki sposób narzędzie wspiera i ułatwia sprawowanie skutecznego nadzoru ludzkiego nad jego działaniem? Czy są przewidziane mechanizmy łatwej interwencji człowieka?
- rejestrowanie zdarzeń (logi): czy system rejestruje swoje działania w sposób, który pozwoli na odtworzenie procesu decyzyjnego na potrzeby ewentualnego audytu lub kontroli?
- czy system pozwala anonimizować lub pseudonimizować dane kandydatów?
Jeśli dostawca nie podaje tych informacji lub unika odpowiedzi na te pytania, rozważ skorzystanie z innego, bardziej transparentnego systemu.
2. Wewnętrzne zarządzanie i monitoring.
Wybór i zakup zgodnego z prawem narzędzia to tylko połowa sukcesu. Druga połowa to jego prawidłowe używanie.
W tym zakresie dobrymi praktykami będzie:
- prowadzenie wewnętrznego rejestru: stwórz prosty dokument (np. w Excelu lub systemie wewnętrznym), w którym będziesz odnotowywać, w jakich procesach rekrutacyjnych i w jakim celu korzystasz z systemu AI. Taka dokumentacja będzie bezcenna podczas kontroli.
- regularnie monitoruj wyniki: samodzielnie analizuj decyzje podjęte przez system. Zaplanuj regularną weryfikację i sprawdzaj, czy odrzucane kandydatury są faktycznie nieadekwatne? Czy system nie faworyzuje określonego profilu kandydata w sposób, który może być dyskryminujący? Przykładowo, jeśli na stanowisko techniczne aplikuje 40% kobiet, a system przepuszcza do kolejnego etapu tylko 5% z nich, należy to zbadać i w dokumentacji opisać, dlaczego tak się dzieje.
- szkól zespół: rekruterzy muszą rozumieć zasady działania stosowanego systemu, jakie ma on ograniczenia i jakie ryzyka prawne się z nim wiążą.
- wyznacz osoby odpowiedzialne za monitoring systemu i szkolenia. To nie jest zadanie wyłącznie dla HR – warto włączyć do procesu także dział prawny oraz IT.

AI w rekrutacji a kodeks pracy
Choć o AI Act i RODO mówi się najczęściej, nie można zapominać o polskim prawie pracy, które wprost chroni godność i prywatność pracownika (art. 11¹ k.p.). Stąd system rekrutacyjny nie może:
- analizować cech niezwiązanych ze stanowiskiem (np. wyglądu, wieku, akcentu, miejsca zamieszkania),
- pozyskiwać danych z mediów społecznościowych bez podstawy prawnej,
- oceniać „osobowości” kandydatów, jeśli nie jest to niezbędne i kandydat nie wyraził na to zgody.
Każde zastosowanie sztucznej inteligencji w procesie rekrutacji powinno być proporcjonalne i przemyślane. Jeśli decydujemy się na wdrożenie narzędzia, którego celem jest jedynie sortowanie CV według słów kluczowych, to nie może ono na przykład jednocześnie analizować zdjęć kandydatów.
Podsumowanie
Dbanie o zgodność z RODO i AI Act to nie tylko sposób na uniknięcie kar administracyjnych. To przede wszystkim inwestycja w zaufanie – przejrzyste i odpowiedzialne podejście do wykorzystania technologii w procesach rekrutacyjnych sprawia, że kandydaci chętniej aplikują i czują się traktowani z szacunkiem. Zyskuje na tym również sama organizacja, bo decyzje rekrutacyjne stają się bardziej obiektywne, oparte na danych i mierzalnych kryteriach, a nie uprzedzeniach.
Dobrym pomysłem jest więc otwarte komunikowanie zasad korzystania z narzędzi AI. Warto dodać na podstronie „Kariera” prostą sekcję „Jak wykorzystujemy AI w rekrutacji” z krótkim opisem używanej technologii, roli człowieka w podejmowaniu decyzji oraz zamieścić informacje o sposobie ochrony danych osobowych. Taka przejrzystość nie tylko spełnia wymogi prawne, ale także buduje wizerunek organizacji, która nie ma nic do ukrycia i dba o etyczny wymiar rekrutacji.
Jeżeli potrzebujesz konsultacji lub pomocy prawnej w tym temacie lub innym z prawa nowych technologii i sztucznej inteligencji, skontaktuj się z nami: [email protected].
Autor: Adrian Ilko, adwokat
