Co zrobić, gdy mamy „na już” skontaktować kilkuset kandydatów? Jak zautomatyzować pewne procesy, które są powtarzalne, a jednocześnie móc skupić się na rzeczach bardziej kreatywnych lub budowaniu relacji z kandydatami?
Z pomocą może przyjść Data Scraping – proces automatycznego pozyskiwania danych z różnych źródeł.
Data scraping pozwala w sposób automatyczny i zorganizowany zbierać dane o potencjalnych kandydatach, analizować trendy rynkowe czy uzupełniać braki w istniejących bazach. Dzięki temu sourcer/rekruter może skupić się na budowaniu relacji z kandydatami i hiring managerami, zamiast tracić godziny na manualne wyszukiwanie informacji.
Jak się do tego zabrać i w czym realnie Data Scraping może nam pomóc w rekrutacji? W tym artykule przedstawię 3 praktyczne zastosowania DS w rekrutacji.
1. Tworzenie bazy potencjalnych kandydatów
Opis:Jednym z najczęstszych zastosowań data scrapingu jest automatyczne pozyskiwanie informacji o kandydatach z platform takich jak LinkedIn, GitHub, czy Stack Overflow. Dzięki temu rekruter może szybko stworzyć listę osób spełniających określone kryteria.
Przykład:Rekruter poszukuje programistów Python z Warszawy. Narzędzie scrapingowe przeszukuje LinkedIn, wyodrębniając dane takie jak:
- Imię i nazwisko.
- Obecne stanowisko.
- Lokalizacja.
- Link do profilu LinkedIn.
Korzyści:
- Szybkie zbudowanie listy potencjalnych kandydatów.
- Automatyczne zapisywanie danych w arkuszach Google lub ATS.
- Redukcja czasu potrzebnego na manualne wyszukiwanie.
Zastosowanie data scrapingu pozwala nam na zebranie kandydatów do jednej bazy, np. Excela. W kilka minut możemy tam uzbierać kilkaset, a nawet kilka tysięcy rekordów. Na co nam tak duża baza? Możemy np. rozdzielić rozsyłanie wiadomości między innych rekruterów, bazując na jednym pliku i nie dublując swojej pracy (przydatne zwłaszcza dla osób niemających LinkedIn Recruiter). Możemy również wykorzystać automatyzację do rozsyłania zaproszeń do sieci – dzięki czemu, w 2-3 tygodnie (biorąc pod uwagę limit zaproszeń na LinkedIn) możemy powiększyć swoją sieć o kilkaset osób, minimalnym nakładem naszego czasu.
2. Monitorowanie rynku pracy
Opis:Data scraping pozwala na śledzenie trendów i zmian na rynku pracy. Dzięki analizie ogłoszeń o pracę rekruterzy mogą lepiej zrozumieć, jakie umiejętności są obecnie najbardziej poszukiwane.
Przykład:Agencja rekrutacyjna monitoruje portale z ogłoszeniami o pracę, aby zidentyfikować nowe oferty w branży IT. Narzędzie scrapingowe codziennie zbiera dane, takie jak:
- Liczba ofert pracy na danym stanowisku.
- Wymagane technologie i umiejętności.
- Proponowane widełki wynagrodzeń (jeśli dostępne).
Korzyści:
- Identyfikacja nowych nisz na rynku pracy.
- Przygotowanie raportów dla klientów o aktualnych trendach.
- Możliwość szybkiej reakcji na zmieniające się potrzeby rynku.
Przewaga posiadania takich danych we własnej bazie (np. Excela) pozwala nam na uzyskanie lepszych wskaźników, np. ile firm i jakie to są firmy, które oferują pracę zdalną. Jak wyglądają widełki w przypadku firm produktowych vs. software house’ów itp. Popularne raporty płacowe zawierają tylko ogólne informacje, gdy chcemy być bardziej konkurencyjni, trzeba użyć pogłębionej analizy. To też nam pomoże w rozmowach z Hiring Managerami, czy zarządem, by mieć wpływ na to, co firma oferuje i jak jest konkurencyjna na tle innych.
3. Budowa talent pool pod przyszłe rekrutacje
Opis: Dzięki data scrapingowi rekruterzy mogą szybko i efektywnie budować bazy potencjalnych kandydatów (talent pool) dla konkretnych ról, oszczędzając czas i zwiększając szanse na znalezienie odpowiednich talentów.
Przykład: Firma poszukuje specjalistów DevOps z doświadczeniem w pracy z narzędziami takimi jak Kubernetes i Docker. Dzięki scrapingowi można zebrać publicznie dostępne dane z GitHub (projekty, aktywność), LinkedIn (stanowiska, umiejętności) oraz Stack Overflow (odpowiedzi na pytania techniczne). Z zebranych informacji rekruter tworzy listę kandydatów, którzy pasują do profilu.
Korzyści:
- Dostęp do szerszego grona potencjalnych kandydatów.
- Szybsze reagowanie na potrzeby rekrutacyjne.
- Zbudowanie gotowej bazy osób, które można proaktywnie zaangażować w rekrutację.
Taka baza może być solidną podstawą sourcingową, jeżeli np. współpracujemy z nowymi rekruterami lub zewnętrznymi kontraktorami. Sprawdza się również w przypadku pracy na tych samych rolach (np. cały czas mamy otwarte pozycje na Java Developera). Wtedy możemy w takiej bazie łatwo zanotować, kiedy kandydat był kontaktowany i dlaczego nie chciał z nami rozmawiać. Wtedy możemy wrócić z nim do rozmowy za jakiś czas, bo np. mamy lepsze widełki lub otworzyliśmy się na pracę zdalną. Taka personalizacja pozwala też na budowanie długofalowych relacji.
I teraz najważniejsze pytanie – czy data scraping jest etyczny? To zależy 🙂 A zależy od tego, do czego wykorzystujemy pozyskane dane – do sprzedaży innym podmiotom, które odpowiadają za tagretowane reklamy? To jest zawsze nieetyczne! Jeżeli wykorzystujemy pozyskane dane do rekrutacji, korzystamy tylko z publicznych danych (czyli tych, którzy udostępniają sami kandydaci), to nie ma różnicy, czy będziemy przepisywać po kolei wszystko ręcznie, czy jednak skorzystamy z automatów. Rezultat otrzymujemy ten sam, a co zrobimy z zaoszczędzonym czasem? Może w końcu zyskamy chwilę, by pójść do toalety albo oddzwonić do kandydata z feedbackiem 😉