Lista kontrolna optymalizacji ATS dla CV inżynierów AI

Bureau of Labor Statistics prognozuje 20% wzrost zatrudnienia dla informatyków i badaczy (SOC 15-1221) do 2034 roku -- niemal siedmiokrotnie więcej niż 3% średnia dla wszystkich zawodów -- przy medianie rocznego wynagrodzenia 140 910 USD, a najlepiej zarabiający przekraczają 232 120 USD [^1][^2]. Tymczasem ogłoszenia o pracę związane z AI wzrosły z 1,4% do 1,8% wszystkich amerykańskich ogłoszeń między 2023 a 2024 rokiem według raportu Stanford AI Index, a Python pojawia się jako najczęstsza umiejętność specjalistyczna w tych ogłoszeniach [^3]. Ten wzrost oznacza więcej aplikacji na jedno ogłoszenie, bardziej agresywne filtrowanie słów kluczowych ATS -- badanie Jobscan z 2025 roku wykazało, że 99,7% rekruterów używa filtrów ATS do sortowania kandydatów, a 76,4% zaczyna wyszukiwanie od filtrowania po umiejętnościach [^4] -- i więcej CV odrzucanych przez oprogramowanie, zanim kierownik ds. rekrutacji przeczyta choćby jedną linijkę o ekspertyzie w architekturze transformerów.

Ta lista kontrolna obejmuje zasady parsowania ATS, strategie słów kluczowych, wymagania formatowania i techniki optymalizacji specyficzne dla inżynierów AI pracujących w uczeniu maszynowym, uczeniu głębokim, NLP, widzeniu komputerowym, generatywnej AI i MLOps.

Najważniejsze wnioski

  • Słowa kluczowe specyficzne dla frameworków determinują ranking ATS. PyTorch pojawia się w 37,7% ogłoszeń o pracę w inżynierii AI, a TensorFlow w 32,9% -- wymienianie "frameworków uczenia głębokiego" bez ich nazw powoduje utratę obu dopasowań [^5].
  • Kwantyfikowana wydajność modeli oddziela CV o wysokim rankingu od odrzuconych. Redukcje opóźnienia wnioskowania (z 340 ms do 45 ms), poprawy dokładności (F1 z 0,72 do 0,91), rozmiary zbiorów danych (2,3 mln oznakowanych próbek) i procenty wykorzystania GPU (78% wydajności klastra) przechodzą przez ATS jako przeszukiwalny tekst i natychmiast komunikują poziom wpływu recenzentom.
  • Umiejętności MLOps i wdrożeniowe to teraz standard. Docker pojawia się w 15,4%, a Kubernetes w 17,6% ogłoszeń o pracę w AI -- kandydaci wymieniający tylko umiejętności badawcze bez doświadczenia we wdrożeniu produkcyjnym są odfiltrowywani z większości stanowisk branżowych [^5].
  • Certyfikaty chmurowe funkcjonują jako wysoce wartościowe słowa kluczowe ATS. Google Professional Machine Learning Engineer i certyfikaty AWS Machine Learning pojawiły się w 2025 roku w 40% więcej ogłoszeń o pracę niż konkurencyjne poświadczenia [^6].
  • Zgodność formatu zapobiega cichemu odrzuceniu. Tabele, układy dwukolumnowe, graficzne paski umiejętności i treść umieszczona w nagłówkach lub stopkach powodują, że parsery ATS mieszają przypisania pól lub pomijają sekcje całkowicie -- praca nad optymalizacją CUDA znika, zanim ktokolwiek ją przeczyta [^4].

Typowe słowa kluczowe ATS dla inżynierów AI

Poniższe słowa kluczowe zostały zaczerpnięte z opisów zadań O*NET dla kodu SOC 15-1221, analizy ponad 3 000 ogłoszeń o pracę w inżynierii AI [^5] oraz aktualnej dokumentacji frameworków i platform [^7][^8]. Należy je uporządkować według kategorii w CV, zamiast wymieniać w jednym bloku.

Umiejętności twarde

Języki programowania: Python (71% ogłoszeń), C++ (kod zoptymalizowany pod GPU), Java (22% ogłoszeń), Rust (silniki wnioskowania), SQL (17,1% ogłoszeń), JavaScript/TypeScript (warstwy API), Go (mikroserwisy), Bash/skrypty powłoki [^5]

Frameworki uczenia głębokiego: PyTorch, TensorFlow, JAX, Keras, ONNX, TensorRT, Hugging Face Transformers, spaCy, scikit-learn, XGBoost, LightGBM

Generatywna AI i narzędzia LLM: LangChain, LlamaIndex, Hugging Face (repozytorium modeli, tokenizery, zbiory danych), OpenAI API, Anthropic Claude API, generowanie wspomagane wyszukiwaniem (RAG), bazy wektorowe (Pinecone, Weaviate, ChromaDB, Milvus, Qdrant), inżynieria promptów, dostrajanie (LoRA, QLoRA, PEFT), RLHF [^8]

MLOps i infrastruktura: Docker, Kubernetes, MLflow, Kubeflow, Weights & Biases, Ray, Airflow, DVC (Data Version Control), Seldon Core, BentoML, TorchServe, Triton Inference Server, GitHub Actions, Jenkins, Terraform

Platformy chmurowe: AWS (SageMaker, Bedrock, Lambda, EC2, S3), Google Cloud (Vertex AI, TPU, BigQuery), Azure (Azure ML, Azure OpenAI Service, Cognitive Services) [^5]

Inżynieria danych: Apache Spark, Kafka, Snowflake, Databricks, dbt, Pandas, NumPy, Polars, Delta Lake, Feast (magazyn cech)

GPU i obliczenia: CUDA, cuDNN, NVIDIA A100/H100, trening rozproszony (DeepSpeed, FSDP, Horovod), trening ze zmieszaną precyzją (FP16/BF16), równoległość modelu, równoległość danych

Umiejętności miękkie

Współpraca międzyfunkcyjna (produkt, inżynieria, nauka o danych), dokumentacja techniczna, implementacja artykułów naukowych, komunikacja z interesariuszami, projektowanie eksperymentów, przegląd kodu, mentoring młodszych inżynierów, metodologia Agile/Scrum, pisanie techniczne, prezentacje konferencyjne

Terminy branżowe i metodologie

Podstawowe koncepcje uczenia maszynowego: uczenie nadzorowane, uczenie nienadzorowane, uczenie ze wzmocnieniem, uczenie transferowe, uczenie z małą liczbą przykładów, uczenie bez przykładów, uczenie samonadzorowane, uczenie kontrastowe, mechanizm uwagi, architektura transformera, konwolucyjna sieć neuronowa (CNN), rekurencyjna sieć neuronowa (RNN), generatywna sieć adwersaryjna (GAN), model dyfuzyjny, wariacyjny autokoder (VAE)

Terminologia NLP: rozpoznawanie encji nazwanych (NER), analiza sentymentu, klasyfikacja tekstu, odpowiadanie na pytania, streszczanie, tłumaczenie maszynowe, tokenizacja, osadzenia (word2vec, BERT, sentence-transformers), wyszukiwanie semantyczne, klasyfikacja intencji

Terminologia widzenia komputerowego: detekcja obiektów (YOLO, Faster R-CNN), segmentacja obrazu (U-Net, Mask R-CNN), klasyfikacja obrazów, estymacja pozy, optyczne rozpoznawanie znaków (OCR), rozumienie wideo, rekonstrukcja 3D

Ewaluacja i metryki: precyzja, czułość, wynik F1, AUC-ROC, wynik BLEU, perpleksja, opóźnienie wnioskowania, przepustowość (tokeny/sekundę), rozmiar modelu (liczba parametrów), FLOPS, testy A/B, istotność statystyczna

Wymagania dotyczące formatu CV

Parsery ATS odczytują dokumenty sekwencyjnie -- od lewej do prawej, od góry do dołu -- i przypisują treść do pól na podstawie rozpoznawania nagłówków sekcji [^4]. CV inżynierów AI narażone jest na specyficzne ryzyko parsowania, ponieważ treść techniczna często zawiera fragmenty kodu, diagramy architektury i notację matematyczną, których ATS nie potrafi zinterpretować.

Format pliku

Należy przesyłać w formacie .docx, chyba że ogłoszenie wyraźnie wymaga PDF. Dokumenty Word są parsowane bardziej niezawodnie we wszystkich głównych platformach ATS (Workday, Greenhouse, Lever, iCIMS, Taleo). Jeśli wymagany jest PDF, warto eksportować go z Worda zamiast projektować w LaTeX lub narzędziu layoutowym -- to zachowuje warstwę tekstową, którą ATS odczytuje. Pliki PDF wygenerowane w LaTeX mogą renderować się poprawnie dla ludzi, ale zawierają kodowanie czcionek, które niektóre parsery ATS błędnie odczytują.

Struktura układu

  • Wyłącznie jedna kolumna. Układy dwukolumnowe powodują, że ATS przeplata treść z lewej i prawej strony. Pasek boczny z listą bibliotek Python obok historii zatrudnienia zostanie połączony w nieprzewidywalny sposób.
  • Bez tabel, pól tekstowych i grafik. Inżynierowie często używają tabel do organizowania siatek biegłości we frameworkach lub diagramów architektury. ATS odczytuje komórki tabeli w nieprzewidywalnej kolejności lub pomija je całkowicie.
  • Krytyczne treści nie mogą znajdować się w nagłówkach ani stopkach. Imię i nazwisko, poświadczenia i dane kontaktowe należy umieścić w głównej treści dokumentu -- 25% platform ATS ignoruje zawartość nagłówków/stopek podczas parsowania [^9].
  • Standardowe nagłówki sekcji. Należy używać dokładnie: "Podsumowanie zawodowe" ("Professional Summary"), "Doświadczenie zawodowe" ("Professional Experience"), "Umiejętności techniczne" ("Technical Skills"), "Wykształcenie" ("Education"), "Certyfikaty" ("Certifications"), "Projekty" ("Projects", opcjonalnie). Warto unikać niestandardowych nagłówków typu "Arsenał ML" czy "Zestaw badawczy".
  • Bez bloków kodu i notacji matematycznej. ATS nie parsuje formatowania kodu wbudowanego, równań LaTeX ani symboli matematycznych Unicode. Należy pisać "wytrenowano model transformera o 7 miliardach parametrów" zamiast osadzać notację architektury modelu.

Czcionka i odstępy

Należy stosować czcionkę 10-12 pkt w standardowym kroju (Calibri, Arial, Times New Roman, Garamond). Minimalne marginesy 1,27 cm. Warto unikać czcionek skondensowanych lub o stałej szerokości. Pogrubienie stosować wyłącznie do nagłówków sekcji i tytułów stanowisk; kursywy dla kluczowych słów warto unikać, ponieważ niektóre warstwy OCR błędnie odczytują znaki kursywne.

Nagłówek z imieniem i poświadczeniami

Imię i nazwisko z poświadczeniami należy sformatować w pierwszej linii głównej treści dokumentu:

ANNA KOWALSKA, MS
Inżynier AI | Uczenie maszynowe i NLP
[email protected] | (555) 234-5678 | linkedin.com/in/annakowalskaml | github.com/annakowalska

Taki format zapewnia, że ATS przechwytuje specjalizację w polu tytułu, a profil GitHub jako przeszukiwalny ciąg tekstowy. Podanie zarówno LinkedIn, jak i GitHub odpowiada dwóm platformom, które rekruterzy w inżynierii AI sprawdzają najczęściej.

Optymalizacja doświadczenia zawodowego

Osiągnięcia inżynierii AI stają się konkurencyjne w ATS, gdy zawierają metryki modeli, skalę infrastruktury, rozmiary zbiorów danych i wpływ biznesowy. Ogólne opisy typu "budowanie modeli uczenia maszynowego" nie zawierają żadnych przeszukiwalnych wyróżników.

Formuła punktu

[Czasownik akcji] + [produkt ML] + [framework/narzędzie] + [wskaźnik skali] + [wynik/wpływ]

Przykłady przed i po optymalizacji

1. Trening modelu

  • Przed: "Trenowano modele uczenia głębokiego do klasyfikacji tekstu"
  • Po: "Wytrenowano model klasyfikacji tekstu oparty na BERT w PyTorch na 1,8 mln oznakowanych dokumentów, poprawiając wynik F1 z 0,76 do 0,93 i redukując obciążenie ręcznych przeglądów o 340 godzin analitycznych miesięcznie"

2. Wdrożenie LLM

  • Przed: "Wdrożono modele językowe do produkcji"
  • Po: "Wdrożono dostrojony model LLaMA 2 13B na AWS SageMaker z optymalizacją TensorRT, redukując opóźnienie wnioskowania z 340 ms do 45 ms na żądanie, obsługując 12 000 dziennych aktywnych użytkowników przy 99,7% dostępności"

3. Potok RAG

  • Przed: "Zbudowano chatbota z użyciem AI"
  • Po: "Zaprojektowano potok generowania wspomaganego wyszukiwaniem (RAG) przy użyciu LangChain, bazy wektorowej Pinecone i GPT-4, indeksując 450 000 dokumentów wewnętrznych i osiągając 91% dokładności odpowiedzi na zapytania domenowe, mierzone względem zestawu testowego 2 000 pytań oznakowanych przez ekspertów"

4. Widzenie komputerowe

  • Przed: "Pracowano nad projektami widzenia komputerowego"
  • Po: "Opracowano system detekcji wad oparty na YOLOv8 w PyTorch, przetwarzający 2 400 obrazów produkcyjnych na godzinę na NVIDIA A100, osiągając 96,2% [email protected] i redukując wskaźnik fałszywych pozytywów z 8,3% do 1,1%, oszczędzając 2,1 mln USD rocznie na kosztach ręcznej inspekcji"

5. Potok MLOps

  • Przed: "Skonfigurowano infrastrukturę ML"
  • Po: "Zbudowano kompleksowy potok MLOps przy użyciu Kubeflow, MLflow i GitHub Actions automatyzujący trening, ewaluację i wdrożenie modelu w 14 produkcyjnych modelach, skracając cykl aktualizacji modelu z 3 tygodni do 48 godzin z automatycznym wykrywaniem dryfu przez Evidently AI"

6. Potok danych

  • Przed: "Przetwarzano dane do uczenia maszynowego"
  • Po: "Zaprojektowano potok cech w Apache Spark przetwarzający 2,3 TB danych o zachowaniach użytkowników dziennie, generując 847 cech przechowywanych w magazynie cech Feast i skracając czas przygotowania danych treningowych z 6 godzin do 22 minut"

7. System NLP

  • Przed: "Budowano modele NLP"
  • Po: "Opracowano wielojęzyczny system NER przy użyciu spaCy i Hugging Face Transformers obsługujący 8 języków, wyodrębniający 23 typy encji z 500 000 dokumentów klinicznych z 94,7% F1 na poziomie encji i wdrożony przez mikroserwis FastAPI obsługujący 1 200 żądań na minutę"

8. Optymalizacja GPU

  • Przed: "Zoptymalizowano szybkość treningu modelu"
  • Po: "Wdrożono trening rozproszony przy użyciu PyTorch FSDP na 32 GPU NVIDIA A100, skracając czas treningu modelu językowego o 7 miliardach parametrów z 14 dni do 38 godzin przy osiągnięciu 78% wykorzystania klastra GPU dzięki treningowi ze zmieszaną precyzją (BF16)"

9. System rekomendacji

  • Przed: "Zbudowano silnik rekomendacji"
  • Po: "Zaprojektowano neuronowy model rekomendacji z architekturą dwóch wież w TensorFlow Serving przetwarzający 45 mln dziennych interakcji użytkowników, poprawiając wskaźnik klikalności o 23% i przyrost przychodów o 4,8 mln USD rocznie dzięki personalizacji w czasie rzeczywistym z opóźnieniem P99 poniżej 50 ms"

10. Dostrajanie i dostosowywanie

  • Przed: "Dostrajano modele językowe"
  • Po: "Dostrojono Mistral 7B przy użyciu QLoRA (kwantyzacja 4-bitowa) na 85 000 par instrukcja-odpowiedź specyficznych dla domeny, osiągając 12-punktową poprawę na wewnętrznym benchmarku przy jednoczesnej redukcji wymagań pamięci GPU z 80 GB do 24 GB, umożliwiając wdrożenie na pojedynczej instancji NVIDIA A10G za 0,38 USD/godzinę"

Strategia sekcji umiejętności

Sekcja umiejętności pełni podwójną funkcję: zapewnia gęstość słów kluczowych dla dopasowania ATS oraz stanowi szybki punkt odniesienia dla recenzentów. Należy ją ustrukturyzować z myślą o obu odbiorcach.

Zalecany format

Umiejętności warto pogrupować w 4-5 podkategorii zamiast wymieniać je w jednym bloku. Poprawia to zarówno parsowanie ATS (wyraźna kategoryzacja), jak i czytelność.

Uczenie głębokie i frameworki ML: PyTorch, TensorFlow, JAX, Hugging Face Transformers, scikit-learn, XGBoost, ONNX, TensorRT

LLM i generatywna AI: LangChain, LlamaIndex, potoki RAG, bazy wektorowe (Pinecone, Weaviate), dostrajanie (LoRA, QLoRA), inżynieria promptów, RLHF

MLOps i infrastruktura: Docker, Kubernetes, MLflow, Kubeflow, Weights & Biases, Ray, Airflow, GitHub Actions, Terraform

Platformy chmurowe: AWS (SageMaker, Bedrock, Lambda), GCP (Vertex AI, TPU), Azure ML

Programowanie i dane: Python, C++, SQL, Spark, Kafka, Pandas, NumPy, CUDA, Git

Odzwierciedlenie ogłoszenia o pracę

Przed przesłaniem aplikacji należy przeczytać konkretne ogłoszenie o pracę. Jeśli ogłoszenie zawiera "Hugging Face", nie należy pisać samego "HF" -- ATS wykonuje dopasowanie ciągów znaków, nie dopasowanie koncepcyjne. Jeśli ogłoszenie zawiera "Retrieval-Augmented Generation", należy użyć dokładnie tego wyrażenia, nie samego "RAG". Jeśli jest napisane "large language models", należy użyć tego terminu obok "LLM". Warto podać zarówno skróconą, jak i pełną formę, gdy pozwala na to miejsce: "Retrieval-Augmented Generation (RAG)" [^4].

Certyfikaty jako słowa kluczowe

Poświadczenia należy wymienić zarówno ze skrótem, jak i pełną nazwą przy pierwszym wystąpieniu. Certyfikaty Google Professional ML Engineer i AWS ML pojawiły się w 2025 roku w 40% więcej ogłoszeń o pracę niż konkurencyjne poświadczenia [^6]:

  • AWS Certified Machine Learning Engineer - Associate -- uzyskany 2025
  • Google Cloud Professional Machine Learning Engineer -- uzyskany 2024
  • NVIDIA Certified Associate: Generative AI LLMs -- uzyskany 2025
  • DeepLearning.AI Deep Learning Specialization (Coursera) -- ukończony 2023
  • Magister informatyki, specjalizacja uczenie maszynowe -- Stanford University, 2022

Taki format zapewnia dopasowanie ATS niezależnie od tego, czy rekruter wyszukuje "AWS ML", "Machine Learning Engineer" czy pełną nazwę certyfikatu.

Typowe błędy ATS popełniane przez inżynierów AI

1. Wymienianie frameworków bez wersji i kontekstu

Napisanie "PyTorch" na liście umiejętności informuje ATS o posiadaniu słowa kluczowego, ale nie mówi kierownikowi ds. rekrutacji nic o głębi doświadczenia. "PyTorch 2.0 -- ponad 4 lata użycia produkcyjnego, trening rozproszony (FSDP), niestandardowe potoki zbiorów danych, eksport modeli TorchScript" zapewnia słowa kluczowe ATS, jednocześnie komunikując biegłość. Przy uczeniu głębokim pojawiającym się w 28,1% ogłoszeń o pracę w inżynierii AI, kontekst frameworku oddziela aplikację od kandydatów, którzy ukończyli pojedynczy kurs [^5].

2. Pomijanie metryk skali produkcyjnej

"Zbudowano model uczenia maszynowego" nie zawiera żadnych informacji wyróżniających. Ile parametrów? Jaki rozmiar zbioru danych? Jakie było opóźnienie? Jaką przepustowość obsługiwał? Punkt z "wytrenowano model o 3 miliardach parametrów na 500 000 próbek, obsługujący 8 000 żądań/minutę przy 42 ms P95 opóźnienia" zawiera osiem dodatkowych przeszukiwalnych terminów i natychmiast komunikuje poziom doświadczenia. Metryki skali są inżynieryjnym odpowiednikiem danych o przychodach -- sygnalizują, czy kandydat pracuje na poziomie startupu czy przedsiębiorstwa.

3. Używanie formatowania artykułów naukowych

Akademickie CV używają LaTeX, układów wielokolumnowych i gęstych bibliografii. ATS nie parsuje żadnego z tych formatów w sposób niezawodny. Przy przejściu z badań do branży należy odbudować CV w jednokolumnowym dokumencie Word ze standardowymi nagłówkami sekcji. Listę publikacji należy przenieść do prostego formatu z punktorami: "Pierwszy autor, 'Efficient Attention Mechanisms for Long-Context Generation,' NeurIPS 2024" zamiast formatowania BibTeX.

4. Mylenie umiejętności badawczych ML z umiejętnościami inżynieryjnymi ML

Wymienianie "spadku gradientu", "propagacji wstecznej" i "projektowania funkcji straty" sygnalizuje wiedzę akademicką, ale nie zdolności inżynieryjne. Rekruterzy wyszukujący stanowiska inżynieryjne AI filtrują po terminach wdrożeniowych: "obsługa modelu", "CI/CD dla ML", "testy A/B", "monitorowanie", "magazyn cech", "optymalizacja opóźnień". CV obciążone teorią, ale bez terminologii MLOps, zostanie odfiltrowane z 75% ogłoszeń branżowych szukających inżynierów zorientowanych na produkcję [^5].

5. Przesyłanie jednego CV na wszystkie stanowiska AI

Profil słów kluczowych inżyniera NLP i inżyniera widzenia komputerowego pokrywa się w mniejszym stopniu, niż zakładają kandydaci. "Tokenizacja", "mechanizm uwagi" i "wynik BLEU" to terminy NLP. "mAP", "IoU" i "anchor boxes" to terminy widzenia komputerowego. "Inżynier MLOps" szuka "Kubernetes", "rejestru modeli" i "wykrywania dryfu". CV wymieniające wszystkie te pojęcia osłabia wynik trafności dla każdego pojedynczego ogłoszenia. Należy dostosować CV do konkretnej subdomeny.

6. Ukrywanie GitHub i publikacji poniżej pierwszej strony

Kierownicy ds. rekrutacji w inżynierii AI sprawdzają historię kontrybucji na GitHub i publikacje jako główne wskaźniki kwalifikacji. Jeśli adres GitHub i najważniejsze publikacje pojawiają się na drugiej stronie, algorytmy rankingowe ATS przyznające większą wagę treściom pojawiającym się wcześniej mogą je depriorytetyzować. GitHub, Google Scholar i 2-3 najważniejsze publikacje należy umieścić w obszarze nagłówka kontaktowego lub bezpośrednio po podsumowaniu zawodowym.

7. Używanie grafik do przedstawienia architektury technicznej

Diagramy architektury systemowej, wykresy porównawcze modeli i krzywe treningowe są niewidoczne dla ATS. System nie wyodrębnia żadnego tekstu z osadzonych obrazów. Reprezentacje wizualne należy zastąpić tekstem opisowym: "Zaprojektowano architekturę mikroserwisową z 3 punktami końcowymi obsługi modelu (rekomendacja, klasyfikacja, ekstrakcja) za bramką API, przetwarzającą 45 mln dziennych żądań w 12 podach Kubernetes z automatycznym skalowaniem horyzontalnym".

Przykłady podsumowania zawodowego przyjaznego dla ATS

Podsumowanie zawodowe powinno zawierać 3-5 zdań z najważniejszymi słowami kluczowymi, latami doświadczenia, specjalizacją i kontekstem produkcyjnym. Na niektórych platformach ATS treść pojawiająca się wcześniej w dokumencie otrzymuje większą wagę [^4].

Poziom początkujący: Inżynier ML (0-2 lata)

Inżynier uczenia maszynowego z 2-letnim doświadczeniem w budowaniu i wdrażaniu modeli uczenia głębokiego w PyTorch i TensorFlow. Opracowanie potoku klasyfikacji NLP przetwarzającego 200 000 dokumentów przy użyciu Hugging Face Transformers i wdrożenie na AWS SageMaker z konteneryzacją Docker, osiągając 91% dokładności na obciążeniu produkcyjnym. Biegłość w Python, SQL, śledzeniu eksperymentów MLflow i przepływach pracy ML opartych na Git. Magister informatyki z opublikowanymi badaniami na temat efektywnego dostrajania transformerów (AAAI 2025). AWS Certified Machine Learning Engineer - Associate.

Średnie doświadczenie: Starszy inżynier AI (3-6 lat)

Starszy inżynier AI z 5-letnim doświadczeniem w projektowaniu i wdrażaniu produkcyjnych systemów ML w aplikacjach NLP, rekomendacji i generatywnej AI. Kierowanie rozwojem platformy wyszukiwania korporacyjnego opartego na RAG przy użyciu LangChain, Pinecone i GPT-4, obsługującej 15 000 dziennych aktywnych użytkowników przy opóźnieniu poniżej 200 ms. Budowanie kompleksowych potoków MLOps w Kubernetes z MLflow, Airflow i automatycznym retrenowaniem modeli obsługujących 14 modeli produkcyjnych. Doświadczenie w rozproszonym treningu PyTorch na klastrach wielu GPU (NVIDIA A100), redukujące koszty treningu o 40% dzięki optymalizacji ze zmieszaną precyzją. Google Cloud Professional Machine Learning Engineer.

Poziom zaawansowany: Główny inżynier AI / Architekt ML (ponad 7 lat)

Główny inżynier AI z 9-letnim doświadczeniem w kierowaniu architekturą platformy ML i strategią AI dla systemów klasy korporacyjnej przetwarzających ponad 200 mln dziennych predykcji. Kierowanie zespołem 12 inżynierów ML budujących infrastrukturę modeli bazowych na AWS (SageMaker, Bedrock) wspierającą 6 zespołów produktowych i skracającą czas wdrożenia modelu z 4 tygodni do 2 dni dzięki ustandaryzowanemu oprzyrządowaniu MLOps. Architektura rozproszonej platformy treningowej przy użyciu PyTorch FSDP i Ray na 128 GPU NVIDIA H100, trenującej niestandardowy model domenowy o 13 miliardach parametrów osiągający najlepsze wyniki na 3 wewnętrznych benchmarkach. Opublikowano 8 artykułów na NeurIPS, ICML i ACL z ponad 1 200 cytowaniami. AWS Certified Machine Learning Engineer, NVIDIA Certified Associate: Generative AI LLMs. Magister informatyki (uczenie maszynowe), Stanford University.

Najczęściej zadawane pytania

Czy wymieniać każdy framework i bibliotekę ML, z których kiedykolwiek korzystano?

Należy wymienić frameworki i biblioteki, w których kandydat ma doświadczenie produkcyjne lub istotne doświadczenie projektowe -- nie każdy pakiet zaimportowany jednokrotnie. ATS dopasowuje słowa kluczowe niezależnie od biegłości, ale recenzenci będą sprawdzać deklarowane umiejętności podczas rozmowy kwalifikacyjnej. Dla słów kluczowych o wysokim priorytecie (PyTorch, TensorFlow, Hugging Face Transformers) warto dodać krótki kontekst: "PyTorch -- ponad 4 lata, trening rozproszony, niestandardowe architektury modeli, wdrożenie TorchScript". Dla narzędzi drugoplanowych (pandas, NumPy, matplotlib) zgrupowane wymienienie bez kontekstu jest wystarczające. Priorytet powinny mieć narzędzia pojawiające się w konkretnym ogłoszeniu o pracę [^4][^5].

Jak obsługiwać rozróżnienie między badaniami ML a inżynierią ML w CV?

Należy jednoznacznie określić, jaką rolę się pełni. Jeśli ogłoszenie mówi "Inżynier ML" ("ML Engineer"), warto zacząć od wdrożeń i metryk produkcyjnych: obsługiwane modele, opóźnienie, przepustowość, dostępność i skala infrastruktury. Doświadczenie badawcze należy przedstawić jako dowód wspierający -- "opublikowano efektywny mechanizm uwagi (NeurIPS 2024) następnie wdrożony w produkcyjnym systemie rekomendacji obsługującym 12 mln dziennych żądań". Jeśli ogłoszenie mówi "Badacz ML" ("ML Research Scientist"), warto zacząć od publikacji, nowatorskich wkładów i wyników benchmarkowych, a następnie wspomnieć o umiejętnościach inżynieryjnych jako zdolności wykonawczej. Profile słów kluczowych ATS różnią się znacząco między tymi rolami -- "obsługa modelu" i "Kubernetes" dominują w ogłoszeniach inżynieryjnych, podczas gdy "nowatorska architektura" i "najlepsze wyniki" dominują w ogłoszeniach badawczych [^7].

Czy platforma chmurowa na liście ma znaczenie dla rankingu ATS?

ATS dopasowuje nazwy platform obecne w ogłoszeniu o pracę. AWS SageMaker, Google Vertex AI i Azure ML to trzy odrębne klastry słów kluczowych -- CV wymieniające tylko doświadczenie z Azure nie dopasuje ogłoszenia wyszukującego "SageMaker". W przypadku doświadczenia wielochmurowego należy wymienić wszystkie platformy. W przypadku doświadczenia z jedną chmurą warto aplikować na ogłoszenia pasujące do posiadanej platformy i rozważyć uzyskanie certyfikatu drugiego dostawcy. AWS prowadzi w ogłoszeniach o pracę AI z 32,9%, następnie Azure z 26% [^5]. Warto podać zarówno nazwę usługi, jak i platformę nadrzędną: "AWS SageMaker" zamiast samego "SageMaker", aby zapewnić dopasowanie obu terminów.

Czy należy uwzględniać profil GitHub i kontrybucje do projektów otwartych?

Adres GitHub należy umieścić w nagłówku kontaktowym jako zwykły tekst -- ATS przechowuje adresy URL jako przeszukiwalne ciągi znaków, ale nie może przeglądać repozytoriów. Ważniejsze jest przełożenie kontrybucji GitHub na treść CV. "Kontrybucja do Hugging Face Transformers (3 scalone PR: optymalizacja obliczania maski uwagi redukująca alokację pamięci o 15%)" zapewnia słowa kluczowe ATS (Hugging Face, Transformers, maska uwagi, optymalizacja pamięci) jednocześnie demonstrując zaangażowanie w projekty otwarte. Liczba gwiazdek i obserwujących nie ma znaczenia dla ATS, ale może przyciągnąć uwagę recenzenta, jeśli jest znacząca (ponad 1 000 gwiazdek na projekcie osobistym).

Jak prezentować certyfikaty w porównaniu z dyplomem magistra?

Oba są słowami kluczowymi ATS i oba mają znaczenie -- ale sygnalizują różne rzeczy. Dyplom magistra informatyki, uczenia maszynowego lub AI demonstruje fundamentalną wiedzę i zdolności badawcze. Certyfikaty chmurowe (AWS ML Engineer, Google Professional ML Engineer) demonstrują umiejętności wdrożenia produkcyjnego na konkretnych platformach. Należy wymienić oba. Dla kandydatów na początku kariery dyplom magistra zazwyczaj przeważa nad certyfikatami. Dla kandydatów w połowie kariery i starszych aktualne certyfikaty sygnalizują ciągłą inwestycję w umiejętności -- certyfikaty Google i AWS ML pojawiły się w 40% więcej ogłoszeń o pracę niż konkurencyjne poświadczenia [^6]. Wygasłe certyfikaty należy usunąć; sugerują one utratę aktualności umiejętności.

Jaka długość CV jest odpowiednia dla inżynierów AI na różnych etapach kariery?

Jedna strona dla kandydatów z mniej niż 3-letnim doświadczeniem i bez publikacji. Dwie strony dla inżynierów z ponad 3-letnim produkcyjnym doświadczeniem ML, opublikowanymi badaniami lub znaczącymi kontrybucjami do projektów otwartych. ATS nie karze za długość, ale recenzenci tak -- dane Jobscan pokazują, że rekruterzy spędzają średnio 6-7 sekund na wstępnym skanowaniu. Dwustronicowe CV młodszego inżyniera z jednym stażem sugeruje słabą redakcję. Jednostronicowe CV głównego inżyniera z 9-letnim doświadczeniem, 8 publikacjami i architekturą platformy wielozespołowej sugeruje brak głębi. W przypadku publikacji należy uwzględnić jedynie 3-5 najistotniejszych zamiast pełnej bibliografii w stylu CV akademickiego [^4].

Jak zoptymalizować CV przy przejściu z nauki o danych do inżynierii AI?

Należy zidentyfikować nakładające się słowa kluczowe i zacząć od nich: Python, trening modeli, metryki ewaluacji, śledzenie eksperymentów, SQL, inżynieria cech. Następnie należy dodać terminy specyficzne dla inżynierii AI z ogłoszenia o pracę: "wdrożenie modelu", "optymalizacja wnioskowania", "Docker", "Kubernetes", "projektowanie API", "opóźnienie", "przepustowość". Należy kwantyfikować wszelką pracę bliską produkcji z roli w nauce o danych -- panele kontrolne obsługujące 500 użytkowników, modele działające na zaplanowanych potokach wsadowych lub testy A/B z rygorem statystycznym. Mocne CV przejściowe przedstawia pracę z nauki o danych przez pryzmat inżynieryjny: "wdrożono model XGBoost do produkcji przez API Flask obsługujące 2 000 dziennych predykcji" zamiast "zbudowano model predykcyjny w notatniku Jupyter".


Źródła:

[^1]: Bureau of Labor Statistics, "Computer and Information Research Scientists," Occupational Outlook Handbook, https://www.bls.gov/ooh/computer-and-information-technology/computer-and-information-research-scientists.htm

[^2]: Bureau of Labor Statistics, "Occupational Employment and Wages, May 2024 -- 15-1221 Computer and Information Research Scientists," https://www.bls.gov/oes/current/oes151221.htm

[^3]: Stanford University Human-Centered AI Institute, "Artificial Intelligence Index Report 2025," https://hai.stanford.edu/ai-index/2025

[^4]: Jobscan, "The State of the Job Search in 2025," https://www.jobscan.co/state-of-the-job-search

[^5]: 365 Data Science, "AI Engineer Job Outlook 2025: Trends, Salaries, and Skills," https://365datascience.com/career-advice/career-guides/ai-engineer-job-outlook-2025/

[^6]: Nucamp, "Top 10 AI Certifications Worth Getting in 2026 (ROI + Career Impact)," https://www.nucamp.co/blog/top-10-ai-certifications-worth-getting-in-2026-roi-career-impact

[^7]: O*NET OnLine, "15-1221.00 -- Computer and Information Research Scientists," https://www.onetonline.org/link/summary/15-1221.00

[^8]: Flex.ai, "The State of AI Hiring in 2025: Insights from 3,000 Job Listings," https://www.flex.ai/blog/the-state-of-ai-hiring-in-2025-insights-from-3-000-job-listings

[^9]: TopResume, "ATS Resume Formatting Research -- 25% of ATS Fail to Read Header/Footer Content," https://www.topresume.com/career-advice/what-is-an-ats-resume

See what ATS software sees Your resume looks different to a machine. Free check — PDF, DOCX, or DOC.
Check My Resume

Related ATS Workflows

ATS Score Checker Guides Keyword Scanner Guides Resume Checker Guides

Tags

system śledzenia kandydatów optymalizacja ats słowa kluczowe cv uczenie maszynowe inżynier ai
Blake Crosley — Former VP of Design at ZipRecruiter, Founder of Resume Geni

About Blake Crosley

Blake Crosley spent 12 years at ZipRecruiter, rising from Design Engineer to VP of Design. He designed interfaces used by 110M+ job seekers and built systems processing 7M+ resumes monthly. He founded Resume Geni to help candidates communicate their value clearly.

12 Years at ZipRecruiter VP of Design 110M+ Job Seekers Served

Ready to test your resume?

Get your free ATS score in 30 seconds. See how your resume performs.

Try Free ATS Analyzer