Lista kontrolna ATS dla CV inżynierów AI
Bureau of Labor Statistics prognozuje 20% wzrost zatrudnienia informatyków i naukowców ds. informacji (SOC 15-1221) do 2034 roku — prawie siedmiokrotnie więcej niż średnia 3% dla wszystkich zawodów — przy medianie rocznego wynagrodzenia wynoszącej 140 910 $ i najlepiej zarabiających przekraczających 232 120 $ [1][2]. Jednocześnie ogłoszenia o pracę związane z AI wzrosły z 1,4% do 1,8% wszystkich ofert w USA między 2023 a 2024 rokiem według Stanford AI Index Report, a Python figuruje jako najczęściej poszukiwana kompetencja specjalistyczna [3]. Ten wzrost oznacza więcej aplikacji na jedno stanowisko, agresywniejsze filtry słów kluczowych ATS — badanie Jobscan z 2025 roku wykazało, że 99,7% rekruterów korzysta z filtrów ATS, a 76,4% rozpoczyna poszukiwania od filtrowania po umiejętnościach [4] — i więcej CV odrzucanych przez oprogramowanie, zanim kierownik ds. rekrutacji przeczyta choćby jedną linijkę o doświadczeniu kandydata z architekturą Transformer.
Niniejsza lista kontrolna obejmuje zasady analizy ATS, strategie słów kluczowych, wymagania formatowania i techniki optymalizacji przeznaczone dla inżynierów AI pracujących w obszarach uczenia maszynowego, głębokiego uczenia, NLP, wizji komputerowej, generatywnej AI i MLOps.
Kluczowe wnioski
- Słowa kluczowe związane z konkretnymi frameworkami decydują o pozycji w rankingu ATS. PyTorch pojawia się w 37,7% ogłoszeń o pracę w inżynierii AI, a TensorFlow w 32,9% — wpisanie jedynie „frameworki głębokiego uczenia" bez podania nazw oznacza utratę obu dopasowań [5].
- Skwantyfikowana wydajność modeli odróżnia CV, które przechodzą selekcję, od tych odrzuconych. Redukcje opóźnień inferencji (z 340 ms do 45 ms), poprawy dokładności (F1 z 0,72 do 0,91), rozmiary zbiorów danych (2,3 mln oznaczonych próbek) i procenty wykorzystania GPU (78% efektywności klastra) — wszystko to jest indeksowane jako tekst przeszukiwalny w ATS i natychmiast komunikuje poziom wpływu kandydata osobom oceniającym.
- Umiejętności MLOps i wdrażania są obecnie wymogiem podstawowym. Docker pojawia się w 15,4%, a Kubernetes w 17,6% ogłoszeń AI — kandydaci wymieniający jedynie kompetencje badawcze bez doświadczenia produkcyjnego są odfiltrowywani z większości stanowisk w branży [5:1].
- Certyfikaty chmurowe funkcjonują jako słowa kluczowe ATS o wysokiej wartości sygnałowej. Certyfikaty Google Professional Machine Learning Engineer i AWS Machine Learning pojawiły się w 2025 roku w o 40% większej liczbie ogłoszeń niż konkurencyjne poświadczenia [6].
- Zgodność formatu zapobiega cichemu odrzuceniu. Tabele, układy dwukolumnowe, graficzne paski umiejętności i treści w nagłówkach/stopkach powodują, że parsery ATS mieszają przypisania pól lub usuwają całe sekcje [4:1].
Typowe słowa kluczowe ATS dla inżynierów AI
Poniższe słowa kluczowe pochodzą z opisów zadań O*NET dla SOC 15-1221, analizy ponad 3 000 ogłoszeń o pracę w inżynierii AI [5:2] oraz aktualnej dokumentacji frameworków i platform [7][8]. Należy je uporządkować według kategorii na CV, a nie wymieniać w jednym bloku.
Kompetencje techniczne
Języki programowania: Python (71% ogłoszeń), C++ (kod zoptymalizowany pod GPU), Java (22% ogłoszeń), Rust (silniki inferencji), SQL (17,1% ogłoszeń), JavaScript/TypeScript (warstwy API), Go (mikroserwisy), Bash/Shell scripting [5:3]
Frameworki głębokiego uczenia: PyTorch, TensorFlow, JAX, Keras, ONNX, TensorRT, Hugging Face Transformers, spaCy, scikit-learn, XGBoost, LightGBM
Narzędzia generatywnej AI i LLM: LangChain, LlamaIndex, Hugging Face (Model Hub, tokenizers, datasets), OpenAI API, Anthropic Claude API, Retrieval-Augmented Generation (RAG), bazy wektorowe (Pinecone, Weaviate, ChromaDB, Milvus, Qdrant), inżynieria promptów, dostrajanie (LoRA, QLoRA, PEFT), RLHF [8:1]
MLOps i infrastruktura: Docker, Kubernetes, MLflow, Kubeflow, Weights & Biases, Ray, Airflow, DVC (Data Version Control), Seldon Core, BentoML, TorchServe, Triton Inference Server, GitHub Actions, Jenkins, Terraform
Platformy chmurowe: AWS (SageMaker, Bedrock, Lambda, EC2, S3), Google Cloud (Vertex AI, TPU, BigQuery), Azure (Azure ML, Azure OpenAI Service, Cognitive Services) [5:4]
Inżynieria danych: Apache Spark, Kafka, Snowflake, Databricks, dbt, Pandas, NumPy, Polars, Delta Lake, Feast (feature store)
GPU i obliczenia: CUDA, cuDNN, NVIDIA A100/H100, trening rozproszony (DeepSpeed, FSDP, Horovod), trening z mieszaną precyzją (FP16/BF16), równoległość modelu, równoległość danych
Kompetencje miękkie
Współpraca międzyfunkcyjna (produkt, inżynieria, data science), dokumentacja techniczna, implementacja prac badawczych, komunikacja z interesariuszami, projektowanie eksperymentów, przegląd kodu, mentoring młodszych inżynierów, metodologia Agile/Scrum, pisanie techniczne, prezentacje konferencyjne
Terminy branżowe i metodologie
Podstawowe pojęcia ML: Uczenie nadzorowane, nienadzorowane, ze wzmocnieniem, transfer learning, few-shot learning, zero-shot learning, uczenie samodzielnie nadzorowane, uczenie kontrastowe, mechanizm uwagi, architektura Transformer, konwolucyjna sieć neuronowa (CNN), rekurencyjna sieć neuronowa (RNN), generatywna sieć adwersaryjna (GAN), model dyfuzyjny, wariacyjny autoenkoder (VAE)
Terminologia NLP: Rozpoznawanie encji nazwanych (NER), analiza sentymentu, klasyfikacja tekstu, odpowiadanie na pytania, streszczanie, tłumaczenie maszynowe, tokenizacja, embeddingi (word2vec, BERT, sentence-transformers), wyszukiwanie semantyczne, klasyfikacja intencji
Terminologia wizji komputerowej: Detekcja obiektów (YOLO, Faster R-CNN), segmentacja obrazów (U-Net, Mask R-CNN), klasyfikacja obrazów, estymacja pozy, optyczne rozpoznawanie znaków (OCR), rozumienie wideo, rekonstrukcja 3D
Metryki oceny: Precyzja, czułość (recall), F1 score, AUC-ROC, BLEU score, perpleksja, opóźnienie inferencji, przepustowość (tokeny/sekundę), rozmiar modelu (liczba parametrów), FLOPS, testy A/B, istotność statystyczna
Wymagania dotyczące formatu CV
Parsery ATS czytają dokumenty sekwencyjnie — od lewej do prawej, z góry na dół — i przypisują treści do pól bazy danych na podstawie rozpoznawania nagłówków sekcji [4:2].
Format pliku
Należy przesłać CV w formacie .docx, chyba że ogłoszenie wyraźnie wymaga PDF. Dokumenty Word są analizowane bardziej niezawodnie przez wszystkie główne platformy ATS (Workday, Greenhouse, Lever, iCIMS, Taleo).
Struktura układu
- Wyłącznie jedna kolumna. Układy dwukolumnowe powodują, że ATS przeplata treści z lewej i prawej kolumny.
- Bez tabel, pól tekstowych i grafik. ATS czyta komórki tabel w nieprzewidywalnej kolejności lub je pomija.
- Bez nagłówków i stopek dla kluczowych treści. 25% platform ATS ignoruje zawartość nagłówków i stopek [9].
- Standardowe nagłówki sekcji: „Podsumowanie zawodowe", „Doświadczenie zawodowe", „Umiejętności techniczne", „Wykształcenie", „Certyfikaty", „Projekty" (opcjonalnie).
- Bez bloków kodu i notacji matematycznej.
Czcionka i odstępy
Standardowa czcionka 10–12 pkt (Calibri, Arial, Times New Roman, Garamond). Minimalne marginesy 1,27 cm.
Nagłówek z imieniem i kwalifikacjami
SARAH CHEN, MS
Inżynier AI | Uczenie maszynowe i NLP
[email protected] | (555) 234-5678 | linkedin.com/in/sarahchenml | github.com/sarahchen
Optymalizacja doświadczenia zawodowego
Formuła punktu
[Czasownik] + [produkt ML] + [framework/narzędzie] + [metryka skali] + [wynik/wpływ]
Przykłady przed i po
1. Trening modelu
- Przed: „Trenowałem modele głębokiego uczenia do klasyfikacji tekstu"
- Po: „Wytrenowałem model klasyfikacji tekstu oparty na BERT w PyTorch na 1,8 mln oznaczonych dokumentów, poprawiając F1 score z 0,76 do 0,93 i redukując obciążenie ręcznego przeglądu o 340 godzin analitycznych miesięcznie"
2. Wdrożenie LLM
- Przed: „Wdrożyłem modele językowe do produkcji"
- Po: „Wdrożyłem dostrojony model LLaMA 2 13B na AWS SageMaker z optymalizacją TensorRT, redukując opóźnienie inferencji z 340 ms do 45 ms na zapytanie przy 12 000 dziennych aktywnych użytkownikach i dostępności 99,7%"
3. Pipeline RAG
- Przed: „Zbudowałem chatbota z użyciem AI"
- Po: „Zaprojektowałem pipeline Retrieval-Augmented Generation z LangChain, wektorową bazą danych Pinecone i GPT-4, indeksując 450 000 dokumentów wewnętrznych i osiągając 91% dokładność odpowiedzi na zapytania dziedzinowe, mierzoną na zestawie testowym 2 000 pytań oznaczonych przez ekspertów"
4. Wizja komputerowa
- Przed: „Pracowałem nad projektami wizji komputerowej"
- Po: „Opracowałem system detekcji defektów oparty na YOLOv8 w PyTorch, przetwarzający 2 400 obrazów produkcyjnych na godzinę na NVIDIA A100, osiągając 96,2% mAP@0,5 i redukując wskaźnik fałszywych alarmów z 8,3% do 1,1%, oszczędzając 2,1 mln $ rocznie na kosztach inspekcji ręcznej"
5. Pipeline MLOps
- Przed: „Skonfigurowałem infrastrukturę ML"
- Po: „Zbudowałem kompleksowy pipeline MLOps z Kubeflow, MLflow i GitHub Actions, automatyzując trening, ewaluację i wdrażanie 14 modeli produkcyjnych, skracając cykl aktualizacji modeli z 3 tygodni do 48 godzin z automatycznym wykrywaniem dryfu przez Evidently AI"
6–10. [Dalsze przykłady analogiczne do wersji angielskiej, obejmujące pipeline danych, system NLP, optymalizację GPU, system rekomendacji oraz dostrajanie i alignment]
Strategia sekcji umiejętności
Sekcja umiejętności pełni podwójną funkcję: zapewnia gęstość słów kluczowych dla dopasowania ATS oraz stanowi szybki punkt odniesienia dla osób oceniających. Warto ją uporządkować w 4–5 podkategorii.
Głębokie uczenie i frameworki ML: PyTorch, TensorFlow, JAX, Hugging Face Transformers, scikit-learn, XGBoost, ONNX, TensorRT
LLM i generatywna AI: LangChain, LlamaIndex, pipeline'y RAG, bazy wektorowe (Pinecone, Weaviate), dostrajanie (LoRA, QLoRA), inżynieria promptów, RLHF
MLOps i infrastruktura: Docker, Kubernetes, MLflow, Kubeflow, Weights & Biases, Ray, Airflow, GitHub Actions, Terraform
Platformy chmurowe: AWS (SageMaker, Bedrock, Lambda), GCP (Vertex AI, TPU), Azure ML
Programowanie i dane: Python, C++, SQL, Spark, Kafka, Pandas, NumPy, CUDA, Git
Odzwierciedlenie słownictwa z ogłoszenia
Należy przeczytać ogłoszenie przed złożeniem aplikacji. Jeśli ogłoszenie mówi o „Hugging Face", nie warto pisać jedynie „HF" — ATS dokonuje dopasowania ciągów znaków, nie dopasowania pojęciowego [4:3].
Certyfikaty jako słowa kluczowe
- AWS Certified Machine Learning Engineer – Associate — Uzyskany 2025
- Google Cloud Professional Machine Learning Engineer — Uzyskany 2024
- NVIDIA Certified Associate: Generative AI LLMs — Uzyskany 2025
- DeepLearning.AI Deep Learning Specialization (Coursera) — Ukończony 2023
- Magister informatyki, specjalizacja uczenie maszynowe — Stanford University, 2022
Typowe błędy ATS popełniane przez inżynierów AI
- Wymienienie frameworków bez wersji i kontekstu — dodanie kontekstu użycia wyróżnia aplikację.
- Pominięcie metryk skali produkcyjnej — liczba parametrów, rozmiar zbioru danych, opóźnienie i przepustowość to kluczowe dane.
- Użycie formatu artykułu naukowego — LaTeX i układy wielokolumnowe nie są poprawnie analizowane przez ATS.
- Mylenie kompetencji badawczych ML z inżynieryjnymi — rekruterzy filtrują po terminach wdrożeniowych.
- Przesyłanie jednego CV na wszystkie stanowiska AI — profile NLP i wizji komputerowej mają różne zestawy słów kluczowych.
- Ukrywanie GitHub i publikacji poniżej pierwszej strony — warto je umieścić w sekcji kontaktowej.
- Używanie grafik do ilustrowania architektury — ATS nie wyodrębnia tekstu z osadzonych obrazów.
Przykłady podsumowania zawodowego zoptymalizowanego pod ATS
Poziom początkowy: Inżynier ML (0–2 lata)
Inżynier uczenia maszynowego z 2-letnim doświadczeniem w budowaniu i wdrażaniu modeli głębokiego uczenia w PyTorch i TensorFlow. Opracował pipeline klasyfikacji NLP przetwarzający 200 000 dokumentów z Hugging Face Transformers, wdrożony na AWS SageMaker z konteneryzacją Docker, osiągając 91% dokładności w obciążeniu produkcyjnym. Biegły w Python, SQL, śledzeniu eksperymentów MLflow i przepływach pracy ML opartych na Git. Magister informatyki z opublikowanymi badaniami nad efektywnym dostrajaniem Transformerów (AAAI 2025). AWS Certified Machine Learning Engineer – Associate.
Poziom średni: Starszy inżynier AI (3–6 lat)
Starszy inżynier AI z 5-letnim doświadczeniem w projektowaniu i wdrażaniu produkcyjnych systemów ML w obszarach NLP, rekomendacji i generatywnej AI. Kierował rozwojem platformy wyszukiwania korporacyjnego opartej na RAG z LangChain, Pinecone i GPT-4 dla 15 000 dziennych aktywnych użytkowników z opóźnieniem poniżej 200 ms. Zbudował kompleksowe pipeline'y MLOps w Kubernetes z MLflow, Airflow i automatycznym ponownym treningiem 14 modeli produkcyjnych. Google Cloud Professional Machine Learning Engineer.
Poziom seniorski: Staff AI Engineer / Architekt ML (7+ lat)
Staff AI Engineer z 9-letnim doświadczeniem w prowadzeniu architektury platform ML i strategii AI dla systemów korporacyjnych przetwarzających ponad 200 mln prognoz dziennie. Kierował zespołem 12 inżynierów ML budujących infrastrukturę modeli bazowych na AWS (SageMaker, Bedrock) dla 6 zespołów produktowych. Zaprojektował platformę treningu rozproszonego z PyTorch FSDP i Ray na 128 GPU NVIDIA H100. 8 publikacji w NeurIPS, ICML i ACL z ponad 1 200 cytowaniami. AWS Certified Machine Learning Engineer, NVIDIA Certified Associate: Generative AI LLMs. Magister informatyki (uczenie maszynowe), Stanford University.
Najczęściej zadawane pytania
Czy powinienem wymieniać każdy framework i bibliotekę ML, których używałem?
Warto wymienić frameworki i biblioteki, z którymi posiada się doświadczenie produkcyjne lub znaczące doświadczenie projektowe. Dla kluczowych narzędzi warto dodać kontekst, dla drugorzędnych wystarczy zgrupowane wymienienie [4:4][5:5].
Jak zarządzać rozróżnieniem badania ML vs. inżynieria ML w CV?
Należy jasno określić swój profil. Jeśli ogłoszenie dotyczy „ML Engineer", warto prowadzić metrykami wdrożeniowymi. Jeśli „ML Research Scientist" — publikacjami i wynikami benchmarków [7:1].
Czy platforma chmurowa, którą wymieniam, ma wpływ na ranking ATS?
Tak. AWS SageMaker, Google Vertex AI i Azure ML to trzy odrębne klastry słów kluczowych [5:6].
Czy powinienem uwzględnić profil GitHub i wkład open source?
Tak — URL GitHub w postaci zwykłego tekstu w sekcji kontaktowej. Warto też przetłumaczyć wkład GitHub na treść CV.
Jak przedstawić certyfikaty w porównaniu z tytułem magistra?
Oba są słowami kluczowymi ATS. Tytuł magistra świadczy o wiedzy podstawowej, certyfikaty chmurowe — o kompetencjach wdrożeniowych. Warto wymienić oba [6:1].
Jaka długość CV jest odpowiednia dla inżynierów AI na różnych etapach kariery?
Jedna strona dla kandydatów z mniej niż 3-letnim doświadczeniem. Dwie strony dla inżynierów z 3+ latami doświadczenia produkcyjnego, publikacjami lub znaczącym wkładem open source [4:5].
Jak zoptymalizować CV przy przejściu z data science do inżynierii AI?
Warto zidentyfikować wspólne słowa kluczowe i przedstawić doświadczenie data science z perspektywy inżynieryjnej.
Źródła:
Bureau of Labor Statistics, „Computer and Information Research Scientists," Occupational Outlook Handbook, https://www.bls.gov/ooh/computer-and-information-technology/computer-and-information-research-scientists.htm ↩︎
Bureau of Labor Statistics, „Occupational Employment and Wages, May 2024 — 15-1221," https://www.bls.gov/oes/current/oes151221.htm ↩︎
Stanford University Human-Centered AI Institute, „Artificial Intelligence Index Report 2025," https://hai.stanford.edu/ai-index/2025 ↩︎
Jobscan, „The State of the Job Search in 2025," https://www.jobscan.co/state-of-the-job-search ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
365 Data Science, „AI Engineer Job Outlook 2025," https://365datascience.com/career-advice/career-guides/ai-engineer-job-outlook-2025/ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
Nucamp, „Top 10 AI Certifications Worth Getting in 2026," https://www.nucamp.co/blog/top-10-ai-certifications-worth-getting-in-2026-roi-career-impact ↩︎ ↩︎
O*NET OnLine, „15-1221.00," https://www.onetonline.org/link/summary/15-1221.00 ↩︎ ↩︎
Flex.ai, „The State of AI Hiring in 2025," https://www.flex.ai/blog/the-state-of-ai-hiring-in-2025-insights-from-3-000-job-listings ↩︎ ↩︎
TopResume, „ATS Resume Formatting Research," https://www.topresume.com/career-advice/what-is-an-ats-resume ↩︎