Guide CV pour Data Scientist en Géorgie (GA) : Comment Rédiger un CV qui Décroche des Entretiens
La plupart des CV de data scientists échouent avant même qu'un humain ne les lise — non pas parce que le candidat manque de compétences, mais parce qu'il liste « Python » et « machine learning » comme des mots-clés bruts sans quantifier les performances des modèles, préciser les frameworks (scikit-learn versus PyTorch) ni démontrer l'impact en dollars sur le chiffre d'affaires. Les 7 730 data scientists de Géorgie perçoivent un salaire médian de 102 630 $ par an [1], soit 27,2 % en dessous de la médiane nationale — ce qui rend un CV précisément ciblé d'autant plus décisif pour décrocher des postes chez les employeurs les mieux rémunérateurs de l'État.
Points Clés (Résumé)
- Le positionnement spécifique à la Géorgie compte : avec une fourchette salariale allant de 63 320 $ à 165 980 $ [1], la différence entre un CV générique et un CV adapté au poste peut représenter plus de 50 000 $ de rémunération annuelle — surtout lorsqu'on postule auprès d'employeurs basés à Atlanta comme The Home Depot, Cox Automotive, NCR Voyix ou Intercontinental Exchange.
- Les recruteurs recherchent trois éléments en priorité : une expérience en ML en production (pas seulement des Jupyter notebooks), des indicateurs d'impact métier (chiffre d'affaires, réduction des coûts, réduction de l'attrition) et votre stack technique précis (TensorFlow, Spark, dbt, Snowflake — pas simplement « outils big data ») [5][6].
- L'erreur la plus courante : lister chaque bibliothèque que vous avez utilisée au lieu de démontrer la profondeur. Un CV mentionnant « Maîtrise de Python, R, SQL, Scala, Julia, MATLAB, SAS, Stata » signale l'étendue sans la maîtrise. Choisissez votre stack principal et prouvez votre impact avec.
- Les systèmes ATS analysent la structure, pas la prose : utilisez des intitulés de section standard (« Expérience Professionnelle », pas « Mon Parcours Data ») et incluez les acronymes exacts des certifications aux côtés des noms complets [12].
Que Recherchent les Recruteurs dans un CV de Data Scientist ?
Les responsables du recrutement chez les employeurs de Géorgie — des fintechs le long du corridor Atlanta BeltLine aux opérations logistiques au siège mondial d'UPS — filtrent systématiquement trois catégories de preuves : la profondeur technique, l'expérience en production et les résultats métier mesurables [5][6].
La profondeur technique va au-delà de la simple liste de langages de programmation. Les recruteurs veulent voir quels frameworks de ML vous avez déployés (XGBoost, LightGBM, PyTorch, TensorFlow), quelle infrastructure de données vous maîtrisez (Snowflake, Databricks, Redshift, BigQuery) et si vous avez construit des pipelines ou simplement consommé des jeux de données nettoyés. Le secteur fintech en plein essor de la Géorgie — porté par des entreprises comme Fiserv, Global Payments et Cardlytics — recherche spécifiquement une expérience en prévision de séries temporelles, détection d'anomalies et feature stores en temps réel [6].
L'expérience en production distingue les data scientists qui construisent des modèles de ceux qui les mettent en service. Les recruteurs recherchent des mots-clés comme « déploiement de modèles », « CI/CD pour ML », « MLflow », « Airflow », « Docker » et « Kubernetes ». Si vos modèles n'ont vécu que dans des notebooks, vous concourez pour un nombre décroissant de postes purement recherche. Le BLS projette une croissance de 36 % de l'emploi des data scientists entre 2023 et 2033, bien au-delà de la plupart des professions [2], mais la croissance la plus rapide concerne les postes appliqués nécessitant des compétences d'ingénierie de production.
L'impact métier est le facteur différenciant. Un recruteur chez Delta Air Lines (dont le siège est à Atlanta) ne veut pas lire que vous avez « construit un modèle de classification avec 94 % de précision ». Il veut savoir que vous avez « réduit l'erreur de prédiction des retards de vols de 18 %, permettant 2,3 M$ d'économies annuelles de carburant grâce à l'optimisation de la planification des équipages ». Traduisez chaque modèle en revenus générés, coûts réduits, temps économisé ou risque atténué [7].
Les certifications incontournables reconnues par les recruteurs de Géorgie comprennent AWS Certified Machine Learning – Specialty, Google Professional Machine Learning Engineer et Databricks Certified Machine Learning Professional. Elles signalent des compétences ML natives du cloud, alignées sur la manière dont les employeurs de Géorgie déploient effectivement leurs modèles [3][8].
Quel Est le Meilleur Format de CV pour les Data Scientists ?
Le format chronologique inversé est le bon choix pour les data scientists avec plus de 2 ans d'expérience en entreprise. Les systèmes ATS analysent ce format de manière plus fiable [12], et les responsables du recrutement chez les employeurs de Géorgie s'attendent à voir votre poste le plus récent — et son stack technique — immédiatement.
Le format combiné (hybride) convient aux reconversions professionnelles depuis des domaines adjacents comme le génie logiciel, les sciences actuarielles ou la recherche académique. Les universités de Géorgie — Georgia Tech, Emory et UGA — produisent un flux important de docteurs en transition vers l'industrie. Si c'est votre cas, commencez par une section de compétences techniques qui relie vos méthodes de recherche aux outils industriels (par exemple, « modélisation hiérarchique bayésienne → programmation probabiliste avec PyMC et Stan »), suivie de l'expérience chronologique [13].
Le format fonctionnel n'est presque jamais approprié pour les data scientists. Les recruteurs l'interprètent comme une tentative de masquer des lacunes ou un manque de progression, et les systèmes ATS peinent à associer les compétences à des postes spécifiques [12].
Limitez votre CV à une page si vous avez moins de 5 ans d'expérience, deux pages maximum pour les postes seniors. Les data scientists ont souvent envie de lister chaque compétition Kaggle et projet personnel — résistez à cette tentation. Sélectionnez avec rigueur. Un lien vers votre portfolio (GitHub, site personnel) accueille le surplus.
Quelles Compétences Clés un Data Scientist Doit-il Inclure ?
Compétences Techniques (avec contexte)
- Python (NumPy, pandas, scikit-learn) — Votre langage principal d'analyse et de modélisation. Précisez les bibliothèques plutôt que « Python » seul : un ingénieur backend écrit aussi du Python, mais n'utilise pas statsmodels [4].
- SQL (avancé : fonctions de fenêtrage, CTEs, optimisation de requêtes) — Tout data scientist écrit du SQL quotidiennement. Précisez votre dialecte (PostgreSQL, BigQuery SQL, Snowflake SQL) et mentionnez votre expérience en optimisation de requêtes à grande échelle [7].
- Machine Learning (supervisé et non supervisé) — Nommez les algorithmes spécifiques que vous avez déployés : arbres à gradient boosting, forêts aléatoires, clustering k-means, DBSCAN. « Machine learning » seul est trop vague.
- Deep Learning (PyTorch ou TensorFlow) — Précisez le framework et les architectures (CNNs, transformers, LSTMs). Le secteur IA en pleine croissance de la Géorgie, notamment chez Google Atlanta et Mailchimp (Intuit), privilégie le NLP à base de transformers [6].
- Modélisation Statistique (tests d'hypothèses, régression, inférence bayésienne) — C'est ce qui distingue les data scientists des ingénieurs ML. Incluez des méthodes spécifiques : conception de tests A/B, inférence causale, modèles à effets mixtes.
- Fondamentaux d'Ingénierie de Données (Spark, Airflow, dbt) — Les data scientists en production dans les entreprises de taille intermédiaire en Géorgie gèrent souvent leurs propres pipelines. Précisez votre expérience PySpark versus Spark SQL.
- Plateformes Cloud (AWS SageMaker, GCP Vertex AI, Azure ML) — Nommez les services ML spécifiques, pas seulement « AWS ». Les employeurs de Géorgie privilégient fortement AWS en raison de la présence de centres de données dans la région d'Atlanta [5].
- Conception d'Expériences (tests A/B, bandits manchots, inférence causale) — Essentiel pour les postes orientés produit chez des entreprises comme Cox Automotive et Cardlytics.
- NLP (Hugging Face Transformers, spaCy, NLTK) — Précisez si vous avez ajusté des LLMs, construit des pipelines RAG ou travaillé avec des embeddings.
- Visualisation de Données (Tableau, Plotly, Matplotlib, Looker) — Nommez l'outil et le public. Construire des tableaux de bord pour la direction diffère de l'analyse exploratoire.
Compétences Transversales (avec exemples liés au poste)
- Communication avec les Parties Prenantes — Traduire les résultats des modèles en recommandations métier pour des dirigeants non techniques. Exemple : présenter les résultats d'un modèle d'attrition à un VP Marketing comme « quels segments de clients cibler avec des offres de fidélisation » plutôt que « compromis précision-rappel ».
- Formulation de Problèmes — Convertir des questions métier vagues (« Pourquoi les ventes baissent-elles ? ») en hypothèses testables avec des indicateurs de succès définis avant d'écrire une seule ligne de code [7].
- Collaboration Transversale — Travailler avec les chefs de produit, les ingénieurs et les analystes pour définir les exigences fonctionnelles, les contrats de données et les calendriers de déploiement.
- Rigueur Intellectuelle — Savoir quand une simple régression logistique surpasse un réseau de neurones, et avoir la discipline de le prouver avant de sur-complexifier une solution.
Comment un Data Scientist Doit-il Rédiger ses Puces d'Expérience ?
Chaque puce doit suivre la formule XYZ : Accompli [X] mesuré par [Y] en faisant [Z]. Des puces vagues comme « Travaillé sur des modèles de machine learning » ne disent rien au recruteur sur votre impact ou votre niveau [13].
Débutant (0–2 Ans)
- Réduit l'erreur de prédiction de l'attrition client de 12 % (AUC passant de 0,81 à 0,91) en concevant 45 variables comportementales à partir de données de navigation avec pandas et scikit-learn, alimentant directement une campagne de fidélisation de 400 000 $.
- Automatisé le reporting hebdomadaire des KPIs pour l'équipe marketing en construisant un pipeline ETL en Python avec Airflow, réduisant le temps de préparation manuelle des données de 8 heures à 45 minutes par cycle.
- Conçu et analysé 15 tests A/B pour l'équipe produit en utilisant des tests d'hypothèses bayésiens dans PyMC, identifiant 3 modifications UX statistiquement significatives ayant augmenté la conversion de 6,2 %.
- Construit un modèle de classification de texte avec Hugging Face Transformers pour catégoriser plus de 50 000 tickets de support client avec 89 % de précision, permettant un routage automatisé ayant réduit le délai de réponse moyen de 22 %.
- Créé un tableau de bord interactif Tableau suivant 12 KPIs de chaîne logistique sur 3 centres de distribution, adopté par la direction des opérations pour la prise de décision quotidienne et réduisant le volume de demandes de rapports de 60 %.
Intermédiaire (3–7 Ans)
- Développé un modèle de détection de fraude en temps réel avec XGBoost et Kafka streaming ayant identifié 8,2 M$ de transactions frauduleuses sur 12 mois avec un taux de faux positifs de 0,3 %, déployé sur AWS SageMaker.
- Piloté la migration de modèles SAS vers Python/scikit-learn pour l'équipe tarification d'un assureur Fortune 500, réduisant le temps d'entraînement des modèles de 74 % et permettant des cycles de réentraînement hebdomadaires ayant amélioré le ratio de sinistralité de 2,1 points.
- Conçu un moteur de recommandation servant plus de 2 millions d'utilisateurs actifs quotidiens en utilisant le filtrage collaboratif et des embeddings neuronaux en PyTorch, augmentant le panier moyen de 14 % (3,8 M$ d'impact annualisé sur le chiffre d'affaires).
- Construit et maintenu un feature store sur Databricks servant plus de 30 modèles ML à travers 4 équipes produit, réduisant la duplication d'ingénierie de variables de 65 % et raccourcissant le développement de nouveaux modèles de 6 à 2 semaines.
- Conçu un cadre d'inférence causale utilisant les méthodes de différence de différences et de contrôle synthétique pour mesurer l'impact incrémental de 12 M$ d'investissement publicitaire, identifiant 4,1 M$ de budget gaspillé sur des canaux sous-performants.
Senior (8+ Ans)
- Dirigé une équipe de 8 data scientists et ingénieurs ML pour construire une plateforme de prévision de la demande sur GCP Vertex AI, réduisant les coûts de stockage de 15 M$ annuels sur plus de 200 points de vente dans le sud-est.
- Mis en place la première pratique MLOps de l'entreprise — implémentant MLflow pour le suivi des expériences, GitHub Actions pour le CI/CD et Great Expectations pour la validation des données — réduisant le délai de déploiement des modèles de 3 mois à 2 semaines.
- Défini et exécuté la feuille de route data science pour une division fintech de 500 M$, priorisant 12 initiatives selon l'impact attendu sur le chiffre d'affaires et générant 28 M$ de revenus incrémentaux sur 18 mois grâce à l'amélioration des modèles de risque de crédit.
- Collaboré avec le Directeur des Risques pour développer un cadre de tests de résistance au niveau du portefeuille utilisant la simulation de Monte Carlo et des modèles de copule, permettant à l'entreprise de réussir la revue réglementaire de l'OCC sans constatation significative.
- Accompagné 15 data scientists juniors dans 3 bureaux (dont Atlanta), mettant en place un processus de revue par les pairs pour la validation des modèles ayant réduit les défaillances en production de 80 % et créé un parcours de promotion ayant fait progresser 6 contributeurs individuels vers des postes seniors en 2 ans.
Exemples de Résumé Professionnel
Data Scientist Débutant
Data scientist titulaire d'un Master en Statistiques de Georgia Tech avec 1,5 an d'expérience dans la construction de modèles d'apprentissage supervisé en Python (scikit-learn, XGBoost) et leur déploiement via des APIs Flask sur AWS EC2. A conçu et analysé plus de 20 tests A/B en utilisant des méthodes bayésiennes, avec une expertise domaine en optimisation de la conversion e-commerce. Maîtrise de SQL (PostgreSQL, BigQuery), pandas et Tableau pour des analyses de bout en bout, des données brutes aux tableaux de bord de direction.
Data Scientist Intermédiaire
Data scientist avec 5 ans d'expérience dans la construction de systèmes ML en production pour des applications fintech, notamment la détection de fraude en temps réel (XGBoost, Kafka) et des modèles de scoring crédit (régression logistique, arbres à gradient boosting) servant plus de 3 millions de clients. Maîtrise du cycle de vie ML complet — de l'ingénierie de variables dans PySpark et Databricks au déploiement sur AWS SageMaker avec suivi des expériences via MLflow. Basé à Atlanta avec une expertise domaine en traitement des paiements et conformité réglementaire (Fair Lending, ECOA) [1].
Data Scientist Senior
Data scientist senior et leader technique avec plus de 10 ans d'expérience dans la construction et la mise à l'échelle de plateformes ML dans les secteurs de la santé et des services financiers. A dirigé des équipes allant jusqu'à 12 data scientists et ingénieurs ML, instaurant des pratiques MLOps ayant réduit les cycles de déploiement de trimestriels à bihebdomadaires. Expertise approfondie en inférence causale, optimisation bayésienne et NLP (architectures transformer), avec un bilan documenté de plus de 30 M$ d'impact métier. Basé en Géorgie avec une expérience en conformité HIPAA, SOX et OCC [3].
Quelle Formation et Quelles Certifications pour les Data Scientists ?
Le BLS indique que la plupart des postes de data scientist exigent au minimum un diplôme de licence dans un domaine quantitatif, et de nombreux employeurs préfèrent un master ou un doctorat [2]. En Géorgie, le MS en Analytics de Georgia Tech et le MS en Biostatistics d'Emory sont particulièrement reconnus par les employeurs locaux [8].
Formatez la formation ainsi :
M.S. en Informatique (Spécialisation Machine Learning) Georgia Institute of Technology, Atlanta, GA — 2022 Cours pertinents : Statistiques bayésiennes, Deep Learning, Apprentissage par renforcement, Traitement du langage naturel
Certifications reconnues par les employeurs de Géorgie :
- AWS Certified Machine Learning – Specialty (Amazon Web Services) — La certification ML cloud la plus demandée dans les offres d'emploi en Géorgie, compte tenu de la forte adoption d'AWS dans l'État [5].
- Google Professional Machine Learning Engineer (Google Cloud) — Valide les compétences ML en production sur GCP ; pertinente pour les postes chez Google Atlanta, Mailchimp et NCR Voyix.
- Databricks Certified Machine Learning Professional (Databricks) — Signale une expertise en architecture lakehouse et ML basé sur Spark, de plus en plus standard dans les stacks de données d'entreprise en Géorgie.
- TensorFlow Developer Certificate (Google) — Démontre des compétences d'implémentation en deep learning avec TensorFlow et Keras.
- dbt Analytics Engineering Certification (dbt Labs) — Précieuse pour les data scientists qui gèrent leurs propres couches de transformation ; signale une maîtrise des stacks de données modernes.
Formatez les certifications avec le nom complet, l'organisme émetteur et l'année d'obtention. Placez-les après la Formation mais avant les Compétences si elles sont directement pertinentes pour le poste visé [13].
Quelles Sont les Erreurs les Plus Courantes dans un CV de Data Scientist ?
1. Lister des outils sans contexte ni profondeur. Écrire « Python, R, SQL, Scala, Java, MATLAB, SAS, Julia » signale que vous avez touché à tout sans rien maîtriser. Listez plutôt 3–4 outils principaux avec des bibliothèques spécifiques et des cas d'usage. Un responsable du recrutement chez Georgia-Pacific n'a pas besoin que vous connaissiez Julia — il a besoin que vous maîtrisiez PySpark et Snowflake en profondeur [4].
2. Décrire des modèles sans résultats métier. « Construit un modèle de forêt aléatoire avec 92 % de précision » ne dit rien au recruteur sur la valeur. 92 % de précision sur quoi ? Avec quelle baseline ? Quelle décision cela a-t-il permis ? Reliez toujours la performance du modèle à un indicateur métier : chiffre d'affaires, coûts, temps, risque [7].
3. Omettre l'historique de déploiement. Si votre modèle a été mis en production, dites-le explicitement — nommez l'infrastructure de service (endpoint SageMaker, FastAPI sur Kubernetes, Databricks Model Serving). S'il ne l'a pas été, concentrez-vous sur l'insight analytique qu'il a généré. Laisser ce point flou pousse les recruteurs à supposer « notebook uniquement ».
4. Utiliser « Responsable de » au lieu de verbes d'action. « Responsable de la construction de modèles ML » est passif et vague. Remplacez par « Conçu », « Déployé », « Optimisé », « Architecturé » ou « Validé » — des verbes qui transmettent la prise en charge et la précision [13].
5. Ignorer le contexte salarial de la Géorgie lors de la négociation. La médiane salariale des data scientists de Géorgie de 102 630 $ [1] se situe en dessous de la médiane nationale. Si vous visez des postes à distance dans des entreprises de la Bay Area ou de New York, votre CV doit mettre en avant des compétences et un impact justifiant une rémunération au niveau national. Si vous ciblez des employeurs locaux d'Atlanta, comparez-vous à la fourchette géorgienne de 63 320 $–165 980 $ [1].
6. Enterrer les projets techniques dans une section « Projets » en bas de page. Si votre réalisation la plus impressionnante est un projet personnel ou une contribution open source (un dépôt GitHub très étoilé, une médaille en compétition Kaggle), intégrez-la dans votre section expérience avec le même format de puces XYZ — ne la reléguez pas en note de bas de page.
7. Ne pas préciser l'échelle des données. « Analysé des données clients » peut signifier 500 lignes dans Excel ou 500 millions de lignes dans Spark. Précisez toujours : nombre de lignes, taille des tables, vélocité des données (batch versus streaming) et format de stockage (Parquet, Delta Lake, etc.) [7].
Mots-Clés ATS pour les CV de Data Scientist
Les systèmes de suivi des candidatures analysent votre CV pour trouver des correspondances exactes de mots-clés avec la description de poste [12]. Intégrez ces mots-clés naturellement dans vos sections expérience et compétences — ne les entassez pas dans un bloc de texte masqué.
Compétences Techniques
Python, R, SQL, machine learning, deep learning, traitement du langage naturel (NLP), computer vision, modélisation statistique, tests A/B, ingénierie de variables
Certifications
AWS Certified Machine Learning – Specialty, Google Professional Machine Learning Engineer, Databricks Certified Machine Learning Professional, TensorFlow Developer Certificate, dbt Analytics Engineering Certification, Microsoft Certified: Azure Data Scientist Associate, SAS Certified AI and Machine Learning Professional
Outils et Logiciels
TensorFlow, PyTorch, scikit-learn, XGBoost, Spark (PySpark), Snowflake, Databricks, AWS SageMaker, Airflow, MLflow, Tableau, Docker, Kubernetes
Termes du Secteur
Déploiement de modèles, MLOps, feature store, suivi des expériences, inférence causale, prédiction de l'attrition, systèmes de recommandation, prévision de séries temporelles, détection d'anomalies
Verbes d'Action
Conçu, déployé, optimisé, architecturé, validé, automatisé, mis à l'échelle
Conclusions Clés
Votre CV de data scientist pour le marché géorgien doit mettre en avant l'expérience ML en production et l'impact métier quantifié — pas une liste exhaustive de chaque bibliothèque importée. Les 7 730 data scientists de Géorgie [1] se disputent des postes dans les secteurs fintech, logistique, santé et distribution, chacun avec des stacks techniques et des exigences domaine distincts. Adaptez votre CV à chaque candidature : un poste au siège de The Home Depot à Atlanta exige des mots-clés liés à la chaîne logistique et à la prévision de la demande, tandis qu'un poste chez Intercontinental Exchange nécessite le vocabulaire de la modélisation de séries temporelles et de la conformité réglementaire.
Quantifiez tout. Nommez vos outils avec précision. Reliez chaque modèle à un résultat métier. Et formatez votre CV pour que les systèmes ATS puissent l'analyser sans difficulté — intitulés standard, formats de date cohérents et certifications listées avec leurs noms officiels complets [12].
Créez votre CV de Data Scientist optimisé pour l'ATS avec Resume Geni — c'est gratuit pour commencer.
Questions Fréquentes
Quelle longueur pour un CV de data scientist ?
Une page pour les candidats ayant moins de 5 ans d'expérience ; deux pages maximum pour les postes seniors. Complétez avec un profil GitHub ou un lien portfolio plutôt que de surcharger la page avec chaque projet. Les recruteurs consacrent en moyenne 7,4 secondes à l'examen initial d'un CV [11] : placez donc vos indicateurs les plus forts en tête.
Faut-il mentionner les compétitions Kaggle sur son CV ?
Oui, mais uniquement si vous avez terminé dans le top 10 % ou si la compétition est directement pertinente pour le poste visé. Formatez comme une puce d'expérience professionnelle : « Atteint le top 3 % (médaille d'argent) dans la compétition Kaggle Home Credit Default Risk en concevant plus de 200 variables et en assemblant des modèles XGBoost et LightGBM. » Les compétitions sans classement notable diluent votre CV [13].
Quel salaire attendre en tant que data scientist en Géorgie ?
Le salaire médian des data scientists en Géorgie est de 102 630 $, avec une fourchette allant de 63 320 $ au 10e percentile à 165 980 $ au 90e percentile [1]. Les postes seniors dans les fintechs et entreprises technologiques basées à Atlanta tendent vers le haut de la fourchette, tandis que les postes débutants dans les entreprises plus petites peuvent commencer autour de 70 000 $–80 000 $.
Faut-il un master pour devenir data scientist ?
Le BLS note que la plupart des postes de data scientist exigent au minimum une licence, et de nombreux employeurs préfèrent un master ou un doctorat en informatique, statistiques, mathématiques ou domaine quantitatif connexe [2]. En pratique, un portfolio solide et des certifications pertinentes (AWS ML Specialty, Databricks ML Professional) peuvent compenser l'absence d'un diplôme avancé, en particulier pour les candidats ayant plus de 3 ans d'expérience professionnelle.
Faut-il lister tous les langages de programmation que l'on connaît ?
Non. Listez 3–4 langages principaux avec des bibliothèques spécifiques et des cas d'usage, et ne mentionnez les langages secondaires que si la description de poste les mentionne. Un CV revendiquant la maîtrise de plus de 8 langages signale l'étendue sans la profondeur et suscite le scepticisme des responsables techniques du recrutement [4].
Comment adapter son CV aux différentes sous-spécialités de la data science ?
Maintenez un CV maître avec toute votre expérience, puis créez des versions ciblées. Pour un poste en NLP, mettez en avant l'ajustement de transformers et le prétraitement de texte. Pour un poste MLOps, menez avec l'infrastructure de déploiement et les pipelines CI/CD. Le marché de l'emploi en Géorgie couvre ces sous-spécialités — un poste chez Mailchimp (NLP) exige un profil de mots-clés fondamentalement différent d'un poste chez UPS (optimisation et logistique) [5][6].
Un portfolio ou un profil GitHub est-il indispensable ?
Un profil GitHub bien entretenu avec 3–5 dépôts soignés a plus de valeur que 50 projets inachevés. Incluez des READMEs avec l'énoncé du problème, la méthodologie, les résultats et les instructions de reproduction. Les responsables du recrutement au Georgia Tech Research Institute et chez des employeurs techniques similaires consultent régulièrement les dépôts des candidats avant de planifier des entretiens [3].