Guide de CV pour Data Scientist en Pennsylvanie

Comment rédiger un CV de data scientist qui décroche des entretiens sur le marché analytique en pleine croissance de Pennsylvanie

La Pennsylvanie emploie 10 430 data scientists au sein de son économie diversifiée — du corridor santé et biotechnologie de Philadelphie au pôle robotique et intelligence artificielle de Pittsburgh — mais le salaire médian de 100 320 $ se situe 28,8 % en dessous de la médiane nationale, ce qui rend indispensable un CV ciblé avec précision pour décrocher les postes les mieux rémunérés dans la fourchette salariale de l'État, allant de 61 190 $ à 165 360 $ [1].

Points clés

  • Un CV de data scientist n'est pas un CV d'analyste de données. Les recruteurs qui recherchent des data scientists veulent des preuves de modélisation prédictive, de conception expérimentale et de déploiement de ML en production — pas seulement des requêtes SQL et des tableaux de bord. Si votre CV ressemble à celui d'un analyste BI, il sera filtré en conséquence.
  • Les 3 éléments que les recruteurs de Pennsylvanie recherchent en priorité : une expérience couvrant le cycle de vie complet des modèles (de l'ingénierie de features au déploiement), la maîtrise de Python/R avec des frameworks de production comme scikit-learn, TensorFlow ou PyTorch, et un impact métier quantifié lié à des métriques de performance du modèle (AUC-ROC, RMSE, lift) [5] [6].
  • L'erreur la plus courante : lister toutes les bibliothèques que vous avez importées au lieu de démontrer ce que vous avez construit avec elles et quel résultat métier en a découlé.
  • Avantage spécifique à la Pennsylvanie : mettre en avant une expertise sectorielle en santé (UPMC, Independence Blue Cross), services financiers (Vanguard, Comcast) ou industrie manufacturière et logistique (U.S. Steel, Dick's Sporting Goods) procure un avantage concret dans un État où ces secteurs dominent le recrutement en data science [5].

Que recherchent les recruteurs dans un CV de data scientist ?

La distinction entre data scientist et rôles adjacents — analyste de données, ingénieur de données, ingénieur ML — est l'écueil sur lequel la plupart des CV échouent. Un analyste de données élabore des rapports descriptifs ; un ingénieur de données construit des pipelines ; un ingénieur ML met des modèles en production. Le data scientist se situe à l'intersection : il formule des hypothèses, conçoit des expériences, construit des modèles prédictifs et traduit les résultats statistiques en décisions métier [7]. Votre CV doit refléter ce spectre complet.

Profondeur technique avec un contexte de production. Les recruteurs d'employeurs de Pennsylvanie comme Comcast (Philadelphie), UPMC (Pittsburgh) et Vanguard (Malvern) recherchent des signaux précis : expérience avec des algorithmes d'apprentissage supervisé et non supervisé, frameworks de tests A/B et d'inférence causale, ingénierie de features à grande échelle et déploiement de modèles via Docker, Kubernetes ou services ML natifs du cloud (SageMaker, Vertex AI, Azure ML) [5] [6]. Écrire « Python » ne leur apprend rien. Écrire « Conçu un modèle de churn par gradient boosting en Python (XGBoost) déployé via AWS SageMaker, servant 2 millions de prédictions quotidiennes » leur dit tout.

Rigueur statistique, pas seulement maîtrise des outils. Les meilleurs CV en data science démontrent une compréhension des mathématiques sous-jacentes — tests d'hypothèses, inférence bayésienne, techniques de régularisation, stratégies de validation croisée. Les secteurs de la santé et de la pharmacie en Pennsylvanie (un axe majeur de recrutement) valorisent particulièrement les candidats capables d'articuler une méthodologie statistique, pas seulement d'appeler sklearn.fit() [3] [4].

Cadrage de l'impact métier. Chaque modèle existe pour faire évoluer une métrique. Les recruteurs veulent constater que vous comprenez laquelle et dans quelle mesure. Votre moteur de recommandations a-t-il augmenté le panier moyen de 12 % ? Votre modèle de détection de fraude a-t-il réduit les faux positifs de 40 %, faisant économiser 200 heures par mois à l'équipe opérationnelle ? L'architecture du modèle importe moins que le résultat qu'il a produit [7].

Certifications signalant une spécialisation. Sans être strictement obligatoires, des accréditations comme Google Professional Machine Learning Engineer, AWS Certified Machine Learning – Specialty ou Cloudera Certified Associate Data Analyst démontrent une compétence spécifique sur des plateformes que les employeurs de Pennsylvanie mentionnent de plus en plus dans leurs offres [6] [8]. Un master ou un doctorat dans un domaine quantitatif (statistiques, informatique, mathématiques appliquées, physique) reste le signal éducatif le plus courant, bien qu'un portfolio solide puisse compenser cette attente.


Quel est le meilleur format de CV pour les data scientists ?

Format chronologique inversé : c'est le choix le plus pertinent pour les data scientists ayant plus de 2 ans d'expérience en entreprise. Les responsables du recrutement dans des sociétés comme SEI Investments, Aramark et les entreprises de véhicules autonomes de Pittsburgh veulent retracer votre progression, du contributeur individuel à la gestion de pipelines de modèles de bout en bout [13].

Format combiné (hybride) : c'est le bon choix si vous êtes en transition depuis le milieu académique, un programme doctoral ou un rôle adjacent (génie logiciel, recherche quantitative). Commencez par une section de compétences techniques et un résumé de portfolio de projets, suivis de l'expérience chronologique. Ce format vous permet de mettre en avant vos résultats en compétitions Kaggle, vos recherches publiées ou vos contributions open source avant votre parcours professionnel [11].

Format fonctionnel : rarement approprié pour les data scientists. Les recruteurs de ce domaine se méfient des CV qui masquent les chronologies — cela soulève des questions sur le caractère théorique ou opérationnel de votre expérience.

Note spécifique Pennsylvanie : avec 10 430 data scientists employés dans tout l'État [1], le marché est compétitif sans être saturé. Un CV d'une page bien structuré convient aux candidats ayant moins de 5 ans d'expérience. Les data scientists confirmés disposant d'un historique de publications peuvent s'étendre sur deux pages, à condition que la seconde contienne des détails substantiels de projets ou de publications — pas du remplissage.


Quelles compétences clés un data scientist doit-il inclure ?

Compétences techniques (avec contexte)

  1. Python (NumPy, pandas, scikit-learn, XGBoost) — Votre langage principal de modélisation. Précisez les bibliothèques que vous utilisez au quotidien, pas seulement « Python » [4].
  2. R (tidyverse, caret, ggplot2) — Encore répandu dans les postes en pharmacie et biostatistiques de Pennsylvanie, notamment chez GSK et dans les bureaux régionaux de Merck.
  3. SQL (jointures complexes, fonctions de fenêtrage, CTEs) — Tout data scientist écrit du SQL. Précisez que vous traitez des requêtes analytiques sur des tables de plusieurs millions de lignes, pas seulement des instructions SELECT de base [4].
  4. Frameworks de deep learning (TensorFlow, PyTorch, Keras) — Indiquez si vous avez entraîné des modèles de zéro, affiné des architectures pré-entraînées, ou les deux.
  5. Plateformes ML cloud (AWS SageMaker, GCP Vertex AI, Azure ML) — Les employeurs de Pennsylvanie (Comcast, Vanguard, UPMC) fonctionnent sur une infrastructure cloud. Précisez quelle plateforme et ce que vous y avez déployé [6].
  6. Modélisation statistique et inférence — Régression (linéaire, logistique, Poisson), méthodes bayésiennes, analyse de survie, modèles à effets mixtes. Nommez les techniques que vous avez appliquées [3].
  7. Conception expérimentale (tests A/B, bandits multi-bras) — Précisez le calcul de la taille d'échantillon, l'analyse de puissance statistique et les tests utilisés pour évaluer les résultats.
  8. NLP (spaCy, Hugging Face Transformers, ajustement fin BERT/GPT) — Le cas échéant, indiquez si vous avez travaillé sur la classification de texte, la reconnaissance d'entités nommées ou les modèles génératifs.
  9. Outils big data (Spark/PySpark, Databricks, Hive) — Essentiels pour les postes à grande échelle. Précisez les volumes de données que vous avez traités.
  10. MLOps et déploiement de modèles (Docker, Kubernetes, MLflow, Airflow) — La compétence qui distingue les data scientists qui construisent des prototypes de ceux qui livrent des modèles en production [7].
  11. Visualisation de données (Matplotlib, Seaborn, Plotly, Tableau) — Précisez si vous construisez des visualisations exploratoires pour votre propre analyse ou des tableaux de bord destinés aux parties prenantes.
  12. Gestion de versions (Git, GitHub/GitLab, DVC) — Incluez DVC (Data Version Control) si vous versionnez des jeux de données et des artefacts de modèles, pas seulement du code.

Compétences interpersonnelles (avec exemples spécifiques au rôle)

  1. Communication transversale — Traduire les résultats d'un modèle en recommandations métier pour des parties prenantes non techniques (par exemple, expliquer pourquoi le compromis précision-rappel du modèle impacte le budget d'une équipe marketing).
  2. Cadrage de problèmes — Déterminer si une question métier nécessite une classification, une régression, un clustering ou une simple heuristique avant d'écrire une seule ligne de code.
  3. Curiosité intellectuelle — Enquêter de manière proactive sur des anomalies dans les données que d'autres ignorent, menant à la découverte de problèmes de qualité de données ou de nouvelles opportunités de features [4].
  4. Définition du périmètre projet — Estimer les délais de collecte de données, développement de modèles, validation et déploiement — et communiquer les arbitrages lorsque les parties prenantes souhaitent des résultats plus rapides.
  5. Mentorat — Réviser le code, les approches de validation de modèles et les conceptions expérimentales des membres juniors de l'équipe (particulièrement pertinent pour les postes confirmés).

Comment un data scientist doit-il rédiger les puces d'expérience professionnelle ?

Chaque puce doit suivre la formule XYZ : Accompli [X] mesuré par [Y] en faisant [Z]. Pour les data scientists, l'enjeu est de relier les métriques de performance du modèle à des résultats métier — une amélioration d'AUC-ROC ne signifie rien pour un recruteur si vous ne la reliez pas au chiffre d'affaires, aux économies de coûts ou à l'efficacité opérationnelle [11] [13].

Niveau débutant (0–2 ans)

  • Développé un modèle de prédiction de churn client (régression logistique + XGBoost) atteignant un AUC-ROC de 0,87, permettant à l'équipe de rétention de cibler 1 200 comptes à risque et de réduire le churn trimestriel de 8 %.
  • Nettoyé et réalisé l'ingénierie de features d'un jeu de données transactionnel de 2,3 millions de lignes avec pandas et SQL, réduisant le temps de préparation des données d'entraînement de 6 heures à 45 minutes grâce à des scripts de pipeline automatisés.
  • Conçu et analysé un test A/B pour un widget de recommandations en page d'accueil, établissant une hausse statistiquement significative de 4,2 % du taux de clics (p < 0,01, n = 85 000 utilisateurs) justifiant le déploiement complet en production.
  • Construit un modèle NLP de classification de texte avec spaCy et scikit-learn pour catégoriser plus de 50 000 tickets de support client en 12 types d'incidents avec une précision de 91 %, réduisant le temps de tri manuel de 15 heures par semaine.
  • Créé des tableaux de bord interactifs Plotly visualisant la dérive de performance de 6 modèles en production, permettant à l'équipe d'ingénierie ML d'identifier et de réentraîner les modèles dégradés 3 fois plus rapidement.

Niveau intermédiaire (3–7 ans)

  • Conçu un pipeline complet de détection de fraude avec PySpark et XGBoost sur AWS SageMaker, traitant 4 millions de transactions quotidiennes et réduisant le taux de faux positifs de 40 % — soit environ 200 heures-analyste économisées par mois pour l'équipe d'investigation.
  • Dirigé une équipe transversale de 3 data scientists et 2 ingénieurs pour créer un modèle de tarification dynamique ayant augmenté la marge brute de 2,1 millions $ par an, utilisant des arbres à gradient boosting avec un service de features en temps réel via Redis.
  • Conçu un modèle hiérarchique bayésien pour la prévision de la demande sur plusieurs marchés à travers 340 SKUs, améliorant le MAPE de 22 % à 14 % et réduisant les coûts de stockage de 800 000 $ par an.
  • Implémenté un framework MLOps avec MLflow, Airflow et Docker réduisant le délai de déploiement des modèles de 3 semaines à 2 jours, permettant à l'équipe de livrer 4 fois plus de modèles par trimestre [7].
  • Développé un modèle de risque de réadmission de patients pour un système de santé de Pennsylvanie en utilisant l'analyse de survie et des données EHR (Epic), atteignant un C-statistic de 0,79 et permettant aux coordinateurs de soins d'intervenir auprès de plus de 500 patients à haut risque par mois.

Niveau confirmé (8+ ans)

  • Défini la stratégie data science d'une ligne de produit à 50 millions $ de chiffre d'affaires, en constituant et dirigeant une équipe de 8 data scientists et ingénieurs ML qui ont déployé 12 modèles en production générant 8,4 millions $ de revenus incrémentaux mesurables.
  • Mis en place la première plateforme d'expérimentation de l'entreprise (tests A/B + bandits multi-bras), standardisant la méthodologie statistique pour 6 équipes produit et augmentant la cadence d'expérimentation de 3 à 15 tests par mois.
  • Conçu un moteur de personnalisation en temps réel utilisant le deep learning (PyTorch) et des feature stores (Feast), servant plus de 10 millions de recommandations quotidiennes avec une amélioration de 23 % du taux de conversion par rapport au système précédent basé sur des règles.
  • Collaboré avec le vice-président des opérations pour construire un système de maintenance prédictive pour 1 200 actifs de production à l'aide de données de capteurs et de LSTMs, réduisant les temps d'arrêt non planifiés de 31 % et économisant 3,2 millions $ par an.
  • Publié 4 articles évalués par des pairs sur les méthodes d'inférence causale appliquées aux données observationnelles de santé, positionnant l'organisation comme référence et attirant 3 recrutements confirmés de data science provenant d'entreprises concurrentes.

Exemples de résumé professionnel

Data scientist — Niveau débutant

Data scientist titulaire d'un master en statistiques de Penn State avec 1,5 an d'expérience dans la construction de modèles d'apprentissage supervisé en Python (scikit-learn, XGBoost) et leur déploiement via AWS SageMaker. Conçu un modèle de prédiction de churn atteignant un AUC-ROC de 0,87 qui a réduit le churn trimestriel de 8 % pour une entreprise SaaS de taille intermédiaire. Maîtrise de SQL, de la conception de tests A/B et de la communication des résultats de modèles à des parties prenantes non techniques. Recherche un poste de data scientist dans le secteur de la santé ou des services financiers en Pennsylvanie [1].

Data scientist — Niveau intermédiaire

Data scientist avec 5 ans d'expérience dans la construction de systèmes ML en production en détection de fraude, prévision de la demande et moteurs de recommandation. Maîtrise de Python, PySpark, TensorFlow et du déploiement natif cloud (AWS SageMaker, MLflow). Au sein d'une entreprise Fortune 500 de services financiers, conçu un pipeline de détection de fraude traitant 4 millions de transactions quotidiennes, réduisant les faux positifs de 40 % et économisant 2,4 millions $ par an. Titulaire de la certification AWS Certified Machine Learning – Specialty avec un parcours démontré de traduction de modèles statistiques complexes en résultats métier mesurables [3] [6].

Data scientist — Niveau confirmé

Data scientist confirmé et responsable technique avec plus de 10 ans d'expérience dans la création et le développement d'équipes de data science en santé, fintech et e-commerce. Dirigé une équipe de 8 data scientists et ingénieurs ML, déployant 12 modèles en production ayant généré 8,4 millions $ de revenus incrémentaux. Expertise approfondie en inférence causale, méthodes bayésiennes et deep learning, avec 4 publications évaluées par des pairs. Expérience dans la mise en place de plateformes d'expérimentation, d'infrastructures MLOps et de stratégies transversales de data science. Basé en Pennsylvanie avec une expertise sectorielle en analyse de santé (données EHR Epic) et en services financiers [1] [7].


Quelle formation et quelles certifications pour un data scientist ?

Formation : le BLS indique que la plupart des postes de data scientist exigent au minimum un diplôme de niveau licence dans un domaine quantitatif — informatique, statistiques, mathématiques ou ingénierie — de nombreux employeurs privilégiant un master ou un doctorat [2] [8]. En Pennsylvanie, où UPMC, Vanguard et les institutions de recherche universitaires sont des employeurs majeurs, les diplômes avancés pèsent considérablement. Carnegie Mellon, l'Université de Pennsylvanie et Penn State forment d'excellents diplômés en data science qui se disputent les postes locaux.

Structurez votre section formation avec le diplôme, le domaine d'études, l'établissement et l'année d'obtention. N'incluez les cours pertinents que si vous avez obtenu votre diplôme il y a moins de 2 ans (par exemple, « Cours pertinents : apprentissage statistique, deep learning, inférence causale, analyse bayésienne des données »).

Certifications à inclure :

  • Google Professional Machine Learning Engineer (Google Cloud) — Valide la conception de pipelines ML de bout en bout sur GCP.
  • AWS Certified Machine Learning – Specialty (Amazon Web Services) — Démontre des compétences en déploiement SageMaker et ML cloud.
  • Microsoft Certified: Azure Data Scientist Associate (Microsoft) — Pertinente pour les employeurs de Pennsylvanie utilisant Azure (nombreuses entreprises du corridor de Philadelphie).
  • TensorFlow Developer Certificate (Google) — Atteste de la compétence en implémentation de deep learning.
  • Databricks Certified Machine Learning Professional (Databricks) — De plus en plus demandée à mesure que l'adoption de Databricks progresse [6] [8].
  • IBM Data Science Professional Certificate (IBM/Coursera) — Adaptée aux candidats débutants souhaitant construire des accréditations de base.

Listez les certifications avec le nom complet de l'accréditation, l'organisme émetteur et l'année d'obtention. Les certifications expirées ou en cours doivent être signalées comme telles.


Quelles sont les erreurs les plus courantes dans un CV de data scientist ?

1. Lister des outils sans contexte (« Python, R, SQL, Tableau, TensorFlow »). Une liste de compétences brute ne dit rien au recruteur sur votre niveau de maîtrise ni sur ce que vous avez construit. Remplacez cette liste par des mentions contextualisées dans vos puces d'expérience. « Conçu un modèle de churn par gradient boosting en Python (XGBoost) » est infiniment plus informatif que « Python » dans une barre latérale de compétences [13].

2. Décrire l'architecture du modèle sans impact métier. « Entraîné un classifieur random forest avec 500 estimateurs et max_depth=12 » est un commentaire de Jupyter notebook, pas une puce de CV. Les recruteurs veulent savoir que votre random forest a réduit le coût d'acquisition client de 18 % — les hyperparamètres relèvent de l'entretien technique [11].

3. Omettre les métriques d'évaluation du modèle. Si votre puce indique « construit un modèle de prédiction » sans mentionner AUC-ROC, RMSE, F1-score, précision, rappel ou toute autre métrique de performance, cela donne l'impression que vous ne savez pas évaluer votre propre travail [4].

4. Confondre analyse de données et data science. Si vos puces décrivent la création de tableaux de bord, la rédaction de rapports SQL et l'élaboration de tableaux croisés dynamiques dans Excel — sans jamais mentionner la modélisation prédictive, l'inférence statistique ou le déploiement de ML — votre CV se lit comme celui d'un analyste de données. C'est le moyen le plus rapide d'être écarté des processus de sélection pour data scientists [7].

5. Ignorer le contexte industriel de la Pennsylvanie. Postuler auprès de UPMC sans mentionner d'expérience en données de santé (données EHR, conformité HIPAA, modélisation d'issues cliniques) ou chez Vanguard sans faire référence à la modélisation financière (scoring de risque, optimisation de portefeuille, prévision de séries temporelles) est une opportunité manquée. Adaptez votre vocabulaire sectoriel à l'industrie de l'employeur [5].

6. Dissimuler ou omettre votre GitHub/portfolio. La data science est l'un des rares domaines où les responsables du recrutement examinent systématiquement des échantillons de code. Si votre GitHub, votre profil Kaggle ou votre site portfolio ne figure pas dans l'en-tête de votre CV à côté de votre LinkedIn, vous cachez votre preuve la plus convaincante [6].

7. Utiliser « Responsable de » comme verbe d'introduction. Remplacez-le par des verbes d'action reflétant ce que font réellement les data scientists : conçu, modélisé, déployé, validé, optimisé, expérimenté, architecturé, automatisé, quantifié.


Mots-clés ATS pour les CV de data scientist

Les systèmes de suivi des candidatures analysent les CV à la recherche de correspondances exactes de mots-clés avant qu'un recruteur ne les examine [12]. Intégrez ces mots-clés naturellement dans votre CV — ne les accumulez pas dans un pied de page masqué.

Compétences techniques

  • Machine learning
  • Deep learning
  • Traitement du langage naturel (NLP)
  • Vision par ordinateur
  • Modélisation statistique
  • Analyse prédictive
  • Ingénierie de features
  • Tests A/B
  • Prévision de séries temporelles
  • Inférence causale

Certifications

  • AWS Certified Machine Learning – Specialty
  • Google Professional Machine Learning Engineer
  • Microsoft Certified: Azure Data Scientist Associate
  • TensorFlow Developer Certificate
  • Databricks Certified Machine Learning Professional
  • Cloudera Certified Associate Data Analyst
  • IBM Data Science Professional Certificate

Outils et logiciels

  • Python (scikit-learn, pandas, NumPy, XGBoost)
  • R (tidyverse, caret)
  • TensorFlow / PyTorch / Keras
  • Apache Spark / PySpark
  • AWS SageMaker / GCP Vertex AI / Azure ML
  • MLflow / Airflow / Kubeflow
  • Tableau / Power BI

Termes du secteur

  • Déploiement de modèles
  • MLOps
  • Conception expérimentale
  • Pipeline de données
  • ML en production

Verbes d'action

  • Conçu
  • Modélisé
  • Déployé
  • Optimisé
  • Validé
  • Architecturé
  • Quantifié

Points clés

Votre CV de data scientist doit accomplir trois choses que les CV de rôles adjacents ne font pas : démontrer un rigor statistique, montrer une expérience couvrant le cycle de vie complet du modèle et relier chaque modèle à un résultat métier quantifié. En Pennsylvanie, où 10 430 data scientists gagnent un salaire médian de 100 320 $ et la fourchette salariale s'étend à 165 360 $ au 90e percentile [1], la différence entre un CV générique et un CV ciblé peut représenter plus de 60 000 $ de rémunération annuelle supplémentaire.

Mettez en avant votre travail ML en production le plus marquant, pas votre plus longue liste d'outils. Utilisez un vocabulaire spécifique au secteur qui corresponde aux industries dominantes de Pennsylvanie : santé, services financiers, industrie manufacturière et technologie. Incluez votre GitHub et un lien vers votre portfolio dans l'en-tête. Quantifiez tout : métriques de performance des modèles, impact métier, volume de données et taille d'équipe.

Créez votre CV de data scientist optimisé ATS avec Resume Geni — c'est gratuit pour commencer.


Foire aux questions

Quelle longueur doit avoir un CV de data scientist ?

Une page si vous avez moins de 5 ans d'expérience ; deux pages si vous avez plus de 5 ans ou un historique de publications significatif. Les recruteurs de Pennsylvanie chez Comcast ou UPMC examinent des centaines de candidatures par poste — les CV concis et denses sont lus en priorité [13].

Faut-il inclure des compétitions Kaggle sur son CV ?

Oui, si vous avez terminé dans les 10 % supérieurs ou si la compétition est directement pertinente pour le poste visé. Indiquez votre classement Kaggle et la compétition spécifique. « Médaille d'argent Kaggle — Home Credit Default Risk (4 % supérieur sur 7 198 équipes) » constitue un signal fort ; « Membre Kaggle » non [6].

Faut-il un master pour obtenir un poste de data scientist en Pennsylvanie ?

La plupart des offres de data scientist en Pennsylvanie mentionnent le master ou le doctorat comme préféré, non comme exigé [2] [8]. Un diplôme de licence combiné à un portfolio solide, des certifications pertinentes (AWS ML Specialty, Google Professional ML Engineer) et une expérience démontrable en production peut compenser — toutefois il est recommandé d'aborder cet écart de formation dans votre lettre de motivation.

Faut-il lister tous les langages de programmation que je connais ?

Non. Listez les 3 ou 4 langages dans lesquels vous pouvez écrire du code de qualité production et mentionnez les autres uniquement en contexte. « Maîtrise de Python et SQL ; connaissance pratique de Scala pour les jobs Spark » est plus crédible qu'une liste de 12 langages laissant entendre une maîtrise d'aucun [4].

Comment les salaires des data scientists en Pennsylvanie se comparent-ils aux moyennes nationales ?

Le salaire médian de data scientist en Pennsylvanie, à 100 320 $, se situe 28,8 % en dessous de la médiane nationale, avec une fourchette allant de 61 190 $ au 10e percentile à 165 360 $ au 90e percentile [1]. Les salaires tendent à être plus élevés dans les zones métropolitaines de Philadelphie et Pittsburgh, notamment chez Vanguard, Comcast et les startups affiliées à Carnegie Mellon.

Faut-il inclure un lien vers son profil GitHub ?

Absolument. Placez-le dans l'en-tête de votre CV à côté de votre URL LinkedIn et de votre adresse e-mail. Les responsables du recrutement d'employeurs de Pennsylvanie consultent régulièrement les dépôts des candidats pour évaluer la qualité du code, les pratiques de documentation et la complexité des projets [6]. Épinglez vos 3 ou 4 dépôts les plus solides et assurez-vous que chacun dispose d'un README clair.

Quelle est la différence entre un CV de data scientist et un CV d'ingénieur ML ?

Un CV de data scientist met l'accent sur la méthodologie statistique, la conception expérimentale et la génération d'informations décisionnelles pour l'entreprise. Un CV d'ingénieur ML met l'accent sur la conception de systèmes, l'infrastructure de service de modèles, l'optimisation de la latence et les pipelines CI/CD pour les modèles [3] [7]. Si votre CV se concentre sur les configurations Kubernetes et les points d'accès API sans jamais mentionner les tests d'hypothèses ou l'évaluation de modèles, vous vous présentez comme ingénieur ML.

See what ATS software sees Your resume looks different to a machine. Free check — PDF, DOCX, or DOC.
Check My Resume

Tags

data scientist guide de cv
Blake Crosley — Former VP of Design at ZipRecruiter, Founder of ResumeGeni

About Blake Crosley

Blake Crosley spent 12 years at ZipRecruiter, rising from Design Engineer to VP of Design. He designed interfaces used by 110M+ job seekers and built systems processing 7M+ resumes monthly. He founded ResumeGeni to help candidates communicate their value clearly.

12 Years at ZipRecruiter VP of Design 110M+ Job Seekers Served

Ready to build your resume?

Create an ATS-optimized resume that gets you hired.

Get Started Free