Questions d'entretien pour analyste de données : le guide de préparation complet

Le Bureau of Labor Statistics américain prévoit une croissance de l'emploi de 36 % pour les analystes de données d'ici 2033 — plus de sept fois la moyenne de toutes les professions — avec un salaire annuel médian de 103 500 $ [1]. Des organisations de tous les secteurs recrutent des analystes pour transformer les données brutes en décisions commerciales, mais le déficit de compétences reste considérable : le rapport LinkedIn Workforce 2024 a identifié l'analyse de données comme la compétence la plus demandée dans toutes les catégories professionnelles pour la troisième année consécutive [2]. Cela signifie que les recruteurs évaluent non seulement la compétence technique, mais aussi votre capacité à communiquer des insights, à raisonner de manière critique sur la qualité des données et à générer des résultats commerciaux mesurables.

Ce guide couvre l'ensemble des questions d'entretien pour analyste de données — du SQL et du raisonnement statistique à la communication avec les parties prenantes et l'impact commercial — avec des cadres de réponse qui distinguent les candidats qui interrogent simplement des données de ceux qui fournissent des renseignements exploitables.


Points clés

  • Les entretiens d'analyste de données testent la maîtrise du SQL, le raisonnement statistique et la communication commerciale à parts égales
  • Attendez-vous à des exercices de code en direct (SQL ou Python), des analyses à emporter et des présentations d'études de cas
  • Les questions comportementales évaluent votre gestion des exigences ambiguës, des priorités contradictoires entre parties prenantes et des problèmes de qualité des données
  • Préparez des exemples de portfolio montrant une analyse de bout en bout : formulation de la question, préparation des données, analyse, visualisation et recommandation commerciale
  • La connaissance des métriques clés de votre secteur et de l'écosystème de données est aussi importante que les compétences techniques

Questions techniques et SQL

1. Écrivez une requête SQL pour trouver les 5 meilleurs clients par valeur totale de commande sur les 90 derniers jours, en excluant les commandes annulées.

Ce que les recruteurs recherchent : Maîtrise pratique du SQL, attention aux cas limites et structure de requête propre.

Cadre de réponse : Cela teste les compétences fondamentales en SQL — les JOINs, l'agrégation, le filtrage et le tri. Une bonne réponse aborde : (1) un filtrage de date correct avec CURRENT_DATE - INTERVAL '90 days' ou équivalent, (2) l'exclusion explicite des commandes annulées avec une clause WHERE, (3) un JOIN approprié entre les tables clients et commandes, (4) GROUP BY avec agrégation SUM, et (5) ORDER BY DESC avec LIMIT 5 [3]. Discutez des cas limites : que se passe-t-il si un client a des commandes partiellement annulées ? Faut-il utiliser la date de commande ou la date de paiement pour la fenêtre de 90 jours ? « J'écrirais : SELECT c.customer_id, c.name, SUM(o.total_amount) as total_value FROM customers c JOIN orders o ON c.customer_id = o.customer_id WHERE o.order_date >= CURRENT_DATE - INTERVAL '90 days' AND o.status != 'canceled' GROUP BY c.customer_id, c.name ORDER BY total_value DESC LIMIT 5; Je demanderais également au recruteur si 'total_amount' est avant ou après remise et si les retours doivent être déduits. »

2. Expliquez la différence entre les clauses WHERE et HAVING en SQL.

Ce que les recruteurs recherchent : Compréhension de l'ordre d'exécution des requêtes, pas seulement de la syntaxe.

Cadre de réponse : WHERE filtre les lignes avant l'agrégation ; HAVING filtre les groupes après l'agrégation [4]. Cette distinction est importante car WHERE ne peut pas référencer les fonctions d'agrégation (SUM, COUNT, AVG) alors que HAVING le peut. L'ordre d'exécution SQL est : FROM/JOIN, WHERE, GROUP BY, HAVING, SELECT, ORDER BY, LIMIT. Fournissez un exemple pratique : « Si je veux les clients qui ont passé plus de 5 commandes le mois dernier, j'utilise WHERE pour le filtre de date et HAVING pour le nombre de commandes : WHERE order_date >= '2026-01-01' ... HAVING COUNT(*) > 5. Mettre la condition de comptage dans WHERE causerait une erreur de syntaxe car l'agrégation n'a pas encore été calculée. »

3. Comment géreriez-vous des données manquantes dans un jeu de données que vous analysez ?

Ce que les recruteurs recherchent : Maturité analytique — comprendre que les données manquantes sont un problème à investiguer, pas simplement un problème technique à résoudre.

Cadre de réponse : D'abord, diagnostiquer le mécanisme de manquement [5] : (1) Manquement Complètement Aléatoire (MCAR) — le manquement n'est lié à aucune donnée observée ou non observée ; suppression ou imputation sûre. (2) Manquement Aléatoire (MAR) — le manquement dépend des variables observées ; l'imputation utilisant ces variables est appropriée. (3) Manquement Non Aléatoire (MNAR) — le manquement dépend de la valeur non observée elle-même (ex. : les personnes à hauts revenus omettent la question sur le revenu) ; cela nécessite une modélisation soigneuse ou une analyse de sensibilité. Puis choisir une stratégie appropriée : suppression (par liste ou par paire), imputation (moyenne, médiane, mode, basée sur la régression ou imputation multiple), ou signalement (création d'une variable indicatrice de manquement et inclusion dans le modèle). « Dans une analyse e-commerce, j'ai découvert que 23 % des dossiers clients n'avaient pas le champ 'referral_source'. L'investigation a révélé que le champ n'était pas collecté avant une refonte du site — c'était MAR, dépendant de la date d'inscription. J'ai utilisé la distribution connue des inscriptions post-refonte pour imputer les sources de recommandation de la cohorte antérieure, tout en documentant clairement cette hypothèse dans mon rapport. »

4. Expliquez la différence entre corrélation et causalité avec un exemple concret.

Ce que les recruteurs recherchent : Raisonnement statistique et capacité à le communiquer à un public commercial.

Cadre de réponse : La corrélation mesure la force et la direction d'une relation linéaire entre deux variables ; la causalité signifie qu'une variable influence directement l'autre [6]. Le piège classique : les ventes de glaces et les noyades sont positivement corrélées, mais les glaces ne causent pas les noyades — les deux sont causées par la chaleur (une variable de confusion). Dans un contexte commercial : « Une équipe marketing m'a montré une corrélation entre les dépenses publicitaires sur les réseaux sociaux et la croissance du chiffre d'affaires sur 12 mois (r = 0,87). Avant de recommander une augmentation des dépenses, j'ai investigué les facteurs de confusion. Il s'est avéré que les deux variables étaient influencées par la saisonnalité — les dépenses du Q4 augmentaient simultanément le budget publicitaire et le chiffre d'affaires. En contrôlant la saisonnalité, la corrélation est tombée à 0,31. Nous avons reconçu l'analyse sous forme de test A/B pour établir l'impact causal réel, qui a montré une hausse de 4,2 % du chiffre d'affaires due aux publicités sociales — réel, mais bien inférieur à ce que la corrélation naïve suggérait. »

5. Comment abordez-vous la conception d'un tableau de bord pour les parties prenantes ?

Ce que les recruteurs recherchent : Réflexion centrée sur l'utilisateur, pas seulement une compétence technique de visualisation.

Cadre de réponse : Commencez par l'audience et ses décisions, pas par les données [7]. Étapes : (1) Identifier les questions commerciales clés auxquelles le tableau de bord doit répondre — « Où en sommes-nous par rapport aux objectifs trimestriels ? » est différent de « Où devrions-nous investir le budget marketing ? » (2) Déterminer l'audience — les dirigeants ont besoin de KPIs de haut niveau avec possibilité de détail ; les analystes ont besoin de données granulaires avec des filtres. (3) Concevoir pour la cadence de décision — tableaux de bord opérationnels quotidiens versus revues stratégiques hebdomadaires. (4) Appliquer les bonnes pratiques de visualisation : choisir des types de graphiques adaptés à la relation de données (lignes pour les tendances, barres pour les comparaisons, nuages de points pour les corrélations), minimiser la charge cognitive, utiliser un codage couleur cohérent et inclure du contexte (objectifs, références, période précédente) [8]. « J'ai créé un tableau de bord de performance commerciale pour une VP qui le consultait chaque lundi matin. J'ai placé les trois KPIs qui lui importaient le plus — couverture du pipeline, taux de conversion et taille moyenne des transactions — sous forme de grands chiffres en haut avec des indicateurs de tendance semaine par semaine. En dessous, j'ai fourni un détail par région, commercial et gamme de produits. Les analytics d'utilisation montraient que la VP passait 3 minutes par semaine sur le tableau de bord — ce qui signifiait que le résumé de haut niveau remplissait sa fonction. »


Questions statistiques et analytiques

6. Un chef de produit vous dit que le dernier test A/B montre une amélioration de 2 % du taux de conversion avec une valeur p de 0,04. Devriez-vous déployer le changement ?

Ce que les recruteurs recherchent : Compréhension nuancée de la significativité statistique versus la significativité pratique.

Cadre de réponse : Une valeur p de 0,04 signifie qu'il y a 4 % de probabilité d'observer ce résultat (ou plus extrême) si l'hypothèse nulle est vraie — elle atteint le seuil conventionnel de 0,05 pour la significativité statistique [9]. Mais la significativité statistique seule est insuffisante. Évaluez : (1) La significativité pratique — une amélioration relative de 2 % est-elle significative pour l'entreprise ? Si le taux de conversion de base est de 10 %, passer à 10,2 % peut ne pas justifier l'effort d'ingénierie. Si la base est de 1 %, passer à 1,02 % est négligeable. (2) L'intervalle de confiance — quelle est la plage de tailles d'effet plausibles ? Un IC de [0,1 %, 3,9 %] signifie que l'effet réel pourrait être trivialement petit. (3) La taille de l'échantillon et la durée du test — le test a-t-il duré assez longtemps pour capturer la cyclicité hebdomadaire ? Y a-t-il eu des comparaisons multiples qui gonflent le risque de faux positifs ? (4) Les effets de segment — l'amélioration tient-elle sur tous les segments d'utilisateurs, ou est-elle tirée par un groupe atypique ? « Je poserais trois questions au chef de produit avant de recommander un déploiement : quel est le changement absolu du taux de conversion, pas seulement relatif ? Combien de temps le test a-t-il duré ? Et avons-nous vérifié les effets d'interaction entre utilisateurs mobiles et desktop ? »

7. Expliquez ce qu'est une erreur de type I et une erreur de type II, et quand vous privilégieriez la minimisation de chacune.

Ce que les recruteurs recherchent : Application pratique des concepts statistiques aux décisions commerciales.

Cadre de réponse : L'erreur de type I (faux positif) consiste à conclure qu'un effet existe alors qu'il n'existe pas. L'erreur de type II (faux négatif) consiste à conclure qu'aucun effet n'existe alors qu'il y en a un [10]. Le compromis : réduire l'erreur de type I (alpha plus bas) augmente l'erreur de type II, et inversement. Privilégiez la minimisation du type I lorsque le coût d'un faux positif est élevé — lancer une fonctionnalité qui ne fonctionne pas réellement, approuver un médicament inefficace ou signaler une transaction légitime comme frauduleuse (friction client). Privilégiez la minimisation du type II lorsque le coût de manquer un effet réel est élevé — ne pas détecter une maladie lors d'un dépistage, manquer une vraie menace de sécurité ou ne pas lancer une fonctionnalité qui aurait significativement amélioré la rétention. « En détection de fraude, j'optimise pour un faible taux de type II — je préfère signaler 100 transactions légitimes pour révision (faux positifs) plutôt que de manquer un seul cas de fraude réel. Pour les expériences de tarification, j'optimise pour un faible taux de type I — je ne veux pas augmenter les prix de façon permanente sur la base d'un faux positif indiquant que les clients ne se désabonneraient pas. »

8. Comment mesureriez-vous le succès d'une nouvelle fonctionnalité produit ?

Ce que les recruteurs recherchent : Raisonnement en métriques et capacité à définir le succès avant de le mesurer.

Cadre de réponse : Définir la hiérarchie de succès avant d'écrire des requêtes [11] : (1) Métrique principale — le chiffre unique qui mesure directement le résultat visé de la fonctionnalité (ex. : pour un moteur de recommandation, le taux de clic sur les articles recommandés). (2) Métriques secondaires — mesures connexes fournissant du contexte (ex. : durée de session, pages par visite). (3) Métriques garde-fous — métriques qui ne doivent PAS se dégrader (ex. : taux de conversion global, temps de chargement, scores de satisfaction). (4) Alignement avec l'étoile polaire — l'amélioration de la métrique principale entraîne-t-elle réellement l'amélioration de la métrique de valeur fondamentale de l'entreprise ? Puis déterminer la méthodologie de mesure : comparaison avant-après (la plus faible), analyse de cohorte (modérée) ou test A/B (la plus forte). Établir la taille d'effet minimale détectable et la taille d'échantillon requise avant le lancement, pas après. « Pour une fonctionnalité de simplification du paiement, j'ai défini : métrique principale = taux de finalisation du paiement, métriques secondaires = temps jusqu'au paiement et valeur moyenne de commande, métriques garde-fous = taux de retour et tickets de support client. Nous avons mené le test A/B pendant 3 semaines pour capturer des cycles hebdomadaires complets et obtenu une hausse de 7,3 % du taux de finalisation sans dégradation des garde-fous. »


Questions comportementales et de communication

9. Racontez-moi une situation où votre analyse a contredit ce que les parties prenantes attendaient ou voulaient entendre.

Ce que les recruteurs recherchent : Courage de livrer des résultats indésirables et habileté à les formuler de manière constructive.

Cadre de réponse : Choisissez un exemple où votre analyse a remis en question un récit populaire ou le projet favori d'un dirigeant. Décrivez : (1) l'attente de la partie prenante et pourquoi elle existait, (2) ce que vos données montraient et comment vous les avez validées, (3) comment vous avez présenté le résultat — cadrage, contexte et recommandations d'action [12]. « L'équipe marketing était convaincue qu'un programme de fidélité lancé six mois plus tôt stimulait les achats répétés. Mon analyse de cohorte a montré que les membres étaient déjà des acheteurs fréquents avant d'adhérer — le programme attirait des clients fidèles existants, pas de nouveaux. J'ai présenté cela avec un résultat positif : les membres du programme avaient une valeur moyenne de commande supérieure de 12 %. J'ai recommandé de repositionner le programme comme un mécanisme de montée en gamme plutôt qu'un outil de rétention, ce que le CMO a accepté après avoir examiné les données. »

10. Décrivez une situation où vous avez dû travailler avec des données désordonnées ou peu fiables. Qu'avez-vous fait ?

Ce que les recruteurs recherchent : Conscience de la qualité des données et résolution pratique de problèmes.

Cadre de réponse : Chaque analyste travaille avec des données imparfaites — la question est comment vous les gérez. Décrivez : (1) comment vous avez identifié les problèmes de qualité (vérifications de validation, analyse de distribution, expertise métier), (2) quels problèmes spécifiques existaient (doublons, formats incohérents, valeurs manquantes, enregistrements obsolètes, sources contradictoires), (3) comment vous avez nettoyé et transformé les données en documentant vos décisions, et (4) comment vous avez communiqué les limites de qualité des données dans votre analyse finale [13]. « On m'a demandé d'analyser l'attrition client à partir d'un export CRM. L'exploration initiale a révélé : 15 % de doublons avec des ID différents, trois formats de date différents selon les champs, et une colonne 'last_activity_date' qui ne s'était pas mise à jour depuis 6 mois en raison d'une intégration défaillante. J'ai construit une logique de déduplication basée sur la correspondance e-mail + téléphone, standardisé les dates et reconstruit l'historique d'activité à partir de la table du journal des événements. J'ai documenté chaque étape de nettoyage dans une annexe qualité des données et signalé l'intégration défaillante à l'équipe d'ingénierie. »

11. Comment priorisez-vous quand plusieurs parties prenantes demandent des analyses simultanément ?

Ce que les recruteurs recherchent : Maturité professionnelle et réflexion stratégique sur les domaines où l'analyse crée le plus de valeur.

Cadre de réponse : Priorisez par impact commercial, urgence de la décision et disponibilité des données [14]. Un cadre : (1) Y a-t-il une décision sensible au temps qui sera prise de toute façon — votre analyse ne peut l'améliorer que si elle est livrée avant l'échéance ? C'est la priorité. (2) Quelle est la valeur attendue de la décision que votre analyse éclaire — une décision tarifaire à 10 M$ l'emporte sur une amélioration de processus à 50 000 $. (3) Pouvez-vous fournir une réponse directionnelle rapide à une partie prenante tout en réalisant une analyse approfondie pour l'autre ? « Je maintiens une file de priorisation que je partage avec mon responsable chaque semaine. Quand deux VP ont demandé des analyses contradictoires la même semaine, j'ai fourni au VP A une analyse exploratoire rapide (2 heures) qui répondait directionnellement à sa question immédiate, tout en réalisant une analyse approfondie complète pour le VP B dont l'analyse alimentait une présentation au conseil d'administration. J'ai communiqué les délais aux deux parties prenantes en amont, et aucune n'a été surprise. »


Questions basées sur des scénarios

12. Vous remarquez que les utilisateurs actifs quotidiens ont chuté de 15 % hier. Guidez-moi à travers votre investigation.

Ce que les recruteurs recherchent : Approche de débogage structurée et raisonnement par hypothèses.

Cadre de réponse : Suivez un arbre de diagnostic [15] : (1) Vérifier les données — la métrique est-elle exacte ? Vérifiez les problèmes de journalisation, les retards de pipeline ou les changements de définition. (2) Déterminer la portée — la baisse concerne-t-elle toutes les plateformes (web, mobile, app) ou est-elle isolée ? Toutes les zones géographiques ou des régions spécifiques ? Tous les segments d'utilisateurs ou des cohortes spécifiques ? (3) Vérifier les causes connues — y a-t-il eu une panne, un déploiement ou une campagne marketing qui s'est terminée ? (4) Examiner les métriques corrélées — les sessions ont-elles baissé (moins de visiteurs) ou la profondeur de session a-t-elle baissé (mêmes visiteurs faisant moins) ? (5) Formuler des hypothèses et les tester — si mobile uniquement, vérifier l'App Store pour des problèmes de mise à jour ; si géographiquement spécifique, vérifier les pannes FAI ; si nouveaux utilisateurs uniquement, vérifier la performance du canal d'acquisition. « Mon premier appel serait à l'ingénierie pour vérifier les incidents. Si tout est normal, je segmenterais la baisse par plateforme, géographie et source d'acquisition en 30 minutes. Dans un poste précédent, une investigation similaire a révélé qu'un changement de configuration CDN avait cassé le chargement d'images dans trois pays européens, ce qui expliquait la totalité de la baisse. »

13. Un directeur commercial vous demande de construire un modèle pour prédire quels prospects convertiront. Comment l'abordez-vous ?

Ce que les recruteurs recherchent : Planification de projet analytique de bout en bout, pas seulement la technique de modélisation.

Cadre de réponse : Résistez à l'envie de sauter directement à la sélection du modèle. Étapes : (1) Définir la variable cible précisément — que compte-t-on comme « conversion » et sur quelle fenêtre temporelle ? (2) Identifier les caractéristiques disponibles — source du prospect, taille de l'entreprise, signaux d'engagement (ouvertures d'e-mails, visites de pages, téléchargements de contenu), données démographiques/firmographiques. (3) Évaluer la qualité et le volume des données — avez-vous suffisamment de conversions historiques pour entraîner un modèle ? (4) Commencer simple — la régression logistique surpasse souvent les modèles complexes quand les caractéristiques sont bien conçues et fournit des coefficients interprétables auxquels les équipes commerciales font confiance [16]. (5) Définir des métriques d'évaluation alignées avec le cas d'usage commercial — précision (ne pas gaspiller le temps des commerciaux sur de mauvais prospects) ou rappel (ne manquer aucun bon prospect). (6) Planifier le déploiement et le suivi — comment les scores seront-ils présentés à l'équipe commerciale, et comment détecterez-vous la dégradation du modèle ? « Le plus grand piège que j'ai vu est de construire un modèle précis mais inutilisé. Je travaillerais avec l'équipe commerciale dès le premier jour pour comprendre leur workflow, intégrer le score de prospect dans leur CRM et tester par A/B si les prospects scorés convertissent effectivement à un taux plus élevé lorsqu'ils sont priorisés. »

14. Le marketing affirme que sa campagne d'e-mails a généré 500 000 $ de chiffre d'affaires. Comment valideriez-vous cette affirmation ?

Ce que les recruteurs recherchent : Sophistication en attribution et scepticisme sain.

Cadre de réponse : Questionnez la méthodologie d'attribution [17] : (1) Comment « généré » a-t-il été défini — les destinataires ont-ils acheté dans les 7 jours, ont-ils cliqué sur l'e-mail avant d'acheter, ou l'ont-ils simplement ouvert ? (2) Quel est le contrefactuel — ces clients auraient-ils acheté de toute façon sans l'e-mail ? Vérifiez : les destinataires étaient-ils des clients existants avec des habitudes d'achat régulières ? Comparez avec un groupe témoin s'il en existait un. (3) Examiner l'incrémentalité — soustraire le taux d'achat de base de clients similaires n'ayant pas reçu l'e-mail. (4) Vérifier le biais de sélection — les destinataires ont-ils été ciblés parce qu'ils étaient déjà susceptibles d'acheter (visiteurs fréquents, articles dans le panier) ? « Je demanderais d'abord les données du groupe témoin. Si aucun groupe témoin n'existait, je construirais un groupe témoin apparié à partir de non-destinataires ayant un historique d'achat, une récence et des niveaux d'engagement similaires. Dans une analyse précédente, cette approche a réduit l'impact revendiqué d'une campagne de 500 000 $ à 127 000 $ de revenus véritablement incrémentaux — toujours positif, mais une toute autre histoire pour le calcul du ROI. »


Questions à poser au recruteur

  1. « À quoi ressemble l'infrastructure de données — où se trouvent les données et comment les analystes y accèdent-ils ? » — Montre une conscience pratique des outils et systèmes avec lesquels vous travaillerez quotidiennement.

  2. « Comment les priorités analytiques sont-elles définies — y a-t-il un processus formel de demande ou est-ce plutôt ad hoc ? » — Signale une conscience des défis de gestion du workflow.

  3. « Pouvez-vous décrire une analyse récente qui a changé une décision commerciale ? » — Teste si l'organisation utilise réellement les données pour prendre des décisions ou ne fait que les collecter.

  4. « Quelle est l'approche de l'équipe en matière de qualité et de gouvernance des données ? » — Démontre la conscience que la qualité de l'analyse dépend de la qualité des données.


Liste de vérification de préparation

  1. Pratiquez le SQL sous pression temporelle. Utilisez des plateformes comme LeetCode, HackerRank ou StrataScratch pour résoudre des problèmes SQL en 15 à 20 minutes — cela reproduit l'environnement d'entretien [18].

  2. Préparez une présentation de portfolio. Sélectionnez une analyse dont vous êtes fier et préparez un exposé de 10 minutes : la question commerciale, votre approche, l'analyse, les résultats et l'impact commercial. Entraînez-vous à l'expliquer à quelqu'un sans bagage technique.

  3. Révisez les statistiques de base. Moyenne, médiane, écart-type, intervalles de confiance, valeurs p, conception de tests A/B et interprétation de régression doivent être une seconde nature.

  4. Connaissez vos outils en profondeur. Que vous utilisiez Python (pandas, matplotlib), R (tidyverse, ggplot2), Tableau ou Power BI, soyez prêt à expliquer pourquoi vous avez choisi des outils spécifiques pour des tâches spécifiques et démontrez votre maîtrise d'au moins un.

  5. Renseignez-vous sur les données de l'entreprise. Consultez les articles de blog de l'équipe data, les conférences ou les descriptions de poste pour comprendre leur stack technique, l'échelle de données et les priorités analytiques.


Références

[1] U.S. Bureau of Labor Statistics, "Occupational Outlook Handbook: Data Scientists and Mathematical Science Occupations," BLS, 2024. [2] LinkedIn, "2024 Workforce Report: Most In-Demand Skills," LinkedIn Economic Graph, 2024. [3] Molinaro, D., "SQL for Data Analysis," O'Reilly Media, 2023. [4] Beaulieu, A., "Learning SQL," 3rd Edition, O'Reilly Media, 2020. [5] Little, R. & Rubin, D., "Statistical Analysis with Missing Data," 3rd Edition, Wiley, 2019. [6] Pearl, J. & Mackenzie, D., "The Book of Why: The New Science of Cause and Effect," Basic Books, 2018. [7] Few, S., "Information Dashboard Design," Analytics Press, 2013. [8] Knaflic, C.N., "Storytelling with Data," Wiley, 2015. [9] Wasserstein, R. & Lazar, N., "The ASA Statement on p-Values," The American Statistician, 2016. [10] Agresti, A. & Franklin, C., "Statistics: The Art and Science of Learning from Data," 4th Edition, Pearson, 2017. [11] Croll, A. & Yoskovitz, B., "Lean Analytics," O'Reilly Media, 2013. [12] Davenport, T. & Kim, J., "Keeping Up with the Quants," Harvard Business Review Press, 2013. [13] Dasu, T. & Johnson, T., "Exploratory Data Mining and Data Cleaning," Wiley, 2003. [14] Patil, D.J. & Mason, H., "Data Driven," O'Reilly Media, 2015. [15] Hubbard, D., "How to Measure Anything," 3rd Edition, Wiley, 2014. [16] Provost, F. & Fawcett, T., "Data Science for Business," O'Reilly Media, 2013. [17] Kohavi, R. et al., "Trustworthy Online Controlled Experiments," Cambridge University Press, 2020. [18] Tao, D., "Ace the Data Science Interview," 2023.

See what ATS software sees Your resume looks different to a machine. Free check — PDF, DOCX, or DOC.
Check My Resume

Tags

questions d'entretien analyste de données
Blake Crosley — Former VP of Design at ZipRecruiter, Founder of Resume Geni

About Blake Crosley

Blake Crosley spent 12 years at ZipRecruiter, rising from Design Engineer to VP of Design. He designed interfaces used by 110M+ job seekers and built systems processing 7M+ resumes monthly. He founded Resume Geni to help candidates communicate their value clearly.

12 Years at ZipRecruiter VP of Design 110M+ Job Seekers Served

Ready to build your resume?

Create an ATS-optimized resume that gets you hired.

Get Started Free