Guía de Currículum para Científico de Datos en Georgia (GA): Cómo Redactar un CV que Consiga Entrevistas
La mayoría de los currículums de científicos de datos fracasan antes de que un ser humano los lea — no porque el candidato carezca de habilidades, sino porque enumera «Python» y «machine learning» como palabras clave planas sin cuantificar el rendimiento de los modelos, especificar frameworks como scikit-learn frente a PyTorch, ni mostrar el impacto en dólares para el negocio. Los 7.730 científicos de datos de Georgia perciben un salario medio de $102.630 al año [1], un 27,2 % por debajo de la mediana nacional, lo que convierte un CV perfectamente orientado en algo aún más crítico para obtener puestos en los empleadores mejor remunerados del estado.
Puntos Clave (Resumen Rápido)
- El posicionamiento específico para Georgia importa: con un rango salarial que abarca desde $63.320 hasta $165.980 [1], la diferencia entre un currículum genérico y uno adaptado al puesto puede representar más de $50.000 en compensación anual, especialmente al postularse a empleadores con sede en Atlanta como The Home Depot, Cox Automotive, NCR Voyix o Intercontinental Exchange.
- Los reclutadores buscan tres cosas primero: experiencia en ML en producción (no solo Jupyter notebooks), métricas de impacto en el negocio (ingresos, ahorro de costos, reducción de abandono) y tu stack tecnológico específico (TensorFlow, Spark, dbt, Snowflake — no simplemente «herramientas de big data») [5][6].
- El error más común: enumerar cada librería que has tocado en lugar de demostrar profundidad. Un CV que dice «Dominio de Python, R, SQL, Scala, Julia, MATLAB, SAS, Stata» transmite amplitud sin maestría. Elige tu stack principal y demuestra impacto con él.
- Los sistemas ATS analizan estructura, no prosa: usa encabezados de sección estándar («Experiencia Laboral», no «Mi Trayectoria en Datos») e incluye las siglas exactas de certificaciones junto con los nombres completos [12].
¿Qué Buscan los Reclutadores en un Currículum de Científico de Datos?
Los gerentes de contratación en empleadores de Georgia — desde firmas de fintech a lo largo del corredor Atlanta BeltLine hasta operaciones logísticas en la sede global de UPS — filtran sistemáticamente tres categorías de evidencia: profundidad técnica, experiencia en producción y resultados de negocio medibles [5][6].
Profundidad técnica significa más que listar lenguajes de programación. Los reclutadores quieren ver qué frameworks de ML has desplegado (XGBoost, LightGBM, PyTorch, TensorFlow), con qué infraestructura de datos has trabajado (Snowflake, Databricks, Redshift, BigQuery) y si has construido pipelines o solo consumido datasets limpios. El creciente sector fintech de Georgia — liderado por empresas como Fiserv, Global Payments y Cardlytics — busca específicamente experiencia en pronóstico de series temporales, detección de anomalías y feature stores en tiempo real [6].
Experiencia en producción separa a los científicos de datos que construyen modelos de quienes los llevan a producción. Los reclutadores buscan palabras clave como «despliegue de modelos», «CI/CD para ML», «MLflow», «Airflow», «Docker» y «Kubernetes». Si tus modelos solo han vivido en notebooks, compites por un conjunto cada vez menor de roles puramente de investigación. La BLS proyecta que el empleo de científicos de datos crecerá un 36 % entre 2023 y 2033, muy por encima de la mayoría de las ocupaciones [2], pero el crecimiento más acelerado se da en roles aplicados que requieren habilidades de ingeniería para producción.
Impacto en el negocio es el diferenciador. Un reclutador en Delta Air Lines (con sede en Atlanta) no quiere leer que «construiste un modelo de clasificación con 94 % de precisión». Quiere saber que «redujiste el error de predicción de retrasos de vuelos en un 18 %, permitiendo $2,3 millones en ahorro anual de combustible mediante la optimización de la programación de tripulaciones». Traduce cada modelo a ingresos generados, costos reducidos, tiempo ahorrado o riesgo mitigado [7].
Las certificaciones imprescindibles que reconocen los reclutadores de Georgia incluyen AWS Certified Machine Learning – Specialty, Google Professional Machine Learning Engineer y Databricks Certified Machine Learning Professional. Estas indican habilidades de ML nativas en la nube, alineadas con la forma en que los empleadores empresariales de Georgia realmente despliegan modelos [3][8].
¿Cuál Es el Mejor Formato de Currículum para Científicos de Datos?
El formato cronológico inverso es la opción correcta para científicos de datos con más de 2 años de experiencia en la industria. Los sistemas ATS analizan este formato de manera más confiable [12], y los gerentes de contratación en empleadores de Georgia esperan ver tu rol más reciente — y su stack tecnológico — de inmediato.
El formato combinado (híbrido) funciona para quienes cambian de carrera e ingresan a la ciencia de datos desde campos adyacentes como ingeniería de software, ciencias actuariales o investigación académica. Las universidades de Georgia — Georgia Tech, Emory y UGA — producen un flujo significativo de graduados de doctorado que hacen la transición a la industria. Si ese es tu caso, empieza con una sección de habilidades técnicas que mapee tus métodos de investigación a herramientas de la industria (por ejemplo, «modelado jerárquico bayesiano → programación probabilística con PyMC y Stan»), seguida de experiencia cronológica [13].
El formato funcional casi nunca es apropiado para científicos de datos. Los gerentes de contratación lo interpretan como un intento de ocultar brechas o falta de progresión, y los sistemas ATS tienen dificultades para asociar habilidades con roles específicos [12].
Mantén tu currículum en una página si tienes menos de 5 años de experiencia, y un máximo de dos páginas para puestos senior. Los científicos de datos suelen querer listar cada competencia de Kaggle y proyecto paralelo — resiste esa tentación. Selecciona con rigor. Un enlace a tu portafolio (GitHub, sitio personal) absorbe el excedente.
¿Qué Habilidades Clave Debe Incluir un Científico de Datos?
Habilidades Técnicas (con contexto)
- Python (NumPy, pandas, scikit-learn) — Tu lenguaje principal de análisis y modelado. Especifica librerías en lugar de solo «Python»: un ingeniero de backend también escribe Python, pero no usa statsmodels [4].
- SQL (avanzado: funciones de ventana, CTEs, optimización de consultas) — Todo científico de datos escribe SQL a diario. Especifica tu dialecto (PostgreSQL, BigQuery SQL, Snowflake SQL) y menciona experiencia en optimización para consultas a gran escala [7].
- Machine Learning (supervisado y no supervisado) — Nombra algoritmos específicos que hayas desplegado: árboles de gradiente boosting, random forests, clustering k-means, DBSCAN. «Machine learning» solo es demasiado amplio.
- Deep Learning (PyTorch o TensorFlow) — Especifica qué framework y qué arquitecturas (CNNs, transformers, LSTMs). El creciente sector de IA de Georgia, particularmente en empresas como la oficina de Google en Atlanta y Mailchimp (Intuit), prioriza NLP basado en transformers [6].
- Modelado Estadístico (pruebas de hipótesis, regresión, inferencia bayesiana) — Esto separa a los científicos de datos de los ingenieros de ML. Incluye métodos específicos: diseño de pruebas A/B, inferencia causal, modelos de efectos mixtos.
- Fundamentos de Ingeniería de Datos (Spark, Airflow, dbt) — Los científicos de datos en producción en empresas medianas de Georgia suelen ser responsables de sus propios pipelines. Especifica experiencia con PySpark frente a Spark SQL.
- Plataformas en la Nube (AWS SageMaker, GCP Vertex AI, Azure ML) — Nombra los servicios de ML específicos, no solo «AWS». Los empleadores de Georgia favorecen fuertemente AWS dada la presencia de centros de datos en la región de Atlanta [5].
- Diseño de Experimentos (pruebas A/B, multi-armed bandits, inferencia causal) — Fundamental para roles orientados a producto en empresas como Cox Automotive y Cardlytics.
- NLP (Hugging Face Transformers, spaCy, NLTK) — Especifica si has ajustado LLMs, construido pipelines RAG o trabajado con embeddings.
- Visualización de Datos (Tableau, Plotly, Matplotlib, Looker) — Nombra la herramienta y la audiencia. Construir dashboards ejecutivos difiere del análisis exploratorio.
Habilidades Interpersonales (con ejemplos específicos del rol)
- Comunicación con Partes Interesadas — Traducir los resultados del modelo en recomendaciones de negocio para ejecutivos no técnicos. Ejemplo: presentar los resultados de un modelo de abandono a un VP de Marketing como «qué segmentos de clientes deberían recibir ofertas de retención» en lugar de «compensaciones de precisión-recall».
- Formulación de Problemas — Convertir preguntas de negocio vagas («¿Por qué bajaron las ventas?») en hipótesis comprobables con métricas de éxito definidas antes de escribir una sola línea de código [7].
- Colaboración Interdisciplinaria — Trabajar con gerentes de producto, ingenieros y analistas para definir requisitos de funcionalidades, contratos de datos y cronogramas de despliegue.
- Rigor Intelectual — Saber cuándo una regresión logística simple supera a una red neuronal, y tener la disciplina de demostrarlo antes de sobrecomplicar una solución.
¿Cómo Debe Redactar los Puntos de Experiencia Laboral un Científico de Datos?
Cada punto debe seguir la fórmula XYZ: Logré [X] medido por [Y] al hacer [Z]. Puntos vagos como «Trabajé en modelos de machine learning» no le dicen nada al reclutador sobre tu impacto o nivel de habilidad [13].
Nivel Inicial (0–2 Años)
- Reduje el error de predicción de abandono de clientes en un 12 % (AUC de 0,81 a 0,91) al diseñar 45 características comportamentales a partir de datos de navegación con pandas y scikit-learn, lo que informó directamente una campaña de retención de $400.000.
- Automaticé la generación semanal de informes de KPIs para el equipo de marketing al construir un pipeline ETL en Python con Airflow, reduciendo el tiempo de preparación manual de datos de 8 horas a 45 minutos por ciclo.
- Diseñé y analicé 15 pruebas A/B para el equipo de producto utilizando pruebas de hipótesis bayesianas en PyMC, identificando 3 cambios de UX estadísticamente significativos que aumentaron la conversión en un 6,2 %.
- Construí un modelo de clasificación de texto con Hugging Face Transformers para categorizar más de 50.000 tickets de soporte al cliente con un 89 % de precisión, permitiendo el enrutamiento automatizado que redujo el tiempo de respuesta promedio en un 22 %.
- Creé un dashboard interactivo en Tableau que rastreaba 12 KPIs de cadena de suministro en 3 centros de distribución, adoptado por los líderes de operaciones para la toma de decisiones diaria y reduciendo el volumen de solicitudes de informes en un 60 %.
Nivel Intermedio (3–7 Años)
- Desarrollé un modelo de detección de fraude en tiempo real con XGBoost y Kafka streaming que identificó $8,2 millones en transacciones fraudulentas en 12 meses con una tasa de falsos positivos del 0,3 %, desplegado en AWS SageMaker.
- Lideré la migración de modelos heredados en SAS a Python/scikit-learn para el equipo de precios de una aseguradora Fortune 500, reduciendo el tiempo de entrenamiento de modelos en un 74 % y permitiendo ciclos de reentrenamiento semanales que mejoraron el ratio de siniestralidad en 2,1 puntos.
- Diseñé un motor de recomendaciones que atendía a más de 2 millones de usuarios activos diarios utilizando filtrado colaborativo y embeddings neuronales en PyTorch, aumentando el valor promedio de pedido en un 14 % ($3,8 millones de impacto anualizado en ingresos).
- Construí y mantuve un feature store en Databricks que servía a más de 30 modelos de ML en 4 equipos de producto, reduciendo la duplicación en ingeniería de características en un 65 % y acortando el tiempo de desarrollo de nuevos modelos de 6 semanas a 2 semanas.
- Diseñé un marco de inferencia causal con métodos de diferencia en diferencias y control sintético para medir el impacto incremental de $12 millones en inversión publicitaria, identificando $4,1 millones en presupuesto desperdiciado en canales de bajo rendimiento.
Nivel Senior (8+ Años)
- Dirigí un equipo de 8 científicos de datos e ingenieros de ML para construir una plataforma integral de pronóstico de demanda en GCP Vertex AI, reduciendo los costos de inventario en $15 millones anuales en más de 200 ubicaciones minoristas en el sureste.
- Establecí la primera práctica de MLOps de la empresa — implementando MLflow para seguimiento de experimentos, GitHub Actions para CI/CD y Great Expectations para validación de datos — reduciendo el tiempo de despliegue de modelos de 3 meses a 2 semanas.
- Definí y ejecuté la hoja de ruta de ciencia de datos para una división fintech de $500 millones, priorizando 12 iniciativas basadas en impacto esperado en ingresos y entregando $28 millones en ingresos incrementales en 18 meses a través de mejoras en modelos de riesgo crediticio.
- Colaboré con el Director de Riesgos para desarrollar un marco de pruebas de estrés a nivel de portafolio utilizando simulación de Monte Carlo y modelos de cópula, permitiendo que la firma superara la revisión regulatoria de la OCC sin hallazgos materiales.
- Mentoricé a 15 científicos de datos junior en 3 oficinas (incluida Atlanta), estableciendo un proceso de revisión entre pares para validación de modelos que redujo las fallas en producción en un 80 % y creó una ruta de promoción que permitió a 6 colaboradores individuales ascender a roles senior en 2 años.
Ejemplos de Resumen Profesional
Científico de Datos Nivel Inicial
Científico de datos con una maestría en Estadística de Georgia Tech y 1,5 años de experiencia construyendo modelos de aprendizaje supervisado en Python (scikit-learn, XGBoost) y desplegándolos mediante APIs Flask en AWS EC2. Diseñó y analizó más de 20 pruebas A/B utilizando métodos bayesianos, con experiencia de dominio en optimización de conversión de comercio electrónico. Dominio de SQL (PostgreSQL, BigQuery), pandas y Tableau para análisis integral desde datos brutos hasta dashboards ejecutivos.
Científico de Datos Nivel Intermedio
Científico de datos con 5 años de experiencia construyendo sistemas de ML en producción para aplicaciones fintech, incluyendo detección de fraude en tiempo real (XGBoost, Kafka) y modelos de calificación crediticia (regresión logística, árboles de gradiente boosting) que atienden a más de 3 millones de clientes. Dominio del ciclo de vida completo de ML — desde ingeniería de características en PySpark y Databricks hasta despliegue en AWS SageMaker con seguimiento de experimentos en MLflow. Basado en Atlanta con experiencia de dominio en procesamiento de pagos y cumplimiento regulatorio (Fair Lending, ECOA) [1].
Científico de Datos Senior
Científico de datos senior y líder técnico con más de 10 años de experiencia construyendo y escalando plataformas de ML en los sectores de salud y servicios financieros. Dirigió equipos de hasta 12 científicos de datos e ingenieros de ML, estableciendo prácticas de MLOps que redujeron los ciclos de despliegue de trimestrales a quincenales. Profunda experiencia en inferencia causal, optimización bayesiana y NLP (arquitecturas transformer), con un historial documentado de $30 millones en impacto de negocio. Basado en Georgia con experiencia en cumplimiento HIPAA, SOX y OCC [3].
¿Qué Formación y Certificaciones Necesitan los Científicos de Datos?
La BLS informa que la mayoría de los puestos de científico de datos requieren al menos un título de licenciatura en un campo cuantitativo, y muchos empleadores prefieren una maestría o doctorado [2]. En Georgia, el MS en Analytics de Georgia Tech y el MS en Biostatistics de Emory son particularmente reconocidos por los empleadores locales [8].
Formatea la educación así:
M.S. en Ciencias de la Computación (Especialización en Machine Learning) Georgia Institute of Technology, Atlanta, GA — 2022 Cursos Relevantes: Estadística Bayesiana, Deep Learning, Aprendizaje por Refuerzo, Procesamiento del Lenguaje Natural
Certificaciones que tienen peso entre los empleadores de Georgia:
- AWS Certified Machine Learning – Specialty (Amazon Web Services) — La certificación de ML en la nube más solicitada en las ofertas de empleo de Georgia, dada la fuerte adopción de AWS en el estado [5].
- Google Professional Machine Learning Engineer (Google Cloud) — Valida habilidades de ML en producción en GCP; relevante para puestos en Google Atlanta, Mailchimp y NCR Voyix.
- Databricks Certified Machine Learning Professional (Databricks) — Señala experiencia en arquitectura lakehouse y ML basado en Spark, cada vez más estándar en los stacks de datos empresariales de Georgia.
- TensorFlow Developer Certificate (Google) — Demuestra habilidades de implementación de deep learning con TensorFlow y Keras.
- dbt Analytics Engineering Certification (dbt Labs) — Valiosa para científicos de datos que gestionan sus propias capas de transformación; señala fluidez en stacks de datos modernos.
Formatea las certificaciones con el nombre completo, la organización emisora y el año de obtención. Colócalas después de Educación pero antes de Habilidades si son directamente relevantes para el puesto objetivo [13].
¿Cuáles Son los Errores Más Comunes en un Currículum de Científico de Datos?
1. Listar herramientas sin contexto ni profundidad. Escribir «Python, R, SQL, Scala, Java, MATLAB, SAS, Julia» indica que has tocado de todo sin dominar nada. En su lugar, lista 3–4 herramientas principales con librerías específicas y casos de uso. Un gerente de contratación en Georgia-Pacific no necesita que sepas Julia — necesita que domines PySpark y Snowflake a fondo [4].
2. Describir modelos sin resultados de negocio. «Construí un modelo de random forest con 92 % de precisión» no le dice nada al reclutador sobre el valor. ¿92 % de precisión en qué? ¿Con qué línea base? ¿Qué decisión permitió? Siempre conecta el rendimiento del modelo con una métrica de negocio: ingresos, costos, tiempo, riesgo [7].
3. Omitir la historia de despliegue. Si tu modelo llegó a producción, dilo explícitamente — nombra la infraestructura de servicio (endpoint de SageMaker, FastAPI en Kubernetes, Databricks Model Serving). Si no llegó, enfócate en el conocimiento analítico que generó. Dejar esto ambiguo hace que los reclutadores asuman «solo en notebook».
4. Usar «Responsable de» en lugar de verbos de acción. «Responsable de construir modelos de ML» es pasivo y vago. Reemplázalo con «Diseñé», «Desplegué», «Optimicé», «Arquitecté» o «Validé» — verbos que transmiten propiedad y especificidad [13].
5. Ignorar el contexto salarial de Georgia al negociar. La mediana salarial de los científicos de datos en Georgia de $102.630 [1] está por debajo de la mediana nacional. Si apuntas a roles remotos en empresas del Área de la Bahía o Nueva York, tu currículum debería enfatizar habilidades e impacto que justifiquen compensaciones de nivel nacional. Si te diriges a empleadores locales de Atlanta, compara con el rango de Georgia de $63.320–$165.980 [1].
6. Enterrar proyectos técnicos en una sección de «Proyectos» al final. Si tu trabajo más impresionante es un proyecto personal o una contribución de código abierto (un repositorio de GitHub con muchas estrellas, una medalla en competencia de Kaggle), intégralo en tu sección de experiencia con el mismo formato de puntos XYZ — no lo relegues a una nota al pie.
7. No especificar la escala de datos. «Analicé datos de clientes» podría significar 500 filas en Excel o 500 millones de filas en Spark. Siempre especifica: cantidad de filas, tamaño de tablas, velocidad de datos (por lotes o streaming) y formato de almacenamiento (Parquet, Delta Lake, etc.) [7].
Palabras Clave ATS para Currículums de Científico de Datos
Los sistemas de seguimiento de candidatos analizan tu currículum buscando coincidencias exactas de palabras clave con la descripción del puesto [12]. Organiza estas palabras clave de forma natural en tus secciones de experiencia y habilidades — no las acumules en un bloque de texto oculto.
Habilidades Técnicas
Python, R, SQL, machine learning, deep learning, procesamiento del lenguaje natural (NLP), computer vision, modelado estadístico, pruebas A/B, ingeniería de características
Certificaciones
AWS Certified Machine Learning – Specialty, Google Professional Machine Learning Engineer, Databricks Certified Machine Learning Professional, TensorFlow Developer Certificate, dbt Analytics Engineering Certification, Microsoft Certified: Azure Data Scientist Associate, SAS Certified AI and Machine Learning Professional
Herramientas y Software
TensorFlow, PyTorch, scikit-learn, XGBoost, Spark (PySpark), Snowflake, Databricks, AWS SageMaker, Airflow, MLflow, Tableau, Docker, Kubernetes
Términos de la Industria
Despliegue de modelos, MLOps, feature store, seguimiento de experimentos, inferencia causal, predicción de abandono, sistemas de recomendación, pronóstico de series temporales, detección de anomalías
Verbos de Acción
Diseñé, desplegué, optimicé, arquitecté, validé, automaticé, escalé
Conclusiones Clave
Tu currículum de científico de datos para el mercado de Georgia debe liderar con experiencia en ML en producción e impacto de negocio cuantificado — no con una lista interminable de cada librería que hayas importado. Los 7.730 científicos de datos de Georgia [1] compiten en los sectores fintech, logística, salud y comercio minorista, cada uno con stacks tecnológicos y requisitos de dominio distintos. Adapta tu currículum a cada solicitud: un puesto en la sede de The Home Depot en Atlanta requiere palabras clave de cadena de suministro y pronóstico de demanda, mientras que una posición en Intercontinental Exchange exige vocabulario de modelado de series temporales y cumplimiento regulatorio.
Cuantifica todo. Nombra tus herramientas con precisión. Conecta cada modelo con un resultado de negocio. Y formatea tu currículum para que los sistemas ATS puedan analizarlo sin problemas — encabezados estándar, formatos de fecha consistentes y certificaciones listadas con sus nombres oficiales completos [12].
Crea tu currículum de Científico de Datos optimizado para ATS con Resume Geni — es gratis para empezar.
Preguntas Frecuentes
¿Qué tan largo debe ser un currículum de científico de datos?
Una página para candidatos con menos de 5 años de experiencia; dos páginas máximo para puestos senior. Complementa con un perfil de GitHub o enlace a portafolio en lugar de amontonar cada proyecto en la página. Los reclutadores dedican un promedio de 7,4 segundos a la revisión inicial del currículum [11], así que coloca tus métricas más sólidas al inicio.
¿Debo incluir competencias de Kaggle en mi currículum?
Sí, pero solo si quedaste en el 10 % superior o la competencia es directamente relevante para el puesto objetivo. Formatea como un punto de experiencia laboral: «Obtuve el top 3 % (medalla de plata) en la competencia Kaggle Home Credit Default Risk al diseñar más de 200 características y ensamblar modelos XGBoost y LightGBM». Las competencias sin clasificaciones destacadas diluyen tu currículum [13].
¿Qué salario puedo esperar como científico de datos en Georgia?
La mediana salarial de los científicos de datos en Georgia es de $102.630, con un rango que va desde $63.320 en el percentil 10 hasta $165.980 en el percentil 90 [1]. Los roles senior en empresas fintech y tecnológicas con sede en Atlanta tienden a ubicarse en el extremo superior, mientras que los puestos de nivel inicial en empresas más pequeñas pueden comenzar más cerca de $70.000–$80.000.
¿Necesito un título de maestría para ser científico de datos?
La BLS señala que la mayoría de los puestos de científico de datos requieren al menos un título de licenciatura, y muchos empleadores prefieren una maestría o doctorado en ciencias de la computación, estadística, matemáticas o un campo cuantitativo relacionado [2]. En la práctica, un portafolio sólido y certificaciones relevantes (AWS ML Specialty, Databricks ML Professional) pueden compensar la falta de un título avanzado, particularmente para candidatos con más de 3 años de experiencia en la industria.
¿Debo listar todos los lenguajes de programación que conozco?
No. Lista 3–4 lenguajes principales con librerías específicas y casos de uso, y menciona lenguajes secundarios solo si la descripción del puesto los menciona. Un currículum que afirma dominar más de 8 lenguajes transmite amplitud sin profundidad y genera escepticismo entre los gerentes de contratación técnicos [4].
¿Cómo adapto mi currículum para diferentes subespecialidades de ciencia de datos?
Mantén un currículum maestro con toda tu experiencia y crea versiones específicas. Para un rol de NLP, destaca la experiencia en ajuste de transformers y preprocesamiento de texto. Para un rol de MLOps, lidera con infraestructura de despliegue y pipelines CI/CD. El mercado laboral de Georgia abarca estas subespecialidades — un puesto en Mailchimp (fuerte en NLP) requiere un perfil de palabras clave fundamentalmente diferente al de UPS (optimización y logística) [5][6].
¿Es necesario un portafolio o perfil de GitHub?
Un perfil de GitHub bien mantenido con 3–5 repositorios pulidos es más valioso que 50 proyectos a medio terminar. Incluye READMEs con planteamientos del problema, metodología, resultados e instrucciones para reproducir. Los gerentes de contratación en el Georgia Tech Research Institute y empleadores técnicos similares revisan rutinariamente los repositorios de los candidatos antes de programar entrevistas [3].