Actualizado: 13 de marzo de 2026

Ejemplo de CV de Científico de Datos en España (2026): 3 modelos listos

3 ejemplos reales de CV de Científico de Datos en España (2026), con resumen, experiencia y skills ATS. Copia, adapta y envía hoy.

Prácticas de contratación en la UE 2026
120.000
Usado por 120000+ candidatos
Diseño compatible con ATS
Empieza sin registrarte
Disponible en 7 idiomas
Edita todo antes de exportar

Vienes de buscar un ejemplo de CV de Científico de Datos porque lo necesitas ya. Quizá lo estás escribiendo esta noche, quizá tienes una entrevista en 72 horas. Perfecto: aquí tienes 3 CV completos, realistas y copiables.

No vas a leer teoría eterna. Primero te enseño los modelos (con bullets que puedes pegar tal cual). Después te explico por qué funcionan en España y cómo ajustarlos para que pasen ATS y, más importante, el filtro humano.

Ejemplo de CV #1 (mid-level) — Científico de Datos orientado a producto

Ejemplo de CV

Laura Martín Serrano

Científica de Datos (Data Scientist)

Madrid, España · laura.martin.ds@gmail.com · +34 612 345 678

Resumen profesional

Científica de Datos con 5 años de experiencia en analítica de producto y modelos de propensión en e-commerce, especializada en Python, SQL y MLOps ligero. Reduje un 18% el churn mensual al desplegar un modelo de supervivencia y un sistema de alertas en producción. Busco un rol de Científico de Datos en equipo de producto para escalar experimentación y modelos de decisión.

Experiencia

Científica de Datos — Nébula Retail Analytics, Madrid

03/2022 – Actualidad

  • Diseñé y entrené un modelo de churn (XGBoost + calibración) con Python/Scikit-learn y validación temporal, elevando el AUC de 0,71 a 0,83 y reduciendo un 18% el churn en 3 meses.
  • Implementé un pipeline de features con Airflow + dbt sobre BigQuery, recortando el tiempo de refresco de datos de 6 h a 55 min y eliminando 23 incidencias mensuales de datos inconsistentes.
  • Desplegué el scoring en una API (FastAPI + Docker) y monitoricé drift con EvidentlyAI, bajando el tiempo medio de detección de degradación de 14 días a 48 h.

Analista de Ciencia de Datos — FinNova Payments, Barcelona

09/2020 – 02/2022

  • Construí un modelo de fraude con LightGBM y features de comportamiento en SQL, reduciendo un 12% los falsos positivos y ahorrando ~95.000 € trimestrales en revisiones manuales.
  • Estandaricé experimentos A/B con métricas en Looker + tests de significancia en Python, acelerando el ciclo de decisión de 3 semanas a 8 días.

Educación

Máster en Ciencia de Datos — Universitat Politècnica de Catalunya (UPC), Barcelona, 2019–2020

Skills

Python, SQL, Pandas, NumPy, Scikit-learn, XGBoost, LightGBM, Series temporales, Modelos de churn, A/B testing, Feature engineering, BigQuery, dbt, Airflow, Docker, FastAPI, Git, MLflow, EvidentlyAI, Looker

Desglose del CV #1 (por secciones)

Si este CV te suena “fácil de leer”, no es casualidad. Un reclutador en España suele escanear 10–20 segundos: busca especialización, herramientas y una prueba numérica de impacto. Este modelo se lo pone en bandeja.

Resumen profesional: por qué funciona

El resumen no dice “me apasionan los datos”. Dice: años, foco (producto/churn), stack (Python/SQL/MLOps) y un resultado medible. Eso crea confianza rápido, incluso si tu GitHub no está perfecto.

Weak version:

Soy una persona apasionada por los datos y el aprendizaje automático. Me gusta trabajar en equipo y aprender nuevas tecnologías. Busco una oportunidad para crecer como Data Scientist.

Strong version:

Científica de Datos con 5 años de experiencia en analítica de producto y modelos de propensión en e-commerce, especializada en Python, SQL y MLOps ligero. Reduje un 18% el churn mensual al desplegar un modelo de supervivencia y un sistema de alertas en producción. Busco un rol de Científico de Datos en equipo de producto para escalar experimentación y modelos de decisión.

La diferencia es brutal: el fuerte se puede “verificar”. Tiene contexto (e-commerce), herramientas (Python/SQL), y un logro con número. El débil podría ser de cualquier perfil.

Experiencia: por qué estos bullets pasan el filtro

En ciencia de datos, “hice un modelo” no vale. Lo que cuenta es: qué modelo, con qué datos, cómo lo validaste, cómo lo pusiste en producción y qué cambió en el negocio. Por eso cada bullet combina acción + herramienta + métrica.

Fíjate también en el tipo de números: AUC, horas, incidencias, falsos positivos, euros. En España, esto encaja muy bien con ofertas de InfoJobs/LinkedIn donde piden impacto y colaboración con negocio.

Weak version:

Me encargué de modelos de churn y de mejorar la retención.

Strong version:

Diseñé y entrené un modelo de churn (XGBoost + calibración) con Python/Scikit-learn y validación temporal, elevando el AUC de 0,71 a 0,83 y reduciendo un 18% el churn en 3 meses.

Lo fuerte no solo “suena técnico”; demuestra criterio (validación temporal) y aterriza el impacto (churn). Eso es lo que un hiring manager quiere leer.

Skills: por qué estas keywords están elegidas (ATS + mercado ES)

Aquí no hay “Excel, comunicación, liderazgo” metidos a presión. Hay términos que aparecen literalmente en ofertas en España: Python, SQL, BigQuery, Airflow, dbt, MLflow, Docker, A/B testing.

Además, se menciona Machine Learning Engineer como especialización cercana (cuando el rol pide más producción), pero sin convertir el CV en uno de ingeniería pura. En España es común que un Data Scientist haga parte del despliegue; por eso “FastAPI/Docker/monitorización” suma.

Un CV de Data Scientist que funciona en España se lee en 10–20 segundos: especialización clara, stack real y un logro con número verificable.

Ejemplo de CV #2 (junior) — primer rol tras máster/bootcamp

Ejemplo de CV

Diego Sánchez Roldán

Científico de Datos Junior

Valencia, España · diego.sr.ds@gmail.com · +34 611 222 333

Resumen profesional

Científico de Datos junior con 1 año de experiencia en prácticas y proyectos aplicados a forecasting y NLP, con Python, SQL y PyTorch. Mejoré un 9% el MAPE en previsión de demanda al optimizar features y validación walk-forward. Busco un puesto de Data Scientist junior para crecer en modelado, experimentación y buenas prácticas de entrega.

Experiencia

Becario de Ciencia de Datos — Levante Logística Digital, Valencia

02/2025 – 01/2026

  • Entrené un modelo de previsión de demanda (Prophet vs. XGBoost) en Python y validación walk-forward, reduciendo el MAPE de 18,4% a 16,7% en 12 familias de producto.
  • Automaticé la extracción y limpieza con SQL + Pandas sobre PostgreSQL, bajando el tiempo de preparación semanal de 5 h a 1,5 h.
  • Construí un dashboard de seguimiento de error y stock-out en Power BI, aumentando la adopción del equipo de operaciones del 30% al 75% en 6 semanas.

Analista de Datos (prácticas) — SegurVida Asistencia, Remoto (España)

07/2024 – 01/2025

  • Implementé un clasificador de intención en tickets (TF-IDF + Logistic Regression) y elevé el F1 de 0,62 a 0,74, reduciendo un 11% el tiempo de triage.
  • Versioné datasets y experimentos con Git + DVC, recortando retrabajo por “datos distintos” de 2 días/mes a 0,5 días/mes.

Educación

Grado en Ingeniería Informática — Universitat de València, Valencia, 2020–2024

Skills

Python, SQL, Pandas, NumPy, Scikit-learn, PyTorch, NLP, TF-IDF, Regresión logística, Forecasting, Prophet, XGBoost, Validación walk-forward, PostgreSQL, Power BI, Git, DVC, Docker (básico), Estadística aplicada

Qué cambia respecto al CV #1 (y por qué te conviene)

En un perfil junior no te van a exigir “reduje churn 18% en producción” (aunque si lo tienes, úsalo). Te van a exigir señales de potencial: que sabes validar bien, que entiendes métricas (MAPE/F1), que manejas SQL de verdad y que puedes entregar algo usable (dashboard, automatización, pipeline básico).

Este CV mete números, pero números “creíbles” para un junior: horas ahorradas, mejora de MAPE/F1, adopción de dashboard. Y evita el error típico: llenar la experiencia con tareas (“limpieza de datos”) sin resultado.

Ejemplo de CV #3 (senior/lead) — estrategia + despliegue + liderazgo

Ejemplo de CV

Marta Gómez Urrutia

Lead Data Scientist / Especialista en Ciencia de Datos

Bilbao, España · marta.gomez.ds@gmail.com · +34 699 888 777

Resumen profesional

Lead Data Scientist con 9 años de experiencia en pricing, riesgo y sistemas de recomendación, liderando equipos de 4–7 personas y entregas end-to-end. Incrementé un 6,2% el margen bruto al rediseñar el motor de pricing con modelos causales y reglas de negocio auditables. Busco un rol senior de Científico de Datos para definir estrategia de modelos, gobernanza y colaboración con producto e ingeniería (perfil cercano a Machine Learning Engineer cuando el caso lo requiere).

Experiencia

Lead Data Scientist — Cantábrica Insights, Bilbao

05/2021 – Actualidad

  • Lideré un equipo de 6 (2 DS, 2 DE, 2 analistas) para rehacer el motor de pricing (Elastic Net + modelos causales) en Python/SQL, elevando el margen bruto un 6,2% y reduciendo el “override manual” un 28%.
  • Definí estándares de MLOps (MLflow + CI/CD en GitLab + tests de datos con Great Expectations), bajando fallos en despliegues de 9/mes a 2/mes.
  • Negocié con Legal y Riesgos un marco de explicabilidad (SHAP + documentación de variables) y reduje el tiempo de aprobación de modelos de 5 semanas a 2,5.

Senior Data Scientist — Atlántico Seguros Tech, Madrid

01/2018 – 04/2021

  • Desarrollé un modelo de siniestralidad (LightGBM) con segmentación y calibración, reduciendo un 14% la desviación entre prima técnica y real en 2 líneas de producto.
  • Implementé un sistema de recomendación de cross-sell con embeddings y ranking, aumentando un 8% la tasa de conversión en campañas digitales.

Educación

Máster en Estadística Aplicada — Universidad Carlos III de Madrid, Madrid, 2016–2017

Skills

Python, SQL, Modelos causales, Pricing, Riesgo, Recomendadores, LightGBM, XGBoost, SHAP, MLflow, Great Expectations, GitLab CI/CD, Docker, Kubernetes (básico), Feature store (conceptos), BigQuery, Spark (básico), Gobernanza de modelos, A/B testing, Stakeholder management

Un senior no gana por poner 40 herramientas. Gana por el tamaño del problema y por cómo reduce riesgo: gobernanza, explicabilidad, estándares y coordinación con Legal/Riesgos/Producto.

Qué hace “senior” a este CV (sin inflarlo)

Un senior no gana por poner 40 herramientas. Gana por el tamaño del problema y por cómo reduce riesgo: gobernanza, explicabilidad, estándares, coordinación con Legal/Riesgos/Producto. Aquí los logros hablan de margen, aprobaciones y fiabilidad de despliegues. Eso es liderazgo real.

Y sí: se menciona Machine Learning Engineer como frontera natural cuando el rol pide CI/CD, tests de datos, monitorización y despliegue. En España muchas empresas mezclan responsabilidades; si tú puedes cubrir parte, dilo con elegancia.

En Data Science, “hice un modelo” no vale: lo que cuenta es qué cambió en el negocio y cómo lo llevaste a producción con métricas claras.

Cómo escribir cada sección (paso a paso, sin sonar a plantilla)

a) Resumen profesional

Tu resumen es el tráiler. Si el tráiler es genérico, nadie ve la película. La fórmula que funciona para Científico de Datos en España es simple: [años] + [especialización] + [logro con número] + [rol objetivo]. Dos o tres frases, no más.

El truco es elegir una especialización que un recruiter entienda en 2 segundos: churn, fraude, forecasting, NLP, pricing, recomendadores, riesgo. Y luego clavar un número que no sea humo: AUC, MAPE, F1, reducción de tiempo, ahorro en euros, uplift en conversión.

Weak version:

Objetivo: trabajar como Científico de Datos para aplicar mis conocimientos de machine learning.

Strong version:

Data Scientist con 3 años en detección de fraude y scoring en pagos, especializado en Python, SQL y LightGBM. Reduje un 12% los falsos positivos manteniendo el recall al desplegar un modelo calibrado y un umbral por segmento. Busco un puesto de Científico de Datos en fintech para escalar modelos con MLOps.

Lo que cambia: el fuerte no “pide” trabajo; demuestra encaje. Además, mete el lenguaje que aparece en ofertas (fraude, scoring, recall, MLOps).

b) Experiencia

Orden cronológico inverso, sí. Pero el verdadero juego está en los bullets. En ciencia de datos, un buen bullet se lee como una mini-historia: verbo + herramienta + contexto + resultado. Si falta el resultado, parece tarea. Si falta la herramienta, parece vago. Si falta el contexto, no se entiende el impacto.

Weak version:

Realicé limpieza de datos y entrené modelos de machine learning.

Strong version:

Automaticé limpieza y validación de datos con Pandas + Great Expectations sobre PostgreSQL, reduciendo errores de esquema en producción de 7/mes a 1/mes y acelerando el entrenamiento semanal de 4 h a 1,2 h.

¿Ves la diferencia? El fuerte suena a alguien que entrega y mantiene, no a alguien que “prueba cosas”.

Los verbos que mejor te funcionan en este perfil no son “participé” o “colaboré”. Son verbos de impacto y entrega, porque tu trabajo se mide:

  • Diseñé, entrené, calibré, validé, desplegué
  • Automaticé, orquesté, versioné, monitoricé
  • Optimizé, reduje, incrementé, aceleré
  • Estandaricé, documenté, audité, goberné

Úsalos como si fueran herramientas. Porque lo son.

c) Skills (y cómo ganar al ATS sin convertir tu CV en una sopa)

El ATS no “entiende” tu potencial; hace matching de palabras. Así que tu lista de skills debe reflejar lo que piden las ofertas en España, y lo que realmente sabes usar. La estrategia práctica: abre 5–10 ofertas de Científico de Datos / Data Scientist, subraya herramientas repetidas y construye tu lista con eso.

Mantén tres bloques mentales: hard skills, herramientas, y estándares/certificaciones. No necesitas ponerlos como subtítulos en el CV (depende de la plantilla), pero sí cubrirlos.

Hard Skills / Technical Skills (ES):

  • Modelado supervisado (clasificación/regresión), validación temporal, métricas (AUC, F1, MAPE)
  • Feature engineering, selección de variables, calibración, interpretabilidad (SHAP)
  • Series temporales, NLP, recomendadores, modelos causales (si aplica)

Tools / Software:

  • Python, SQL, Pandas, NumPy, Scikit-learn
  • XGBoost, LightGBM, PyTorch (según enfoque)
  • BigQuery / Snowflake (según empresa), dbt, Airflow
  • Docker, FastAPI, MLflow, Git, CI/CD (si tu rol roza Machine Learning Engineer)
  • Power BI / Looker (si trabajas con stakeholders)

Certificaciones / Estándares (las que sí pesan):

  • Google Cloud Professional Data Engineer / ML Engineer (si tu stack es GCP) [(URL to verify)]
  • AWS Certified Machine Learning – Specialty (si tu stack es AWS) [(URL to verify)]
  • Buenas prácticas de MLOps (MLflow, tests de datos, monitorización) — más que “certificados”, demuestra con bullets

d) Educación y certificaciones

En España, tu máster/grado importa, pero no te salva si tu experiencia está vacía. Pon el título, la universidad y fechas. Si hiciste TFM relevante (fraude, churn, forecasting), puedes mencionarlo en una línea dentro de educación, pero no conviertas esa sección en un mini-ensayo.

¿Bootcamp? Inclúyelo si es reciente y si puedes enlazarlo con un proyecto medible (aunque sea académico). ¿Certificaciones cloud? Úsalas como señal de “sé desplegar y operar”, especialmente si apuntas a roles híbridos donde el Científico de Datos trabaja codo con codo con un Machine Learning Engineer.

Si estás “en curso”, dilo sin vergüenza: “En progreso (2026)”. Lo que no debes hacer es listar 12 cursos sueltos sin impacto. Mejor 1–2 fuertes y un bullet en experiencia/proyectos que pruebe que lo aplicaste.

Errores comunes (que veo cada semana en CVs de ciencia de datos)

El primero: escribir un resumen tipo horóscopo. “Apasionado por los datos” no diferencia a nadie; en tu resumen tiene que aparecer tu dominio (fraude, churn, forecasting) y una métrica (AUC, MAPE, ahorro). Cambia “me apasiona” por “reduje / incrementé / desplegué”.

El segundo: bullets sin producción ni negocio. “Entrené un modelo” suena a notebook eterno. Añade el puente: “desplegué en API”, “monitoricé drift”, “integré en CRM”, “reduje falsos positivos”. Si no lo hiciste, al menos muestra entrega: dashboard adoptado, pipeline automatizado, validación sólida.

El tercero: skills genéricas que no pasan ATS. “Comunicación” puede ir, pero no en lugar de Python/SQL/dbt/Airflow/MLflow. Tu lista de skills es un mapa de keywords; si faltan las calles principales, el ATS no te encuentra.

El cuarto: números sin contexto. “Mejoré un 30%” ¿de qué? ¿en qué periodo? ¿con qué métrica? Un 30% sin unidad es humo. Pon AUC, MAPE, euros, horas, conversión, churn.

Conclusión

Si vas a enviar tu CV hoy, copia uno de estos modelos y ajusta tres cosas: tu especialización, tus números y tu stack real. Un Científico de Datos no se vende con adjetivos; se vende con métricas, herramientas y entrega. Cuando lo tengas, crea una versión limpia y ATS-friendly en cv-maker.pro y envíala con confianza.

Crear mi CV

Preguntas frecuentes
FAQ

Una página si eres junior o mid-level con experiencia concentrada; dos si eres senior y necesitas mostrar liderazgo y proyectos grandes. En España se aceptan dos páginas si cada bullet aporta impacto medible.