Job position

Contractor
As soon as possible
12 months
500-580 €
5 to 10 years experience
Hybrid
Paris, France
Published on 18/10/2025

Share this job

Nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer notre équipe data et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données.
Le poste s’adresse à un profil autonome, passionné par les bonnes pratiques de développement, capable de challenger les architectures existantes et de proposer des solutions robustes et scalables.

🧩 Missions principales
  • Concevoir, développer et optimiser des pipelines de données performants, scalables et résilients.

  • Encadrer et accompagner techniquement les équipes sur les choix d’architecture et de stack technologique.

  • Déployer et orchestrer des traitements distribués (PySpark, AWS Glue, Airflow).

  • Concevoir et exposer des APIs de données (via AWS API Gateway / Lambda).

  • Industrialiser les environnements via Terraform et des pipelines CI/CD (GitLab, Jenkins…).

  • Garantir la fiabilité, la performance et la sécurité des flux et services de données.

  • Mettre en place du monitoring et de l’alerting pour la supervision des traitements.

  • Contribuer à la diffusion des bonnes pratiques (tests, code review, documentation, CI/CD).

  • Participer à la formation et au mentoring des ingénieurs juniors.

📦 Livrables attendus
  • Schémas et modélisation des structures de données.

  • Pipelines industrialisés et interconnectés avec les assets produits.

  • Mise à disposition de la data vers des systèmes externes (APIs, exports, injections).

  • Documentation technique et dashboards de suivi.

  • Solutions conformes aux exigences RGPD / Data Privacy / éco-conception.

  • Mise en place du monitoring et alerting en production.

  • Contribution à l’usine logicielle (intégration continue, tests automatisés, déploiements).

  • Présentation régulière des réalisations techniques aux équipes métiers et produit.

🧠 Compétences techniques requises (Must Have)
  • Python (expert).

  • PySpark et Pandas (traitement et transformation de données).

  • AWS (Glue, Lambda, API Gateway, ECS, IAM).

  • Terraform (infrastructure as code).

  • CI/CD (GitLab, Jenkins ou équivalent).

  • Observabilité et supervision (logs, metrics, alerting).

  • Pratiques de code propre, testé et documenté.

🌱 Compétences appréciées (Nice to Have)
  • Airflow pour l’orchestration des jobs.

  • AWS SageMaker pour le déploiement ou l’entraînement de modèles IA.

  • Sensibilité MLOps et DataOps.

  • Connaissance des standards de l’éco-conception et de la sécurité des données.

  • Expérience en mentorat technique ou lead technique data.

Candidate profile

👤 Profil recherché
  • Bac+5 (ingénierie logicielle, data engineering ou équivalent).

  • 5 à 8 ans d’expérience en développement logiciel / web / data engineering.

  • Forte autonomie et capacité à prendre des décisions techniques structurantes.

  • Excellent relationnel, goût pour le partage et la transmission de savoirs.

  • Esprit analytique, rigueur et sens de la performance.

Working environment

💡 Environnement technique

Python • PySpark • Pandas • AWS (Glue, Lambda, API Gateway, ECS, IAM, SageMaker)
Terraform • GitLab CI/CD • Airflow • Docker • Observabilité (CloudWatch, Prometheus...)

Apply to this job!

Find your next career move from +10,000 jobs!

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

DataOps AWS Engineer -MlOps

Atlas Connect

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us