Job position DataOps AWS Engineer -MlOps
Share this job
Nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer notre équipe data et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données.
Le poste s’adresse à un profil autonome, passionné par les bonnes pratiques de développement, capable de challenger les architectures existantes et de proposer des solutions robustes et scalables.
Concevoir, développer et optimiser des pipelines de données performants, scalables et résilients.
Encadrer et accompagner techniquement les équipes sur les choix d’architecture et de stack technologique.
Déployer et orchestrer des traitements distribués (PySpark, AWS Glue, Airflow).
Concevoir et exposer des APIs de données (via AWS API Gateway / Lambda).
Industrialiser les environnements via Terraform et des pipelines CI/CD (GitLab, Jenkins…).
Garantir la fiabilité, la performance et la sécurité des flux et services de données.
Mettre en place du monitoring et de l’alerting pour la supervision des traitements.
Contribuer à la diffusion des bonnes pratiques (tests, code review, documentation, CI/CD).
Participer à la formation et au mentoring des ingénieurs juniors.
Schémas et modélisation des structures de données.
Pipelines industrialisés et interconnectés avec les assets produits.
Mise à disposition de la data vers des systèmes externes (APIs, exports, injections).
Documentation technique et dashboards de suivi.
Solutions conformes aux exigences RGPD / Data Privacy / éco-conception.
Mise en place du monitoring et alerting en production.
Contribution à l’usine logicielle (intégration continue, tests automatisés, déploiements).
Présentation régulière des réalisations techniques aux équipes métiers et produit.
Python (expert).
PySpark et Pandas (traitement et transformation de données).
AWS (Glue, Lambda, API Gateway, ECS, IAM).
Terraform (infrastructure as code).
CI/CD (GitLab, Jenkins ou équivalent).
Observabilité et supervision (logs, metrics, alerting).
Pratiques de code propre, testé et documenté.
Airflow pour l’orchestration des jobs.
AWS SageMaker pour le déploiement ou l’entraînement de modèles IA.
Sensibilité MLOps et DataOps.
Connaissance des standards de l’éco-conception et de la sécurité des données.
Expérience en mentorat technique ou lead technique data.
Candidate profile
Bac+5 (ingénierie logicielle, data engineering ou équivalent).
5 à 8 ans d’expérience en développement logiciel / web / data engineering.
Forte autonomie et capacité à prendre des décisions techniques structurantes.
Excellent relationnel, goût pour le partage et la transmission de savoirs.
Esprit analytique, rigueur et sens de la performance.
Working environment
Python • PySpark • Pandas • AWS (Glue, Lambda, API Gateway, ECS, IAM, SageMaker)
Terraform • GitLab CI/CD • Airflow • Docker • Observabilité (CloudWatch, Prometheus...)
Apply to this job!
Find your next career move from +10,000 jobs!
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
DataOps AWS Engineer -MlOps
Atlas Connect