Le poste DataOps AWS Engineer -MlOps
Partager cette offre
Nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer notre équipe data et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données.
Le poste s’adresse à un profil autonome, passionné par les bonnes pratiques de développement, capable de challenger les architectures existantes et de proposer des solutions robustes et scalables.
Concevoir, développer et optimiser des pipelines de données performants, scalables et résilients.
Encadrer et accompagner techniquement les équipes sur les choix d’architecture et de stack technologique.
Déployer et orchestrer des traitements distribués (PySpark, AWS Glue, Airflow).
Concevoir et exposer des APIs de données (via AWS API Gateway / Lambda).
Industrialiser les environnements via Terraform et des pipelines CI/CD (GitLab, Jenkins…).
Garantir la fiabilité, la performance et la sécurité des flux et services de données.
Mettre en place du monitoring et de l’alerting pour la supervision des traitements.
Contribuer à la diffusion des bonnes pratiques (tests, code review, documentation, CI/CD).
Participer à la formation et au mentoring des ingénieurs juniors.
Schémas et modélisation des structures de données.
Pipelines industrialisés et interconnectés avec les assets produits.
Mise à disposition de la data vers des systèmes externes (APIs, exports, injections).
Documentation technique et dashboards de suivi.
Solutions conformes aux exigences RGPD / Data Privacy / éco-conception.
Mise en place du monitoring et alerting en production.
Contribution à l’usine logicielle (intégration continue, tests automatisés, déploiements).
Présentation régulière des réalisations techniques aux équipes métiers et produit.
Python (expert).
PySpark et Pandas (traitement et transformation de données).
AWS (Glue, Lambda, API Gateway, ECS, IAM).
Terraform (infrastructure as code).
CI/CD (GitLab, Jenkins ou équivalent).
Observabilité et supervision (logs, metrics, alerting).
Pratiques de code propre, testé et documenté.
Airflow pour l’orchestration des jobs.
AWS SageMaker pour le déploiement ou l’entraînement de modèles IA.
Sensibilité MLOps et DataOps.
Connaissance des standards de l’éco-conception et de la sécurité des données.
Expérience en mentorat technique ou lead technique data.
Profil recherché
Bac+5 (ingénierie logicielle, data engineering ou équivalent).
5 à 8 ans d’expérience en développement logiciel / web / data engineering.
Forte autonomie et capacité à prendre des décisions techniques structurantes.
Excellent relationnel, goût pour le partage et la transmission de savoirs.
Esprit analytique, rigueur et sens de la performance.
Environnement de travail
Python • PySpark • Pandas • AWS (Glue, Lambda, API Gateway, ECS, IAM, SageMaker)
Terraform • GitLab CI/CD • Airflow • Docker • Observabilité (CloudWatch, Prometheus...)
Postulez à cette offre !
Trouvez votre prochaine mission parmi +9 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
DataOps AWS Engineer -MlOps
Atlas Connect