Le poste Senior Data Engineer Python - AWS Cloud F/H
Partager cette offre
Notre client dans le secteur Énergie et ressources naturelles recherche un Senior Data Engineer Python – Environnement AWS Cloud H/F
Descriptif de la mission:
Objectifs et livrables
L’entreprise recherche une prestation de Senior Data Engineer externe, curieux(se) et engagé(e), pour rejoindre une équipe data.
Le profil externe sera responsable de :
- Construire des data pipelines scalables
- Concevoir des modèles de données robustes
- Délivrer des solutions data de haute qualité dans un environnement collaboratif
Missions / Responsabilités principales
• Collaboration métier
- Travailler en étroite collaboration avec les parties prenantes métier pour comprendre les besoins
- S’assurer que les produits data répondent aux objectifs de l’organisation
• Modélisation et architecture de données
- Concevoir et implémenter des modèles de données robustes, scalables, maintenables et facilement consommables par d’autres produits et par les data analysts
- Optimiser l’architecture data et les solutions de stockage pour la performance, le coût et l’accessibilité
- Maintenir des formules de calcul de données complexes
• Pipelines et traitements de données
- Construire et maintenir des pipelines de données scalables pour des processus ETL/ELT
- Assurer un flux de données fiable et efficient à travers les systèmes
- Développer des solutions data en Python pour manipuler, transformer et préparer les workflows d’ingestion de données
• Environnement Cloud et outillage
- Utiliser les services cloud AWS (ex. Lambdas, Step Functions, S3, RDS, etc.) pour l’orchestration, le traitement et la livraison de données
- Exploiter Databricks et pySpark (Unity Catalog…) pour les traitements distribués
- Collaborer avec les équipes backend pour aligner les intégrations de services et les implémentations techniques
• Qualité, performance et industrialisation
- Participer aux revues de code, discussions de design et activités de planification logicielle
- Mettre en place, monitorer et tester les standards de qualité des données pour garantir précision, cohérence, fiabilité et performance optimale des actifs data
- Prendre en charge et faire preuve d’initiative sur la qualité des données, la performance des systèmes et l’amélioration continue de l’infrastructure data
Profil et compétences recherchées
Compétences techniques requises
- Python (pandas, pydantic, tests unitaires, linting, formatting…) : niveau 4/4
- GitHub (GitHub Actions – workflows CI/CD) : niveau 2/4
- Plateforme AWS Cloud (Lambdas, Step Functions, S3, RDS…) : niveau 3/4
- Databricks / pySpark (Unity Catalog…) : niveau 2/4
- Connaissances de base en Terraform ou forte appétence pour l’apprendre : niveau 1/4
- Bases de données SQL : PostgreSQL, clients SQL et outils d’administration (ex. DBeaver) : niveau 4/4
- Compétences linguistiques anglais et français : niveau 4/4 (bilingue / courant dans les deux langues)
Mindset / état d’esprit
- Agilité
- Envie de comprendre le business et ses valeurs fondamentales
- Curiosité technique et implication dans des solutions transverses
- Forte orientation résolution de problèmes
- Engagement dans l’apprentissage continu et l’adaptation aux technologies en évolution
- Participation et contribution aux activités et projets du chapitre data engineering
Soft skills
- Communication claire en français et en anglais
- Attention au détail
- Capacité à travailler de manière autonome et en équipe
- Forte exigence sur la qualité du code, la documentation et la collaboration
- Idéalement, capacité à vulgariser la technique pour communiquer avec les équipes métier sur des sujets technologiques
Détails de la mission
- Date de démarrage souhaitée : 16/02/2026 (au plus tard)
- Localisation : Paris
- Modalités de travail :
• 2 jours par semaine en télétravail
• 3 jours par semaine sur site à Paris
Planning et étapes de sélection
- Clôture de la consultation / date limite des propositions : 18/01/2026
- Envoi des tests techniques (codingame avec proctoring) : 19/01/2026
• À compléter par les profils dans les 72h après réception, avant le vendredi 23/01/2026
- Soutenances techniques : entre le 27/01/2026 et le 02/02/2026
Compétences demandées :
- AWS Cloud platform : niveau Confirmé
- SQL Databases : niveau Expert
- PySpark : niveau Avancé
- Databricks : niveau Avancé
- GitHub : niveau Avancé
- Terraform : niveau Élémentaire
- Python : niveau Expert
Langue
- Anglais : niveau Bilingue
- Français : niveau avancé (équivalent bilingue, requis pour la communication et la documentation)
Compétences / Qualités indispensables: Français et anglais courants,
Python : niveau Expert
AWS Cloud platform : niveau Confirmé,
SQL Databases : niveau Expert,
PySpark : niveau Avancé,
Databricks : niveau Avancé,
GitHub : niveau Avancé,
Terraform : niveau Élémentaire,
Profil recherché
Langue
- Anglais : niveau Bilingue
- Français : niveau avancé (équivalent bilingue, requis pour la communication et la documentation)
Compétences / Qualités indispensables: Français et anglais courants,
Python : niveau Expert
AWS Cloud platform : niveau Confirmé,
SQL Databases : niveau Expert,
PySpark : niveau Avancé,
Databricks : niveau Avancé,
GitHub : niveau Avancé,
Terraform : niveau Élémentaire,
Environnement de travail
L’entreprise recherche une prestation de Senior Data Engineer externe, curieux(se) et engagé(e), pour rejoindre une équipe data.
Le profil externe sera responsable de :
- Construire des data pipelines scalables
- Concevoir des modèles de données robustes
- Délivrer des solutions data de haute qualité dans un environnement collaboratif
Postulez à cette offre !
Trouvez votre prochaine mission parmi +8 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Senior Data Engineer Python - AWS Cloud F/H
LeHibou
