Job position

Contractor
04/01/2026
12 months
400 €
5 to 10 years experience
Hybrid
Courbevoie, Ile-de-France
Published on 04/12/2025

Share this job

Mission Concepteur Développeur Big Data – Société de l'Énergie

  • Localisation : Courbevoie (3 jours/semaine sur site)

  • Tarif max : 400€/jour

  • Démarrage : 05/01/2026

  • Durée : 12 mois (fin 04/01/2027) – prolongeable

  • Expérience requise : 4-5 ans minimum

Prestations principales :

  • Analyse besoins RH/Finance + rédaction spécifications techniques

  • Conception/développement pipelines ETL/ELT (Spark, Hadoop, Databricks, Snowflake)

  • Intégration sources données/API + contrôle qualité

  • Déploiement cloud (AWS/Azure/GCP) ou clusters Hadoop/Spark

  • Optimisation performances (partitionnement, tuning clusters)

  • Tests unitaires/intégration + revues code

  • Maintenance évolutive, support incidents, veille techno

Compétences obligatoires :

  • Big Data, Hadoop, Spark, Python

  • PostgreSQL, Databricks

Livrables :

  • Spécifications techniques + diagrammes

  • Code source/scripts + tests complets

  • Documentation exploitation + rapports performances

  • Plan déploiement/rollback

Cette mission essentielle vise à confier à un Ingénieur Data expérimenté la responsabilité complète du cycle de vie des solutions de traitement de données pour les domaines RH et Finance. Le professionnel doit maîtriser les technologies Big Data (Spark, Hadoop), les plateformes analytiques (Databricks, Snowflake) et les environnements Cloud (AWS, Azure, GCP), afin de garantir la livraison de systèmes ETL/ELT performants, sécurisés et alignés sur les objectifs business.

Candidate profile

  • Analyse et Formalisation : Participation aux réunions de lancement avec les solutions managers RH et Finance. Analyse, formalisation des besoins fonctionnels et techniques en collaboration avec les architectes.

  • Spécifications Techniques : Rédaction détaillée des spécifications techniques (ST) pour la conception des solutions à implémenter, couvrant l'architecture, les flux et les règles de transformation.

  • Design et Technologie : Concevoir des solutions de traitement de données utilisant les technologies adaptées : Apache Spark, Hadoop, Databricks et Snowflake.

  • Implémentation ETL/ELT : Développer des pipelines ETL/ELT performants et évolutifs pour l'intégration, le traitement et le stockage des données. Intégration de diverses sources de données et API.

  • Qualité des Données : Implémenter des mécanismes de validation et de contrôle de qualité rigoureux pour garantir l'intégrité et la fiabilité des données.

  • Configuration Cloud/Clusters : Configurer et déployer les environnements nécessaires sur infrastructures Cloud (AWS, Azure, GCP) ou sur clusters Hadoop/Spark.

  • Automatisation Databricks : Utiliser Databricks pour optimiser les workflows et automatiser les processus de traitement.

  • Sécurité : Gérer les accès aux systèmes et assurer la sécurité des données traitées et stockées.

  • Optimisation des Performances : Analyser et proposer des axes d'optimisation (partitionnement, parallélisme). Ajuster les configurations des clusters et des environnements (ex. ressources Spark) pour améliorer les temps de réponse.

  • Tests et Revue de Code : Mettre en place des tests unitaires et d'intégration pour valider la qualité des pipelines. Réaliser des revues de code régulières.

  • Support et Évolutions : Assurer la maintenance évolutive des solutions en production et intervenir pour résoudre les incidents de données. Implémenter les évolutions demandées et maintenir une veille technologique active.

  • Documentation de Conception :

    • Spécifications Techniques : Document détaillant la conception des pipelines et les flux de données (incluant schémas d'architecture).

    • Code Source et Scripts : Code des solutions développées (Spark, Snowflake, Databricks) et scripts de configuration/automatisation.

  • Qualité et Exploitation :

    • Tests et Validation : Couverture de tests (unitaires/intégration) et un rapport de tests pour valider le bon fonctionnement des cas d'usages.

    • Documentation Technique/Exploitation : Guide détaillé sur le fonctionnement, les procédures de maintenance et d'exploitation (manuel utilisateur).

    • Rapport de Performance : Analyse des performances des pipelines avec recommandations d'optimisation (temps de traitement avant/après).

    • Suivi des Incidents : Journal détaillé des incidents rencontrés et des actions correctives.

    • Livraison et Mise en Production : Solutions testées, validées, et prêtes pour la production, avec un plan de déploiement et une procédure de rollback.

 

Working environment

Cette mission essentielle vise à confier à un Ingénieur Data expérimenté la responsabilité complète du cycle de vie des solutions de traitement de données pour les domaines RH et Finance. Le professionnel doit maîtriser les technologies Big Data (Spark, Hadoop), les plateformes analytiques (Databricks, Snowflake) et les environnements Cloud (AWS, Azure, GCP), afin de garantir la livraison de systèmes ETL/ELT performants, sécurisés et alignés sur les objectifs business.

Londres, Angleterre, Royaume-Uni
< 20 employees
Recruitment agency
We’re a lively and fun bunch of creative, commercial and passionate people, who expect more from themselves and push out the boundaries. As specialists in the technology space, we understand what you do and what you need. Our in-depth market knowledge allows us to provide tailor-made solutions for the best quality outcome, providing an unrivalled ability to understand people requirements specific to different businesses. Working across Europe, Middle East and North America, with seven languages spoken across the team, we really can help you reach the next step

Apply to this job!

Find your next career move from +10,000 jobs!

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

Concepteur Développeur Big Data

Nicholson SAS

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us