Le poste

Freelance
04/01/2026
12 mois
400 €⁄j
5 à 10 ans d’expérience
Télétravail partiel
Courbevoie, Île-de-France
Publiée le 04/12/2025

Partager cette offre

Mission Concepteur Développeur Big Data – Société de l'Énergie

  • Localisation : Courbevoie (3 jours/semaine sur site)

  • Tarif max : 400€/jour

  • Démarrage : 05/01/2026

  • Durée : 12 mois (fin 04/01/2027) – prolongeable

  • Expérience requise : 4-5 ans minimum

Prestations principales :

  • Analyse besoins RH/Finance + rédaction spécifications techniques

  • Conception/développement pipelines ETL/ELT (Spark, Hadoop, Databricks, Snowflake)

  • Intégration sources données/API + contrôle qualité

  • Déploiement cloud (AWS/Azure/GCP) ou clusters Hadoop/Spark

  • Optimisation performances (partitionnement, tuning clusters)

  • Tests unitaires/intégration + revues code

  • Maintenance évolutive, support incidents, veille techno

Compétences obligatoires :

  • Big Data, Hadoop, Spark, Python

  • PostgreSQL, Databricks

Livrables :

  • Spécifications techniques + diagrammes

  • Code source/scripts + tests complets

  • Documentation exploitation + rapports performances

  • Plan déploiement/rollback

Cette mission essentielle vise à confier à un Ingénieur Data expérimenté la responsabilité complète du cycle de vie des solutions de traitement de données pour les domaines RH et Finance. Le professionnel doit maîtriser les technologies Big Data (Spark, Hadoop), les plateformes analytiques (Databricks, Snowflake) et les environnements Cloud (AWS, Azure, GCP), afin de garantir la livraison de systèmes ETL/ELT performants, sécurisés et alignés sur les objectifs business.

Profil recherché

  • Analyse et Formalisation : Participation aux réunions de lancement avec les solutions managers RH et Finance. Analyse, formalisation des besoins fonctionnels et techniques en collaboration avec les architectes.

  • Spécifications Techniques : Rédaction détaillée des spécifications techniques (ST) pour la conception des solutions à implémenter, couvrant l'architecture, les flux et les règles de transformation.

  • Design et Technologie : Concevoir des solutions de traitement de données utilisant les technologies adaptées : Apache Spark, Hadoop, Databricks et Snowflake.

  • Implémentation ETL/ELT : Développer des pipelines ETL/ELT performants et évolutifs pour l'intégration, le traitement et le stockage des données. Intégration de diverses sources de données et API.

  • Qualité des Données : Implémenter des mécanismes de validation et de contrôle de qualité rigoureux pour garantir l'intégrité et la fiabilité des données.

  • Configuration Cloud/Clusters : Configurer et déployer les environnements nécessaires sur infrastructures Cloud (AWS, Azure, GCP) ou sur clusters Hadoop/Spark.

  • Automatisation Databricks : Utiliser Databricks pour optimiser les workflows et automatiser les processus de traitement.

  • Sécurité : Gérer les accès aux systèmes et assurer la sécurité des données traitées et stockées.

  • Optimisation des Performances : Analyser et proposer des axes d'optimisation (partitionnement, parallélisme). Ajuster les configurations des clusters et des environnements (ex. ressources Spark) pour améliorer les temps de réponse.

  • Tests et Revue de Code : Mettre en place des tests unitaires et d'intégration pour valider la qualité des pipelines. Réaliser des revues de code régulières.

  • Support et Évolutions : Assurer la maintenance évolutive des solutions en production et intervenir pour résoudre les incidents de données. Implémenter les évolutions demandées et maintenir une veille technologique active.

  • Documentation de Conception :

    • Spécifications Techniques : Document détaillant la conception des pipelines et les flux de données (incluant schémas d'architecture).

    • Code Source et Scripts : Code des solutions développées (Spark, Snowflake, Databricks) et scripts de configuration/automatisation.

  • Qualité et Exploitation :

    • Tests et Validation : Couverture de tests (unitaires/intégration) et un rapport de tests pour valider le bon fonctionnement des cas d'usages.

    • Documentation Technique/Exploitation : Guide détaillé sur le fonctionnement, les procédures de maintenance et d'exploitation (manuel utilisateur).

    • Rapport de Performance : Analyse des performances des pipelines avec recommandations d'optimisation (temps de traitement avant/après).

    • Suivi des Incidents : Journal détaillé des incidents rencontrés et des actions correctives.

    • Livraison et Mise en Production : Solutions testées, validées, et prêtes pour la production, avec un plan de déploiement et une procédure de rollback.

 

Environnement de travail

Cette mission essentielle vise à confier à un Ingénieur Data expérimenté la responsabilité complète du cycle de vie des solutions de traitement de données pour les domaines RH et Finance. Le professionnel doit maîtriser les technologies Big Data (Spark, Hadoop), les plateformes analytiques (Databricks, Snowflake) et les environnements Cloud (AWS, Azure, GCP), afin de garantir la livraison de systèmes ETL/ELT performants, sécurisés et alignés sur les objectifs business.

Londres, Angleterre, Royaume-Uni
< 20 salariés
Cabinet de recrutement / placement
We’re a lively and fun bunch of creative, commercial and passionate people, who expect more from themselves and push out the boundaries. As specialists in the technology space, we understand what you do and what you need. Our in-depth market knowledge allows us to provide tailor-made solutions for the best quality outcome, providing an unrivalled ability to understand people requirements specific to different businesses. Working across Europe, Middle East and North America, with seven languages spoken across the team, we really can help you reach the next step

Postulez à cette offre !

Trouvez votre prochaine mission parmi +8 000 offres !

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

Concepteur Développeur Big Data

Nicholson SAS

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous