Job position Data Engineer
Share this job
Poste : Data Engineer
Nombre de postes : 1
Expérience : > 7 ans
TJM d’achat max : 500€
Localisation : Île-de-France
Deadline réponse : 10/02/2026
Démarrage : 09/03/2026, mission longue durée
Type de contrat : Salarié ou Freelance
1) Descriptif de la mission
La mission se déroule au sein d’une équipe dédiée au développement d’outils, de méthodes et d’industrialisation pour un acteur majeur du secteur ferroviaire. L’objectif est de soutenir un périmètre spécifique concernant un outil d’analyse de la régularité des circulations, basé sur un ensemble de flux issus du système d’information de l’opérateur.
Ce périmètre comprend l’accès à des données consolidées et prêtes à l’analyse, permettant aux équipes métier d’utiliser des données fiables. La mission concerne notamment :
- Assurer la continuité d’alimentation des flux de données pour l’outil et l’équipe technique,
- Adapter, développer, corriger et déployer des processus ETL lors de migrations de données,
- Intégrer de nouveaux flux de données en garantissant l’absence de régression,
- Maintenir ces flux en production et garantir leur disponibilité,
- Définir des formats d’échange pour alimenter l’outil,
- Mettre en place des indicateurs de supervision,
- Accompagner l’équipe dans l’exploitation des nouveaux flux.
2) Livrables attendus
Le cahier des charges précise une liste de livrables avec des délais indicatifs :
- Recette de l’API : Document de validation, comparaison entre anciennes et nouvelles données issues du nouveau format.
- Déploiement : Paquets SSIS / SQL déployés, paramétrage automatique, documentation d’intégration.
- Processus de rattrapage simple : Documentation, industrialisation, déploiement, artefacts dans un environnement de gestion de versions.
- Documentation des nouvelles données : Note explicative sur la nature et l’utilisation des nouvelles données.
- Format d’échange : Documentation complète du schéma d’échange de données.
- Déploiement des flux : Projets SSIS / SQL, documentation du chargement, déploiement en environnement de production.
- Processus de rattrapage complexe : Développement, déploiement et documentation complète.
- KPI BI : Mise en place d’un tableau de bord avec suivi de l’intégration, des erreurs et de la disponibilité des flux en production.
Candidate profile
Technologies obligatoires :
- SQL Server 2019
- SSIS (développement de packages, automatisation, industrialisation)
- Python (traitements DATA, automatisation, manipulation de fichiers parquet)
Technologies appréciées :
- Spark (traitement de données volumétriques)
- C# (intégration, scripts complémentaires)
- Power BI (mise en place de KPI, rapports, tableaux de bord)
Outils & écosystème Transport:
- Azure DevOps (versioning, pipelines, projets SSIS/SQL)
- Connaissance des gisements et modèles :
- ATESS
- GAIA / GAIA VE
- Modèle ARIANE
- Données réseau BASIC
- Gisements ferroviaires
Méthodologie : Agile / SCRUM avec daily, ateliers, revues, rétrospectives en présentiel toutes les 3 semaines.
Soft skills requis :
- Autonomie et rigueur
- Bonne communication
- Flexibilité
- Capacité d’analyse
- Capacité à accompagner une équipe sur des sujets DATA complexes
Apply to this job!
Find your next career move from +1,000 jobs!
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Data Engineer
Codezys