Le poste Data engineer ETL Airflow
Partager cette offre
Data/ML Engineer – Secteur bancaire (IDF) – DISPO ASAP – MISSION LONGUE
Contexte : Accélération IA – chantier Knowledge Management pour constituer une base de connaissance à partir de documents non structurés (PDF, Word, HTML). Un pipeline initial existe et doit être industrialisé pour une exécution fiable, scalable et maintenable.
Objectif : Développer les pipelines d’ingestion, transformation et alimentation de la base, en assurant versioning et traçabilité.
Activités :
Modéliser l’architecture technique (ingestion → stockage)
Développer des flux ETL modulaires (OCR, transformation, enrichissement)
Standardiser le format pivot et les conventions de métadonnées
Assurer l’historisation, le versioning et la traçabilité des documents
Implémenter un orchestrateur (Airflow/Dagster/Prefect) si nécessaire
Suivre la robustesse sur des volumes variés
Collaborer avec les équipes KM et Data Science
Documenter l’ensemble des flux de traitement
Profil recherché
Data/ML Engineer – Secteur bancaire (IDF) – DISPO ASAP – MISSION LONGUE
Contexte : Accélération IA – chantier Knowledge Management pour constituer une base de connaissance à partir de documents non structurés (PDF, Word, HTML). Un pipeline initial existe et doit être industrialisé pour une exécution fiable, scalable et maintenable.
Objectif : Développer les pipelines d’ingestion, transformation et alimentation de la base, en assurant versioning et traçabilité.
Activités :
Modéliser l’architecture technique (ingestion → stockage)
Développer des flux ETL modulaires (OCR, transformation, enrichissement)
Standardiser le format pivot et les conventions de métadonnées
Assurer l’historisation, le versioning et la traçabilité des documents
Implémenter un orchestrateur (Airflow/Dagster/Prefect) si nécessaire
Suivre la robustesse sur des volumes variés
Collaborer avec les équipes KM et Data Science
Documenter l’ensemble des flux de traitement
Environnement de travail
Data/ML Engineer – Secteur bancaire (IDF) – DISPO ASAP – MISSION LONGUE
Contexte : Accélération IA – chantier Knowledge Management pour constituer une base de connaissance à partir de documents non structurés (PDF, Word, HTML). Un pipeline initial existe et doit être industrialisé pour une exécution fiable, scalable et maintenable.
Objectif : Développer les pipelines d’ingestion, transformation et alimentation de la base, en assurant versioning et traçabilité.
Activités :
Modéliser l’architecture technique (ingestion → stockage)
Développer des flux ETL modulaires (OCR, transformation, enrichissement)
Standardiser le format pivot et les conventions de métadonnées
Assurer l’historisation, le versioning et la traçabilité des documents
Implémenter un orchestrateur (Airflow/Dagster/Prefect) si nécessaire
Suivre la robustesse sur des volumes variés
Collaborer avec les équipes KM et Data Science
Documenter l’ensemble des flux de traitement
Postulez à cette offre !
Trouvez votre prochaine mission parmi +8 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Data engineer ETL Airflow
IT-EXPLORER