Le poste Data Engineer INFORMATICA PowerCenter (Scala, Snowflake, PowerShell, DBT, Airflow, GIT, AWS , SQL )
Partager cette offre
Votre rôle sera de :
- Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.)
- Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.).
- Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs
- Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python.
- Identifier et résoudre les problèmes de performance ou de qualité des données
- Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.) ;
- Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données
- Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.)
- Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme
Compétences et qualités attendues :
- Vous justifiez d’une expérience de 5 ans minimum dans un environnement similaire
- Vous maîtrisez Informatica, Snwoflake, Airflow, DBT, AWS et aimez les challenges
- Vous etes experts dans le développement de solution d'intégration de données.
- Vous parlez Anglais couramment
- Vous connaissez et maîtrisez les outils JIRA et les méthodes « agiles » n’ont pas de secret pour vous !
- Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique
Profil recherché
Votre rôle sera de :
- Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.)
- Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.).
- Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs
- Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python.
- Identifier et résoudre les problèmes de performance ou de qualité des données
- Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.) ;
- Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données
- Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.)
- Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme
Compétences et qualités attendues :
- Vous justifiez d’une expérience de 5 ans minimum dans un environnement similaire
- Vous maîtrisez Informatica, Snwoflake, Airflow, DBT, AWS et aimez les challenges
- Vous etes experts dans le développement de solution d'intégration de données.
- Vous parlez Anglais couramment
- Vous connaissez et maîtrisez les outils JIRA et les méthodes « agiles » n’ont pas de secret pour vous !
- Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique
Environnement de travail
Votre rôle sera de :
- Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.)
- Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.).
- Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs
- Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python.
- Identifier et résoudre les problèmes de performance ou de qualité des données
- Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.) ;
- Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données
- Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.)
- Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme
Compétences et qualités attendues :
- Vous justifiez d’une expérience de 5 ans minimum dans un environnement similaire
- Vous maîtrisez Informatica, Snwoflake, Airflow, DBT, AWS et aimez les challenges
- Vous etes experts dans le développement de solution d'intégration de données.
- Vous parlez Anglais couramment
- Vous connaissez et maîtrisez les outils JIRA et les méthodes « agiles » n’ont pas de secret pour vous !
- Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique
Postulez à cette offre !
Trouvez votre prochaine mission parmi +10 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Data Engineer INFORMATICA PowerCenter (Scala, Snowflake, PowerShell, DBT, Airflow, GIT, AWS , SQL )
WINSIDE Technology
