Le poste Data engineer - AWS Informatica (H/F)
Partager cette offre
Contexte :
Dans le cadre d'un programme de transformation DATA, l'objectif est de doter l'entreprise d'outils permettant une exploitation avancée des données pour des prises de décisions optimisées. Ce programme impacte à la fois les technologies utilisées, l'organisation et les processus internes.
Les projets en cours sont variés et incluent :
L'optimisation des algorithmes de recommandation et segmentation ;
Le développement d'un Feature Store pour la gestion des données ;
La modernisation des flux financiers et des plateformes de contenu ;
La mise en place d'architectures Big Data traitant plus de 100 To de données par jour ;
Le partage d'informations clients avec des partenaires stratégiques.
Missions
Intégré(e) à l'équipe DATA Delivery, vous interviendrez sur l'évolution et la maintenance des socles de données (Usage, VOD, Advertising, CRM...) et leur interconnexion avec divers partenaires. Vous travaillerez sur des architectures de Streaming Data full AWS et des technologies Big Data avancées.
Vos responsabilités incluront notamment :
La conception et le développement de pipelines de données performants ;
Administrer, maintenir et optimiser la plateforme Informatica PowerCenter ( serveurs, repository, workflow, sessions...)
Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et SI applicatifs
Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python
L'implémentation d'architectures de Streaming Data scalables et robustes ;
Le développement de traitements de données en temps réel avec Scala, Spark et Terraform ;
L'optimisation et la modernisation des flux de données dans un environnement Big Data ;
Former et assister les utilisateurs internes ( équipes data, développeurs, MOA ...)
La mise en oeuvre de bonnes pratiques en termes de qualité et de gouvernance des données ;
La collaboration avec les équipes Data, BI et Infra pour garantir la cohérence et la disponibilité des données.
Environnement technique
Cloud & Big Data : AWS (Lambda, EMR Serverless, Kinesis Stream, S3, Firehose, DynamoDB)
Développement : Informatica, Scala, Spark, SQL, Terraform, Python
CI/CD & Orchestration : GitLab CI/CD, Jenkins
Méthodologies : Agile (Scrum, Kanban)
Profil recherché
Compétences et Qualités attendues :
- Vous justifiez d'une expérience de 5 ans minimum dans un environnement similaire
- Vous maîtrisez Informatica, AWS, Terraform, vous êtes fluent en Scala et Spark avancé et aimez les challenges
- Vous êtes experts dans le développement de solution d'intégration Big Data.
- Vous parlez Anglais couramment
-Vous connaissez et maîtrisez les outils JIRA et les méthodes « agiles » n'ont pas de secret pour vous !
- Autonome, ouvert d'esprit et bon communiquant, vous disposez d'une grande curiosité scientifique
Postulez à cette offre !
Trouvez votre prochaine mission parmi +10 000 offres !
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Data engineer - AWS Informatica (H/F)
CHARLI GROUP