L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 305 résultats.
Offre d'emploi
Data Engineer Informatica/Airflow/AWS/DBT
OBJECTWARE
Publiée le
Apache Airflow
AWS Cloud
DBT
3 ans
40k-74k €
400-550 €
Île-de-France, France
Le contexte : L'un des objectifs majeurs du plan de transformation DATA est de développer les applications DATA qui permettent à nos métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI et de déployer des applications destinées à nos abonnés directement (recommandation contenu et offres, etc.). Dans ce cadre, le client a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100To de données par jours: Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique, Socle vidéo, navigation et calcul des audiences, AI pour recommandation des programmes, etc. Feature Store, Moderniser les flux financiers, Content Platform, Mise en place Kubernetes, Plateforme pour le traitement des données CRM et usage, Partager des informations sur les clients à nos partenaires (Netflix, Apple, M6, TF1, etc.), Piloter plus efficacement l'activité des marchés professionnels, Mettre à disposition des applications de data-selfservice. Votre rôle sera de : Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.), Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.), Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs, Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python, Identifier et résoudre les problèmes de performance ou de qualité des données, Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.), Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données, Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.), Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme. Vous maîtrisez Informatica, Snowflake, Airflow, DBT, AWS et aimez les challenges, Vous êtes experts dans le développement de solution d'intégration de données, Vous parlez Anglais couramment, Vous connaissez et maîtrisez les outils JIRA et les méthodes 'agiles' n’ont pas de secret pour vous ! Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique.
Offre d'emploi
Data Engineer – Plateforme Data AWS / Snowflake
EterniTech
Publiée le
Apache Airflow
AWS Cloud
Data Lake
3 mois
Magny-les-Hameaux, Île-de-France
Description du besoin : Data Engineer – Plateforme Data AWS / Snowflake Client : Grand Groupe Industriel International Localisation : Magny-les-Hameaux (78) + déplacements ponctuels Malakoff (92) Télétravail partiel : 2 jours / semaine Démarrage idéal : ASAP Information de type C3 - Contexte industriel ? Contexte Dans le cadre de l’évolution de sa plateforme Data, un grand groupe industriel souhaite renforcer son dispositif avec un profil senior spécialisé en orchestration de pipelines de données, avec une expertise forte sur Apache Airflow. Le client dispose d’un écosystème data déjà en place (AWS / Data Lake / Snowflake) et cherche à améliorer la fiabilité, la scalabilité et l’industrialisation des traitements. L’objectif est d’intégrer un profil capable de concevoir et structurer les workflows data, et non simplement d’utiliser Airflow pour exécuter des jobs existants. ? Objectif de la mission Le client recherche un Data Engineer senior avec une expertise avancée sur Airflow, capable de : -concevoir et développer des DAGs complexes -structurer l’enchaînement des traitements de données -gérer les dépendances entre pipelines -implémenter des stratégies de gestion des erreurs, retry et reprise -optimiser l’orchestration et la planification des workflows Le consultant interviendra sur la fiabilisation et l’industrialisation des pipelines data, avec une forte autonomie dans la conception des solutions. ? Prestations attendues ? Orchestration & Airflow (cœur de mission) Conception et développement de DAGs Airflow complexes Structuration des workflows data et gestion des dépendances Mise en place de stratégies de retry, reprise et gestion des erreurs Optimisation du scheduling et des performances des pipelines Industrialisation des workflows ? Data Engineering & intégration Intégration et orchestration de pipelines batch et temps réel Collaboration avec les équipes Data (Data Engineers / Data Scientists) Contribution à l’architecture globale des pipelines ? Cloud & environnement technique Intégration dans un environnement AWS Data Lake Interaction avec les services data (stockage, compute, etc.) Automatisation et bonnes pratiques de développement ? Environnement technique Airflow (expertise avancée requise) Python AWS (S3, Glue, etc.) Data Lake / Snowflake CI/CD / Terraform (apprécié) ? Profil recherché ? Expérience 5+ ans en Data Engineering Expérience significative sur Airflow en production Expérience sur des environnements data complexes ? Compétences indispensables Airflow avancé (design de DAGs, orchestration complexe) Python Conception de pipelines data Gestion des dépendances et workflows ? Compétences appréciées AWS / Data Lake Terraform / CI/CD Snowflake ? Points clés (critères éliminatoires) Profil ayant utilisé Airflow uniquement comme outil de déclenchement ? Absence d’expérience en conception de DAGs ? Pas de maîtrise de la logique d’orchestration ? ? Profil idéal Un profil capable de penser et concevoir une orchestration complète de pipelines data, avec une vraie maîtrise des mécaniques internes d’Airflow, et une capacité à intervenir en autonomie sur des environnements existants.naires Communication claire et structurée
Offre d'emploi
Consultant Data Engineer Informatica
VISIAN
Publiée le
AWS Cloud
Informatica
1 an
Île-de-France, France
Contexte L'un des objectifs majeurs du plan de transformation DATA d'un grand groupe média est de développer les applications DATA qui permettent aux métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI, et de déployer des applications. Dans ce cadre, ce groupe a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100 To de données par jour : Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique Socle vidéo, navigation et calcul des audiences AI pour recommandation des programmes Feature Store Moderniser les flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice
Offre d'emploi
data engineer AWS, Snowflake, SAP
LEVUP
Publiée le
AWS Glue
MySQL
Python
1 an
Liège, Belgique
Présence sur site 3j/semaine Mission Construire et maintenir des pipelines de données fiables et scalables sur AWS et Snowflake. Responsabilités Développer des pipelines ETL/ELT Participer à une intégration d'SAP Intégrer et transformer les données Modéliser les données (data warehouse) Optimiser les performances et les coûts Assurer la qualité des données (tests, monitoring) Orchestrer les workflows (Airflow ou équivalent) Collaborer avec les équipes data et métier Stack technique AWS (S3, Glue, Lambda, Redshift) SAP Snowflake SQL Python Airflow / dbt / Git Profil Expérience en data engineering Bonne maîtrise SQL et modélisation Expérience cloud (AWS) Autonomie, rigueur Bonus Docker CI/CD Expérience data lake / lakehouse
Offre d'emploi
CDI – Data Engineer Databricks (AWS) – 3 à 7 ans d’expérience
Hexateam
Publiée le
Amazon S3
Apache Airflow
AWS Glue
La Défense, Île-de-France
Contexte Dans le cadre de notre croissance, nous recrutons un Data Engineer pour intervenir sur des environnements Databricks sur AWS, avec des enjeux d’ingestion, de transformation et de fiabilité des données. Missions Développement et ingestion de données • Concevoir et développer des pipelines de données en Python et Spark sur Databricks • Mettre en place des flux entre sources externes (ex : Oracle) et un Data Lake (S3 / Delta Lake) • Optimiser les traitements et les performances Orchestration et qualité des données • Orchestrer les workflows avec AWS Airflow • Mettre en place des contrôles qualité et des mécanismes de validation • Développer des outils de monitoring et de gestion des anomalies Maintien en condition opérationnelle • Assurer la disponibilité et la performance des pipelines • Diagnostiquer et corriger les incidents • Participer à l’amélioration continue des traitements Contribution • Participer aux ateliers techniques et aux échanges avec les équipes • Documenter les pipelines, architectures et processus • Contribuer aux bonnes pratiques Data et Big Data
Offre d'emploi
Senior Data Engineer Big Data
VISIAN
Publiée le
AWS Cloud
Python
1 an
Île-de-France, France
Contexte Dans le cadre de son plan de transformation Data, un grand groupe média poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing. Pour répondre à cet enjeu, ce groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI , ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour , dont une part majoritaire en temps réel. Les cas d'usage couverts sont variés, parmi lesquels : IA pour recommandation des programmes et des offres Plateforme agentique customer-facing Gender Equality Monitoring Feature Store Modernisation des flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice Le consultant aura pour mission de réaliser des développements avancés sur le socle des données Big Data pour la mise en place des usecases IA. Cet environnement Big Data, fortement orienté Streaming et IA, traite quotidiennement plus de 100 To de données . Le consultant doit maîtriser les architectures de Streaming Data, AWS (notamment Lambda, Batch, Step Function, EMR Serverless, Kinesis Stream, S3, Firehose, DynamoDB, etc.), Airflow, Scala, Spark, SQL, Snowflake, GitLab CI/CD, Terraform. Missions Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Participer activement à l'évolution continue de la plateforme IA
Offre d'emploi
Data Engineer Senior
LEVUP
Publiée le
AWS Cloud
Snowflake
12 mois
Liège, Belgique
Présence sur site 3j/semaine Mission Construire et maintenir des pipelines de données fiables et scalables sur AWS et Snowflake. Responsabilités Développer des pipelines ETL/ELT Intégrer et transformer les données Modéliser les données (data warehouse) Optimiser les performances et les coûts Assurer la qualité des données (tests, monitoring) Orchestrer les workflows (Airflow ou équivalent) Collaborer avec les équipes data et métier Stack technique AWS (S3, Glue, Lambda, Redshift) Snowflake SQL Python Airflow / dbt / Git Profil Expérience en data engineering Bonne maîtrise SQL et modélisation Expérience cloud (AWS) Autonomie, rigueur Bonus Docker CI/CD Expérience data lake / lakehouse
Mission freelance
Data engineer senior
UCASE CONSULTING
Publiée le
AWS Cloud
DevOps
ETL (Extract-transform-load)
1 an
400-600 €
Île-de-France, France
Bonjour à tous, Dans le cadre du renforcement de sa plateforme data, notre client recherche un Data Engineer afin d’assurer le développement, la mise en œuvre opérationnelle et la maintenance de ses services et pipelines de données. Vous interviendrez dans un environnement dynamique, orienté data et cloud, avec des enjeux forts de fiabilité, de performance et de sécurisation des flux de données. Missions du poste Au sein de l’équipe data, vous aurez pour principales responsabilités : Développer et maintenir des pipelines de données (ETL) via Kestra Manipuler et exploiter des données structurées et non structurées (SQL / NoSQL) Assurer la maintenance en conditions opérationnelles (MCO) des solutions existantes Participer à la sécurisation des migrations fonctionnelles
Mission freelance
Expert DBT Snowflake
ROCKET TALENTS
Publiée le
AWS Cloud
Snowflake
SQL
3 mois
400-550 €
Bezons, Île-de-France
Responsabilités clés Concevoir, développer et maintenir des pipelines de données ELT haute performance en utilisant Snowflake et dbt Modéliser les données aux niveaux conceptuel et technique en fonction des besoins métier Optimiser les requêtes SQL et les modèles dbt afin de garantir des performances optimales Mettre en œuvre et maintenir une infrastructure DataOps pour l’automatisation des déploiements Configurer et gérer la sécurité des données (RBAC, Row-Level Security, Dynamic Data Masking) Assurer une ingestion efficace des données depuis AWS S3 vers Snowflake Orchestrer les flux de données via dbt et créer des DAGs avec une gestion appropriée des tags Implémenter des tests de qualité des données via les tests dbt Gérer les aspects administratifs des bases Snowflake Compétences techniques requises Snowflake Maîtrise avancée des fonctionnalités Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des warehouses Snowflake Gestion des external stages et de Snowpipe pour l’ingestion depuis AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration des bases Snowflake (création et gestion des objets, supervision, optimisation) dbt (data build tool) Développement avancé de modèles SQL avec dbt Création et optimisation de modèles de données (dimensions, faits, etc.) Utilisation des macros Jinja pour produire du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des snapshots dbt pour le suivi des évolutions des données Création de DAGs optimisés avec une gestion rigoureuse des dépendances et des tags Documentation des modèles de données DataOps & Automatisation Utilisation de schemachange pour l’automatisation des migrations de schéma Mise en place de pipelines CI/CD pour les plateformes data Maîtrise de Git et des workflows de développement collaboratif AWS & Intégration Connaissance de AWS S3 et de son intégration avec Snowflake Configuration des external stages et des processus d’ingestion Qualifications souhaitées Expérience avec les Snowflake Tasks et les Dynamic Tables Connaissance des principes de data mesh et de gouvernance des données Familiarité avec les frameworks de tests de données Expérience dans le secteur pharmaceutique ou des sciences de la vie
Mission freelance
Architecte Data Plateforme AWS / Snowflake (H/F)
ALLEGIS GROUP
Publiée le
Agent IA
AWS Cloud
DBT
1 an
Paris, France
Teksystems recherche pour l’un de ses clients grands comptes un Architecte Data AWS / Snowflake (H/F) pour construire, structurer et sécuriser la plateforme data du client basée sur Snowflake et AWS , et accompagner les équipes pour garantir une plateforme performante, scalable et prête à accueillir des fonctionnalités IA . Ce rôle est structurant, durable , et s’inscrit au cœur de la transformation data. Vos missions : 1. Définir et faire évoluer l’architecture de la plateforme Architecture cible Snowflake/AWS Patterns d’ingestion (batch, CDC, near real-time) Modélisation (Data Vault, modèles analytiques) Exposition (BI, APIs, data apps) 2. Industrialiser le delivery data Standards CI/CD (dbt, ingestion, artefacts ML) Automatisation des déploiements Intégration Git / pipelines / qualité Réduction du time-to-market 3. Mettre en place une observabilité complète Suivi fraîcheur, volumétrie, succès/échec des pipelines Tests & qualité de données Performance Snowflake (temps, coûts, consommation) Dashboards RUN, alertes, SLAs 4. Sécuriser la plateforme RBAC, rôles Snowflake, data masking, row-level security RGPD, auditabilité, traçabilité Catalogage, lineage, ownership 5. Accompagner les équipes Support aux devs, pair programming, arbitrages techniques Challenge des choix existants Coordination avec infra / cloud / sécurité 6. Préparer et soutenir le RUN Normes de reprise, diagnostic, alerting Réduction de la dette technique Support N2/N3 Conception orientée exploitabilité
Mission freelance
Ingénieur Data Oracle/SQL/Python
CS Group Solutions
Publiée le
Apache Airflow
Oracle
Python
12 mois
380-400 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Ingénieur Data Oracle/SQL/Python Objectif global : Développement Data Engineer Oracle/SQL/Python Contrainte du projet: Contexte Data Les livrables sont: Développement des nouvelles fonctionnalités TU / Spécifications techniques MCO/RUN Compétences techniques: Oracle - Confirmé - Impératif SQL - Confirmé - Impératif Python - Junior - Important Airflow - Junior - Souhaitable Description détaillée: Nous cherchons un data ingénieur ASAP pour une mission longue durée Compétences : ORACLE impératif SQL impératif Python Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client
Offre d'emploi
Architect Data
The Yellow Office
Publiée le
Architecture
AWS Cloud
Microsoft SQL Server
6 mois
Toulouse, Occitanie
Data Architect | AWS / Snowflake | Toulouse | Freelance Nous recherchons un Data Architect expérimenté pour intervenir sur des sujets d’architecture, de migration et de structuration de plateformes data dans un environnement international. Informations mission • Localisation : Toulouse - 2 jours de TT • Contrat : Freelance • Démarrage : ASAP • Durée : Mission longue • TJM : Selon expérience • Expérience : 10 à 15 ans minimum • Anglais courant requis Votre rôle • Concevoir et faire évoluer l’architecture data globale • Définir les flux d’ingestion, de transformation et de stockage • Structurer les modèles de données et les usages analytiques • Accompagner les projets de migration (legacy vers cloud) • Garantir la performance, la sécurité et la gouvernance des données • Challenger les choix techniques et améliorer l’existant Environnement technique • AWS (S3, Lambda, RDS, Redshift…) • Snowflake • SQL / modélisation de données • Python • Stack BI (Power BI, SQL Server, SSIS, SSAS…) Profil recherché • Forte expérience en architecture data et transformation cloud • Maîtrise des environnements AWS et Snowflake • Capacité à intervenir sur des sujets complexes et structurants • Vision globale data (flux, modélisation, gouvernance) • À l’aise dans des environnements internationaux Merci de me faire parvenir votre CV à
Offre d'emploi
Data Engineer
UCASE CONSULTING
Publiée le
AWS Cloud
ETL (Extract-transform-load)
Maintien en condition opérationnelle (MCO)
1 an
40k-50k €
450-550 €
Paris, France
Dans le cadre du renforcement d’une équipe data, nous recherchons pour un de nos clients dans le secteur de la mobilité un Data Engineer pour intervenir sur une mission longue, avec un rôle clé dans le développement et le maintien des pipelines de données. Vous intégrerez un pôle Data Studio & OPS , en charge du développement, de l’exploitation et de la fiabilité des solutions data, dans un environnement orienté production et performance. 🧩 Vos missions Développer et maintenir des pipelines de données (ETL / ELT) Manipuler et transformer des données (SQL / volumétrie importante) Assurer la mise en production et le maintien en conditions opérationnelles (MCO) Gérer le support technique N2 / N3 (incidents, monitoring, résolution) Participer à l’amélioration continue des traitements data Travailler en lien avec les équipes projets et techniques
Mission freelance
Consultant dbt/Snowflake
CS Group Solutions
Publiée le
Data Mesh
DBT
Snowflake
6 mois
430-450 €
Île-de-France, France
Nous recherchons un Consultant dbt/Snowflake 5 à 10 ans d’expérience Anglais obligatoire Responsabilités clés Concevoir, développer et maintenir des pipelines de données ELT haute performance en utilisant Snowflake et dbt Modéliser les données aux niveaux conceptuel et technique en fonction des besoins métier Optimiser les requêtes SQL et les modèles dbt afin de garantir des performances optimales Mettre en œuvre et maintenir une infrastructure DataOps pour l’automatisation des déploiements Configurer et gérer la sécurité des données (RBAC, Row-Level Security, Dynamic Data Masking) Assurer une ingestion efficace des données depuis AWS S3 vers Snowflake Orchestrer les flux de données via dbt et créer des DAGs avec une gestion appropriée des tags Implémenter des tests de qualité des données via les tests dbt Gérer les aspects administratifs des bases Snowflake Compétences techniques requises Snowflake Maîtrise avancée des fonctionnalités Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des warehouses Snowflake Gestion des external stages et de Snowpipe pour l’ingestion depuis AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration des bases Snowflake (création et gestion des objets, supervision, optimisation) dbt (data build tool) Développement avancé de modèles SQL avec dbt Création et optimisation de modèles de données (dimensions, faits, etc.) Utilisation des macros Jinja pour produire du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des snapshots dbt pour le suivi des évolutions des données Création de DAGs optimisés avec une gestion rigoureuse des dépendances et des tags Documentation des modèles de données DataOps & Automatisation Utilisation de schemachange pour l’automatisation des migrations de schéma Mise en place de pipelines CI/CD pour les plateformes data Maîtrise de Git et des workflows de développement collaboratif AWS & Intégration Connaissance de AWS S3 et de son intégration avec Snowflake Configuration des external stages et des processus d’ingestion Qualifications souhaitées Expérience avec les Snowflake Tasks et les Dynamic Tables Connaissance des principes de data mesh et de gouvernance des données Familiarité avec les frameworks de tests de données Expérience dans le secteur pharmaceutique ou des sciences de la vie Certifications (souhaitées) SnowPro Core Certification – fortement appréciée Certification dbt Analytics Engineering – un plus Certifications AWS (Solutions Architect, Data Engineer ou équivalent) – un plus
Mission freelance
Consultant Python (Software Engineer Applied) PostgreSQL - AWS - Airflow
Celexio
Publiée le
AWS Cloud
Bash
CI/CD
6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production , y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Offre d'emploi
📩 Data Engineer / DevOps – Data Platform
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud
1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3305 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois