L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 059 résultats.
Mission freelance
EXPERT MIDDLEWARE - ETL & DATA STREAMING
Signe +
Publiée le
Java
12 mois
400-550 €
La Défense, Île-de-France
EXPERT MIDDLEWARE - ETL & DATA STREAMING Centre de competence Architecture et Integration - Group Digital and IT (Saint-Gobain) Contexte Mission au sein de l'equipe Architecture et Integration dans un environnement international et multiculturel. Pilotage des lignes de services integration ETL : Talend (Cloud / hybride) et Data Streaming (Kafka Confluent Cloud). Missions principales Support, suivi et maintenance de l'existant (CRM / Annuaire / PIM) Accompagnement a la creation de nouveaux projets : analyse du besoin, cadrage technique, conception des flux Pilotage de l'equipe en Inde (developpements, tests, deploiements) Gestion du plan de charge et des plannings Administration et suivi operationnel de la plateforme Talend et des composants On Prem Administration et suivi operationnel de la plateforme Kafka Confluent Cloud Suivi de la facturation des deux plateformes Definition et partage des bonnes pratiques (configuration / developpements) Competences requises Talend Data Integration Studio V8 - Expert API et formats Json, Xml, Csv - Confirme Management d'equipe - Confirme Java 8+ - Confirme Linux / Unix - Confirme Kafka - Confirme SQL et Base de donnees - Confirme Source management (Gitlab) - Confirme Connaissances CRM Salesforce - Elementaire
Mission freelance
Senior Data Ops Engineer
CAT-AMANIA
Publiée le
Apache Spark
CI/CD
Databricks
1 an
160-500 €
Lille, Hauts-de-France
Ta mission sera de Garantir la robustesse de la platforme Monitorer et prendre des actions proactive de management de la plateforme de compute Assurer le support et l'accompagnement d'équipes sur Spark, Databricks et EMR Travailler sur les optimisations des traitements Athena/Pyspark Accompagner et former Définir et promouvoir les bonnes pratiques de software engineering et de data engineering sur les technologies proposées au sein de l'équipe participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Travailler sur le concept d'accessibilité et de gouvernance de la donnée Tester de nouveaux outils / features intéressants à intégrer dans notre stack
Offre d'emploi
Data Ingénieur - Expert Spark H/F
CONSORT GROUP
Publiée le
Tassin-la-Demi-Lune
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Data Ingénieur - Expert Spark H/F Vous êtes passionné·e par les architectures de données à grande échelle et le traitement temps réel ? Ce poste est fait pour vous. En tant qu' Expert Spark Data Engineer , vous êtes responsable de l'analyse, de l'optimisation et de l'évolution de notre pipeline de données au cœur de notre écosystème BI et statistiques. Côté build Conception et préconisations d'architecture Réaliser l'analyse et l'état des lieux technique de la solution existante (Kafka Connect, Spark, Kubernetes, MongoDB sur OVH) Produire les préconisations d'amélioration du Spark streaming pour le traitement temps réel Définir le dimensionnement infrastructure adapté au streaming temps réel (350 bases, 5 000 req/s, 1 To/an) Proposer une stratégie de dimensionnement MongoDB et de structuration de la donnée (standardisation des patterns) Rédiger le document d'architecture cible et le dossier de préconisations Côté run Optimisation et maintien en condition opérationnelle Assurer la fiabilité et la performance du pipeline de données en production sur l'infrastructure OVH Superviser les flux Kafka Connect et garantir la continuité du traitement des données entrantes Monitorer les performances Spark et intervenir sur les axes d'optimisation identifiés Veiller à la cohérence et à la qualité de la donnée stockée dans MongoDB Participer aux revues techniques et accompagner les équipes internes ENOVACOM dans la montée en compétences C'est votre parcours Vous avez au moins 5 ans d'expérience dans des environnements Data Engineering exigeants, avec une forte exposition aux architectures de traitement temps réel et à la gestion de volumétries importantes. Vous aimez diagnostiquer, optimiser et concevoir sans jamais cesser d'innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C'est votre expertise Apache Spark – maîtrise avancée du streaming et du batch, tuning et optimisation des performances MongoDB – modélisation, structuration de la donnée et bonnes pratiques de dimensionnement Kafka / Kafka Connect – conception et exploitation de pipelines de données en flux continu Déploiement Apache Spark sur Kubernetes – configuration, orchestration et gestion des ressources OVH Cloud – déploiement et exploitation d'infrastructures cloud dans un contexte de production C'est votre manière de faire équipe Capacité d'analyse et de synthèse : vous transformez des états des lieux complexes en préconisations actionnables Rigueur documentaire : vos livrables (architecture cible, dossiers techniques) sont clairs et exploitables Posture conseil : vous savez challenger l'existant et proposer des axes d'amélioration concrets Esprit de collaboration : vous travaillez en proximité avec les équipes internes et partagez vos expertises Autonomie et sens des priorités dans un environnement technique à fort enjeu de performance C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Marseille Contrat : CDI Télétravail : Hybride Salaire : De 40000 € à 45000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
Responsable d'équipe Réseau (H/F)
Experis France
Publiée le
75001, Paris, Île-de-France
Responsable d'équipe Réseau (H/F) - Paris Dans un environnement multi-sites et international, la DSI recherche un(e) Responsable d'équipe Réseau pour garantir la qualité, la disponibilité et la performance des services réseaux en production. Le périmètre couvre les infrastructures réseau et sécurité en production : LAN, WAN, Internet (dont Wi-Fi et 5G) Sécurité périmétrique (firewalls, proxy, IPS…) Support réseau des applications et services métiers Missions principales: Exploitation & service en production Assurer le MCO des infrastructures réseau Garantir la disponibilité, performance et qualité de service Gérer les incidents majeurs et problèmes complexes Superviser les changements en production Interface avec les projets et l'architecture Assurer la transition des projets vers l'exploitation Garantir l'exploitabilité et la supportabilité des solutions Être le lien entre équipes architecture, projets et RUN Amélioration continue Améliorer les processus ITIL (incident, problem, change) Réduire les incidents récurrents et renforcer la stabilité des services Contribuer à l'évolution du catalogue de services Management Encadrer une équipe de 2 à 4 experts réseau Organiser les priorités RUN et garantir la continuité de service Intervenir en support sur incidents critiques
Offre d'emploi
Senior Data Analyst
AEROW
Publiée le
Microsoft Fabric
Microsoft Power BI
3 ans
Bruxelles, Bruxelles-Capitale, Belgique
Senior Data Analyst expert capable de transformer des besoins métier complexes en insights exploitables. Vous interviendrez dans un environnement Data Mesh / Medallion / Microsoft Fabric Lakehouse , avec un rôle clé sur la qualité des données, la création de KPI fiables et la production de dashboards avancés pour le management. Analyse des besoins métier et définition de KPI pertinents . Transformation et préparation des données via SQL (structurées & semi‑structurées). Travail dans une architecture Medallion (Bronze/Silver/Gold) . Approche data mesh & conception de data products . Contrôles de qualité des données & documentation. Création de dashboards avancés dans Power BI (DAX) . Compréhension du Microsoft Fabric Lakehouse pour la localisation et l’interprétation des données. Collaboration avec les équipes ICT et participation active à la gouvernance data.
Offre d'emploi
Expert Data Engineering / DevOps AWS sur Plaisir
EterniTech
Publiée le
AWS Glue
DevSecOps
ETL (Extract-transform-load)
3 mois
Plaisir, Île-de-France
Je cherche pour un de mes client un Expert Data Engineering / DevOps AWS sur Plaisir Démarrage souhaité : ASAP Localisation : Plaisir Rythme : 3 jours sur site / semaine, 2 jours en télétravail Expérience requise : minimum 10 ans Langues : Français : échanges DSI / métiers Anglais : documentation et communication avec les filiales Contexte de la mission Dans le cadre de la mise en place de la dataplateforme SAO , un grand groupe industriel du secteur aéronautique recherche un expert Data Engineering / DevOps AWS capable de : Finaliser un premier use case d’ingestion de données ERP vers la dataplateforme. Industrialiser l’ingestion d’environ 120 tables. Automatiser les flux entre les couches Raw Data et Standardized . Accompagner la montée en compétence des équipes internes juniors. Documenter les travaux réalisés et sécuriser l’exploitabilité de la solution Attendus de la mission : Le profil devra intervenir sur la conception, l’industrialisation et l’accompagnement des équipes . 1. Volet Data Engineering AWS Analyse des besoins métiers autour des produits data Contribution aux spécifications fonctionnelles et techniques Conception d’architectures data adaptées à AWS Mise en place de pipelines d’ingestion robustes et automatisés Ingestion de données structurées, semi-structurées et non structurées Industrialisation des flux ERP / datalake vers la dataplateforme Automatisation du passage Raw Data → Standardized Production ou validation des data products Mise en place des bonnes pratiques de sécurité, scalabilité et conformité 2. Volet DevOps / industrialisation Mise en place ou optimisation des processus CI/CD Gestion des environnements DEV / PREPROD / PROD Déploiements non régressifs de data products Versioning du code, des schémas et de la data Supervision technique des traitements Pilotage des tests techniques, métiers, performance et sécurité Assistance au démarrage et suivi post-mise en production 3. Volet documentation / transfert de compétences Rédaction de la documentation projet, technique et utilisateur Rédaction des modes opératoires et cahiers de recette Transfert de compétences auprès des équipes internes Accompagnement des équipes juniors Digit SAO et Data Engineering Reporting hebdomadaire et remontée des risques / points d’avancement
Offre d'emploi
Consultant Data Engineer Informatica
VISIAN
Publiée le
AWS Cloud
Informatica
1 an
Île-de-France, France
Contexte L'un des objectifs majeurs du plan de transformation DATA d'un grand groupe média est de développer les applications DATA qui permettent aux métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI, et de déployer des applications. Dans ce cadre, ce groupe a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100 To de données par jour : Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique Socle vidéo, navigation et calcul des audiences AI pour recommandation des programmes Feature Store Moderniser les flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice
Mission freelance
DATA ARCHITECTE
Coriom Conseil
Publiée le
Collibra
KPI
Modélisation
12 mois
460-610 €
Lille, Hauts-de-France
Modèles conceptuels de données par contexte métier Dossier de de conception de KPI Analyse de la conformité des API et Data Set Compétences techniques Modélisation de données - Expert - Impératif Modélisation de KPI - Confirmé - Important Collibra - Confirmé - Souhaitable Data governance - Confirmé - Souhaitable Connaissances linguistiques: Anglais Professionnel (Impératif) Description détaillée ATTENTION LE POSTE EST UN POSTE DE DATA ARCHITECT Nous cherchons un data architect pour intégrer la plateforme Ressources Humaines: Data architecture * Conception de modèles conceptuels de données par contexte métier. * Identification des évènements métier par contexte métier. * Définition et formalisation des Business Terms, Business Attributes et Business Event dans Collibra. * Définition des Indicateurs Clés de Performance par contexte métier. * Définition des règles de qualité des Business Terms. * Analyse de la conformité des API avec la data architecture. * Analyse de la conformité des Data Set avec la data architecture. * Réalisation du data lineage. * Rédaction de dossier d'architecture data répondant aux demandes business exprimées en quarter plan * Participation à la data governance de la plateforme
Mission freelance
Ingénieur Data / BI – SSIS & SQL Server
Deodis
Publiée le
SQL
1 an
500 €
Île-de-France, France
En tant qu’Ingénieur Data / BI, vous intervenez sur un projet transverse dédié à la valorisation et à la structuration de données éditoriales issues de contenus audiovisuels (journaux télévisés, matinales, archives), afin de les rendre exploitables via des outils de reporting décisionnel. Vous êtes responsable de la maintenance et de l’évolution des flux de données (packages SSIS), de l’adaptation des requêtes SQL dans un contexte de transformation des sources, ainsi que de la modélisation des données (dimensions, faits, historisation). Vous garantissez la qualité, la fiabilité et la performance des traitements dans un environnement SQL Server, tout en documentant vos զարգements et en proposant des optimisations pour répondre à des contraintes de délais opérationnels. Vous travaillez en étroite collaboration avec les équipes data et métiers dans une logique d’amélioration continue.
Mission freelance
Data Governance Specialist - Data Catalog
Codezys
Publiée le
Apache Airflow
Collibra
Databricks
6 mois
Lille, Hauts-de-France
Contexte de la mission Le Data Governance Specialist rejoint l’équipe Expertise du Centre d’Expertise (CoE) Data Governance . Cette équipe a pour mission d’élaborer des principes communs, de favoriser la transversalité des rôles et des processus de gouvernance des données, ainsi que d’industrialiser l’utilisation de l’expertise afin de résoudre les problématiques rencontrées par les Digital Units lors de l’exécution des processus de gestion des données. La mission consiste à assurer une expertise à la fois fonctionnelle et technique concernant la solution de Data Catalog de Decathlon ( Collibra ) et son intégration dans l’écosystème de la Data & Agentic Platform . Elle inclut également une participation active aux chantiers stratégiques de transformation, tels que le AI Governance Framework , la Trust AI et la Data Quality by Design . Objectifs et livrables Développement produit / Configuration du Data Catalog Collibra : Conception de solutions pour répondre aux problématiques des utilisateurs de Collibra et mise en œuvre de ces solutions dans l’outil (administration, configuration, développements spécifiques si nécessaire). Validation des spécifications, développement et déploiement des workflows. Assistance pour la collecte des demandes et des requêtes des utilisateurs, ainsi que leur tri. Intégration du Data Catalog (Collibra) avec l’écosystème technologique de la donnée : Participer à la conception, à la mise en œuvre et à l’exploitation du système d’échange de métadonnées entre le Data Catalog, les solutions composant la Data Platform de Décathlon et les différents référentiels de métadonnées de l’entreprise. Collaborer avec l’équipe d’architecture pour assurer une intégration fluide. Configurer les capacités Edge en vue de la collecte des différentes zones de données. Développer et maintenir les connexions (crawling, APIs, connecteurs), assurer l’échange d’informations entre les systèmes IT et le Data Catalog (en interaction avec le support technique de Collibra). Intégrer le Data Catalog au sein du Data Quality Metrics Store. Participer activement au programme de Data Contract.
Offre d'emploi
Senior Consultant Business Data Analyst
VISIAN
Publiée le
Data analysis
Python
1 an
Lille, Hauts-de-France
Contexte Nous recherchons un(e) Expérimenté ou Senior Consultant Business Data Analyst pour analyser notre base client afin d’orienter les décisions stratégiques de l’entreprise. Vous jouerez un rôle clé dans l’étude de la connaissance client, et dans la propagation de celle-ci au sein de l’entreprise. Pour ce faire, vous devrez à la fois être doté d’une forte appétence métier, du bagage méthodologique et technologique adéquat. Missions Animer le recueil de besoins métiers, le challenger puis le cadrer afin de s’assurer que les prérequis au développement sont bien réunis Analyser le portefeuille clients (segmentation, comportements, valeur, churn, fidélisation) Concevoir et piloter des études ad hoc à visée stratégique sur nos clients directs et ceux recrutés via nos partenaires afin d’apporter à l’entreprise une vision globale de son portefeuille Identifier des opportunités de croissance, d’optimisation et de ciblage Formuler des recommandations actionnables aux équipes métiers et à la direction Restituer les travaux en s’adaptant à l’audience (chef de projet, CODIR, COMEX), en faisant preuve de vulgarisation et d’impact, en ayant une posture adaptée au travers de supports de qualité Garantir la qualité, la fiabilité et la cohérence des données utilisées Construire et maintenir des tableaux de bord Power BI orientés exécutif (KPI stratégiques, storylines, pages synthèse) et animer des revues de performance auprès du COMEX/CODIR Assurer la maintenance et la documentation des travaux réalisés
Mission freelance
Architecte Data Plateforme AWS / Snowflake (H/F)
ALLEGIS GROUP
Publiée le
Agent IA
AWS Cloud
DBT
1 an
Paris, France
Teksystems recherche pour l’un de ses clients grands comptes un Architecte Data AWS / Snowflake (H/F) pour construire, structurer et sécuriser la plateforme data du client basée sur Snowflake et AWS , et accompagner les équipes pour garantir une plateforme performante, scalable et prête à accueillir des fonctionnalités IA . Ce rôle est structurant, durable , et s’inscrit au cœur de la transformation data. Vos missions : 1. Définir et faire évoluer l’architecture de la plateforme Architecture cible Snowflake/AWS Patterns d’ingestion (batch, CDC, near real-time) Modélisation (Data Vault, modèles analytiques) Exposition (BI, APIs, data apps) 2. Industrialiser le delivery data Standards CI/CD (dbt, ingestion, artefacts ML) Automatisation des déploiements Intégration Git / pipelines / qualité Réduction du time-to-market 3. Mettre en place une observabilité complète Suivi fraîcheur, volumétrie, succès/échec des pipelines Tests & qualité de données Performance Snowflake (temps, coûts, consommation) Dashboards RUN, alertes, SLAs 4. Sécuriser la plateforme RBAC, rôles Snowflake, data masking, row-level security RGPD, auditabilité, traçabilité Catalogage, lineage, ownership 5. Accompagner les équipes Support aux devs, pair programming, arbitrages techniques Challenge des choix existants Coordination avec infra / cloud / sécurité 6. Préparer et soutenir le RUN Normes de reprise, diagnostic, alerting Réduction de la dette technique Support N2/N3 Conception orientée exploitabilité
Mission freelance
Business Analyst (Nantes) H/F
LeHibou
Publiée le
Business Analyst
3 ans
400-500 €
Nantes, Pays de la Loire
Notre client dans le secteur Banque et finance recherche un/une Business Analyst H/F Description de la mission: Profil recherché : Nous recherchons un Business Analyst expérimenté, disposant d'une expertise confirmée en mainframe, d’une excellente maîtrise du cadrage fonctionnel et d’une solide expérience des méthodes Agile / SAFe. Expérience : 8 ans minimum, dont une part significative en tant que développeur Mainframe (langage Cobol) Attendus du poste : Compréhension et analyse du besoin métier Conception de solution applicative complexe et prise de hauteur par rapport à une solution transverse Centraliser et répondre aux besoins Clarifier, analyser d’un point de vue critique et constructif et le cas échéant challenger le besoin formulé par le Métier aux regards des objectifs d’optimisation IT et/ou métiers Analyser des impacts fonctionnels et techniques Participer à l’élaboration et au cadrage des solutions fonctionnelles, aux devis & chiffrages, études d’impact, dossiers d’opportunité Construire la solution globale en réponse au besoin, en restant pragmatique et exigeant sur la pérennité de cette solution Contribuer à la définition de la stratégie de de tests et recettes Mettre à jour le backlog produit avec le PO Participer aux différentes cérémonies agiles Rédiger les spécifications fonctionnelles générales et détaillées et maintenir les documents spécifiques Assurer le cas échéant le suivi post MEP et le suivi financier : budget, consommés, projections Run & Support : Maximum 10% du temps consacré au Run : Gestion des incidents, Analyse des dysfonctionnements, Réponses métiers, Petites évolutions et améliorations continues. Outils de gestion de projet et méthodologies : Environnements Agile : Scrum, SAFe. Outils : JIRA, Confluence, ServiceNow, SharePoint. Maîtrise des outils bureautiques avancés : Excel, modèles, suivi budgétaire. Connaissance des technologies : Mainframe, COBOL, CICS, JCL, DB2, Armide, API, WebServices, Kafka, FileMQ, CTG Communication & relationnel : Excellente capacité à expliquer, convaincre, et de façon générale, à communiquer avec les équipes métier, les développeurs, la production, les architectes et la direction. Sens de la pédagogie, capacité à vulgariser Capacité à transformer les données brutes en informations exploitables, à analyser, critiquer et négocier Rigueur et précision Adaptabilité, aptitude à travailler en transversal dans un environnement multi-projets.
Offre d'emploi
📩 Data Governance Specialist – Data Catalog & Integration
Gentis Recruitment SAS
Publiée le
Apache Airflow
Collibra
Data governance
6 mois
Paris, France
Contexte de la mission Dans le cadre du renforcement de son Center of Expertise Data Governance , notre client recherche un Data Governance Specialist pour intégrer l’équipe “Expertise”. Cette équipe joue un rôle transverse clé et intervient sur : la structuration des standards de gouvernance data l’industrialisation des pratiques la résolution des problématiques rencontrées par les équipes métiers et data (Digital Units) La mission s’inscrit dans un environnement data platform avancé , avec des enjeux forts autour de : Data Catalog Data Quality AI Governance Data Contracts Objectifs de la mission 1. Data Catalog (Collibra) – Configuration & amélioration produit Concevoir et implémenter des solutions dans Collibra Configurer l’outil (workflows, administration, évolutions spécifiques) Recueillir et prioriser les besoins utilisateurs Valider et implémenter les spécifications fonctionnelles 2. Intégration dans l’écosystème data Participer à l’intégration du Data Catalog avec la Data Platform Concevoir les flux d’échange de métadonnées Développer et maintenir les connecteurs (API, crawling, etc.) Collaborer avec les équipes architecture Gérer l’interaction avec le support éditeur 3. Gouvernance & transformation Contribution au programme Data Contracts Participation aux sujets stratégiques : AI Governance Framework Trust AI Data Quality by Design Environnement technique Data Catalog : Collibra Data Platform : Databricks Transformation : dbt Orchestration : Apache Airflow Intégration : APIs, connecteurs, metadata exchange Data Quality : Metrics Store / framework interne Compétences attendues Must have Data Governance (confirmé) Data Catalog (idéalement Collibra) Intégration data / metadata / APIs Databricks (avancé) dbt (avancé) Apache Airflow (avancé) Nice to have Expérience sur des programmes de Data Contracts Connaissance des enjeux AI Governance Expérience en environnement data platform à grande échelle Soft skills Capacité à travailler en transverse Bon relationnel avec équipes métiers et techniques Approche structurée / orientée solution Capacité à gérer des sujets complexes
Mission freelance
Lead Test Data Management
Axysse
Publiée le
TDMA
1 an
400-550 €
Île-de-France, France
📅 Démarrage ASAP | Mission longue durée (fin 2026) Dans le cadre d’un programme de transformation majeur autour d’un système de réservation de nouvelle génération, nous recherchons un Lead Test Data Management pour structurer et industrialiser la gestion des données de test à grande échelle. 👉 Un rôle clé, transverse, au cœur des enjeux de qualité, de performance et de sécurisation des parcours métiers. 🎯 Votre rôle Vous prenez la responsabilité complète de l’activité Test Data Management (TDM) avec un double objectif : structurer et accélérer. Vos principales responsabilités : 🔹 Pilotage de l’activité TDM Définir la stratégie de gestion des jeux de données de test Prioriser les besoins (backlog data) et garantir un service fiable aux équipes Mettre en place des KPI (qualité, disponibilité, délais, couverture) 🔹 Gouvernance & catalogue de données Construire et maintenir un catalogue centralisé de jeux de données Définir les standards (naming, versioning, usage) Assurer la traçabilité entre besoins métiers et datasets 🔹 Support aux équipes & campagnes E2E Accompagner les Feature Teams dans leurs besoins data Sécuriser les campagnes end-to-end et les parcours critiques Coordonner la configuration des données complexes 🔹 Gestion des partenaires Piloter les prestataires et structurer le cadre opérationnel Suivre la qualité de service et les engagements 🔹 Industrialisation & amélioration continue Identifier les leviers d’automatisation (génération, anonymisation, duplication…) Optimiser les délais de mise à disposition des données 🔹 Communication & onboarding Formaliser les processus et bonnes pratiques Accompagner les équipes dans l’adoption Assurer un reporting régulier
Mission freelance
Data Engineer GCP H/F
LOMEGARD
Publiée le
Ansible
Apache Airflow
Google Cloud Platform (GCP)
6 mois
400-480 €
Île-de-France, France
Dans le cadre d’un accroissement d’activité et afin de renforcer l’équipe Data d’un grand acteur bancaire, notre client recherche un Data Engineer GCP expérimenté. La mission s’inscrit dans un environnement Big Data / Cloud GCP en pleine transformation, avec des enjeux forts autour de l’industrialisation des pipelines, de la qualité de données et de la mise à disposition de datasets fiables pour les équipes métiers et analytiques. La mission est basée en Île-de-France (IDF) avec 2 jours de TT par semaine. Votre rôle consiste à: Mettre en place les chaînes d’ingestion, validation, croisement et enrichissement des données. Alimenter et exploiter le Data Lake GCP (GCS) et produire des agrégats (J/H/M). Développer des pipelines batch & streaming (Spark, Kafka, Scala). Industrialiser les traitements via Airflow / Composer et CI/CD. Mettre à disposition les données (API, fichiers, dashboards). Participer à la mise en production de modèles statistiques. Documenter, corriger les anomalies, assister les équipes d’exploitation. Travailler en mode Agile (Scrum/Kanban) .
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- J'ai lancé un outil IA pour automatiser la rédaction pro des freelances — vos retours ?
- Mission validée en freelance, ESN veut basculer en CDI : que faire ?
- profil effacé
- Etat du marché 2026: rebond ou stagnation ?
- Déclaration TVA suite dépassement plafond
- Nouveau volet social dans la déclaration d'impôts sur le revenu
6059 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois