Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 498 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer GCP

CAT-AMANIA
Publiée le
Apache Airflow
BigQuery
Data Engineering

1 an
40k-50k €
350-400 €
Lille, Hauts-de-France
Vous serez intégré dans une équipe pluridisciplinaire (Data Engineer, DevSecFinOps) Vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 6 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité
Freelance

Mission freelance
TECHNICAL ARCHITECT - Nantes

Signe +
Publiée le
Apache Tomcat
AWS Cloud
Azure

180 jours
450-550 €
Nantes, Pays de la Loire
Prestation d'architecte technique dans un contexte Agile qui nécessite une collaboration étroite avec les différentes entités du système d'information pour concevoir et mettre en œuvre des architectures techniques cohérentes et optimisées. Architecture technique : - Participer aux études amont des projets : - Réaliser un bilan de l'existant. - Étudier la faisabilité, réaliser des estimations des différents scénarios d'architecture technique envisagés, et fournir une synthèse comparative. - Pour chaque scénario, présenter la démarche d'élaboration de l'architecture technique, fournir une liste des moyens techniques de base répondant aux principales exigences, et estimer les charges. Suivre et accompagner les projets informatiques : - Participer à la conception des projets en contribuant à bâtir l'architecture technique de la solution retenue pour le projet, en se basant sur les éléments d'architecture validés par l'urbaniste en étude préalable. - Respecter les contraintes d'urbanisme et les trajectoires SI envisagées. Standardiser et simplifier les échanges inter-applicatifs : - Identifier et décrire les flux, définir les standards d'échanges et mettre en place éventuellement des services automatisés d'échanges. - Faire le lien avec l'infrastructure technique et s'assurer que les solutions d'urbanisme sont supportées par les infrastructures techniques et conformes au schéma directeur technique. - Participer à l'étude d'impact sur l'architecture existante ou prévisionnelle des évolutions techniques liées à des modifications fonctionnelles ou à la prise en compte de nouvelles technologies, et recommander des choix techniques pour assurer la cohérence des évolutions. Conseiller et assister les acteurs du SI, dans les différentes phases de mise en place ou d’évolution de son domaine d’expertise : - Conseiller les acteurs SI sur l’utilisation des outils informatiques et de télécommunications. - Conseiller et assister les équipes de projet et de production. - Animer des réseaux entre les diverses entités informatiques pour prendre en compte les besoins et contraintes. - Accompagner les équipes d’exploitation pour le déploiement de l’architecture technique. - Proposer des solutions d’optimisation.
Freelance

Mission freelance
Expert SQL Sénior / Data Engineer DBT

Signe +
Publiée le
Google Cloud Platform (GCP)

5 mois
280-300 €
Lyon, Auvergne-Rhône-Alpes
🎯 MISSIONS Réaliser la data prep dans le cadre d'un projet d'automatisation des analyses récurrentes Contribuer à l'élaboration d'un cockpit de performance (data prep + data visualisation) Assurer le run quotidien : extraction, automatisation de livrables, création de reporting Renforcer le suivi de performance sur la partie non alimentaire Livrables attendus : Datasets sur BigQuery Classeurs Tableau Analyses + scripts pour le run quotidien 🛠️ ENVIRONNEMENT TECHNIQUE Cloud / Data : GCP, BigQuery Langages / Outils : SQL avancé (gros volumes), DBT Versioning : Git Méthode : Agile / Scrum 👤 PROFIL RECHERCHÉ Expert SQL Senior et/ou Data Engineer DBT confirmé Bac+5 informatique (école d'ingénieur ou université) ou équivalent 7 ans d'expérience minimum en Data Engineering DBT / SQL Expérience retail / grande distribution appréciée Bon communicant, autonome, esprit d'amélioration continue
Freelance

Mission freelance
Cadrage risques & data (BCBS 239)

Mon Consultant Indépendant
Publiée le
Data Strategy
Gestion de projet

4 mois
650-700 €
Paris, France
Dans le cadre de la transformation de ses fonctions de contrôle, un acteur de premier plan du Crédit à la Consommation souhaite définir et structurer sa future Plateforme Risque Cible. L'enjeu est double : moderniser l'infrastructure technologique pour intégrer les opportunités offertes par l'Intelligence Artificielle (automatisation des contrôles) tout en garantissant une conformité stricte aux exigences réglementaires, notamment BCBS 239. La mission s'inscrit dans un environnement transverse, nécessitant une synergie forte entre la Direction des Risques, les équipes Data et l'IT. Objectifs et Périmètre L'objectif central est de réaliser une analyse d'écarts (gap analysis) entre l'existant et la cible, puis de concevoir la feuille de route opérationnelle pour la mise en œuvre du dispositif. Le périmètre prioritaire est le Risque de Crédit, incluant également les risques financiers, de valeur résiduelle et opérationnels. Descriptif des interventions Phase 1 : Diagnostic et Analyse de l'Existant · Recueil des besoins : Animation d'ateliers avec les équipes Risques pour identifier les attentes et les leviers d'amélioration. · Audit des "Pain Points" : Identification des points de friction du dispositif actuel (processus, outils, qualité de donnée). · Benchmark de place : Analyse comparative des pratiques du secteur (organisation, gouvernance) et veille sur les cas d'usage de l'IA dans la gestion des risques. Phase 2 : Définition de la Cible (Target Operating Model) · Scénarios de Plateforme : Proposition de différents scénarios d'architecture et de services pour la plateforme cible. · Gouvernance des Données : Définition de la chaîne de responsabilité, de validation et de gouvernance de la donnée. · Pilotage : Spécification des tableaux de bord de suivi de la qualité des données (du niveau opérationnel jusqu’au Corporate Center). · Organisation & RH : Estimation des besoins en effectifs (FTE) et cartographie des compétences nécessaires pour opérer la cible. Phase 3 : Cadrage Opérationnel et Plan de Déploiement · Feuille de route : Élaboration d'un plan d'actions structuré par chantiers. · Gestion des dépendances : Articulation étroite avec le programme interne spécifique et les impératifs du projet BCBS 239. · Planning & Gouvernance Projet : Définition des jalons clés, des étapes de validation interne et mise en place des instances de pilotage. 4. Livrables attendus · Rapport d’analyse d’écarts et benchmark de place. · Dossier de définition de la plateforme cible et de l’organisation associée. · Schéma de gouvernance et de responsabilité des données. · Feuille de route détaillée (Roadmap) et planning d'implémentation. · Estimation budgétaire et dimensionnement des équipes (FTE). 5. Profil recherché · Expertise Métier : Solide expérience en gestion des risques (Crédit, Valeur Résiduelle, Opérationnel) dans le secteur financier. · Expertise Réglementaire : Maîtrise approfondie des exigences BCBS 239. · Culture Data/IA : Capacité à projeter l'utilisation de l'IA pour l'industrialisation des contrôles métiers. · Soft Skills : Excellence en gestion de projets transverses, capacité à fédérer des interlocuteurs variés (Risque, Finance, IT, Data). · Atout majeur : Expérience opérationnelle dans le secteur du crédit à la consommation automobile (captives).
Freelance

Mission freelance
Consultant Azure Data Factory (H/F)

Webnet
Publiée le
Azure Data Factory
CI/CD
DevOps

6 mois
450-530 €
Paris, France
Dans le cadre du renforcement d’une équipe Data, nous recherchons un Consultant Azure Data Factory pour intervenir sur des projets décisionnels dans un environnement Microsoft Azure . Vous aurez pour missions : Au sein de l’équipe Data et en collaboration avec le chef de projet, vous interviendrez sur les activités suivantes : Créer et optimiser des bases de données (SQL Server principalement). Prendre en charge les développements de scripts SQL/Procédures. Prendre en charge les développements des pipelines Azure Data Factory. Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). Être force de propositions sur les optimisations de traitement Rédaction de la documentation (spécifications techniques), recettes. Gestion du code source via Microsoft Devops et déploiement CI/CD. Préparation des livrables pour les mises en production
Freelance
CDI

Offre d'emploi
SENIOR Data engineer MSBI Python Azure (7-8 ans minimum)

Digistrat consulting
Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS

3 ans
50k-65k €
500-580 €
Paris, France
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Freelance

Mission freelance
Architecte Data Snowflake / Cloud / IA Générative – Expérimenté H/F

LeHibou
Publiée le
AI
AWS Cloud
Snowflake

3 ans
500-560 €
Roubaix, Hauts-de-France
Notre client dans le secteur Banque et finance recherche un/une Architecte Data Snowflake / Cloud / IA Générative – ExpérimentéH/F Description de la mission: Architecte Data Snowflake / Cloud / IA Générative Contexte de la mission Dans le cadre de la synergie IT et du développement de l’IA générative au sein de ses applications, le chapitre Data / Entrepôt de données a la responsabilité de faire évoluer les patterns liés à la plateforme Data Snowflake. La mission s’inscrit au sein d’une équipe composée d’experts IT, avec un focus sur l’administration et l’architecture de la plateforme Snowflake, en France et à l’international. Missions principales Au sein de l’équipe Data, fort de vos expériences d’administration de plateforme Snowflake, vos missions principales seront de : • Concevoir les nouveaux patterns nécessaires sur les périmètres suivants : ingestion de données, manipulation de données et restitution, pour des données structurées et non structurées. • Mettre en œuvre ces patterns sur la plateforme France et à l’international pour qu’ils puissent être utilisés par les équipes Data IT et métiers. • Accompagner les différentes équipes IT et métiers, en France et au sein des Business Units, dans le déploiement et la prise en main de la plateforme Snowflake. Activités détaillées • Contribuer aux cadrages des nouveaux besoins techniques métiers liés à la plateforme Snowflake. • Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc.). • Participer aux choix technologiques de l’offre à mettre en place. • Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux patterns (architecture fonctionnelle, applicative, technique). • Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée. • Documenter les patterns retenus à un niveau détaillé afin de les rendre exécutables pour les autres Business Units. • Être l’interlocuteur privilégié des équipes portant les besoins d’agents/usages IA générative au sein du pôle Data. • Accompagner le déploiement de la solution définie auprès d’une Business Unit principale et des autres Business Units. • Accompagner la prise en main de la plateforme Data.
Freelance

Mission freelance
Data & Analytics Engineer (SQL / DBT)

Nicholson SAS
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

6 mois
270 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Grande Distribution Localisation : Lyon (Rythme : 3 jours de présence sur site par semaine) Durée : Mission longue visibilité (jusqu’au 16/10/2026) TJM Max : 270 € 🎯 Mission & Contexte Au sein d'une équipe dynamique dédiée au pilotage du secteur Non-Alimentaire , vous participerez à l'automatisation des analyses stratégiques. Votre mission consiste à transformer les données brutes en outils d'aide à la décision (cockpits de performance) pour les Category Managers. 🛠️ Vos responsabilités Data Preparation : Construire les pipelines de données nécessaires aux analyses récurrentes. Développement de Dashboards : Participer à la création et à l'évolution du cockpit de performance (Data Viz). Maintien Opérationnel (Run) : Assurer le bon fonctionnement quotidien des flux (extractions, scripts d'automatisation, vérification des rapports). Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins analytiques. 📦 Livrables Modèles de données structurés sur BigQuery . Tableaux de bord opérationnels sur Tableau . Documentation technique et scripts de maintenance. 💻 Stack Technique Environnement : Google Cloud Platform (GCP). Data : Maîtrise de SQL (requêtes complexes, optimisation). Transformation : Utilisation de DBT (ou forte volonté d'apprendre l'outil). Outils : Git (versioning), environnement Agile (Scrum).
Freelance

Mission freelance
101684/Data Engineer Data de Google (Google Tag Management, Looker Studio et BigQuery) NANTES

WorldWide People
Publiée le
Google Tag Manager

9 mois
400-440 €
Nantes, Pays de la Loire
Data Engineer Data de Google (Google Tag Management, Looker Studio et BigQuery) NANTES Mission dans le secteur de l'assurance qui consiste à intervenir sur la suite Data de Google (Google Tag Management, Looker Studio et BigQuery) pour optimiser l'exploitation des données dans un environnement agile (SAFe). La mission a lieu à Niort et ne peut pas être réalisée en distancielle mais permet 3 jours de télétravail. Activités confiées : - Collaborer avec l'équipe sur la définition des objectifs et KPI’s pour la mesure des fonctionnalités. - Accompagner la définition des besoins en tracking. - Recetter les données en phase de test des fonctionnalités. - Recetter les données après la mise en production des fonctionnalités. - Préparer et ingérer des données dans BigQuery (en Node JS). - Mettre à disposition des données fiabilisées dans Looker Studio. - Participer à l'analyse des données produites et en tirer des enseignements. - Optimisation et amélioration continue : - Veiller au bon fonctionnement de l'ingestion quotidienne des données et appliquer des correctifs si nécessaire. - Ingérer de nouvelles sources de données nécessaires au monitoring global des KPI’s du train. - Gérer et optimiser les processus existants. - Analyse et communication : - Participer à l'analyse des données issues des monitoring pour en tirer des enseignements. - Participer à l'amélioration continue des tracking, des processus ou du fonctionnement de l'équipe. - Communiquer avec les autres corps de métier (PO, UX, testeurs, architectes, développeurs) dans la construction des features. La mission nécessite que le data Engineer soit autonome sur les technologies suivantes : - Script shell. - Python. - BigQuery. - JavaScript. - Piano Analytics (à créer à la place d'Adobe Analytics). - Looker Studio. - Google Tag Manager.
Freelance

Mission freelance
Expert Datadog

Tenth Revolution Group
Publiée le
AWS Cloud
Datadog
Kubernetes

3 ans
530-640 €
Paris, France
Datadog - Expert - Impératif Cloud AWS - Confirmé - Important Prometheus/Grafana - Confirmé - Important Vos principales missions : Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis Match : Formation & expérience : Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support) Profil recherché Formation & expérience : Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) Environnement de travail Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support)
CDI

Offre d'emploi
Chef de projet

Management Square
Publiée le
AWS Cloud
Linux
Microsoft Windows

40k-47k €
Île-de-France, France
Nous sommes à la recherche d'un(e) : Chef de projet - Enregistrement, qualification technique et suivi de la résolution des incidents - Rédaction et suivi des demandes d'évolutions (technique ou métier) - Coordination des actions entre exploitant / TMA / fournisseurs / métier - Rédaction des tickets de change technique et fonctionnels - Qualification des évolutions, vérification de bon fonctionnement , suivi du processus de MEP - Coordination des actions internes (métiers / achats / exploitant / architectes fonctionnels et techniques) et externes (fournisseurs / TMA) - Mise à jour des besoins métier et NFR - Validation des spécifications fonctionnelles détaillées - Prérecette et pilotage de la recette avec les métiers
Freelance
CDI

Offre d'emploi
Offre de mission Data Governance Manager – Stewardship & Adoption sur Bordeaux

EterniTech
Publiée le
Data governance
Microsoft Power BI
Snowflake

5 mois
Bordeaux, Nouvelle-Aquitaine
Je cherche pour un de mes clients Data Governance Manager – Stewardship & Adoption Description du besoin : Poste : Data Governance Manager – Stewardship & Adoption Expérience : mini 5 ans en Data Gouvernance Partenaires et Freelances Quelques mots sur le contexte de la mission et l’équipe Chez le client, le besoin s’inscrit dans le développement de la gouvernance data, dans un environnement structuré autour de Snowflake, Power BI et Datahub. La mission se déroule au sein de l’équipe Data Management composée de 4 Data Managers, qui outillent la gouvernance Data des entités du groupe et participent aux projets métiers en collaboration avec les Data Engineers et notre communauté de Data Owner. Enjeux du projet / périmètre La mission vise à structurer, déployer et animer la gouvernance opérationnelle autour d’une communauté de Data Stewards à créer, à renforcer l’adoption des outils et pratiques de gouvernance, et à rapprocher l’équipe Data Management des utilisateurs afin de mieux prioriser les besoins métiers et data. Le poste n’a pas vocation à être un rôle de Data Steward central ; il s’agit d’un rôle transverse, orienté cadre, adoption, animation de communauté et accompagnement du changement. Activités principales • Déployer et animer le modèle de Data Stewardship : clarification des rôles, périmètres, interactions et rituels entre Data Owners, Data Stewards, Data Management et équipes techniques. • Structurer l’onboarding des Data Stewards et produire les kits, standards et supports utiles. • Lancer et animer la future communauté de Data Stewards. • Renforcer l’adoption du Data Catalog et des pratiques de gouvernance. • Accélérer la documentation des assets prioritaires • Intégrer davantage la gouvernance dans les workflows projets. • Contribuer à l’extension de la couverture du catalogue, notamment sur les traitements IA. • Organiser des ateliers et temps d’échange avec les utilisateurs. • Faire émerger les irritants et besoins, structurer un backlog transverse et contribuer à sa priorisation avec les équipes concernées. • Contribuer à une gouvernance by design sur les projets data, dès les phases de cadrage. Activités secondaires • Réactiver et mobiliser les communautés existantes, en particulier les référents Power BI. • Animer des campagnes ciblées et des rituels simples mais réguliers autour des usages de gouvernance. • Accompagner l’appropriation des rôles de Data Steward par certaines communautés existantes. Contexte technique et organisationnel Environnement data structuré autour de 4 plateformes Snowflake, une par entité du groupe, Power BI et Datahub. Mission portée par l’équipe Data Management, en interaction avec des Product Managers, Data Analysts, Data Scientists, Data Engineers, équipes plateforme et sponsors métier. Utilisation framework scrumban Contraintes techniques Bonne compréhension attendue des enjeux liés aux catalogues de données, aux métadonnées, à la documentation, à l’ownership, aux accès et aux usages. Maitrise de Snowflake et Power BI ou outils similaires Soft skills souhaitées • Forte capacité d’animation de communauté • Facilitation • Conduite du changement • Capacité à faire avancer un sujet transverse sans autorité hiérarchique • Approche structurée, pragmatique, orientée impact et adoption • Capacité à dialoguer avec des interlocuteurs variés Expérience minimale requise Profil disposant d’une expérience solide en Data Governance, Data Management, Data Transformation ou Data Program Management. Outils de collaboration attendus Teams, Jira, Confluence, Datahub • TT les mercredis et vendredis (Possibilité de venir sur site si volonté). Critères de sélection Les éléments différenciants pouvant être mis en avant dans la candidature, d’après ton draft, sont : • expérience concrète de déploiement de modèles de gouvernance, de rôles ou de réseaux de référents ; • capacité à structurer et animer une communauté de Data Stewards ; • capacité à embarquer des parties prenantes variées et à conduire le changement ; • bonne compréhension des enjeux de Data Catalog, métadonnées, documentation, ownership, accès et usages ; • capacité à faire émerger les besoins utilisateurs et à contribuer à leur priorisation ; • approche pragmatique et orientée adoption / impact. Détail des compétences techniques Connaissance de Power BI : junior (<2 ans) Snowflake : junior (<2 ans d'exp) Data Governance : expert (>5 ans d'exp) Data Stewardship Operating Model : confirmé (2 à 5 ans d'exp) Data Catalog / Metadata Management : confirmé (2 à 5 ans d'exp) Conduite du changement / adoption : expert (>5ans) Animation de communauté / réseau de référents : confirmé (2 à 5 ans d'exp) Datahub ou autre Data Catalog : junior (< 2 ans) Gestion backlog transverse / priorisation : confirmé (2 à 5 ans d'exp)
Freelance

Mission freelance
Senior Data Product Manager – Group Data Platform / Data Mesh H/F

ADSearch
Publiée le
Architecture
Data Mesh
Production

3 mois
La Défense, Île-de-France
Contexte de la mission Dans le cadre de l’accélération de sa transformation Data à l’échelle Groupe, notre client recherche un(e) Senior Data Product Manager pour piloter de manière stratégique et très opérationnelle la conception, la mise en œuvre et le déploiement de sa plateforme Data Self-Service Groupe , fondée sur les principes du Data Mesh . Il s’agit d’un rôle clé, orienté build et exécution , avec une forte responsabilité sur la livraison concrète , l’ industrialisation et l’ adoption à grande échelle de la plateforme au sein des différents domaines métiers. Le/la candidat(e) devra être capable de définir une vision produit claire tout en la traduisant en une plateforme robuste, scalable et prête pour la production , utilisée à l’échelle de l’entreprise. Mission principale Concevoir, construire, déployer et opérer la plateforme Data Mesh Groupe (appelée Group Data Platform – GDP ) comme un produit interne , en garantissant : sa livraison technique son adoption à l’échelle de l’entreprise son excellence opérationnelle son amélioration continue Responsabilités principales 1. Product Management orienté usage & amélioration continue Vos missions Recueillir et formaliser les besoins utilisateurs ainsi que les exigences plateforme Définir la vision produit , la proposition de valeur et la roadmap Mesurer l’usage de la plateforme et la valeur créée Améliorer en continu l’ expérience développeur et l’ expérience utilisateur Structurer les boucles de feedback et piloter le backlog d’amélioration Livrables attendus Vision produit et proposition de valeur de la plateforme KPIs de performance, d’usage et d’adoption Mécanismes de feedback utilisateurs et backlog d’amélioration continue Roadmap d’évolution de la plateforme 2. Delivery de la plateforme (responsabilité centrale) Vos missions Définir les capacités de la plateforme : data products pipelines de données gouvernance observabilité accès self-service Définir et faire appliquer les standards techniques et les patterns d’architecture Prendre des décisions techniques concrètes et valider les solutions de manière opérationnelle Garantir une plateforme industrialisée, réutilisable et scalable Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme 3. Architecture Cloud & Infrastructure Vos missions Coordonner la conception et l’exploitation de l’architecture cloud et hybride avec le Group Data Architect Coordonner avec la Group Data Delivery Team l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Garantir les exigences de sécurité , de conformité et de gouvernance Livrables attendus Blueprint d’architecture cloud (en collaboration avec le Group Data Architect) Cadre de sécurité et de gestion des accès Principes d’intégration hybride / on-premise 4. Pilotage de la delivery & exécution Vos missions Piloter l’ensemble du cycle de delivery de la plateforme Définir le backlog produit et le processus de priorisation Organiser les releases et les déploiements en production Suivre la performance, la fiabilité et la disponibilité de la plateforme Identifier et gérer les risques, incidents et sujets techniques critiques Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et processus de gestion de versions Tableaux de bord de suivi de delivery SLA / indicateurs de fiabilité et de performance de la plateforme 5. Déploiement & adoption dans les domaines métiers Vos missions Déployer la plateforme dans les différents domaines métiers Accompagner les équipes domaines dans la création de data products Mettre en œuvre le modèle opérationnel Data Mesh Structurer et accompagner l’onboarding des équipes Lever les freins opérationnels à l’adoption Livrables attendus Framework et processus d’onboarding des domaines Guidelines sur le cycle de vie des data products Playbooks d’accompagnement des équipes métiers / domaines KPIs d’adoption et d’usage Supports de formation et documentation d’onboarding 6. Documentation, standardisation & gouvernance Vos missions Documenter les capacités, standards et processus de la plateforme Garantir l’alignement avec la Federated Computational Data Governance du Groupe Structurer les bonnes pratiques de mise en œuvre Livrables attendus Référentiel de documentation de la plateforme Standards techniques et guidelines d’implémentation Framework de gouvernance et de conformité Playbooks de bonnes pratiques 7. Communication opérationnelle & reporting exécutif Vos missions Communiquer sur l’avancement, l’impact et la valeur de la plateforme Produire un reporting régulier à destination des instances de gouvernance et du management Aligner les parties prenantes métier, IT et Data Livrables attendus Executive Project Dashboard Tableaux de bord de performance de la plateforme Présentations pour les comités de pilotage / steering committees Suivi des décisions, risques et points bloquants 8. Promotion interne & évangélisation Vos missions Promouvoir la valeur de la plateforme à l’échelle de l’organisation Soutenir les initiatives d’adoption interne Fédérer une communauté autour de la plateforme Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations de la plateforme et portefeuille de cas d’usage
CDI

Offre d'emploi
Data Product Manager (Business Analyst / Solution Architect) - CDI F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
CI/CD
Code Review
Data management

Courbevoie, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Senior DevOps AWS

KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform

3 ans
Paris, France
Dans le cadre de programmes de transformation digitale, nous recherchons un DevOps AWS pour accompagner nos clients dans l’adoption des meilleures pratiques DevOps et Cloud Native. Vous interviendrez sur des missions de diagnostic, d’audit et de mise en œuvre de solutions d’industrialisation des infrastructures AWS. Vous analyserez les environnements existants, identifierez les axes d’amélioration et proposerez des trajectoires d’évolution adaptées aux contraintes techniques et métiers. Vous participerez à la mise en place de pipelines CI/CD modernes, à l’automatisation des déploiements et à la sécurisation des architectures cloud. En parallèle, vous accompagnerez les équipes internes dans la montée en compétence sur AWS et les pratiques DevOps. Votre rôle sera à la fois technique et pédagogique, avec une forte dimension conseil.
CDI

Offre d'emploi
Data Engineer Semarchy (H/F)

CELAD
Publiée le

36k-42k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

2498 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous