L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 396 résultats.
Offre d'emploi
Architecte Data - Infrastructures - Assurance H/F
Publiée le
40k-50k €
France
Télétravail partiel
Contexte de la mission : Nous recherchons un Architecte Data dans le cadre d'un programme de transformation Data visant à consolider le socle data autour d'une architecture cible fiable, évolutive et sécurisée pour notre client mutualiste. L'architecte Data interviendra en support de l'équipe existante afin de définir et valider l'architecture cible, d'en assurer la cohérence technique et fonctionnelle, et de mettre en oeuvre les dispositifs de sécurité nécessaires à la protection des données sensibles. En étroite collaboration avec les urbanistes et architectes d'entreprise, fonctionnels et techniques, vous interviendrez directement au sein de la DSI de notre client. Le rôle inclut également la conception et la sécurisation des architectures data, couvrant les infrastructures, les flux, les réseaux et les serveurs. Responsabilités : - Valider, sécuriser et faire évoluer l'architecture technique de la plateforme Data ; - Garantir la cohérence, la robustesse et la sécurité des flux de données entre les différents systèmes ; - Accompagner les équipes projets dans le choix et l'implémentation des solutions techniques ; - Garantir la cohérence, la robustesse et la sécurité des flux de données entre les différents systèmes.
Mission freelance
Architecte SI - Data / Cloud (H/F)
Publiée le
SI
6 mois
800-900 €
Toulouse, Occitanie
Télétravail partiel
Notre client, acteur majeur du secteur aéronautique, crée un nouveau poste d’Architecte SI Data & Cloud (H/F) dans le cadre du renforcement de sa stratégie de modernisation autour de la donnée, du cloud et des architectures distribuées. Ce poste s’inscrit dans un contexte de structuration : les équipes et les pratiques d’architecture ne sont aujourd’hui pas encore clairement identifiées, et le futur Architecte aura un rôle clé dans leur définition, leur alignement et leur montée en maturité, en particulier sur les sujets data, cloud et microservices. Vos missions Rattaché à la Direction IT et en lien direct avec les équipes techniques et métiers, vous serez en charge de : • Structurer et coordonner les architectures Data & Cloud existantes tout en harmonisant les pratiques, • Définir le cadre et les processus d’architecture en collaboration avec les parties prenantes, avec un focus sur les environnements cloud et les approches microservices, • Mettre en place une gouvernance efficace et contribuer à l’application de la politique IT et Data, • Accompagner la montée en compétence et la structuration des équipes sur les technologies data, cloud et conteneurisation, • Contribuer à la stratégie de gouvernance des données, à la définition des architectures distribuées et à la cohérence globale du SI. Compétences techniques requises • Expérience confirmée en architecture Data, Cloud et microservices (technique et fonctionnelle), • Bonne compréhension des besoins métiers et capacité à définir des spécifications adaptées aux usages data, • Connaissances en data gouvernance, data management et conception d’architectures distribuées, • Maîtrise des environnements Cloud (Azure, AWS ou GCP) et des solutions de conteneurisation (Kubernetes, Docker), • Anglais professionnel apprécié.
Mission freelance
Chef de projet Data et IA
Publiée le
Data management
IA
IA Générative
6 mois
400-500 €
Île-de-France, France
Télétravail partiel
Pour le compte de notre client qui opère dans le secteur bancaire , nous recrutons chef de projet Data et IA (h/f). L'objectif de la prestation est de renforcer l’équipe des chefs de projet du DataLab Groupe pour traiter les projets Data / IA / IA GEN confiés à la Direction Data & IA. Indispensable : Expérience confirmée , des interventions récentes en pilotage de projets Data + IA (non seulement en data) JavaScript / TypeScript Envoyez vos candidatures via la plateforme ou à l'adresse mail Besoin n'est pas ouvert à la sous-traitance.
Mission freelance
Concepteur Développeur IBM DataStage
Publiée le
BI
Data governance
ETL (Extract-transform-load)
12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Dans le cadre d’un projet décisionnel au sein du secteur bancaire , le Concepteur Développeur IBM DataStage intervient sur l’alimentation des bases DRE et Datamart . Il participe à la conception, au développement et à la maintenance des flux ETL, et accompagne les équipes BI dans l’écriture et l’optimisation des scripts SQL. 📍 Lieu de mission : Joinville-le-Pont Intitulé du poste Concepteur Développeur ETL IBM DataStage Missions principales Concevoir, développer et maintenir les traitements ETL sous IBM DataStage Alimenter les bases de données décisionnelles ( DRE et Datamart ) Analyser les besoins métiers et techniques liés à l’alimentation des données Optimiser les flux de données (performances, volumétrie, qualité) Rédiger et maintenir la documentation technique Accompagner les développeurs BI dans : l’écriture et l’optimisation des scripts SQL la compréhension des modèles de données Participer aux phases de tests, recettes et mises en production Gérer les incidents et assurer le support sur les chaînes d’alimentation Environnement technique ETL : IBM DataStage Bases de données : Oracle / DB2 / SQL Server Langages : SQL avancé Décisionnel / BI : Datamart, DRE Systèmes : Unix / Linux Outils : ordonnanceur, outils de supervision, versioning Compétences requises Techniques Maîtrise confirmée de IBM DataStage Très bonnes compétences en SQL (requêtes complexes, optimisation) Connaissance des architectures décisionnelles Compréhension des flux ETL/ELT Sensibilité aux problématiques de performance et de volumétrie Fonctionnelles Compréhension des enjeux data et BI en environnement bancaire Capacité à traduire un besoin métier en solution technique
Mission freelance
Data Migration SAP CO S/4HANA
Publiée le
SAP
SAP CO
SAP S/4HANA
6 mois
500-550 €
Paris, France
Télétravail partiel
Rattaché(e) à la Direction des Systèmes d’Information – Pôle Finance, vous êtes garant(e) des activités de migration de données liées au Contrôle de Gestion, menées par vous-même et avec les différentes équipes projets et contributeurs métiers. Extraction de données Mise en œuvre d’extractions selon des critères adaptés aux systèmes source (ex : SAP ECC, applications spécifiques). Transformation et qualité des données Actions de transcodification, de dédoublonnage, de filtrage et d’enrichissement des données. Interventions manuelles ou automatiques selon les besoins et les outils. Import dans SAP S/4HANA Chargement des données issues de plusieurs sources vers SAP S/4HANA, Respect des modèles de données cibles et des conditions d’import (ex : SAP Migration Cockpit). Analyse des risques et arbitrages Identification et analyse des risques Métier / IT / Projet, Proposition de solutions et contribution aux arbitrages. Suivi et pilotage Mise à jour des indicateurs et des alertes associées, Reporting d’avancement des migrations de données auprès des équipes Métiers et IT.
Offre d'emploi
Data Engineer
Publiée le
Dataiku
Microsoft Power BI
PySpark
1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
Mission freelance
Chef de projet Data
Publiée le
Microsoft Excel
1 an
400-550 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Mission Freelance - Chef de Projet Data 📍 Nouvelle Aquitaine : 4 jours en présentiel / 1 jour en télétravail 🎯 Compétences clés attendues : Maîtrise des méthodologies de pilotage de projet Solide expérience dans la Data, capable d’avancer en autonomie lors des phases de cadrage (même sans équipe technique dédiée) Gestion de périmètre en AMOE Mission Freelance - Chef de Projet Data 📍 Nouvelle Aquitaine : 4 jours en présentiel / 1 jour en télétravail 🎯 Compétences clés attendues : Maîtrise des méthodologies de pilotage de projet Solide expérience dans la Data, capable d’avancer en autonomie lors des phases de cadrage (même sans équipe technique dédiée) Gestion de périmètre en AMOE
Mission freelance
Data Scientist Senior
Publiée le
Google Cloud Platform (GCP)
Python
SQL
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Une grande organisation publique du secteur numérique renforce sa Direction Data, rattachée à la Direction du Numérique. Cette direction a pour objectif de faire de la donnée un levier majeur de croissance et d’optimisation des usages numériques. Le pôle Data Intelligence, composé de 4 Data Scientists et 2 Data Analysts, recherche un Data Scientist senior afin de soutenir l’exploitation des données utilisateurs, la mise en place de modèles avancés et la structuration du socle analytique. Une expérience minimale de 8 ans en data science est requise. Prestations attendues Le consultant interviendra au sein de l’équipe Data Science pour : Analyse et structuration de données • Auditer les nouvelles données disponibles dans le datalake pour enrichir le socle analytique. • Explorer, analyser et comprendre les profils et comportements utilisateurs. • Réaliser des analyses avancées : profils de vidéonautes, comportements par canal, consommation de contenus, impact de la pression publicitaire. Développement de modèles de Data Science • Comprendre les besoins métier, proposer une approche adaptée et vulgariser les résultats. • Développer et industrialiser des modèles tels que : Prévision des audiences. Enrichissement du catalogue via IA générative. Analyse sémantique des commentaires utilisateurs. Prédiction d’inactivité, d’appétence, anti-churn. Segmentation utilisateurs. Contribution au produit Data • Participer à l'amélioration continue des outils et pipelines. • Travailler avec les équipes data, produit et métier dans un contexte agile. Expertises requises Techniques • Expériences concrètes en modèles IA : prévision, recommandation, scoring, analyse sémantique, détection d’anomalies. • Expérience significative sur des sujets d’IA générative (IAG). • Maîtrise impérative de Python et SQL . • Bonne connaissance d’un cloud, idéalement Google Cloud Platform . • Connaissance des données issues d’écosystèmes digitaux (Piano Analytics, Google Analytics…). • Connaissance d’un outil de dataviz. • Un plus : architectures API, Git/GitHub, méthodes agiles. Fonctionnelles • Capacité à comprendre un besoin métier, synthétiser et restituer clairement. • Capacité à gérer plusieurs projets simultanément. • Rigueur, autonomie, esprit d’équipe.
Mission freelance
Chef de Projet Technique DATA
Publiée le
BI
Coordination
Data analysis
6 mois
Paris, France
Télétravail partiel
Dans le cadre de l’évolution de ses systèmes décisionnels, nous recherchons un Chef de Projet Technique confirmé. Vous rejoindrez une équipe Data engagée dans l’optimisation des flux décisionnels et la maîtrise des impacts transverses. Votre rôle Vous structurez et coordonnez les analyses d’impacts, pilotez les adaptations nécessaires et sécurisez l’avancement opérationnel. Vos responsabilités • Centraliser et analyser les impacts sur les flux, référentiels et composants Data. • Piloter les ateliers techniques et les échanges avec les équipes Data, IT, et Métiers. • Construire une vision consolidée des risques, dépendances et actions à engager. • Maintenir le planning et coordonner les contributeurs internes. • Préparer les livrables de reporting et les comités projet. • Garantir la qualité des analyses produites et la fiabilité des éléments de décision.
Offre d'emploi
Chef de projet Infrastructure / Project Management
Publiée le
Data governance
SLA
1 an
40k-45k €
330-440 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Dans un contexte international et pour des raisons d'efficacité, il s'agit de suivre et renforcer le suivi de projets transverses principalement sur des sujets de production et sécurité. Mise en place de roadmap avec les équipes, suivi de projet, facilitator, reporting sur plusieurs types de projets BAU et non BAU : Exercice de restoration Implementation des plans des Risk cards Mise en place de roadmap consolidées des équipes APS Mise en place et preparation de Production Steering Committee Renforcement des controles ITIL Préparation des Services Review, SLA Preparation weekly change board Preparation de revue P1/2/PIR
Offre d'emploi
Développeurs JAVA Back-End
Publiée le
Back-end
Docker
Git
1 an
40k-50k €
400 €
Île-de-France, France
🔎 Recherche : 3 Développeurs JAVA Back-End Senior (8+ ans) – Secteur bancaire Missions : Conception et développement de solutions JAVA de qualité Support applicatif Travail en méthodologie Agile Contribution à l’amélioration continue Environnement : Java 8/17/21, Spring / Spring Boot, Spring Data, Spring Batch, Microservices, Cloud, Jenkins, Maven, Git, TDD, PostgreSQL, Oracle (Notions : Docker, Kubernetes, BDD, Architecture Hexagonale) 👤 Profil recherché Développeur JAVA Back-End Senior 8 ans d’expérience minimum Expérience significative en secteur bancaire ou financier fortement appréciée
Offre premium
Offre d'emploi
Ingénieur DATA / DEVOPS (F/H)
Publiée le
AWS Cloud
Data analysis
DevOps
Nice, Provence-Alpes-Côte d'Azur
Télétravail partiel
Mission sur SOPHIA ANTIPOLIS 4 jours de présentiels (préférable d'habiter la région Alpes maritimes) En vue d'embauche en CDI Notre client, une start-up dans l'énergie, recherche un tech lead pour accompagner les équipes dans le développement de leur solution de prévision météo. Mission principale : Assurer le pilotage technique et la mise en production des solutions de prévision solaire développées, en garantissant la robustesse, la scalabilité et la fiabilité de l’infrastructure data et logicielle. Responsabilités clés : Data Engineering : maintenir et optimiser les pipelines de données (météo, satellite, capteurs PV) pour les modèles de prévision. Infrastructure & DevOps : Déploiement et gestion des environnements cloud (AWS). Mise en place et maintenance de l’Infrastructure as Code (Terraform). Automatisation et optimisation des déploiements via CI/CD (GitHub Actions). Orchestration des tâches : concevoir, monitorer et optimiser les workflows de données et de calcul via Dagster. Opérations métiers : garantir la bonne exécution des codes de prévision (algorithmes, modèles, calculs intensifs) en production. Onboarding & Process : structurer et gérer les procédures d’onboarding technique des nouveaux clients et des PoCs. Qualité & Sécurité : veiller à la résilience, à la sécurité et à la performance des systèmes déployés. Compétences attendues : Solide expérience en Data Engineering et/ou DevOps. Maîtrise de AWS et des outils Terraform. Connaissance des bonnes pratiques CI/CD et expérience avec GitHub Actions. Expérience en orchestration de workflows de données (idéalement Dagster, sinon Airflow ou équivalent). Compétences en scripting (Python, Bash) et monitoring. Capacité à travailler dans un environnement agile, en lien avec des data scientists et des équipes projet. Esprit de structuration et sens des responsabilités pour accompagner la croissance d’une scale-up deeptech.
Mission freelance
Senior Data Engineer GCP MLOps
Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)
6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Mission freelance
Chef de projet Data
Publiée le
BigQuery
Google Cloud Platform (GCP)
Piano Analytics
12 mois
Paris, France
Télétravail partiel
Contexte Une grande direction numérique souhaite renforcer son équipe Data dans le cadre de projets transverses impliquant de multiples directions internes. L’objectif de la direction Data est de faire de la donnée un levier de croissance stratégique via trois axes majeurs : Maximiser la collecte dans le respect des réglementations. Développer la connaissance et l’expérience utilisateur. Fournir outils de pilotage et d’aide à la décision aux équipes internes. Dans ce cadre, la mission consiste à assurer la coordination Data transversale au sein de plusieurs pôles et avec l'ensemble des directions métiers consommatrices de données. Prestations attendues Coordination intra-Data Coordonner les projets transverses entre les pôles Data (Technique, Intelligence, Management, Gouvernance). Identifier les actions attendues par chaque équipe. Assurer le suivi d’avancement et remonter les alertes. Mettre en place et structurer la comitologie, la documentation et les rituels projet. Assurer la remontée d’informations au management. Coordination inter-Data avec les métiers Agir comme point d’entrée principal pour les directions métiers consommatrices de données (Produit, Editorial, Partenariats, Marketing, Publicité…). Qualifier et formaliser les besoins (collecte, tracking, dashboards, analyses, personnalisation…). Représenter la Data dans les instances de coordination des projets transverses. Organiser les ateliers de travail, réunions de suivi, réunions de restitution. Garantir la cohérence entre les équipes Data et les métiers sur l’ensemble des sujets. Assurer la communication sur les livrables Data afin de promouvoir les réalisations. Expertises requises Expérience minimale de 8 ans en gestion de projets Data. Compétences confirmées sur GCP, SQL et BigQuery. Expérience sur les principaux métiers Data : collecte, tracking, dashboarding, analyse, personnalisation, data science. Pratique avérée des données digitales, notamment via Piano Analytics. Capacité à piloter des projets transverses et à gérer plusieurs chantiers simultanément. Capacité à synthétiser des sujets complexes et à présenter des résultats à des interlocuteurs ayant des niveaux de maturité variés.
Mission freelance
Chef de Projet Technique DATA
Publiée le
BigQuery
Cloud
Comité de pilotage (COPIL)
6 mois
Paris, France
Télétravail partiel
Dans le cadre de la modernisation de son écosystème Data et de la montée en charge de projets stratégiques Cloud, nous recherchons un Chef de Projet Technique confirmé spécialisé GCP. Vous interviendrez au sein d’une DSI Assurance mobilisée autour de l’industrialisation de ses usages Data et de l’accélération des livraisons sur la plateforme Cloud. Votre rôle Vous jouez un rôle clé dans la coordination technique, la structuration des travaux DATA sur GCP et le pilotage global de l’avancement du programme. Vos responsabilités • Piloter les projets Data hébergés sur Google Cloud Platform. • Coordonner les équipes techniques (Data, IT, Cloud, Transverse). • Assurer le suivi planning, risques, charges et dépendances. • Organiser et animer les comités projet / comités techniques. • Consolider les besoins techniques et suivre l’avancement des actions. • Garantir la qualité des livrables, la cohérence technique et la bonne circulation de l’information. • Veiller au respect des normes internes, bonnes pratiques Cloud et exigences de sécurité.
Mission freelance
Architecte data
Publiée le
Architecture
1 an
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission : Nous cherchons un Architecte Data, dont la mission sera de travailler sur différents aspects de l'architecture de données. Il sera le garant de l'urbanisation de la donnée, de sa cohérence et de sa circulation de la donnée au sein d'un écosystème complexe et siloté. Il assure l'interopérabilité, la qualité et la valorisation des données issues des différents silos applicatifs. Objectifs principaux de la mission : · Urbaniser le SI Data : Définir et piloter la trajectoire pour passer d'un SI siloté à une architecture data-centric (orientée service/API et/ou hub de données). · Garantir la cohérence technique : Assurer la définition d'un langage commun et la gestion des données de référence (MDM) à travers les applications. · Définir le cadre d’implémentation des données : proposer la méthode pour rendre les données accessibles et interopérables pour les usages Métier (BI, reporting opérationnel, information voyageurs temps réel, maintenance prédictive…) Activités et Responsabilités Clés Ø Architecture & Modélisation · Cartographie du SI Data en lien avec le gestionnaire des données : Établir et maintenir la cartographie des données (conceptuelle, logique) et des flux inter-applicatifs, en cohérence avec la cartographie globale du SI. · Modélisation des données : Définir et gouverner les objets métier centraux conformément aux spécifications fournies par les métiers et définir les modalités d’interactions des différents systèmes avec ces objets (fréquence, pattern, performance, liaisons entre les différents objets.) · Standards & Normes : Aider à l’intégration et la bonne implémentation des standards du transport public (NeTEx pour l'offre théorique et tarifaire, SIRI pour le temps réel…) dans les projets internes et externe, il doit également assurer une veille sur les standards. Ø Conception des Échanges & Interopérabilité · Définition des Interfaces : En collaboration avec les équipes d’architecture et de développement, concevoir les ‘contrats d'interface’ (API, Webservices, Messages, ETL) entre les solutions éditeur ou solutions maison en utilisant les plateformes d'intégration (ESB, API Management, Message Broker…). · Validation des flux : S'assurer que le dimensionnement des flux de données répondent aux besoins fonctionnels et aux contraintes de performance (ex : criticité du temps réel entre le SAE et l'application mobile). Ø Gouvernance, Qualité & Conformité des Données · Master Data Management (MDM) : En collaboration avec les gestionnaires de la donnée Identifier les applications ‘ maîtres ’ pour chaque donnée de référence (produit / billettique, véhicule/Mainta…) · Stratégie de Mise en Qualité (Data Quality) : Contribuer à la définition de la stratégie de qualité des données, en combinant des approches métier et techniques : o Stratégie Métier : Accompagner les référents métier (Ex : Gestionnaires des données) dans la définition des règles de gestion et dans les processus de correction des anomalies à la source o Stratégie Technique : Définir et contribuer à la mise en œuvre des contrôles de qualité automatisés (profiling, dédoublonnage, validation de format) au sein des flux de données (via l'ETL, l'ESB) et des tableaux de bord de suivi de la qualité des données (Data Quality Monitoring) à destination des métiers et de la DSI. · Sécurité & Conformité : Garantir que l'architecture data respecte les contraintes de sécurité (NIS2) et de protection des données personnelles (RGPD sur le CRM et la Billettique…). Ø Pilotage de Projets & Vision Stratégique · Support aux Projets : Agir en tant qu'expert Data pour tous les nouveaux projets · Cadrage Architectural : Rédiger les Dossiers d'Architecture Technique (DAT) sur le volet Data
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
1396 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois