L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 764 résultats.
Mission freelance
SAP Tech Lead BTP / Integration & Data Conversion
Intuition IT Solutions Ltd.
Publiée le
SAP ABAP
SAP S/4HANA
2 ans
Versailles, Île-de-France
Nous recherchons un SAP Tech Lead BTP / Integration & Data Conversion pour une mission de très longue durée dans le cadre d'une implémentation SAP S/4 Hana Cloud. Vous participerez à toutes les étapes du projet. Vous devez être capable de piloter techniquement les projets d'intégration et de conversion de données, tout en contribuant à la mise en œuvre de solutions autour de SAP BTP, des APIs et des flux entre SAP, Legacy Systems et les différents systèmes. Mission: Gérer techniquement le travail autour de SAP BTP, Integration Suite, APIs et l'interfaçage avec les systèmes legacy. • Définir et sécuriser les solutions d'intégration : APIs, événements, fichiers, middleware et sécurité des échanges. • Superviser les activités de conversion de données : mappage source/cible, règles de transformation, qualité, reprises et basculement. • Contribuer à la mise en œuvre de sujets critiques et soutenir les équipes projet sur les normes techniques. • Produire des recommandations de gouvernance d'architecture et de développement en ligne avec les principes Clean Core. Livrables: • Dossier d'intégration technique/cadre de données. • Mappage d'interface et stratégie API/BTP. • Documents de conception technique détaillée sur les flux et conversions critiques. • Stratégie et plan de conversion de données avec mappage, règles de transformation et séquencement. • Support pour les tests d'intégration, les cycles de validation et le basculement. • Documentation et transfert de connaissances aux équipes internes.
Offre d'emploi
📩 Data Engineer Microsoft Fabric
Gentis Recruitment SAS
Publiée le
Apache Spark
Azure Data Factory
Azure Synapse
12 mois
40k-45k €
400-500 €
Paris, France
Nous recherchons actuellement un Data Engineer pour intervenir au sein d’un grand groupe international du secteur du luxe (cosmétique & parfums), dans le cadre du renforcement de ses équipes data. Contexte Vous interviendrez sur la mise en place et l’optimisation d’une plateforme data moderne basée sur Microsoft Fabric, avec des enjeux autour de la centralisation, de la transformation et de la valorisation des données métiers. Missions principales Développer et maintenir des pipelines de données sur Microsoft Fabric Participer à la conception de l’architecture data (Lakehouse, Data Warehouse) Intégrer et transformer des données issues de multiples sources Assurer la qualité, la fiabilité et la performance des flux de données Collaborer avec les équipes Data, BI et métiers Contribuer aux bonnes pratiques Data Engineering (CI/CD, monitoring, documentation) Stack technique Microsoft Fabric Azure Data Factory / Synapse (ou équivalent) Python / SQL Data Lake / Lakehouse Git / CI-CD Profil recherché 3 à 4 ans d’expérience en Data Engineering Première expérience sur Microsoft Fabric ou forte appétence sur l’écosystème Microsoft data Bonne maîtrise de Python et SQL Expérience sur des environnements cloud (idéalement Azure) Bon niveau d’anglais Soft skills Esprit analytique Autonomie Capacité à monter rapidement en compétence Bonne communication avec les équipes métiers
Mission freelance
POT9036 - Un Data ingénieur sur Massy
Almatek
Publiée le
SQL
6 mois
360-470 €
Île-de-France, France
Almatek recherche pour l'un de ses clients ,Un Data ingénieur sur Massy. Taches: Participation à la définition des solutions applicatives Développement, Intégration et Recette technique Surveiller et améliorer l'efficacité des processus Tenir à jour la documentation des systèmes et des processus. Contexte : Nous recherchons un/une Data Engineer expérimenté(e) pour contribuer à la réalisation des projets de la Squad Usages Data Avancé & IA: Conception et Maintenance de l'applicative Amélioration continue des produits / solutions de la squad Construction nouveaux usages Attendu: Construire et maintenir des pipelines ETL/ELT pour données structurées et non-structurées Mettre en oeuvre des chaines d'intégration, de déploiement et de suivi des solutions en production (DataOps). Préparer des datasets utilisés pour de l'exploration de données Développer et favorise l’industrialisation de modèles statistiques ou de machine learning Versionner données/modèles/code et monitorer performance/coûts Collaborer avec les équipiers de la squad et documenter vos travaux Compétences Humaines: Une bonne autonomie et capacité d'adaptation à des projets innovants et rythmés Sens du travail en équipe bonne communication et accompagnement utilisateurs Compétences Techniques: Langages : Python (FastAPI, Pyspark), SQL Qualité de code : Pytest, SonarQube MLOps/CI-CD : Docker, Kubernetes, GitHub/GitLab Actions Data & DB : PostgreSQL, Teradata, MySQL Observabilité : Stack ELK, Prometheus/Grafana, MLflow Plus si compétence en Big Data/Streaming : Spark, Kafka Experience 4 à 7 ans. Date de debut souhaitée :30 Mars 2026, mission longue
Mission freelance
Consultant en Systèmes d'Information: Pilotage de la mise en conformité des purges de données
CAT-AMANIA
Publiée le
RGPD
3 mois
Lyon, Auvergne-Rhône-Alpes
Au sein d'un grand groupe de protection sociale, nous recherchons un Consultant SI pour piloter la mise en conformité des purges de données personnelles sur l'ensemble du patrimoine applicatif. La mission inclut l'animation du programme PMO de purge, la priorisation des applicatifs par niveau de risque (données de santé, financières, RH), la cartographie des dépendances inter-systèmes et l'accompagnement sur la purge des données non structurées O365 (Exchange, SharePoint, OneDrive, Microsoft Purview).
Mission freelance
Tech Lead Data GCP Expert F/H
SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker
12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
Offre d'emploi
🔐 Chef de Projet Sécurité IT – Vulnérabilités & Gouvernance Sécurité
AS INTERNATIONAL
Publiée le
Vulnerability management
3 ans
40k-45k €
500-550 €
Île-de-France, France
Nous recherchons un Chef de Projet Sécurité IT pour accompagner le pilotage de projets cybersécurité au sein d’un environnement exigeant et international. La mission s’inscrit dans le cadre d’une feuille de route sécurité, avec un focus particulier sur le suivi des vulnérabilités , la structuration des procédures sécurité et l’amélioration continue du dispositif de sécurité opérationnelle. Vos missions Vous interviendrez en lien avec les équipes sécurité, IT, risques, conformité et métiers afin de piloter différents chantiers cybersécurité. À ce titre, vous serez amené à : Piloter et suivre des projets de sécurité IT inscrits dans la roadmap sécurité. Renforcer le dispositif de suivi des vulnérabilités et accompagner les équipes dans les actions de remédiation. Contribuer à la refonte, la formalisation et la mise à jour des procédures de sécurité. Structurer la gestion documentaire du service sécurité et s’assurer de la complétude des livrables. Formaliser les démarches projet : organisation, jalons, planning, roadmap, livrables et suivi d’avancement. Animer des ateliers avec des interlocuteurs IT, sécurité, risques, conformité et métiers. Participer à des sujets variés de sécurisation du SI : postes de travail, infrastructures, flux, événements de sécurité, protection des données. Produire des reportings clairs, synthétiques et adaptés aux différents niveaux d’interlocuteurs. Contribuer à l’amélioration continue des pratiques sécurité.
Mission freelance
Data engineer GCP
NEOLYNK
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Looker Studio
3 ans
300-450 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Lille 2 jours de TT par semaine démarrage asap mission longue 3 ans
Offre d'emploi
URBANISTE - COACH acculturation et accompagnement démarche urbanisation
CAT-AMANIA
Publiée le
Domain Driven Design (DDD)
TOGAF
3 mois
87k-135k €
400-670 €
Île-de-France, France
Dans le cadre de l’équipe des Architectes de domaine, équipe d'une vingtaine d'architecte de domaine (fonctionnel) répartie sur les 3 sites Le Mans, Levallois, Niort. Accompagnement de la montée en compétence de l’équipe des architectes de domaine pour travailler sur le plan métier (processus, objet métier, fonctions..) en vue d’urbaniser leur domaine. A date les Architectes domaine intervenant plus en accompagnement des projets sur des plans fonctionnel, applicatif et technique. La Société devra fournir les prestations suivantes : L'urbaniste coach a pour missions principales - d’accompagner les architectes dans leur montée en compétence sur le plan métier, sur la partie démarche et concepts du plan métier : processus, objets métier, … en lien avec le référentiel capacitaire et en lien avec la démarche Data Domain Driven en vue d’APIser le SI. - de pouvoir coacher les architectes de domaine dans des ateliers avec leur domaine pour travailler sur le plan métier en vue d’urbaniser leur domaine - de formaliser des supports sur les démarches et les concepts à manipuler - d’animer des séances d’acculturation auprès des architectes de domaine, et potentiellement autres populations concernées - faire évoluer les livrables d’urbanisation et d’architecture (dossier architecture) en lien avec ces nouveaux concepts et livrables. Cette mission s’appuiera sur des éléments déjà posés au niveau architecture - Le nouveau cadre d’architecture, porté par le projet ECAR, visant à poser les différents concepts du cadre, leur modélisation et les cartographies de référence - Les référentiels d’entreprise, notamment le référentiel capacitaire, le référentiel des macro processus - Les inputs posés par la design authority API notamment sur la démarche DDD La mission requière - la maitrise du cadre d'architecture TOGAF, d’Archimate , - des qualités pédagogiques pour acculturer et coacher les architectes, - des qualités d’animateurs pour délivrer les séances d’acculturation et des ateliers avec l’architecte et leur domaine - des qualités rédactionnelle et de synthèse pour formaliser les supports d’acculturation à la démarche et aux concepts, pour modélisation processus, objets métier, … - des capacités à travailler en collaboratif, Justifier d’une expérience équivalente dans l’accompagnement d’une équipe d’architecture dans la transformation de ses pratiques en vue d’urbaniser un système d’informations.
Mission freelance
Data Analyst (H/F) - 92 + Remote
Mindquest
Publiée le
AI
CRM
ETL (Extract-transform-load)
3 mois
250-450 €
Neuilly-sur-Seine, Île-de-France
Contexte Au sein de la fonction IT Commercial Excellence, le poste s’inscrit dans la mise en œuvre de la stratégie et de la feuille de route Digital Front-End, en étroite collaboration avec les parties prenantes métiers. Le rôle contribue également à l’innovation sur les processus, les outils et les technologies afin de soutenir la performance commerciale et la transformation digitale Mission principale La mission prioritaire consiste à piloter de bout en bout les activités de reporting et d’analytics pour un projet stratégique Route to Market en France, de la phase de définition jusqu’à la mise en œuvre opérationnelle. Le poste vise à fournir des solutions analytiques, stables, scalables et orientées métier, en s’appuyant sur les meilleures technologies du marché Responsabilités principales Piloter les activités de reporting et d’analytics de bout en bout sur des projets stratégiques Mettre en œuvre des solutions analytiques et technologiques en approche Agile Développer les capacités analytics et enrichir le portefeuille applicatif Concevoir des solutions adaptées aux besoins métiers, avec une forte orientation utilisateur Intégrer les technologies avancées de Data & AI dans les plateformes et processus Garantir la qualité, l’exploitabilité et l’organisation des données Définir les processus cibles et accompagner leur adoption par les métiers Identifier les tendances du marché, les meilleures pratiques et proposer des axes d’amélioration Évaluer les solutions aussi bien d’un point de vue conceptuel qu’opérationnel Soutenir les projets commerciaux clés au niveau local et européen Gérer les priorités locales et porter une vision régionale sur les processus et leur adoption Faire le lien entre la conception des processus et la capacité de delivery des solutions Interactions clés En interne : Parties prenantes Digital Front-End des différentes BU et BPO Équipes régionales centrales, solutions et digitales Responsables IT locaux et membres de l’équipe de direction IT Centre d’excellence Commercial Excellence Responsable IT Commercial Excellence Analyste IT Commercial Excellence En externe : Fournisseurs tiers AMS Parties prenantes Enjeux du poste Assurer un delivery agile et rapide de solutions adaptées aux besoins Stimuler l’innovation sur la donnée, les outils et les modes de fonctionnement Tirer parti des capacités digitales et analytiques internes et externes Concevoir une expérience utilisateur de qualité Mettre la donnée au cœur des dispositifs de pilotage et de transformation Intégrer l’analytics avancée et l’IA dans les usages métiers
Mission freelance
Squad Lead Design/Frontend
Cherry Pick
Publiée le
UI design
UX design
12 mois
500-550 €
Paris, France
Responsabilités clés Diriger l'équipe Front-End du client au sein de la fonction CDIO | Lead-to-Order. Encadrer, coacher et renforcer l'équipe front-end, en veillant à la fois à l'UI/UX et au delivery, tout en favorisant une culture de la performance, de la responsabilité et de l'amélioration continue. Piloter le delivery de bout en bout impactant les front-ends, en garantissant des livraisons de haute qualité dans les délais, tout en respectant les processus définis et en contribuant à chaque étape. Collaborer avec les équipes transverses pour assurer une exécution fluide. Agir en tant que Squad Lead pour la squad "Portal" au sein du programme de transformation CxP. Contribuer au programme de transformation numérique avec un fort accent sur l'exécution. Gérer la squad, prioriser les besoins et le backlog pour respecter le calendrier cible. Compléments majeurs à la fiche de poste Environnement Technique & Écosystème Technologie phare : Portail client basé sur Salesforce Digital Experience (ex-Community Cloud). Contexte multi-flux : Coordination d'autres front-ends reposant sur des technologies variées. Architecture : Forte dimension API et intégration au sein du programme de transformation CxP. Management & Structure de la Squad Équipe directe : Management de 5 profils UI/UX Designers. Coordination technique : Supervision de ressources de développement externes (legacy) et collaboration étroite avec une squad transverse (1 Business Analyst, 2 Architectes E2E, des référents techniques et métiers). Gouvernance : Travail en binôme avec 2 co-leads côté Business. Profil recherché Expérience de leadership avérée dans des environnements front-end ou produits numériques. Solide expérience de Product Owner avec la responsabilité du cycle de vie complet du delivery. Bonne compréhension des technologies front-end et des principes UI/UX. Expérience concrète des environnements de delivery Agile. Excellentes compétences en gestion des parties prenantes et en communication. Expérience dans des initiatives de transformation numérique complexes.
Mission freelance
Consultant SAP FI/CO + Data Migration
ALLEGIS GROUP
Publiée le
SAP FICO
1 an
400-550 €
Clamart, Île-de-France
Dans le cadre d’un projet SAP Finance en cours, notre client recherche un Consultant SAP FI/CO confirmé , capable d’intervenir à la fois sur la conception fonctionnelle , l’accompagnement des métiers et les travaux de migration de données . Le consultant interviendra en renfort sur un périmètre critique pour la bascule de fin d’année . Responsabilités principales Participation aux ateliers avec les équipes Finance & Controlling Analyse des besoins et rédaction de la documentation fonctionnelle (spécifications, process…) Contribution aux activités de Data Migration : mapping, validation, reprise, contrôle de cohérence Accompagnement des utilisateurs, support UAT, correction des anomalies Collaboration étroite avec les équipes techniques (ABAP, Data, Basis) Suivi d’avancement et reporting auprès du chef de projet
Mission freelance
Administrateur Bases de Données (DBA) Oracle PostgreSQL H/F - Lille Métropole - Freelance PORTAGE
HELPLINE
Publiée le
MySQL
Oracle
PostgreSQL
3 ans
400-550 €
Lille, Hauts-de-France
Administrateur Bases de Données (DBA) Oracle PostgreSQL H/F - Lille Métropole Marcq-en-Barœul, FranceLes employés travaillent en mode hybride Temps complet Niveau d'expérience: 2-5 ans Département: Fonctions d'ingénierie Type de contrat: A préciser Description de l'entreprise Et si vous choisissiez plus qu’un simple job ? HELPLINE est spécialisée dans l’infogérance du support utilisateur et la mise en œuvre d’une expérience collaborateur augmentée par l’IA, où l’expertise humaine et la technologie s’enrichissent mutuellement. Ses équipes assurent le support utilisateur, le support applicatif, le support de proximité, la gestion des actifs IT et la GRC (Gouvernance, Risque et Conformité). Sa mission est double : soutenir les besoins opérationnels des DSI et des métiers ; et offrir aux collaborateurs une expérience fluide et fiable, alignée avec les standards des marques grand public. Intervenant en France et dans le monde, HELPLINE compte 2500 collaborateurs au service de plus de 200 clients. Elle affiche un CA de +200 M€ en 2025. HELPLINE fait partie d’Everience, groupe international de conseil et de services numériques augmentés, pionnier de la symbiose Homme-IA en entreprise. Ces informations résonnent en vous ? Rejoignez-nous ! Description du poste Dans le cadre du renforcement de nos pôles d'expertise Infrastructure et Data, nous recherchons un Administrateur Bases de Données (DBA) Oracle PostgreSQL H/F pour intervenir sur des environnements multi-moteurs critiques. Ce que nous allons accomplir ensemble : Installation & Configuration : Déployer et paramétrer des serveurs sous AlmaLinux, Ubuntu et Windows Server . Gestion des Bases : Assurer la mise en place complète et le suivi de bases de données PostgreSQL v16, MS SQL Server 2022 et MariaDB . Optimisation & Tuning : Améliorer les performances (indexation, nettoyage/vacuum, shrink) et ajuster les fichiers de configuration des moteurs. Sécurité & Accès : Gérer les rôles, les autorisations systèmes et appliquer les politiques de sécurité liées aux utilisateurs. Automatisation : Développer des scripts d'automatisation en Bash et optimiser/réécrire des requêtes SQL . Sauvegarde & Monitoring : Concevoir des architectures de sauvegarde (PgBackRest) et administrer les politiques de sauvegarde via Veeam ou Rubrik . Installer et piloter le monitoring via un serveur TemBoard . Qualifications Ce poste est fait pour vous si : Expertise BDD : Vous avez une solide expérience sur PostgreSQL, SQL Server et MariaDB. Systèmes : Vous maîtrisez les environnements Linux (Alma, Ubuntu) et Windows Server. Outils & Sauvegarde : Vous connaissez les solutions de sauvegarde professionnelles (Veeam, Rubrik, PgBackRest). Soft Skills : Vous faites preuve de rigueur, d'autonomie et d'un esprit d'analyse aiguisé pour le traitement des incidents RUN.
Mission freelance
Consultant Azure Data Factory/SQL Server
OAWJ CONSULTING
Publiée le
Azure Data Factory
Microsoft Power BI
Microsoft SQL Server
1 an
500-550 €
Paris, France
BESOIN URGENT!! Dans le cadre du renforcement de son équipe data, notre client recherche un consultant senior orienté data engineering avec une forte expertise bases de données. Secteur immobilier. Missions Conception et développement de pipelines avec Azure Data Factory Gestion et optimisation des bases de données Microsoft SQL Server Modélisation et structuration des données Optimisation des performances (requêtes, index, traitements) Mise en place de bonnes pratiques DevOps / CI-CD Collaboration avec les équipes techniques et métiers Profil recherché 7 à 10 ans d’expérience en Data Engineering Excellente maîtrise d’Azure Data Factory Forte expertise en Microsoft SQL Server Bonne connaissance des problématiques de performance et modélisation Culture DevOps appréciée Autonome, rigoureux et orienté résultats
Mission freelance
TEAM LEADER BASE DE DONNEES
PROPULSE IT
Publiée le
24 mois
325-650 €
Moissy-Cramayel, Île-de-France
Pour l'un de nos client situé dans le département 77, nous recherchons un consultant Team leader SGBD habillable et capable de mener des projets d'envergure côté Run. Nous sommes à la recherche d'un consultant sénior pour nous accompagner à la reprise du service RUN Base de Données (Oracle & SQLServer majoritaires, Postgre & Mongo DB minoritaire) - Organisation et mise en oeuvre du nouveau service RUN (ressources, processus, gestion activité, …) - Gestion des incidents N3 et des changements - KPI, coordination et supervision Profil : Team Leader ou Manager avec une expérience confirmée en management de service DBA Contrainte : demande d'habilitation
Offre d'emploi
CDI – Data Engineer Databricks (AWS) – 3 à 7 ans d’expérience
Hexateam
Publiée le
Amazon S3
Apache Airflow
AWS Glue
La Défense, Île-de-France
Contexte Dans le cadre de notre croissance, nous recrutons un Data Engineer pour intervenir sur des environnements Databricks sur AWS, avec des enjeux d’ingestion, de transformation et de fiabilité des données. Missions Développement et ingestion de données • Concevoir et développer des pipelines de données en Python et Spark sur Databricks • Mettre en place des flux entre sources externes (ex : Oracle) et un Data Lake (S3 / Delta Lake) • Optimiser les traitements et les performances Orchestration et qualité des données • Orchestrer les workflows avec AWS Airflow • Mettre en place des contrôles qualité et des mécanismes de validation • Développer des outils de monitoring et de gestion des anomalies Maintien en condition opérationnelle • Assurer la disponibilité et la performance des pipelines • Diagnostiquer et corriger les incidents • Participer à l’amélioration continue des traitements Contribution • Participer aux ateliers techniques et aux échanges avec les équipes • Documenter les pipelines, architectures et processus • Contribuer aux bonnes pratiques Data et Big Data
Mission freelance
Expert en Modélisation de Données / Référentiels
Castelis
Publiée le
Master Data Management (MDM)
Modèle Conceptuel des Données (MCD)
Modèle Logique des Données (MLD)
6 mois
550-600 €
Guyancourt, Île-de-France
Dans le cadre d’une forte accélération de ses activités Data, notre client engage plusieurs projets structurants autour de la modélisation de données , de la construction de nouveaux référentiels et potentiellement de la mise en place d’une démarche MDM (Master Data Management). L’environnement comporte un volume significatif — plus de 250 millions de transactions financières — nécessitant une architecture robuste et une modélisation de données exemplaire. Le consultant interviendra en tant qu’ expert référent , au cœur des projets data stratégiques, en interaction directe avec les équipes Data, Architecture, Métiers et IT. 1. Modélisation de données Élaborer les modèles MCD/MLD/MPD selon les standards du client. Définir les entités, attributs, règles de gestion, relations et constraints d’intégrité. Documenter le glossaire , le data dictionary et le data lineage . 2. Construction des référentiels Définir les règles de gestion des données maîtres (golden records, survivorship, matching). Structurer les référentiels (clients, produits, fournisseurs, structures, etc. selon le périmètre). Identifier les sources, cibles et flux associés. 3. Appui à la stratégie Data / MDM Participer au cadrage et à la définition de la future architecture MDM (si retenue). Apporter un regard expert sur les principes de gouvernance associés. Collaborer avec les squads Data, IT et Métiers. 4. Interaction avec les équipes Faciliter les échanges techniques/fonctionnels entre Data Engineers, Architectes et Métiers. Être garant de la cohérence globale du modèle dans un environnement multisolutions. Accompagner la montée en compétence des équipes internes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1764 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois