Trouvez votre prochaine mission ou futur job IT.
Offre d'emploi
Architecte Data DevSecOps
Descriptif du poste Dans le cadre d'une mission au sein d'un grand groupe bancaire, nous recherchons un expert Data et DevSecOps pour accompagner le développement des produits Data. Missions principales Maîtrise des notions DevSecOps et études d'architectures des produits as a Services/Produits Data Maîtrise de l'outillage/écosystème (Vault, Kubernetes/ArgoCD/Helm, Monitoring Elastic/Grafana, GitLab CI, sécurité, Kube operators) Construire les standards et modèles d'intégrations des solutions Data Accompagnement et formation des équipes de solutions Data
Offre d'emploi
Systeme Architect Data GCP
Compétences : - Maîtrise technique de l'architecture GCP orientée data (notamment Big Query) et le processing de données via dbt, bonnes notions de finops pour proposer des solutions efficientes d'un point de vue coûts. - Connaissance approfondie des techniques d'anonymisation, de pseudonymisation et de gestion du cycle de vie des données client. - Connaissance des bonnes pratiques de sécurité (moindre privilège, chiffrement, data access management, gestion des accès). - Expérience en cartographie et inventaire des données. - Connaissance des problématiques de gestion des identifiants techniques notamment en cas d'anonymisation. - Connaissances des exigences non fonctionnelles pour les sujets Data. - La connaissance d'outils d'intégration de données et de PowerBI est un plus. - Connaissances réglementaires : Bonne connaissance des réglementations sur les données client (RGPD, PIPL), ainsi que des bonnes pratiques en matière de gestion des données clients. Vous guiderez les choix et serez responsable de la garantir la cohérence technologique et architecturale des solutions avec la plateforme existante. Soft Skills : Responsabilité, collaboration, pensée critique, pédagogie et capacité à vulgariser. Nombre d'années d'expérience : au moins 8-10 ans d'expérience en tant que System Architect Data ou Data Architect, avec une spécialisation dans la gestion des données clients et la conformité réglementaire dans un contexte de plateforme de données. Habitude des environnements complexes : Expérience professionnelle avérée dans des environnements complexes incluant une data platform, un MDM client, Salesforce Core Platform et Salesforce Marketing Cloud. Client : Secteur du luxe Site : Paris, 3 jours par semaine sur site. Date de démarrage : 18/09/2025 Date de fin : 31/05/2026 Profil : System Architect - Spécialiste des Données Clients et de la Mise en Conformité
Mission freelance
ARCHITECTE DATA
Dans le cadre d'un projet pour l'un de nos clients dans le secteur de la monétique, vous interviendrez au sein de l’équipe d’architecture, l’architecte data aura pour mission de concevoir et mettre en œuvre la gouvernance des données de la solution applicative. L'objectif sera d'accompagner notre client sur l'étude, l'aide à la gouvernance Data, et la mise en œuvre. Principales activités Etude de l’existant de la solution Proposition d’une gouvernance data utile et efficace en cohérence avec l’organisation et la structure de la société Définition de l’architecture data de la solution applicative Collaboration avec les équipes métiers, techniques et sécurité pour garantir l’alignement des pratiques data. Définition ou proposition d’évolution des référentiels de données, dictionnaires de données et règles de gestion. Participation à la mise en place d’outils de gouvernance (Data Catalog, Data Quality, MDM, etc.). Accompagner les équipes dans l’adoption des bonnes pratiques de gestion des données. Assurer une veille technologique et réglementaire sur les sujets data.
Mission freelance
Lead Data Engineer (Azure/Snowflake)
Dans le cadre de la structuration de son pôle Data, un grand groupe international lance la création d’un poste de Lead Data Engineer . Vous jouerez un rôle central dans l’encadrement de l’équipe Data Engineering (5 à 6 personnes) et dans la mise en place des bonnes pratiques de développement, d’industrialisation et de gouvernance sur un socle technologique Azure / Snowflake / dbt . Missions : Leadership & coordination technique Encadrer et animer une équipe de 5 à 6 Data Engineers. Garantir la qualité, la cohérence et la maintenabilité des développements (dbt, Python, Snowflake). Mettre en place des standards de développement, de revue de code et d’automatisation. Servir de relais technique entre le Data Architect, les Data Engineers et les équipes projet. Challenger les choix techniques et contribuer à la roadmap Data. Conception & industrialisation Piloter la migration des flux Informatica vers la nouvelle stack Snowflake / Azure Data Factory . Concevoir et optimiser les pipelines de données (ingestion, transformation, exposition). Garantir l’industrialisation via Terraform , Azure DevOps , PowerShell et CI/CD pipelines . Assurer la sécurité , la supervision et le FinOps des environnements Data. Architecture & gouvernance Participer à la modélisation et à la mise en place du modèle d’entreprise (EDM) et du Data Warehouse (3NF, étoile). Superviser la qualité, la traçabilité et la conformité des données (Data Quality, GDPR). Contribuer à la documentation et à la standardisation des pratiques.
Mission freelance
MDM Architecte
L’ Architecte Master Data occupe un rôle central au sein de l’équipe Master Data. Sur la base des cas d’usage métier (c’est-à-dire des besoins exprimés par les équipes business), il ou elle est responsable de : Définir et concevoir la solution (avec les spécifications fonctionnelles et techniques) dans le cadre de notre Master Data Operating Model — incluant les entités, les champs, les interfaces et les métadonnées — maintenu dans notre l'outil. Gérer le consultant développement chargé de réaliser les développements techniques dans l’outil MDM, Définir les tests appropriés pour valider la solution développée, Collaborer avec l’équipe de la Dev Factory responsable de la couche AWS Redshift , afin de les informer sur les liens à établir entre les données transactionnelles Analyser les besoins et concevoir l’architecture / les spécifications des interfaces avec les autres systèmes. Ainsi, le ou la Master Data Architect est à la fois orienté(e) métier (pour comprendre les besoins business) et technique (pour concevoir des solutions adaptées). Une bonne connaissance de l’outil MDM sont fortement appréciées. Enfin, la maîtrise de l’anglais et une expérience dans un environnement international sont indispensables.
Mission freelance
DATA Engineer - AWS(H/F)
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.
Offre d'emploi
Architecte Data (Snowflake / Azure) H/F
En tant que Architecte Data (Snowflake / Azure) H/F, vous jouerez un rôle clé dans la conception, la mise en œuvre et l'optimisation de solutions data basées sur les technologies Snowflake et Azure. Vous serez directement intégré(e) au sein du département des services informatiques. Vos principales responsabilités seront : • Concevoir et déployer des architectures data performantes et scalables sur Snowflake et Azure. • Collaborer avec les équipes de développement et d'infrastructure pour assurer l'intégration des solutions. • Garantir la qualité, la sécurité et la conformité des données. • Participer à l'évolution des bonnes pratiques et standards techniques. • Assurer la documentation technique et les formations internes. • Suivre les innovations technologiques et proposer des améliorations continues.
Mission freelance
ARCHITECTE DATA / POWER BI & AZURE
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Mission freelance
Business Analyst IT – Modélisation de données H/F
ANGLAIS COURANT OBLIGATOIRE Analyse & recueil des besoins • Recueillir les besoins métiers auprès des équipes métier. • Traduire ces besoins en spécifications fonctionnelles centrées sur la donnée. • Formaliser les cas d’usage de consommation et d’exposition des données. Modélisation & structuration des données • Participer à la modélisation logique et physique des données du Shopping Data Hub sur BigQuery. • Construire des dictionnaires de données, des mappings et des modèles documentés et évolutifs. • Travailler en lien étroit avec les data engineers GCP et les data architects. Contribution GCP & data engineering • Collaborer avec les équipes techniques sur les pipelines de données (Dataflow, Cloud Composer, Pub/Sub...). • Veiller à la performance, la scalabilité et l’optimisation des modèles sur GCP. • Aider à la définition des bonnes pratiques GCP (naming, stockage, partitionnement, sécurisation...). Gouvernance & documentation • Contribuer à la mise en place de la gouvernance des données (qualité, traçabilité, respect du RGPD). • Rédiger et maintenir à jour la documentation métier et technique du modèle de données. • Participer à l’amélioration continue du hub (monitoring, automatisation, audits...).
Mission freelance
Data Designer
Contexte de la mission: Dans le cadre d’un programme de transformation data au sein d’un grand acteur du secteur bancaire, nous recherchons un Data Designer afin de renforcer les équipes en charge de la modélisation et de la structuration des données. Le poste s’inscrit dans un contexte de refonte des processus data et de standardisation des pratiques au sein des équipes métiers et IT. L’objectif principal est d’assurer la cohérence, la qualité et la lisibilité du modèle de données tout en accompagnant les utilisateurs dans la définition et la mise en œuvre des bonnes pratiques de gestion et de gouvernance. Responsabilités principales: · Concevoir et maintenir les modèles de données conceptuels et logiques . · Rédiger la documentation fonctionnelle et technique liée à la modélisation des données. · Définir et formaliser les processus de gestion, de configuration et de paramétrage liés à la donnée. · Contribuer à la mise en place des règles de gouvernance , de qualité et de sécurité des données. · Participer à la coordination fonctionnelle entre les équipes techniques et les utilisateurs métiers. · Identifier les améliorations possibles des flux et processus existants afin d’optimiser la circulation et la valorisation de la donnée. Stack et environnement technique: · Outils de modélisation : PowerDesigner, Erwin Data Modeler, UML, Merise · Gouvernance & documentation : DataGalaxy, Collibra, Alation (ou équivalent) · Bases de données : SQL, Oracle, Snowflake (souhaité) · Cloud : AWS · BI / Data Tools : Tableau, Dataiku (en support) Profil recherché: · Minimum 4 à 6 ans d’expérience dans la conception et la modélisation de données (Data Designer, Data Architect, Data Modeler ou équivalent). · Excellente compréhension des modèles de données relationnels et dimensionnels . · Capacité à traduire les besoins métiers en structures de données claires et exploitables. · Expérience dans la définition de processus fonctionnels et la coordination inter-équipes . · Sens du détail, rigueur documentaire et bonne compréhension des enjeux de gouvernance data. · Une première expérience dans le secteur bancaire ou financier est un atout significatif. Informations complémentaires: · Localisation : Île-de-France (hybride possible) · Démarrage : ASAP
Mission freelance
[TPR] Architecte Data et IA - Big Data (8/12 XP)
Dans le cadre du plan stratégique du Groupe pour le secteur bancaire du Groupe, ce dernier joue un rôle clé dans la modernisation des Systèmes d'Information et l'accélération de la digitalisation. Pour répondre aux défis de l'innovation et de la sécurité, ils sont créés un département département, chargé de libérer le plein potentiel de l'Intelligence Artificielle pour le Groupe. L'équipe est composée de six équipes : Innovation Exposition, Innovation Factory, APEX, Smart Auto Factory, Data Analytics and Management Platforms et le Centre de Compétence en IA. Ce dernier est chargé de développer et de maintenir les compétences en Intelligence Artificielle au sein du département A3I. L’objectif de sa mission est : - d'aider à préparation de la stratégie IA et la roadmap 2026. - de structurer les retours des besoins métiers pour mieux dimensionner le dispositif AICC L’objectif de sa mission est : - d'aider à préparation de la stratégie IA et la roadmap 2026. - de structurer les retours des besoins métiers pour mieux dimensionner le dispositif AICC. Compétences clés : • Expertise en gouvernance IA, ML Ops, auditabilité et traçabilité des modèles • Maîtrise des enjeux réglementaires et éthiques (AI Act, CNIL, RGPD). • Capacité à structurer des dispositifs de veille IA et à animer des communautés d’experts • Leadership, esprit critique, rigueur, capacité à influencer et à collaborer en environnement complexe Livrables : - Conseil et orientation sur les décisions stratégiques à prendre sur le plan stratégique de la banque en matière d'IA - Conseil sur l'organisation, le positionnement et le dimensionnement de l'équipe AICC vis à vis des besoins Métiers - Structuration et formalisation de la roadmap 2026 de l"AICC
Offre d'emploi
Data Engineer (spécialisation Microsoft Fabric) (H/F)
Data Engineer (spécialisation Microsoft Fabric) Contexte du poste Au sein de la Direction des Systèmes d’Information, le Data Engineer rejoint l’équipe Data, en charge de la conception, de la mise en œuvre et de la maintenance des solutions de gestion et d’exploitation des données. Dans un contexte de modernisation du SI et de développement des usages data, l’entreprise déploie la plateforme Microsoft Fabric pour unifier les services de data engineering, d’analyse et de gouvernance des données. Missions principales Le Data Engineer interviendra sur l’ensemble de la chaîne de traitement de la donnée : 1. Conception et développement Concevoir et mettre en œuvre les flux de données sur Microsoft Fabric (Data Factory, Dataflows Gen2, Lakehouse, Pipelines) Construire et maintenir les modèles de données dans le OneLake Développer des pipelines de transformation et d’ingestion de données (batch et temps réel) Garantir la qualité, la performance et la robustesse des traitements de données 2. Intégration et industrialisation Optimiser les coûts et les performances de la plateforme data Documenter les architectures, flux et traitements 3. Gouvernance et sécurité des données Collaborer avec le Head of data et le Data Architect Mettre en œuvre les bonnes pratiques de sécurité, gestion des accès et métadonnées 4. Support et amélioration continue Assurer le support technique des environnements Fabric Identifier les axes d’amélioration et participer aux évolutions de la plateforme data Former et accompagner les utilisateurs métiers et analystes Power BI
Mission freelance
Solution Architect Anglais
Notre client, un acteur international du secteur des services financiers, a lancé un ambitieux programme de transformation visant à repenser en profondeur son domaine Business Information . Objectif : moderniser ses plateformes, renforcer la culture Data et offrir une expérience client de nouvelle génération. Ce programme s’articule autour de quatre grands piliers : Data Management : Connexion aux fournisseurs de données, stockage, gouvernance et qualité de la donnée. Customer Centricity : Nouveaux outils web, pricing, contrats et analyse comportementale. Business Intelligence Platform : Construction des fondations techniques d’une nouvelle plateforme BI mondiale. People & Process : Adoption d’un modèle agile à l’échelle. Dans ce contexte, nous recherchons un(e) Solution Architect expérimenté(e) capable de piloter l’architecture technique et fonctionnelle de la future plateforme BI. En tant qu’ Architecte Solution , vous serez au cœur de la transformation technologique : Concevoir les architectures fonctionnelles et techniques alignées sur la stratégie Data & Business. Collaborer étroitement avec les équipes produit, les architectes d’entreprise et les data architects. Analyser les systèmes existants, réaliser des études d’écart et définir la trajectoire cible. Participer aux choix technologiques (POC, benchmark, cloud, intégration). Encadrer le développement pour garantir la cohérence, la performance et la sécurité des solutions. Contribuer à la modernisation du SI via une approche microservices, API et data-driven. Promouvoir les bonnes pratiques DevOps et CI/CD.
Offre d'emploi
Data ingénieur NiFi - Finance et banque H/F
Contexte de la mission : Viveris vous propose un poste de Data Engineer au sein de la Business Unit Épargne et Services Financiers. Dans le cadre d'un nouveau projet visant à centraliser, fiabiliser et gouverner l'ensemble des données relatives aux instruments financiers, vous intégrerez la squad Data, composée de trois développeurs Data, d'un architecte technique, d'un business analyst et d'un product owner. Vous devrez maîtriser l'environnement NiFi ainsi que l'architecture des pipelines de données, qui présente une certaine complexité avec de nombreux flux et interactions entre les différentes tâches. Responsabilités : - Concevoir et développer des pipelines de données ; - Développer et intégrer sur Apache NiFi ; - Contrôler la qualité et la traçabilité ; - Rédiger la documentation et partager vos connaissances.
Mission freelance
Data Engineer Fabric .Net
En quelques mots Cherry Pick est à la recherche d'un Data Engineer Fabric .Net , pour le compte de l'un de ses clients qui opère dans le domaine de l'Energie. Description 🧩 Contexte de la mission Intégré(e) à la squad Data Platform, vous interviendrez sur des projets stratégiques de modernisation et d’industrialisation de la plateforme Data du groupe. Votre rôle consistera à concevoir, maintenir et sécuriser l’infrastructure data et cloud, tout en accompagnant les équipes Data et DevOps dans leurs déploiements et pratiques CI/CD. Vous serez au cœur des sujets Terraform, Databricks, AWS, Python et MS Fabric, en interaction directe avec les Data Engineers, Data Architects et Data Officers. 🎯 Objectifs et livrables Participer à la réalisation du workplan et aux user stories du backlog. Automatiser les déploiements d’infrastructure via Terraform et GitHub Actions. Maintenir et améliorer le pipeline CI/CD (Terraform, Docker, AWS, MS Fabric). Contribuer au monitoring et à l’exploitation de la Data Platform. Développer des microservices en Python ou .NET (C#). Participer aux activités de Build et de RUN, incluant le support et les mises en production. Améliorer la résilience, la qualité et la sécurité du code (“shift-left”). Proposer des optimisations FinOps et d’observabilité (Grafana, App Insights). Maintenir la documentation technique et les bonnes pratiques DevOps/DataOps.
Mission freelance
Business Analyst DATA Modélisation HF
Missions principales » Analyse & recueil des besoins Recueillir les besoins métiers auprès des équipes métier. Traduire ces besoins en spécifications fonctionnelles centrées sur la donnée. Formaliser les cas d’usage de consommation et d’exposition des données. Modélisation & structuration des données Participer à la modélisation logique et physique des données du Shopping Data Hub sur BigQuery. Construire des dictionnaires de données, des mappings et des modèles documentés et évolutifs. Travailler en lien étroit avec les data engineers GCP et les data architects. Contribution GCP & data engineering Collaborer avec les équipes techniques sur les pipelines de données (Dataflow, Cloud Composer, Pub/Sub...). Veiller à la performance, la scalabilité et l’optimisation des modèles sur GCP. Aider à la définition des bonnes pratiques GCP (naming, stockage, partitionnement, sécurisation...). Gouvernance & documentation Contribuer à la mise en place de la gouvernance des données (qualité, traçabilité, respect du RGPD). Rédiger et maintenir à jour la documentation métier et technique du modèle de données. Participer à l’amélioration continue du hub (monitoring, automatisation, audits...).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.