Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 65 résultats.
Freelance
CDI

Offre d'emploi
Architecte Data DevSecOps

VISIAN
Publiée le
DevOps
HashiCorp Vault
Kubernetes

1 an
40k-45k €
100-530 €
Montreuil, Île-de-France

Descriptif du poste Dans le cadre d'une mission au sein d'un grand groupe bancaire, nous recherchons un expert Data et DevSecOps pour accompagner le développement des produits Data. Missions principales Maîtrise des notions DevSecOps et études d'architectures des produits as a Services/Produits Data Maîtrise de l'outillage/écosystème (Vault, Kubernetes/ArgoCD/Helm, Monitoring Elastic/Grafana, GitLab CI, sécurité, Kube operators) Construire les standards et modèles d'intégrations des solutions Data Accompagnement et formation des équipes de solutions Data

CDI
Freelance

Offre d'emploi
Systeme Architect Data GCP

Signe +
Publiée le

24 mois
55k-60k €
393-600 €
Paris, France

Compétences : - Maîtrise technique de l'architecture GCP orientée data (notamment Big Query) et le processing de données via dbt, bonnes notions de finops pour proposer des solutions efficientes d'un point de vue coûts. - Connaissance approfondie des techniques d'anonymisation, de pseudonymisation et de gestion du cycle de vie des données client. - Connaissance des bonnes pratiques de sécurité (moindre privilège, chiffrement, data access management, gestion des accès). - Expérience en cartographie et inventaire des données. - Connaissance des problématiques de gestion des identifiants techniques notamment en cas d'anonymisation. - Connaissances des exigences non fonctionnelles pour les sujets Data. - La connaissance d'outils d'intégration de données et de PowerBI est un plus. - Connaissances réglementaires : Bonne connaissance des réglementations sur les données client (RGPD, PIPL), ainsi que des bonnes pratiques en matière de gestion des données clients. Vous guiderez les choix et serez responsable de la garantir la cohérence technologique et architecturale des solutions avec la plateforme existante. Soft Skills : Responsabilité, collaboration, pensée critique, pédagogie et capacité à vulgariser. Nombre d'années d'expérience : au moins 8-10 ans d'expérience en tant que System Architect Data ou Data Architect, avec une spécialisation dans la gestion des données clients et la conformité réglementaire dans un contexte de plateforme de données. Habitude des environnements complexes : Expérience professionnelle avérée dans des environnements complexes incluant une data platform, un MDM client, Salesforce Core Platform et Salesforce Marketing Cloud. Client : Secteur du luxe Site : Paris, 3 jours par semaine sur site. Date de démarrage : 18/09/2025 Date de fin : 31/05/2026 Profil : System Architect - Spécialiste des Données Clients et de la Mise en Conformité

Freelance

Mission freelance
ARCHITECTE DATA

CAT-AMANIA
Publiée le
Data governance
Data quality

12 mois
400-550 €
Toulouse, Occitanie

Dans le cadre d'un projet pour l'un de nos clients dans le secteur de la monétique, vous interviendrez au sein de l’équipe d’architecture, l’architecte data aura pour mission de concevoir et mettre en œuvre la gouvernance des données de la solution applicative. L'objectif sera d'accompagner notre client sur l'étude, l'aide à la gouvernance Data, et la mise en œuvre. Principales activités Etude de l’existant de la solution Proposition d’une gouvernance data utile et efficace en cohérence avec l’organisation et la structure de la société Définition de l’architecture data de la solution applicative Collaboration avec les équipes métiers, techniques et sécurité pour garantir l’alignement des pratiques data. Définition ou proposition d’évolution des référentiels de données, dictionnaires de données et règles de gestion. Participation à la mise en place d’outils de gouvernance (Data Catalog, Data Quality, MDM, etc.). Accompagner les équipes dans l’adoption des bonnes pratiques de gestion des données. Assurer une veille technologique et réglementaire sur les sujets data.

Freelance

Mission freelance
Lead Data Engineer (Azure/Snowflake)

TEOLIA CONSULTING
Publiée le
Azure
Python
Snowflake

1 an
Île-de-France, France

Dans le cadre de la structuration de son pôle Data, un grand groupe international lance la création d’un poste de Lead Data Engineer . Vous jouerez un rôle central dans l’encadrement de l’équipe Data Engineering (5 à 6 personnes) et dans la mise en place des bonnes pratiques de développement, d’industrialisation et de gouvernance sur un socle technologique Azure / Snowflake / dbt . Missions : Leadership & coordination technique Encadrer et animer une équipe de 5 à 6 Data Engineers. Garantir la qualité, la cohérence et la maintenabilité des développements (dbt, Python, Snowflake). Mettre en place des standards de développement, de revue de code et d’automatisation. Servir de relais technique entre le Data Architect, les Data Engineers et les équipes projet. Challenger les choix techniques et contribuer à la roadmap Data. Conception & industrialisation Piloter la migration des flux Informatica vers la nouvelle stack Snowflake / Azure Data Factory . Concevoir et optimiser les pipelines de données (ingestion, transformation, exposition). Garantir l’industrialisation via Terraform , Azure DevOps , PowerShell et CI/CD pipelines . Assurer la sécurité , la supervision et le FinOps des environnements Data. Architecture & gouvernance Participer à la modélisation et à la mise en place du modèle d’entreprise (EDM) et du Data Warehouse (3NF, étoile). Superviser la qualité, la traçabilité et la conformité des données (Data Quality, GDPR). Contribuer à la documentation et à la standardisation des pratiques.

Freelance

Mission freelance
MDM Architecte

RED Commerce - The Global SAP Solutions Provider
Publiée le
Master Data Management (MDM)

3 mois
Paris, France

L’ Architecte Master Data occupe un rôle central au sein de l’équipe Master Data. Sur la base des cas d’usage métier (c’est-à-dire des besoins exprimés par les équipes business), il ou elle est responsable de : Définir et concevoir la solution (avec les spécifications fonctionnelles et techniques) dans le cadre de notre Master Data Operating Model — incluant les entités, les champs, les interfaces et les métadonnées — maintenu dans notre l'outil. Gérer le consultant développement chargé de réaliser les développements techniques dans l’outil MDM, Définir les tests appropriés pour valider la solution développée, Collaborer avec l’équipe de la Dev Factory responsable de la couche AWS Redshift , afin de les informer sur les liens à établir entre les données transactionnelles Analyser les besoins et concevoir l’architecture / les spécifications des interfaces avec les autres systèmes. Ainsi, le ou la Master Data Architect est à la fois orienté(e) métier (pour comprendre les besoins business) et technique (pour concevoir des solutions adaptées). Une bonne connaissance de l’outil MDM sont fortement appréciées. Enfin, la maîtrise de l’anglais et une expérience dans un environnement international sont indispensables.

Freelance

Mission freelance
DATA Engineer - AWS(H/F)

Atlas Connect
Publiée le
AWS Cloud
Azure DevOps
Data Lake

1 an
510-540 €
Île-de-France, France

Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.

CDI

Offre d'emploi
Architecte Data (Snowflake / Azure) H/F

Twenty One Talents
Publiée le

40k-70k €
Paris, France

En tant que Architecte Data (Snowflake / Azure) H/F, vous jouerez un rôle clé dans la conception, la mise en œuvre et l'optimisation de solutions data basées sur les technologies Snowflake et Azure. Vous serez directement intégré(e) au sein du département des services informatiques. Vos principales responsabilités seront : • Concevoir et déployer des architectures data performantes et scalables sur Snowflake et Azure. • Collaborer avec les équipes de développement et d'infrastructure pour assurer l'intégration des solutions. • Garantir la qualité, la sécurité et la conformité des données. • Participer à l'évolution des bonnes pratiques et standards techniques. • Assurer la documentation technique et les formations internes. • Suivre les innovations technologiques et proposer des améliorations continues.

Freelance

Mission freelance
ARCHITECTE DATA / POWER BI & AZURE

PROPULSE IT
Publiée le
Azure
BI

24 mois
275-550 €
Massy, Île-de-France

Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité

Freelance

Mission freelance
Business Analyst IT – Modélisation de données H/F

Karma Partners
Publiée le
BigQuery
Google Cloud Platform (GCP)
Modélisation

6 mois
400-500 €
Île-de-France, France

ANGLAIS COURANT OBLIGATOIRE Analyse & recueil des besoins • Recueillir les besoins métiers auprès des équipes métier. • Traduire ces besoins en spécifications fonctionnelles centrées sur la donnée. • Formaliser les cas d’usage de consommation et d’exposition des données. Modélisation & structuration des données • Participer à la modélisation logique et physique des données du Shopping Data Hub sur BigQuery. • Construire des dictionnaires de données, des mappings et des modèles documentés et évolutifs. • Travailler en lien étroit avec les data engineers GCP et les data architects. Contribution GCP & data engineering • Collaborer avec les équipes techniques sur les pipelines de données (Dataflow, Cloud Composer, Pub/Sub...). • Veiller à la performance, la scalabilité et l’optimisation des modèles sur GCP. • Aider à la définition des bonnes pratiques GCP (naming, stockage, partitionnement, sécurisation...). Gouvernance & documentation • Contribuer à la mise en place de la gouvernance des données (qualité, traçabilité, respect du RGPD). • Rédiger et maintenir à jour la documentation métier et technique du modèle de données. • Participer à l’amélioration continue du hub (monitoring, automatisation, audits...).

Freelance

Mission freelance
Data Designer

Gentis Recruitment SAS
Publiée le
AWS Cloud

6 mois
Paris, France

Contexte de la mission: Dans le cadre d’un programme de transformation data au sein d’un grand acteur du secteur bancaire, nous recherchons un Data Designer afin de renforcer les équipes en charge de la modélisation et de la structuration des données. Le poste s’inscrit dans un contexte de refonte des processus data et de standardisation des pratiques au sein des équipes métiers et IT. L’objectif principal est d’assurer la cohérence, la qualité et la lisibilité du modèle de données tout en accompagnant les utilisateurs dans la définition et la mise en œuvre des bonnes pratiques de gestion et de gouvernance. Responsabilités principales: · Concevoir et maintenir les modèles de données conceptuels et logiques . · Rédiger la documentation fonctionnelle et technique liée à la modélisation des données. · Définir et formaliser les processus de gestion, de configuration et de paramétrage liés à la donnée. · Contribuer à la mise en place des règles de gouvernance , de qualité et de sécurité des données. · Participer à la coordination fonctionnelle entre les équipes techniques et les utilisateurs métiers. · Identifier les améliorations possibles des flux et processus existants afin d’optimiser la circulation et la valorisation de la donnée. Stack et environnement technique: · Outils de modélisation : PowerDesigner, Erwin Data Modeler, UML, Merise · Gouvernance & documentation : DataGalaxy, Collibra, Alation (ou équivalent) · Bases de données : SQL, Oracle, Snowflake (souhaité) · Cloud : AWS · BI / Data Tools : Tableau, Dataiku (en support) Profil recherché: · Minimum 4 à 6 ans d’expérience dans la conception et la modélisation de données (Data Designer, Data Architect, Data Modeler ou équivalent). · Excellente compréhension des modèles de données relationnels et dimensionnels . · Capacité à traduire les besoins métiers en structures de données claires et exploitables. · Expérience dans la définition de processus fonctionnels et la coordination inter-équipes . · Sens du détail, rigueur documentaire et bonne compréhension des enjeux de gouvernance data. · Une première expérience dans le secteur bancaire ou financier est un atout significatif. Informations complémentaires: · Localisation : Île-de-France (hybride possible) · Démarrage : ASAP

Freelance

Mission freelance
[TPR] Architecte Data et IA - Big Data (8/12 XP)

ISUPPLIER
Publiée le
Big Data
RGPD
Stratégie

3 mois
400-730 €
Paris, France

Dans le cadre du plan stratégique du Groupe pour le secteur bancaire du Groupe, ce dernier joue un rôle clé dans la modernisation des Systèmes d'Information et l'accélération de la digitalisation. Pour répondre aux défis de l'innovation et de la sécurité, ils sont créés un département département, chargé de libérer le plein potentiel de l'Intelligence Artificielle pour le Groupe. L'équipe est composée de six équipes : Innovation Exposition, Innovation Factory, APEX, Smart Auto Factory, Data Analytics and Management Platforms et le Centre de Compétence en IA. Ce dernier est chargé de développer et de maintenir les compétences en Intelligence Artificielle au sein du département A3I. L’objectif de sa mission est : - d'aider à préparation de la stratégie IA et la roadmap 2026. - de structurer les retours des besoins métiers pour mieux dimensionner le dispositif AICC L’objectif de sa mission est : - d'aider à préparation de la stratégie IA et la roadmap 2026. - de structurer les retours des besoins métiers pour mieux dimensionner le dispositif AICC. Compétences clés : • Expertise en gouvernance IA, ML Ops, auditabilité et traçabilité des modèles • Maîtrise des enjeux réglementaires et éthiques (AI Act, CNIL, RGPD). • Capacité à structurer des dispositifs de veille IA et à animer des communautés d’experts • Leadership, esprit critique, rigueur, capacité à influencer et à collaborer en environnement complexe Livrables : - Conseil et orientation sur les décisions stratégiques à prendre sur le plan stratégique de la banque en matière d'IA - Conseil sur l'organisation, le positionnement et le dimensionnement de l'équipe AICC vis à vis des besoins Métiers - Structuration et formalisation de la roadmap 2026 de l"AICC

Freelance
CDI

Offre d'emploi
Data Engineer (spécialisation Microsoft Fabric) (H/F)

SERYCE
Publiée le
Agile Scrum
Azure Data Factory
Microsoft Fabric

12 mois
Paris, France

Data Engineer (spécialisation Microsoft Fabric) Contexte du poste Au sein de la Direction des Systèmes d’Information, le Data Engineer rejoint l’équipe Data, en charge de la conception, de la mise en œuvre et de la maintenance des solutions de gestion et d’exploitation des données. Dans un contexte de modernisation du SI et de développement des usages data, l’entreprise déploie la plateforme Microsoft Fabric pour unifier les services de data engineering, d’analyse et de gouvernance des données. Missions principales Le Data Engineer interviendra sur l’ensemble de la chaîne de traitement de la donnée : 1. Conception et développement Concevoir et mettre en œuvre les flux de données sur Microsoft Fabric (Data Factory, Dataflows Gen2, Lakehouse, Pipelines) Construire et maintenir les modèles de données dans le OneLake Développer des pipelines de transformation et d’ingestion de données (batch et temps réel) Garantir la qualité, la performance et la robustesse des traitements de données 2. Intégration et industrialisation Optimiser les coûts et les performances de la plateforme data Documenter les architectures, flux et traitements 3. Gouvernance et sécurité des données Collaborer avec le Head of data et le Data Architect Mettre en œuvre les bonnes pratiques de sécurité, gestion des accès et métadonnées 4. Support et amélioration continue Assurer le support technique des environnements Fabric Identifier les axes d’amélioration et participer aux évolutions de la plateforme data Former et accompagner les utilisateurs métiers et analystes Power BI

Freelance

Mission freelance
Solution Architect Anglais

Freelance.com
Publiée le
AWS Cloud
Azure
Docker

1 an
560-610 €
Île-de-France, France

Notre client, un acteur international du secteur des services financiers, a lancé un ambitieux programme de transformation visant à repenser en profondeur son domaine Business Information . Objectif : moderniser ses plateformes, renforcer la culture Data et offrir une expérience client de nouvelle génération. Ce programme s’articule autour de quatre grands piliers : Data Management : Connexion aux fournisseurs de données, stockage, gouvernance et qualité de la donnée. Customer Centricity : Nouveaux outils web, pricing, contrats et analyse comportementale. Business Intelligence Platform : Construction des fondations techniques d’une nouvelle plateforme BI mondiale. People & Process : Adoption d’un modèle agile à l’échelle. Dans ce contexte, nous recherchons un(e) Solution Architect expérimenté(e) capable de piloter l’architecture technique et fonctionnelle de la future plateforme BI. En tant qu’ Architecte Solution , vous serez au cœur de la transformation technologique : Concevoir les architectures fonctionnelles et techniques alignées sur la stratégie Data & Business. Collaborer étroitement avec les équipes produit, les architectes d’entreprise et les data architects. Analyser les systèmes existants, réaliser des études d’écart et définir la trajectoire cible. Participer aux choix technologiques (POC, benchmark, cloud, intégration). Encadrer le développement pour garantir la cohérence, la performance et la sécurité des solutions. Contribuer à la modernisation du SI via une approche microservices, API et data-driven. Promouvoir les bonnes pratiques DevOps et CI/CD.

CDI

Offre d'emploi
Data ingénieur NiFi - Finance et banque H/F

VIVERIS
Publiée le

40k-50k €
France

Contexte de la mission : Viveris vous propose un poste de Data Engineer au sein de la Business Unit Épargne et Services Financiers. Dans le cadre d'un nouveau projet visant à centraliser, fiabiliser et gouverner l'ensemble des données relatives aux instruments financiers, vous intégrerez la squad Data, composée de trois développeurs Data, d'un architecte technique, d'un business analyst et d'un product owner. Vous devrez maîtriser l'environnement NiFi ainsi que l'architecture des pipelines de données, qui présente une certaine complexité avec de nombreux flux et interactions entre les différentes tâches. Responsabilités : - Concevoir et développer des pipelines de données ; - Développer et intégrer sur Apache NiFi ; - Contrôler la qualité et la traçabilité ; - Rédiger la documentation et partager vos connaissances.

Freelance

Mission freelance
Data Engineer Fabric .Net

Cherry Pick
Publiée le
.NET
Databricks
Python

8 mois
500-520 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un Data Engineer Fabric .Net , pour le compte de l'un de ses clients qui opère dans le domaine de l'Energie. Description 🧩 Contexte de la mission Intégré(e) à la squad Data Platform, vous interviendrez sur des projets stratégiques de modernisation et d’industrialisation de la plateforme Data du groupe. Votre rôle consistera à concevoir, maintenir et sécuriser l’infrastructure data et cloud, tout en accompagnant les équipes Data et DevOps dans leurs déploiements et pratiques CI/CD. Vous serez au cœur des sujets Terraform, Databricks, AWS, Python et MS Fabric, en interaction directe avec les Data Engineers, Data Architects et Data Officers. 🎯 Objectifs et livrables Participer à la réalisation du workplan et aux user stories du backlog. Automatiser les déploiements d’infrastructure via Terraform et GitHub Actions. Maintenir et améliorer le pipeline CI/CD (Terraform, Docker, AWS, MS Fabric). Contribuer au monitoring et à l’exploitation de la Data Platform. Développer des microservices en Python ou .NET (C#). Participer aux activités de Build et de RUN, incluant le support et les mises en production. Améliorer la résilience, la qualité et la sécurité du code (“shift-left”). Proposer des optimisations FinOps et d’observabilité (Grafana, App Insights). Maintenir la documentation technique et les bonnes pratiques DevOps/DataOps.

Freelance

Mission freelance
Business Analyst DATA Modélisation HF

Karma Partners
Publiée le
Google Cloud Platform (GCP)

6 mois
400-490 €
Île-de-France, France

Missions principales » Analyse & recueil des besoins Recueillir les besoins métiers auprès des équipes métier. Traduire ces besoins en spécifications fonctionnelles centrées sur la donnée. Formaliser les cas d’usage de consommation et d’exposition des données. Modélisation & structuration des données Participer à la modélisation logique et physique des données du Shopping Data Hub sur BigQuery. Construire des dictionnaires de données, des mappings et des modèles documentés et évolutifs. Travailler en lien étroit avec les data engineers GCP et les data architects. Contribution GCP & data engineering Collaborer avec les équipes techniques sur les pipelines de données (Dataflow, Cloud Composer, Pub/Sub...). Veiller à la performance, la scalabilité et l’optimisation des modèles sur GCP. Aider à la définition des bonnes pratiques GCP (naming, stockage, partitionnement, sécurisation...). Gouvernance & documentation Contribuer à la mise en place de la gouvernance des données (qualité, traçabilité, respect du RGPD). Rédiger et maintenir à jour la documentation métier et technique du modèle de données. Participer à l’amélioration continue du hub (monitoring, automatisation, audits...).

65 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous