Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 276 résultats.
CDI

Offre d'emploi
Data Steward / Référent Qualité et Gouvernance des Données

Enterprise Digital Resources Ltd
Publiée le
Data governance
Data Lake
PL/SQL

Paris, France
Data Steward / Référent Qualité et Gouvernance des Données. Rattaché(e) au Responsable équipe Data, vos missions s'articuleront autour des volets suivants : Gouvernance et gestion de la donnée Définir et maintenir les règles de gouvernance de données (standards, nomenclatures, référentiels). Assurer la gestion du data catalog et la documentation des jeux de données. Identifier les propriétaires de données ( data owners ) et coordonner les processus de validation. Qualité des données Mettre en place et suivre les indicateurs de qualité (complétude, exactitude, unicité, fraîcheur…). Gérer et suivre les incidents et anomalies de qualité. Proposer des plans d’amélioration et suivre leur mise en œuvre avec les équipes techniques et métiers. Sécurité et conformité Veiller au respect des règles RGPD, sécurité et conformité interne liées aux données. Participer aux analyses d’impacts (DPIA) et aux audits de conformité. Support et coordination métier Comprendre les besoins métiers et garantir l’adéquation entre les données disponibles et leur usage. Former et accompagner les utilisateurs sur les bonnes pratiques de gestion des données. Servir de point de contact entre l’équipe Data et les équipes métier.
CDI

Offre d'emploi
MOA Business Data Analyst F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Big Data
JIRA
Kanban

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDD
CDI
Freelance

Offre d'emploi
Chef de projet solution de gestion du patrimoine

KEONI CONSULTING
Publiée le
Big Data
Gestion de projet
Management

18 mois
20k-60k €
100-450 €
Nantes, Pays de la Loire
CONTEXTE Le candidat interviendra sur la mise en œuvre d’une solution de gestion du patrimoine. Ce projet a 2 volets - Solution : conception et déploiement d’outil - Data : mise en œuvre de processus de Data Management s’appuyant sur des solutions exis tantes Les objectifs sont d’harmoniser les processus de travail, de les soutenir via des outils et d’implanter . Une vraie culture de gestion de la donnée et de sa qualité. La personne retenue pour exercer ces missions sera appuyée d’une directrice de projets et collaborera avec l’activité DATA. LES MISSIONS • Cadrer l’organisation des projets, • Réaliser des études et concevoir des solutions. La rédaction de cahier des charges pourra être requise, • Accompagner à la mise en œuvre et au déploiement de futurs outils ou nouveaux modules • Fédérer et appuyer l’adoption de ceux-ci, • Construire en lien avec l’équipe Data une vraie gouvernance de la donnée sur les projets et les différents outils, • Assurer sa mise en œuvre et l’acculturation des équipes. La personne retenue pour exercer ces missions sera appuyée d’une directrice de projets de et collaborera avec le service DATA.
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

35k-42k €
Strasbourg, Grand Est
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Strasbourg - Expérience de 2 ans minimum Vous aimez transformer les données en décisions concrètes ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, intervenant dans le secteur bancaire. Contexte : Vous interviendrez directement sur des projets d’intégration et d’exploitation de données, contribuant à rendre l’information accessible et exploitable pour les équipes métier. Voici un aperçu détaillé de vos missions : - Concevoir et maintenir des processus d’intégration de données (ETL / ELT), idéalement avec Semarchy xDI (anciennement Stambia) - Participer à la modélisation de systèmes décisionnels et à l’organisation des données - Manipuler et optimiser les bases de données avec le SQL - Collaborer avec les équipes BI sur des outils comme SAP/BO Situation géographique : Strasbourg (67)
CDI
Freelance

Offre d'emploi
Data Engineer Stambia

ANDEMA
Publiée le
Qlik Sense
Qlikview
Semarchy

3 mois
Lille, Hauts-de-France
Contexte Pour le même client Retail, nous recherchons un Data Engineer spécialisé Stambia afin de renforcer l'équipe Data sur les sujets d'intégration, de transformation et d'industrialisation des flux. Vous interviendrez au coeur de l'architecture Data et travaillerez en étroite collaboration avec les équipes BI et métiers. L'objectif : garantir la fiabilité, la performance et la scalabilité des flux de données alimentant le DataWarehouse et les outils décisionnels. Missions 1. Data Engineering & Intégration - Concevoir, développer et maintenir les flux d'alimentation via l'ETL Stambia. - Intégrer des données issues de multiples sources (ERP, bases SQL, fichiers plats, API...). - Développer et optimiser les transformations et règles de gestion. - Industrialiser les traitements batch et automatiser les flux. - Mettre en place des contrôles qualité et mécanismes de supervision. 2. Architecture & Modélisation - Participer à l'évolution du DataWarehouse. - Contribuer aux choix d'architecture Data. - Optimiser les performances des traitements et des bases de données. - Assurer la cohérence et la traçabilité des données. 3. Maintenance & Support - Assurer le MCO des flux ETL existants. - Diagnostiquer et corriger les incidents. - Maintenir la documentation technique. - Proposer des améliorations continues sur les processus d'intégration Environnement technique Stambia SQL (PostgreSQL, Oracle, SQL Server) DataWarehouse / DataLake QlikView / Qlik Sense (environnement cible) JIRA, Git Agile Scrum / Kanban
Freelance

Mission freelance
Directeur de Programme – Migration Data & Analytics Cloud

Signe +
Publiée le
Snowflake

12 mois
840 €
Paris, France
Contexte Dans le cadre d’un programme stratégique de transformation, le client souhaite piloter la migration complète de son écosystème Analytics vers des solutions cloud modernes. L’objectif est de moderniser des plateformes data vieillissantes et d’améliorer la scalabilité, la performance et la gouvernance des environnements Analytics. Périmètre Migration SAP HANA et Sybase IQ vers le Cloud Cibles potentielles : Snowflake, Microsoft Azure ou autres plateformes cloud modernes Transformation globale des architectures Data / BI / ETL Refonte de la roadmap Data Platform à l’échelle de l’entreprise Responsabilités Pilotage global du programme de migration Data Encadrement de 5 à 6 Chefs de Projet Structuration de la gouvernance programme Définition et suivi de la roadmap Gestion des dépendances, risques et budgets Coordination des équipes IT, Data et Métiers Communication auprès des sponsors et instances de direction Compétences techniques attendues Expérience confirmée en migration de bases de données lourdes (HANA, Sybase IQ) Maîtrise des architectures Analytics modernes (Snowflake, Azure, Data Platform Cloud) Compréhension des environnements BI / ETL / Data Warehouse Vision globale des impacts métiers (Finance, Industrie, R&D, Supply Chain…) Compétences managériales Expérience de direction de programme stratégique Capacité à piloter plusieurs streams en parallèle Forte maîtrise de la gouvernance, des arbitrages et de la gestion budgétaire
Freelance

Mission freelance
Data engineer

CAT-AMANIA
Publiée le
Informatica PowerCenter
SAP BI
SQL

6 mois
400-450 €
Toulouse, Occitanie
Nous recherchons un Data Engineer expérimenté / Tech Lead disposant de solides compétences en SQL, ETL et outils de reporting . Vous interviendrez sur un domaine en charge du chargement, de la transformation et de la fiabilisation des données . Vos missions principales : Participer aux projets en cours et à venir (corrections, évolutions, nouvelles fonctionnalités) Concevoir, développer et optimiser les flux ETL Développer et maintenir les requêtes SQL complexes Contribuer à l’amélioration continue de l’architecture data Assurer la qualité, la performance et la cohérence des données Collaborer étroitement avec une équipe de 8 personnes Le poste s’inscrit dans une logique long terme , avec de réelles perspectives si les compétences techniques et l’intégration à l’équipe sont au rendez-vous. Anglais obligatoire (contexte international).
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer Python / Azure / Ops

VISIAN
Publiée le
Azure
Azure Data Factory
Python

2 ans
Paris, France
La DSI du client recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l'exploitation des données par les analystes métiers et data scientists. A ce titre, vos principales missions consisteront à : Mener les projets d'intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, domain managers, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d'optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d'optimiser les architectures Contribuer à l'amélioration de la gouvernance sur la protection et la confidentialité des données. Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l'entreprise.
Freelance

Mission freelance
Ingénieur Data Senior +8 ans

Sapiens Group
Publiée le
Azure
Azure Data Factory
Databricks

3 mois
550-630 €
Boulogne-Billancourt, Île-de-France
Contexte Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes d'une grande entreprise médias dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions Concevoir et développer des pipelines d'ingestion de données via Azure Data Factory. Créer et optimiser des flux de transformation de données en PySpark/Python. Maintenir et développer de nouveaux indicateurs de qualité de données. Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. Garantir la qualité du code et veiller au respect des normes de développement au sein de l'équipe. Implémenter des tests unitaires et assurer la fiabilité des solutions. Mettre en place des solutions de monitoring et de supervision pour l'application Data-RH. Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci. TJM : 600-630 €
Freelance

Mission freelance
Data Scientist – Data / IA (F/H)

CELAD
Publiée le

1 an
450-480 €
Corenc, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Corenc (Région Grenobloise) - Expérience de 5 ans minimum Envie de contribuer à la stratégie Data & IA d’un grand groupe bancaire ? Dans le cadre du renforcement d’un Département Data & Décisionnel au sein d’un acteur majeur du secteur bancaire, nous recherchons un.e Data Scientist – Data / IA pour intervenir en régie au sein du service Data Management & Intelligence Artificielle. Voici un aperçu détaillé de vos missions : - Recueillir et qualifier les besoins métiers - Transformer des problématiques bancaires en cas d’usage Data / IA - Concevoir, développer et industrialiser des modèles avancés - Réaliser les différentes phases d’un projet DS : Data préparation, Modélisation (ML, DL, LLM), Data visualisation, Monitoring - Déploiement et exploitation de LLM, agents et assistants - Accompagnement des métiers dans la rédaction de prompts - Participation à l’industrialisation des cas d’usage IA - Contribution à la mise en place de l’environnement technique (notamment sous GCP) - Participation à la Maintenance en Condition Opérationnelle des cas d’usage DS/IA - Priorisation et gestion du backlog MCO - Animation d’ateliers Data / IA - Actions d’acculturation auprès des directions métiers - Coaching d’étudiants sur des POC - Vulgarisation des sujets IA auprès de publics non techniques
Freelance

Mission freelance
Data Engineer -CLOUD GOOGLE-

DEVIK CONSULTING
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
400-650 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Data Engineer Spécialisé sur Google Cloud afin de rejoindre la Squad data pour le pilotage commercial Tâches principales Développement de pipeline de données sur Cloud Composer / Airflow Optimisation des performances et coûts des traitements sur GCP Participation aux choix d'outils et des solutions techniques sur GCP et développement de nouvelles application Modélisation des données sur BigQuery Maintenir l'existant en condition opérationnelle Préparer et mettre en œuvre l’interopérabilité avec de nouveaux systèmes opérationnels Proposer des simplifications et/ou optimisations selon les normes internes Compétences demandées GCP : Confirmé Big Query : Expert Base de donnée : Confirmé Python : confirmé Lieu : Paris
CDI

Offre d'emploi
Data Engineer GCP (H/F)

CELAD
Publiée le

42k-48k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 6 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur Data pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Vous rejoignez une équipe dédiée à délivrer les socles techniques permettant aux équipes Data Sciences de concevoir, expérimenter et industrialiser leurs modèles sur GCP. Vos principales missions : Déploiement & architecture Industrialiser les pipelines de données sur l’écosystème GCP Gérer les montées de version des services managés Concevoir des environnements fiables et performants pour les usages ML Développement & data engineering Développer et maintenir des pipelines de données (Python / SQL) Administrer et optimiser les environnements BigQuery Mettre en place les pratiques CI/CD et MLOps Sécurité & gouvernance Gérer les accès et les permissions (IAM) Veiller à la conformité et à la sécurisation des données Communauté & partage Animer la communauté d’experts data Rédiger des guides de bonnes pratiques et de documentation technique Veille technologique Suivre les évolutions de l’écosystème Data / IA Proposer des améliorations techniques pour faire évoluer la plateforme ⚙ Stack technique du projet : - GCP - BigQuery, GCS - Vertex AI, Dataproc, Workflows - Cloud Run, Composer - Python, SQL - MLOps, FinOps - Bitbucker, Artifactory
Freelance

Mission freelance
Coordinateur Data, BI & IA (H/F)

Link Consulting
Publiée le
Azure
BI
Data science

3 mois
400-550 €
Caen, Normandie
Rejoignez un groupe industriel français historique, leader mondial depuis plus de 75 ans dans son domaine. Présent dans les secteurs pharmaceutique, nucléaire et industriel, notre client exporte dans plus de 80 pays, avec plusieurs sites de production en France. Entreprise à taille humaine, elle allie innovation continue, exigence qualité et ancrage territorial fort. | Vos missions | C’est un rôle de coordination transversale forte (Métiers, prestataires, entités du groupe), avec une dimension de gouvernance et d'amélioration continue. \- Centraliser et harmoniser les indicateurs clés (KPI) pour le pilotage stratégique et opérationnel du groupe \- Concevoir et maintenir une architecture de reporting homogène et scalable \- Modéliser les données (Datawarehouse, datalake, datamarts) et optimiser les flux d’intégration (ETL/ELT) \- Garantir la qualité, l’exhaustivité et la fraîcheur des données \- Être l'interface entre les métiers et la DSI : Recueillir les besoins, rédiger les expressions de besoins, coordonner les réalisations \- Définir et déployer des contrôles qualité, alertes et tableaux de bord de suivi \- Contribuer à la conformité RGPD et aux audits internes \- Administrer la plateforme BI : Paramétrage, déploiements, supervision et gouvernance fine des accès (rôles, cloisonnement par entité/fonction) \- Former les utilisateurs clés et promouvoir la culture data & IA (ateliers, guides, vidéos) \- Documenter l'architecture, les flux et les procédures \- Suivre les incidents, évolutions et demandes \- Réaliser une veille BI/Data/Cloud/IA et proposer des axes d’optimisation "Métiers" \- Collaborer avec les entités du groupe dans une logique de standardisation et de mutualisation
CDI
Freelance

Offre d'emploi
Chef de projet data H/F

HN SERVICES
Publiée le
Confluence
Google Cloud Platform (GCP)
JIRA

12 mois
53k-57k €
400-450 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
HN Services recrute un.e Chef de Projet Data sénior afin de participer à la mise en œuvre de nouveaux usages data sur une plateforme GCP au sein d’une squad Data chez l’un de nos clients situé à Aix en Provence . Description du poste : En tant que Chef de Projet Data, vous pilotez une équipe de Data Analysts et accompagnez les métiers dans le développement de nouveaux usages data autour de la Business Intelligence et de la data science. Vos principales responsabilités : • Piloter et animer la squad Data composée de Data Analysts • Identifier et qualifier les besoins métiers autour de la donnée • Accompagner les métiers dans l’adoption des usages BI, self-BI et data science • Structurer et piloter les projets data dans un cadre agile • Garantir la qualité, la performance et l’industrialisation des solutions mises en place • Assurer la coordination entre équipes métiers, data et techniques • Suivre l’avancement des travaux, les livrables et les engagements projet • Contribuer à l’exploration et à la mise en œuvre de nouveaux cas d’usage data Environnement technique : Google Cloud Platform, BigQuery, Jira, Xray, Confluence, Linux, Python, PowerBI, Composer, SSIS.
Freelance

Mission freelance
Consultant Data gouvernance Collibra (BCBS 239)

STHREE SAS pour COMPUTER FUTURES
Publiée le
Collibra
Data management

9 mois
Île-de-France, France
Contexte : Cadre réglementaire pour les banques : Exigences Bâle 2 renforcée, besoin de données fiables pour piloter les risques et pression sur qualité et traçabilité de données Objectifs : Implémentation de Collibra (choix du siège) comme levier RDARR : La plateforme de gouvernance des données ❖ Glossaire, dictionnaire, référentiels ❖ Rôles et responsabilités (ownership) // Documentation et workflows ❖ Data lineage ❖ Cohérence et transparence des données utilisées Missions Phase Data Owner Assignment : suivant la définition théorique que nous avons donné en interne sur les rôles et Responsabilités, 4 profils : Data Owner, Stewart, Producer et User ❖ Préparer et faire valider la matrice des R&R auprès des Data Owner à partir du scope CONNECT ❖ Faire valider les Rôles et Responsabilités auprès des Data Owner sur les IDP Connect (Local file, Mapping table, RDT, Scoring, Rating …) Phase Alimentation Collibra : ❖ « Ecosystème input CONNECT » Use case de l’implémentation dans Collibra) 1/ Préparer les différents templates (par entités CONNECT) pour Collibra avec les besoins fonctionnels demandés pour Collibra 2/ Identifier les sources de données (avec l’aide de spécifications techniques) 3/ Faire compléter le lineage de data par l’IT 4/ Tester les templates sur K dans l’import Collibra et valider les schémas (Vérifier que le lineage fonctionne correctement avec les données attendues en provenance des systèmes) 5/ Mettre en production les templates 6/ Effectuer et Organiser les correctifs nécessaires en partenariat avec l’IT. 7/ Participer au meetings bi-weekly avec le siège sur l’avancement des travaux – Fournir l’avancement nécessaire dans JIRA et/ou au Data Officer ❖ «Ecosysteme Autres » Selon le siège, « nous » livrons des spreadsheets pour le compte du regulatory reporting. Cadrage encore flou. Cependant l’idée serait d’auditer certains services pouvant « toucher » aux outils du siège (suivant liste pré définie) afin de vérifier que des données sont envoyées au siège et par quel biais. - Prendre les outils recensés par le siège (Check si ces outils génèrent des flux pour les besoins des reportings règlementaires au siège) - Sonder sur les User de ces outils et les flux existants - Organiser la description de ces flux en vue de l’intégration dans Collibra . - Vérifier que le flux soient déclarés en interne dans la cartographie des outils avec architecte IT
Freelance

Mission freelance
Master Data Manager

HAYS France
Publiée le
Informatica
Master Data Management (MDM)

1 an
Île-de-France, France
Missions principales 1/ Compréhension du contexte métier autour des données de référence Cartographier l’existant du cycle de vie des données de référence. Définir le cycle de vie cible (création, mise à jour, désactivation, suppression). Collecter les cas d’usage liés à l’utilisation des données de référence. Identifier où se trouvent les données de référence au sein du groupe. 2/ Règles liées aux données de référence Recueillir les règles de qualité de données existantes. Définir les règles de qualité pour chaque donnée de référence. Co-construire les règles MDM avec les parties prenantes métier : validation, normalisation, rapprochement, fusion, mapping, synchronisation. 3/ Interface avec les parties prenantes IT Participer à la priorisation des systèmes d'information et de leurs données. Être le point de contact des équipes IT chargées de mettre en œuvre les règles définies. Contribuer à la définition de l’architecture cible. 4/ Référentiel de propriété groupe En complément des activités ci-dessus : Définition de la modélisation : Identification et définition des objets métier et de leurs relations. Modèle logique de données avec identification et caractérisation des attributs. Support aux équipes IT pour la mise en œuvre du modèle physique de données. Sujets transverses Participation à la définition des livrables pour augmenter la maturité du Master Data Management. Livrables (liste non exhaustive) Cas d’usage liés aux données de référence. Cycle de vie cible des données de référence, incluant la gouvernance. Règles de validation, normalisation, matching, fusion, synchronisation pour les attributs de données de référence. Support à la modélisation. Identification des données de référence au sein des modèles de données. Supports de communication sur le MDM. Méthodes, processus, outils et gouvernance pour améliorer le MDM.
4276 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous