Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 1 689 résultats.
Freelance

Mission freelance
Data Engineer Niveau 3 - Niort

Signe +
Publiée le
Business Object
Dataiku
SQL

6 mois
410-440 €
Niort, Nouvelle-Aquitaine
Enjeux Stratégiques La valorisation de la donnée est au cœur de notre stratégie de transformation pour 2025-2026. Pour soutenir cette ambition, nous recherchons un Ingénieur Data expérimenté, de niveau III pour intégrer l'équipe de développement DATA DSIM. Vous rejoindrez notre nouvelle équipe DATA pour construire, maintenir et optimiser les plateformes et les pipelines de données, garantissant ainsi la fiabilité et l'accessibilité de la donnée pour l'ensemble de l'entreprise. Missions Clés de l'Ingénieur DATA Le consultant Data sera Rattaché(e) au chef de projet de l'équipe, ce sera un contributeur technique essentiel dans le cycle de vie de la donnée. Le consultant sera au cœur du nouveau modèle DATA décliné chez Macif Finance Epargne
Freelance

Mission freelance
Data Engineer GCP

Sapiens Group
Publiée le
BigQuery
Gitlab
Google Cloud Platform (GCP)

12 mois
400-420 €
Lille, Hauts-de-France
Votre mission principale consiste à concevoir et mettre en œuvre une solution de cartographie du périmètre technique et de la propriété des données. Dans un environnement data complexe, vous contribuerez à améliorer la compréhension des usages, des dépendances et de la gouvernance des données. Responsabilités principales Réaliser une étude de conception pour une solution de cartographie des actifs data : Pipelines Applications Sources de données Indicateurs métier Exploiter les métadonnées disponibles (notamment dans BigQuery) Modéliser les données nécessaires à la cartographie Mettre en place des mécanismes d’ingestion de données complémentaires Concevoir une interface de visualisation claire et exploitable Participer à l’amélioration de la gouvernance et de la qualité des données Contribuer aux travaux liés à la data lineage initiés précédemment Collaborer avec les équipes data (Data Engineers, Analysts, Scientists) Livrables attendus Rapport de benchmark des solutions Analyse comparative des solutions du marché (open-source ou propriétaires) Évaluation de leur adéquation au contexte du client Rapport de proposition de solution Recommandation d’une solution adaptée Définition de l’architecture fonctionnelle et technique Spécifications détaillées Priorisation d’une approche “make” Mise en œuvre d’une solution Développement d’une première version fonctionnelle Documentation technique complète Versioning du code (Git) Déploiement sur un périmètre défini Objectifs du poste Améliorer l’auditabilité des données Faciliter la gouvernance data Accélérer l’onboarding des nouveaux collaborateurs Apporter une vision claire des dépendances et responsabilités data Compétences techniques SQL (impératif – niveau junior) BigQuery (apprécié) GitLab / Git (apprécié) Connaissance des concepts de : Data lineage Gestion des métadonnées Modélisation de données
Freelance

Mission freelance
Business Analyst - Data Migration Lead

Axande
Publiée le
Business Analyst
Finance
Oracle ERP Cloud

6 mois
450-650 €
La Défense, Île-de-France
Lieu : Nanterre (92) | Démarrage : ASAP Contexte de la mission Le client a fait l'acquisition d'une société. Plusieurs applications Finance (Trésorerie, Tax, EPM, intégrations ERP, gestion des taux financiers, Travel & Expenses, etc. sont à rapatrier vers son SI. La mission consiste à piloter ces transitions d'applications de bout en bout afin d’assurer l’intégration des processus Finance dans le paysage applicatif interne tout en garantissant la continuité opérationnelle. Le rôle inclut également un support aux UAT dans le cadre de projets e-Invoicing (conformité réglementaire) ainsi qu’une contribution au cadrage de futurs projets digitaux Finance (dont initiatives IA). Responsabilités principales Identifier les actions à mener en vue du rappatriement des applications Analyser les systèmes existants, interfaces et dépendances Préciser avec le métier les données à migrer Organiser et superviser les phases de tests et de cutover Contribuer au projet e-Invoicing (analyse, tests, accompagnement utilisateurs) Participer au cadrage de futurs projets digitaux Finance Assurer le reporting d’avancement et des risques
Freelance
CDI

Offre d'emploi
Architecte DATA CMDB SERVICE NOW

OBJECTWARE
Publiée le
ServiceNow

2 ans
Île-de-France, France
Dans le cadre de la mise en conformité avec les recommandations de la Banque Centrale Européenne (BCE) sur la fiabilité des référentiels IT, notre client engage un programme d’amélioration et de gouvernance de sa CMDB Groupe et de ses référentiels techniques . L’objectif de cette mission est de concevoir et mettre en œuvre une architecture de données robuste et gouvernée , permettant d’assurer la qualité, la cohérence et l’exploitabilité des informations relatives aux actifs IT. Le consultant interviendra au cœur du dispositif pour structurer et améliorer le modèle de données CMDB , industrialiser l’intégration des sources d’inventaire et renforcer la gouvernance des données techniques. Architecture et modélisation des données CMDB Concevoir et optimiser le modèle de données des référentiels IT techniques (Configuration Items, relations et métadonnées). Simplifier et rationaliser les structures existantes afin d’améliorer la lisibilité et la maintenabilité du modèle. Garantir l’évolutivité de l’architecture des données pour intégrer de nouvelles sources d’inventaire et répondre aux besoins futurs. Identification et réconciliation des données Définir et implémenter les règles d’identification et de réconciliation (IRE) au sein de ServiceNow CMDB . Déterminer les clés d’identification des Configuration Items afin d’assurer l’unicité et la cohérence des données. Mettre en place des mécanismes de consolidation des informations issues de multiples sources d’inventaire. Gestion des sources d’inventaire Identifier et qualifier les sources de données techniques alimentant les référentiels IT . Définir les sources de vérité pour chaque type d’information. Cartographier et structurer les flux d’alimentation des référentiels IT . Qualité des données et gouvernance Définir et mettre en œuvre une stratégie de Data Quality pour la CMDB : déduplication fiabilité des données complétude fraîcheur des informations gestion de l’obsolescence. Mettre en place des indicateurs de qualité et des tableaux de bord de suivi . Gouvernance des référentiels IT Appliquer les principes de Master Data Management (MDM) au contexte des référentiels IT. Définir les rôles et responsabilités autour des données (Data Owner, Data Steward). Structurer un cadre de gouvernance des référentiels IT documenté et partagé. Collaboration transverse Travailler en étroite collaboration avec les équipes : ITSM / CMDB ServiceNow Discovery équipes MDM sécurité IT infrastructures et exploitation. Accompagner les équipes responsables des inventaires techniques et outils de découverte . Reporting et produits de données Développer des produits de données exploitant les référentiels IT pour répondre aux besoins de reporting et d’audit. Contribuer à la production d’indicateurs et de tableaux de bord permettant de piloter la qualité et la fiabilité des données.
Freelance

Mission freelance
Business Analyst Market Data

LeHibou
Publiée le
Bloomberg

6 mois
500-650 €
Paris, France
Notre client dans le secteur Banque et finance recherche un Business Analyst Market Data au sein du département Achats H/F Descriptif de la mission: Consultation Assistance Technique – Business Analyst Market Data au sein du département Achats Contexte et environnement de la prestation Le consultant sera rattaché à la Responsable du département Achats d’une société de gestion d’actifs. Description de la prestation Au sein de la direction Achats, la mission couvre les activités suivantes : • Apporter une expertise fonctionnelle et technique pour répondre aux besoins des métiers (gestion, private markets européens, recherche, risques…) • Analyser les solutions des fournisseurs et présenter les solutions market data • Préparer des comptes rendus et des synthèses • Challenger les besoins des métiers et comprendre les usages data des utilisateurs afin de s’assurer de la conformité aux contrats • Assurer la gestion des fournisseurs et des négociations • Être force de proposition sur des optimisations en anticipant les risques et les tendances du marché • Piloter les contrats et le budget avec l’appui du département • Prendre en charge les comités market data avec la Direction générale
Freelance

Mission freelance
Proxy Product Owner Data – Corporate Finance Transformation

Freelance.com
Publiée le
Data management
ERP
P2P

1 an
540-600 €
Île-de-France, France
Dans le cadre d’un ambitieux programme de Finance Transformation au sein d’un grand groupe international, la Direction Data recherche un Proxy Product Owner Data pour piloter les initiatives Finance à forte composante data. Le périmètre couvre notamment les processus P2P (Procure-to-Pay) , O2C (Order-to-Cash) ainsi que les projets d’ automatisation des processus Finance dans un environnement structuré et exigeant. Description du poste Rattaché(e) au Data Office Groupe, vous intervenez en véritable interface stratégique entre les équipes Finance, IT et Data . À ce titre, vous : Identifiez et priorisez les initiatives Finance à fort impact data Traduisez les besoins métiers en exigences fonctionnelles et techniques Garantissez l’alignement avec les standards data et l’architecture groupe Validez les modèles de données et les choix d’architecture Contribuez aux cas d’usage d’automatisation (ex : Dataiku ou outil équivalent) Coordonnez les équipes Finance, IT et Data dans une logique transverse Assurez le suivi projet (jalons, risques, dépendances, reporting) Veillez au respect des exigences de gouvernance, qualité et sécurité des données Vous jouez un rôle clé dans la réussite de la transformation en garantissant que la donnée soit pleinement intégrée, exploitée et conforme aux standards du groupe.
Freelance

Mission freelance
POT9036 - Un Data ingénieur sur Massy

Almatek
Publiée le
SQL

6 mois
360-470 €
Île-de-France, France
Almatek recherche pour l'un de ses clients ,Un Data ingénieur sur Massy. Taches: Participation à la définition des solutions applicatives Développement, Intégration et Recette technique Surveiller et améliorer l'efficacité des processus Tenir à jour la documentation des systèmes et des processus. Contexte : Nous recherchons un/une Data Engineer expérimenté(e) pour contribuer à la réalisation des projets de la Squad Usages Data Avancé & IA: Conception et Maintenance de l'applicative Amélioration continue des produits / solutions de la squad Construction nouveaux usages Attendu: Construire et maintenir des pipelines ETL/ELT pour données structurées et non-structurées Mettre en oeuvre des chaines d'intégration, de déploiement et de suivi des solutions en production (DataOps). Préparer des datasets utilisés pour de l'exploration de données Développer et favorise l’industrialisation de modèles statistiques ou de machine learning Versionner données/modèles/code et monitorer performance/coûts Collaborer avec les équipiers de la squad et documenter vos travaux Compétences Humaines: Une bonne autonomie et capacité d'adaptation à des projets innovants et rythmés Sens du travail en équipe bonne communication et accompagnement utilisateurs Compétences Techniques: Langages : Python (FastAPI, Pyspark), SQL Qualité de code : Pytest, SonarQube MLOps/CI-CD : Docker, Kubernetes, GitHub/GitLab Actions Data & DB : PostgreSQL, Teradata, MySQL Observabilité : Stack ELK, Prometheus/Grafana, MLflow Plus si compétence en Big Data/Streaming : Spark, Kafka Experience 4 à 7 ans. Date de debut souhaitée :30 Mars 2026, mission longue
Freelance

Mission freelance
Consultant Azure Data Factory/SQL Server

OAWJ CONSULTING
Publiée le
Azure Data Factory
Microsoft Power BI
Microsoft SQL Server

1 an
500-550 €
Paris, France
BESOIN URGENT!! Dans le cadre du renforcement de son équipe data, notre client recherche un consultant senior orienté data engineering avec une forte expertise bases de données. Secteur immobilier. Missions Conception et développement de pipelines avec Azure Data Factory Gestion et optimisation des bases de données Microsoft SQL Server Modélisation et structuration des données Optimisation des performances (requêtes, index, traitements) Mise en place de bonnes pratiques DevOps / CI-CD Collaboration avec les équipes techniques et métiers Profil recherché 7 à 10 ans d’expérience en Data Engineering Excellente maîtrise d’Azure Data Factory Forte expertise en Microsoft SQL Server Bonne connaissance des problématiques de performance et modélisation Culture DevOps appréciée Autonome, rigoureux et orienté résultats
Freelance
CDI

Offre d'emploi
IT Data & Integration Manager

Taimpel
Publiée le
API
Architecture
Pilotage

1 an
59k-70k €
570-660 €
Paris, France
Contexte de la mission MH IS&T a lancé la mise en œuvre d’un outil d’ Integrated Business Planning (IBP) : Kinaxis Maestro . Il s’agit d’un programme de transformation , et non d’un simple projet d’implémentation IT. Une équipe Core Solution et une équipe Data & Integration travaillent en parallèle, en collaboration avec les équipes métiers et l’intégrateur, afin de construire la solution. Dans ce contexte, recherche un IT Data & Integration Manager pour renforcer l’équipe en place. Cette personne sera responsable de : piloter et gérer la mise en œuvre de l’ensemble des flux de données, assurer la coordination avec les équipes internes (IT et métiers), travailler avec l’intégrateur, superviser les différentes tâches et équipes pour garantir le respect : du périmètre, de la qualité, des délais, intervenir également en exécution opérationnelle (pas uniquement en pilotage). Rôle côté intégration Pour l’équipe d’intégration, cette personne devra : fournir les spécifications nécessaires : APIs transferts de fichiers L’équipe Data & Integration est responsable de la mise en place des flux entre : les systèmes et la solution Kinaxis Maestro Ces flux doivent être construits : selon l’architecture définie selon les spécifications produites par cette personne Rôle côté Data (mode Agile) Cette personne agira également comme Product Owner des produits data , avec les responsabilités suivantes : Faire le lien entre besoins métiers et données Prioriser les sujets Définir les règles de transformation des données Activités principales : Recueillir les besoins et spécifications (outil : Jira) Prioriser et suivre les sprints Participer aux cérémonies Agile Contexte SI Plusieurs systèmes doivent être connectés à Kinaxis Maestro : SAP ECC SAP Business One Anaplan Outil de budget etc. La connexion se fait via la Kinaxis Integration Layer , où l’intégrateur implémente les règles de transformation. Objectifs et livrables Responsabilités clés Piloter les spécifications fonctionnelles du stream Data & Integration Garantir le respect de l’architecture cible Garantir le respect des bonnes pratiques et standards S’assurer que la solution d’intégration : est optimisée est stable couvre les besoins Produire et maintenir la documentation fonctionnelle et technique Adopter une approche design-to-run pour faciliter le passage en RUN Missions principales Pilotage du stream Data & Integration Définition de la stratégie de sourcing des données Choix de la stratégie d’ingestion : utilisation ou non de la plateforme data arbitrage entre attentes métiers et contraintes techniques Alignement fonctionnel / technique sur les référentiels transverses : Produits Clients Pilotage de la delivery du stream Participation aux réunions projet Reporting d’avancement et gestion des risques Point de contact principal pour l’intégrateur sur les sujets data Coordination & cadrage Identifier les besoins data avec les équipes métiers Traduire ces besoins en spécifications Collaborer avec les équipes IT internes et l’intégrateur Stratégie technique Définition des environnements : dev staging production Définition de la stratégie de test : données nécessaires planning organisation des tests Mise en œuvre des flux Organisation des extractions et intégrations depuis les systèmes Travail avec l’intégrateur sur les règles de transformation Construction de la couche d’intégration Pilotage des phases projet Mise en place des flux Conversion des données Tests unitaires Tests de masse UAT Mise en production Passage en RUN Automatisation des interfaces Qualité & amélioration Capitalisation documentaire : scripts de test schémas d’architecture règles data Challenge des choix techniques Recommandations d’amélioration Collaboration avec l’Enterprise Architect Mise en place du monitoring des interfaces Définition de KPI Compétences demandées Compétences techniques Connaissance Supply Chain → Avancé GCP BigQuery → Expert Anglais courant (oral et écrit) → Expert Expérience Product Owner data → Expert Gestion de systèmes complexes → Expert Capacité à vulgariser des sujets complexes → Expert Expérience API / fichiers / retry / delta → Expert Connaissance ERP (SAP ECC, SAP B1, S/4 Hana) → Expert Architectures distribuées / ELT / ETL → Expert Expérience secteurs FMCG / Retail / Luxe → Expert MS Office 365 → Expert Expérience architecte data fonctionnel / lead stream data → Expert Communication & organisation → Expert Axway, GCP, design patterns → Avancé Design d’API & protocoles d’intégration → Expert Français → Expert Méthodologie Agile → Expert 🎯Ce besoin est : senior hybride : Architecte + PO + Delivery Lead orienté : intégration SI complexe data flows coordination multi-équipes 👉 Ce n'est pas juste un besoin de Data Engineer. 👉 Il faut quelqu’un qui a déjà : piloté un stream data Travaillé avec intégrateur Déjà fait du SAP + data + API
Freelance

Mission freelance
Data Scientist / AI Engineer

ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)

1 an
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Data Scientist / AI Engineer capable de concevoir, industrialiser et mettre en production des solutions IA performantes. Le rôle consiste également à instaurer des standards solides d’ingénierie logicielle afin de garantir la qualité, la fiabilité et la scalabilité des solutions développées. Vos missions Concevoir et développer des fonctionnalités basées sur l’intelligence artificielle. Construire et maintenir des pipelines de traitement de données. Industrialiser et monitorer les applications et services IA (latence, coûts, taux de réponse, satisfaction utilisateur). Mettre en place des pratiques MLOps / LLMOps : suivi d’expériences, déploiement, monitoring et observabilité des modèles. Garantir la qualité des données, la sécurité et la conformité réglementaire (notamment GDPR). Structurer les projets IA selon des standards d’ingénierie logicielle robustes (tests, CI/CD, documentation, bonnes pratiques). Participer aux revues d’architecture et diffuser les bonnes pratiques techniques au sein des équipes. Compétences techniques requises Machine Learning / Deep Learning (niveau expert). IA générative : LLM, RAG, prompt engineering, agents et orchestration. Analyse de données avancée. Traitement de données non structurées (PDF, images). Langages : Python avancé, SQL. Conception et intégration d’ APIs . Data pipelines : orchestration, streaming, feature stores. MLOps / LLMOps : CI/CD, Docker, Kubernetes, suivi des modèles, monitoring et observabilité. Bonnes pratiques de développement : structuration des projets, stratégie de tests, documentation technique. Environnement technique Python, SQL GCP Docker, Kubernetes CI/CD, MLOps / LLMOps
CDI

Offre d'emploi
CONSULTANT DATA H/F

PROMAN EXPERTISE
Publiée le
Microsoft Power BI

37k-40k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Vos missions ? Rattaché(e) au Responsable SI, vous contribuez à la mise en place, la fiabilité et l’évolution des données utilisées par l’entreprise et ses services internes. Vous serez notamment chargé(e) de : - Gestion et exploitation de la donnée o Mettre en œuvre la collecte, le stockage et l’exposition de données de différentes natures. o Développer et administrer la base de données centrale (SQL). o Maintenir et faire évoluer les indicateurs existants. - Outils et automatisation o Gérer des flux de données et ETL (Microsoft SSIS). o Concevoir des outils digitaux pour dématérialiser des tâches métiers (low‑code). o Développer ou participer à la création de solutions facilitant le traitement et le partage de l’information. - Sécurité & documentation o Garantir le respect des règles de sécurité informatique définies par le service SI. o Rédiger des modes opératoires, documentations techniques et rapports. o Assurer un reporting clair de vos actions auprès de votre hiérarchie. Environnement technique : Suite Microsoft Power BI/Automate/Apps, SSIS, SQL
Freelance

Mission freelance
Data Analyst (Bordeaux) H/F

LeHibou
Publiée le
Microsoft Power BI

6 mois
400-450 €
Bordeaux, Nouvelle-Aquitaine
Notre client dans le secteur Immobilier recherche un/une Data Analyst H/F Description de la mission: Offre de mission – Data Analyst Contexte et objectif de la mission Notre client, composé d'environ 1 400 collaborateurs et de plusieurs filiales ainsi que de structures de services partagés (IT, RH, juridique, finance, marketing), est engagé dans une transformation digitale ambitieuse. Les enjeux portent notamment sur la gouvernance de la donnée, l'harmonisation des systèmes entre filiales et l'intelligence des processus métiers. Dans ce cadre, la DSI pilote un programme de montée en compétences data et souhaite renforcer son équipe avec un.e Data Analyst opérationnel capable d'intervenir rapidement sur des sujets de production et de restitution de données. Missions principales Le/la consultant(e) interviendra directement au sein de l'équipe Data pour : • Interroger et exploiter les bases de données via des requêtes SQL et des connexions Synapse • Produire des rapports et analyses à destination des équipes métiers et du management • Créer et maintenir des tableaux de bord Power BI répondant aux besoins des différentes filiales • Développer des scripts Python pour l'automatisation et le traitement des données • Contribuer à l'harmonisation des reportings entre les entités du groupe • Potentiellement animer des sessions de formation internes sur Power BI Stack technique • SQL : maîtrise obligatoire • Power BI : maîtrise obligatoire • Azure Synapse : expérience requise • Python : bonne maîtrise Profil recherché Compétences techniques : • Maîtrise de Power BI, incluant modélisation, DAX et publication • Solide expertise SQL, incluant requêtes complexes et optimisation • Expérience sur Azure Synapse Analytics • Bonne connaissance de Python pour le traitement de données, notamment avec pandas • Notions de modélisation dimensionnelle appréciées Compétences comportementales : • Autonomie et capacité à travailler de manière indépendante • Adaptabilité face aux changements d'environnement et de priorités • Sens du détail et rigueur dans la production de données • Bonnes capacités relationnelles pour interagir avec les parties prenantes métiers • Énergie et réactivité dans le delivery Atout majeur • Certification Power BI de type PL-300 ou équivalent fortement appréciée • Des actions de formation interne sont envisagées
Freelance

Mission freelance
Data Ingineer N3 - Niort

Signe +
Publiée le
Business Object
Dataiku
SQL

12 mois
390-420 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Au sein de MACIF FINANCE EPARGNE, la Direction des Systèmes d'Information métier (DSIM) est en charge du maintien en conditions opérationnelles et de l’évolution stratégique du Système d'Information dédié à l'assurance vie et à la finance. Enjeux Stratégiques La valorisation de la donnée est au cœur de notre stratégie de transformation pour 2025-2026. Pour soutenir cette ambition, nous recherchons un Ingénieur Data expérimenté, de niveau III pour intégrer l'équipe de développement DATA DSIM. Vous rejoindrez notre nouvelle équipe DATA pour construire, maintenir et optimiser les plateformes et les pipelines de données, garantissant ainsi la fiabilité et l'accessibilité de la donnée pour l'ensemble de l'entreprise. Objectifs et livrables Livrables DATA Compétences demandées Buisness Object Avancé Optimisation SQL Expert TABLEAU Confirmé 🚩DATAIKU Confirmé
Freelance

Mission freelance
Consultant Senior Gouvernance des Données – Data Office

CAT-AMANIA
Publiée le
Data governance
Gouvernance

12 mois
500-560 €
Paris, France
🎯 Contexte de la mission Dans le cadre du renforcement de son activité Gouvernance de la Donnée, notre client – acteur majeur de la protection sociale – souhaite intégrer un consultant senior en gouvernance des données pour accompagner la structuration, la formalisation et le déploiement de ses politiques Data. L’équipe Data Office (3 personnes actuellement) intervient sur la définition des politiques de gestion des données et le suivi de leur mise en œuvre dans un environnement fédéré (métiers, SI, urbanistes, conformité, sécurité). 🚀 Vos missions Vous interviendrez en appui stratégique et opérationnel sur les axes suivants : 🔹 Gouvernance & Structuration Définition et formalisation des rôles et responsabilités (Data Owner, Data Steward, etc.) Mise en place et structuration du glossaire métier et du dictionnaire de données Définition des standards de catalogage et de gestion des métadonnées Contribution au choix des outils de gouvernance (évaluation fournisseurs en cours) 🔹 Cartographie & Connaissance des données Approfondissement de la cartographie des données (flux, lineage, dépendances) Exploitation de la cartographie à des fins de pilotage et gouvernance Articulation avec les capacités de la plateforme Data de l’entreprise 🔹 Qualité & Conformité Définition des modalités de suivi de la qualité des données Intégration des exigences RGPD et conformité réglementaire Formalisation des principes de gestion des habilitations et des accès 🔹 Animation & Acculturation Animation de la communauté Data dans un contexte fédéré Organisation d’ateliers, séminaires et communications Accompagnement à la montée en compétence de l’équipe interne 🧠 Profil recherché Expérience confirmée en Data Office (au moins 2 expériences significatives en gouvernance des données) Maîtrise des outils de gouvernance : Catalogage Gestion des métadonnées Glossaire / Dictionnaire Data Quality Lineage Data Product Bonne compréhension des architectures Data (ETL/ELT, transformation, exposition, monitoring) Expérience opérationnelle d’une plateforme Data Capacité à évoluer dans un environnement structuré et réglementé Excellentes capacités d’animation et de pédagogie
CDI

Offre d'emploi
Tech Lead Data Engineer H/F

JEMS
Publiée le

50k-75k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : i5nesk9tv3
Freelance
CDI

Offre d'emploi
Data Engineer Senior Snowflake (Lead / Mentoring)

UCASE CONSULTING
Publiée le
AWS Cloud
Qlik
Snowflake

1 an
40k-45k €
400-650 €
Lyon, Auvergne-Rhône-Alpes
Bonjour à tous 😃 🔎 Contexte Dans le cadre du déploiement de Snowflake au sein de l’équipe Data, notre client recherche un Data Engineer expérimenté pour accompagner la montée en compétence des équipes, structurer l’architecture cible et intervenir sur des chantiers clés (migration & ingestion) 🎯 Objectifs de la mission 1. Accompagnement & montée en compétence Accompagner les équipes dans la prise en main de Snowflake Animer / coanimer des ateliers et diffuser les bonnes pratiques Faciliter l’appropriation des nouveaux workflows et outils 2. Architecture & structuration Concevoir et documenter l’architecture cible Snowflake Mettre en place et optimiser les pipelines d’ingestion et de transformation Garantir la performance, la scalabilité et la robustesse des traitements 3. Gouvernance & qualité de données Définir les règles de gouvernance (rôles, accès, organisation des environnements) Mettre en place des standards de développement (naming, versionning, documentation) Implémenter des processus de data quality (tests automatisés, contrôles de cohérence, fraîcheur…) Mettre en place des mécanismes de data observability et d’alerting Documenter les processus de gestion des incidents 4. Missions opérationnelles Participer à la migration de data products (Athena → Snowflake) Contribuer à l’ingestion et la structuration de nouvelles sources de données 🔧 Must have Expérience significative en tant que Data Engineer Expertise Snowflake (indispensable) Solide maîtrise SQL (optimisation, performance) Expérience en ingestion de données et/ou migration de plateformes data Connaissances en data quality et gouvernance Capacité à accompagner des équipes (pédagogie, mentoring) ➕ Nice to have Expérience sur AWS Connaissance de Qlik Expérience en environnement data moderne (pipelines, orchestration, CI/CD…) Contexte conseil / ESN Expérience sur des sujets de data observability 📍 Modalités Démarrage : Avril 2026 Localisation : Lyon Télétravail : 3 jours sur site/2 jours de TT

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1689 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous