Trouvez votre prochaine offre d’emploi ou de mission freelance Make
Votre recherche renvoie 23 résultats.
Offre d'emploi
📩 Data Engineer – Data Quality & Governance
Gentis Recruitment SAS
Publiée le
Agile Scrum
Apache Spark
API
1 an
Paris, France
Contexte de la mission Dans le cadre du développement de son équipe Data Accelerator (DAC), notre client recherche un Data Engineer confirmé orienté Data Quality et Data Governance. DAC est une équipe transverse en charge d’accompagner les équipes métiers et IT sur l’ensemble de la chaîne de valeur de la donnée : collecte, ingestion, transformation, industrialisation, gouvernance et optimisation des performances. L’environnement s’appuie principalement sur les technologies AWS, Databricks, Dataiku et Collibra, avec un fort enjeu autour de la qualité, de la fiabilisation et de la structuration des données au sein du Data Lake. Le consultant interviendra dans un contexte stratégique avec une forte collaboration avec les équipes Data Analysts, Data Scientists ainsi qu’avec le Chief Data Officer. Missions principalesQualification et gestion des données Captation des données structurées et non structurées provenant de multiples sources Intégration et supervision des flux de données Structuration de la donnée (normalisation, sémantique, référentiel) Cartographie des données disponibles Nettoyage des données (suppression des doublons, contrôle qualité) Validation et qualification des données avant intégration dans le Data Lake Participation à la création et à l’amélioration des référentiels de données Industrialisation et performance Développement et optimisation des traitements data Amélioration des performances et maîtrise des coûts des plateformes data Participation aux développements correctifs, évolutifs et adaptatifs Contribution aux dossiers d’architecture Production des tableaux de bord de suivi Gouvernance & collaboration Participation à la définition de la politique data Respect des standards de sécurité, gouvernance et conformité Collaboration avec les équipes métiers, IT et gouvernance data Contribution à l’industrialisation des cas d’usage Data & GenAI
Mission freelance
Développeur BOARD (H/F)
Nicholson SAS
Publiée le
Azure
Board
Data Lake
1 an
350 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous recherchons un Développeur BOARD pour intégrer des projets Data d'envergure. Vous interviendrez de la conception jusqu'au déploiement en production, tout en assurant un support de niveau 3. 📍 Modalités Lieu : Clermont-Ferrand (Hybride : 3 jours/semaine sur site) Date de début : 04/05/2026 Durée : Jusqu'au 03/05/2027 (renouvelable) Budget TJM : 350 € 🎯 Missions principales Conception et configuration d'applications via la solution BOARD. Accompagnement du cycle de vie : du développement jusqu'à la mise en production. Support L3 : support aux tests d’acceptation utilisateurs (UAT) et résolution d'incidents complexes. Communication : vulgarisation de concepts techniques auprès des métiers. 🛠 Compétences techniques Incontournables (Mandatory) : BOARD (Expertise outil) Ecosystème Data : Databricks, Azure Data Lake, Power BI Fondamentaux : Concepts BI, analyse de données. Langues : Anglais opérationnel. Souhaitées (Nice to have) : Méthodologie AGILE. Appétence pour l'analyse fonctionnelle (Business Analysis).
Mission freelance
Data Engineer H/F
HAYS France
Publiée le
Data Lake
Microsoft Analysis Services (SSAS)
Microsoft Power BI
1 an
Île-de-France, France
Contexte de la mission Dans le cadre du programme de Digital and Data Transformation , a la charge de la conception, de la livraison et du cycle de vie des data products supportant les initiatives stratégiques data du Groupe. Le Data Engineer interviendra sur la construction et l’évolution des plateformes et pipelines data , la transformation de données brutes en données à forte valeur ajoutée, ainsi que l’amélioration continue des actifs data, en collaboration avec des équipes internationales. Prestation Attendue Data Engineering & Delivery • Conception et mise en œuvre des pipelines ETL / ELT • Développement de jobs ETL réutilisables • Gestion des chargements Delta / Full / Historique • Debugging et résolution d’incidents en production • Mise en œuvre des bonnes pratiques de développement à la mise en production Collaboration & Méthodologie • Travail en étroite collaboration avec le Product Owner, les équipes data et plateforme • Contribution aux phases de Data Scoping / Discovery • Méthodologie Agile • Interaction avec des équipes distribuées (multi‑pays) Livrables • Composants data développés et déployés (code source) • Documentation technique et fonctionnelle • Modèle de données documenté • Rapports d’audit et de sanity check • Rapports de tests d’acceptation • Transfert de compétences et support aux équipes
Offre d'emploi
Data Engineer GCP
CAT-AMANIA
Publiée le
Apache Airflow
BigQuery
Data Engineering
1 an
40k-50k €
350-400 €
Lille, Hauts-de-France
Vous serez intégré dans une équipe pluridisciplinaire (Data Engineer, DevSecFinOps) Vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 6 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité
Mission freelance
Data Engineer / Développeur Talend
ARGANA CONSULTING CORP LLP
Publiée le
Data governance
Data Lake
Data modelling
12 mois
400-460 €
Paris, France
Nous recherchons un Développeur Talend confirmé / Data Engineer pour renforcer une équipe existante, en appui direct au Tech Lead, afin d’augmenter la capacité de delivery sur les projets data. 🧠 Compétences requises 🔴 Compétences impératives Talend (ETL) : niveau confirmé (3 à 6 ans) Développement de pipelines d’intégration de données Maintenance et évolution de flux existants (MCO) 🟠 Compétences importantes Data engineering (modélisation, qualité de données) Intégration de données multi-sources Compréhension des architectures data (Data Lake, ETL) 🟡 Compétences appréciées Gouvernance data / bonnes pratiques Sécurité des données Outils de versioning et CI/CD Documentation technique 🎓 Formation & expérience Bac +2 à Bac +5 (informatique / data) Expérience : 3 à 6 ans minimum Expérience significative sur Talend obligatoire 📋 Fiche de poste – Missions 🎯 Objectif principal Renforcer l’équipe data pour : Développer de nouveaux pipelines d’intégration Assurer la maintenance des flux existants Garantir la qualité, la sécurité et la performance des données 🔧 Missions principales 🏗️ Développement & intégration Concevoir et développer des flux Talend Réaliser : Modélisation Paramétrage Développement Tests Implémenter de nouveaux pipelines data 🔄 Maintenance & exploitation (MCO) Assurer le maintien en condition opérationnelle des pipelines Corriger les anomalies et optimiser les performances Superviser les traitements de données 🧩 Data engineering Structurer et organiser les données (formats, modèles) Garantir la qualité des données (nettoyage, validation) Participer à l’alimentation du Data Lake 🛠️ Gouvernance & bonnes pratiques Appliquer les normes et standards de développement Contribuer à : L’architecture data Les bonnes pratiques de développement La gestion de configuration Documenter les développements 🤝 Support & collaboration Accompagner les équipes projet (SI, data, métiers) Travailler en collaboration avec le Tech Lead Participer à la montée en compétence de l’équipe 🔐 Sécurité & conformité Garantir la sécurité des flux de données Respecter les règles de gouvernance data 📦 Livrables attendus Développements Talend (jobs, pipelines) Documentation technique Dossiers d’architecture data Cartographie des flux et données Indicateurs de qualité des données
Mission freelance
Azure Platform Engineer – Data & Analytics
Codezys
Publiée le
Ansible
Azure
Azure Data Factory
6 mois
370-460 €
Paris, France
Contexte de la mission Cette équipe est responsable de la conception, du déploiement et de la maintenance d'une plateforme data cloud utilisée à l’échelle du groupe. Cette plateforme doit répondre à des enjeux majeurs tels que : la scalabilité la gouvernance la sécurité la performance Actuellement, l’environnement est principalement orienté vers Azure, avec une interopérabilité multi-cloud envisageable. Objectifs et livrables Infrastructure & Cloud (Azure) Développement et maintenance d’infrastructures en utilisant Terraform, Bicep et ARM Déploiement et gestion des ressources Azure : Azure Data Lake Storage (ADLS Gen2) Azure Storage (Blob) Azure Virtual Network, NSG, Private Endpoints Gestion des environnements cloud (DEV, TEST, PROD) Data Platform Administration et exploitation d’un Data Lake Azure Gestion des accès, de la gouvernance et de la sécurité des données : Azure AD / RBAC Politiques / Purview pour la gouvernance data Optimisation des performances et des coûts CI/CD & Automatisation Conception et maintenance de pipelines CI/CD avec Azure DevOps et GitHub Actions Automatisation des déploiements (infrastructure, données et services) Développement & APIs Création de microservices en Python Développement de REST APIs et architectures événementielles Intégration avec les services Azure tels que Functions et Event Hub Containers & Orchestration Déploiement de services containerisés via : Azure Kubernetes Service (AKS) Azure Container Apps / Azure Container Instances Monitoring & Fiabilité Mise en place de solutions de supervision telles que Azure Monitor, Log Analytics et Application Insights Suivi de la performance et de la disponibilité des services Collaboration Rédaction de documentation technique Interaction avec les équipes data, développement et métier Participation aux cérémonies Agile
Mission freelance
📩 Data Engineer Microsoft Fabric
Gentis Recruitment SAS
Publiée le
Azure
Azure Data Factory
CI/CD
12 mois
Paris, France
Contexte Dans le cadre de la modernisation de sa plateforme data, un grand acteur du secteur de l’énergie renforce ses équipes data pour accompagner le déploiement de solutions basées sur Microsoft Fabric . L’objectif est de structurer une architecture data moderne, scalable et orientée métier, afin de répondre aux enjeux de valorisation des données (trading, consommation, production, performance énergétique). Missions Concevoir et développer des pipelines de données sur Microsoft Fabric Participer à la mise en place d’une architecture data (Lakehouse, Medallion Architecture) Intégrer et transformer des données issues de multiples sources (IoT, marché, SI internes) Optimiser les performances et la qualité des données (data quality, monitoring) Collaborer avec les équipes métiers (trading, risk, opérations) pour répondre aux besoins analytiques Contribuer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Stack technique Microsoft Fabric (OneLake, Data Factory, Synapse, Power BI) Azure (Data Platform) Python / PySpark / SQL Data Lake / Lakehouse Git / CI-CD
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
23 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois