Trouvez votre prochaine offre d’emploi ou de mission freelance Data Engineering

Votre recherche renvoie 145 résultats.
CDI

Offre d'emploi
Chef/Directeur de Projet Data (Sénior) - Lyon

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Business Analyst

50k-65k €
Lyon, Auvergne-Rhône-Alpes
Rôle transversal positionné entre les équipes métier, les équipes Data Engineering, les Data Analysts/Modelers et les sponsors projets, vous intervenez sur : Des programmes Data d’envergure (Data Lakehouse, modernisation BI, Data Governance, MDM, Analytics avancés). Des environnements Cloud (Azure, GCP, AWS) et des architectures modernes (Data Mesh, Datavault). Des enjeux de pilotage projet, de cadrage fonctionnel et d’accompagnement à la transformation Data. En tant que Senior (+8 ans), nous attendons de vous : Une grande autonomie et capacité à sécuriser un projet ou un périmètre. Une forte expérience en gestion de projets Data complexes. Une capacité à accompagner les équipes, structurer les pratiques et diffuser la culture Data. Une maîtrise avancée des méthodologies de modélisation (3NF, Étoile/Flocon, Data Mesh…), des pipelines ETL/ELT, et des outils BI.
Alternance
CDI

Offre d'emploi
ALTERNANCE Data Analyst (H/F)

█ █ █ █ █ █ █
Publiée le

Saint-Priest, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data Engineer AWS

KLETA
Publiée le
Amazon Redshift
AWS Cloud

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer AWS pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur AWS. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, modernisation vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec des services tels que AWS Glue, Athena, Redshift, S3 et Kinesis. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’AWS. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance

Mission freelance
Analyste Support BI – Niveau 2

Signe +
Publiée le
BI

12 mois
400-450 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre du maintien en conditions opérationnelles de solutions décisionnelles en environnement cloud, le consultant interviendra en support technique et fonctionnel de niveau 2 sur des services BI. L’objectif est de garantir la fiabilité, la performance et la disponibilité des solutions de reporting et de traitement de données. La mission implique des interactions régulières avec les équipes métiers, data, DevOps et support niveau 3. Missions principales Assurer le support technique et fonctionnel de niveau 2 sur les solutions BI Analyser et résoudre des incidents complexes (logs, erreurs, droits d’accès) Comprendre les impacts métiers des incidents techniques Contribuer à la continuité de service et au respect des SLA Participer aux phases de transition vers le mode opérationnel Collaborer avec les équipes Data Engineering, DevOps, Build et Support L3 Proposer des améliorations continues sur les processus de support Participer aux astreintes (environ une fois par mois) Compétences techniques attendues SQL avancé Python appliqué à la data Environnement Azure (dont Databricks) Azure Data Factory Power BI Notions de Machine Learning Concepts de sécurité et gouvernance des données (RLS) Anglais professionnel obligatoire Compétences fonctionnelles Compréhension des processus métiers liés à la BI Capacité à analyser les impacts métiers des incidents Communication claire avec des interlocuteurs techniques et fonctionnels Capacité à vulgariser des problématiques techniques complexes Synthèse des informations techniques et fonctionnelles pour le suivi interne Qualités personnelles Sens du service et réactivité Esprit d’analyse et autonomie Proactivité dans la remontée d’alertes Curiosité technique et volonté de montée en compétence Capacité à évoluer dans un environnement dynamique Bon esprit d’équipe et collaboration transverse
Freelance
CDI

Offre d'emploi
Data Analyst

KLETA
Publiée le
PowerBI
Reporting

3 ans
Paris, France
Dans le cadre d’un programme de transformation data et décisionnelle, nous recherchons un Data Analyst pour analyser, structurer et valoriser les données au service des décisions métiers. Vous travaillerez étroitement avec les équipes métiers pour comprendre leurs besoins, définir des indicateurs pertinents et proposer des analyses adaptées. Vous serez responsable de l’exploration des données, de la construction de modèles analytiques simples et de la création de tableaux de bord lisibles et actionnables via des outils tels que Power BI, Tableau, Qlik ou équivalents. Vous participerez à la définition et à la fiabilisation des KPIs, en collaboration avec les équipes Data Engineering pour garantir la qualité et la cohérence des données sources. Vous réaliserez des analyses ad hoc, identifierez des tendances et formulerez des recommandations basées sur les données. Vous contribuerez également à la documentation des analyses, à la structuration des reportings et à l’amélioration continue des usages data au sein de l’organisation.
CDI
Freelance

Offre d'emploi
Architecte Data Azure

KLETA
Publiée le
Azure
Databricks

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Azure pour définir et piloter l’évolution des plateformes de données cloud natives sur Microsoft Azure. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies Azure tels que Azure Data Lake, Azure Databricks, Azure Synapse, Azure Data Factory et Event Hubs, ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur Azure.
Freelance

Mission freelance
Expert BI (Informatica / Power BI / MS Fabric) — Coordinateur technique

CONCRETIO SERVICES
Publiée le
Informatica
Microsoft Fabric
PowerBI

9 mois
470-530 €
Montrouge, Île-de-France
RÉSUMÉ EXPRESS Expert BI / Data senior (7 ans+) recruté en freelance pour assurer le lead technique d'une équipe data ET la coordination de projets BI sur une stack Informatica/ETL + Microsoft Fabric/Power BI, en environnement multi-métiers. MISSIONS PRINCIPALES Lead Technique d'Équipe Orienter et valider les choix d'architecture data : modélisation dimensionnelle, stratégie ETL, organisation DWH → datamarts → restitution Conduire les reviews techniques des développements Informatica et Power BI/Fabric Arbitrer les décisions techniques — être la référence sur laquelle l'équipe s'appuie Définir et faire respecter les standards techniques : naming conventions, patterns, documentation, qualité des données Accompagner la montée en compétence de l'équipe sur Fabric et les pratiques data engineering Contribution Technique Directe Concevoir les architectures BI sur les projets complexes Contribuer directement aux développements critiques en Informatica, Power BI ou Fabric Écrire les requêtes SQL de validation et de contrôle qualité Produire les documentations d'architecture et les référentiels techniques Modernisation vers Microsoft Fabric Piloter la migration progressive vers Fabric : architecture cible, séquencement, accompagnement de l'équipe Définir l'architecture medallion adaptée au contexte (bronze/silver/gold) Valider les choix de dataflow Coordination de Projets BI Coordonner les projets BI : planification, suivi des dépendances, gestion des risques techniques, jalons Être l'interface entre les équipes data et les équipes métier sur les sujets techniques Cadrer les nouveaux besoins : faisabilité technique, estimation des charges, spécifications fonctionnelles et techniques Gérer les recettes techniques : validation des données en SQL, contrôle des règles de gestion
Freelance

Mission freelance
UX Designer

Codezys
Publiée le
Design system
Figma
UX design

12 mois
280-350 €
Lille, Hauts-de-France
Contexte de la mission L’équipe UX, dirigée par le Head of UX, comprend huit designers spécialisés (UX Research, UX Design, UI) qui interviennent sur le design de produit, d’expérience et de services. Elle collabore avec une quinzaine de domaines, en contact direct avec responsables, leaders digitaux, produits et développeurs. Adhérant à une méthodologie agile, elle utilise un design system mature, essentiel pour intégrer efficacement des fonctionnalités IA et assurer une cohérence globale. Une équipe sous la direction du Head of Design OPS, composée de quatre profils (UI, développement front-end), maintient et évolue le Design System en intégrant notamment les normes liées à l’IA, telles que l’automatisation, la documentation et les MCPs. Objectifs et livrables Compétences requises : Solide culture technique (IA, data engineering, développement, DevOps) Compréhension des profils techniques (développeurs, data scientists) Maîtrise de la conception UI et des design systems Cadrage & gestion de projet : Analyser et reformuler les besoins Définir la méthodologie, le planning et les livrables Coordonner avec les parties prenantes Recherche utilisateur & analyse : Conduire interviews, observations et questionnaires Créer des personae Analyser comportements utilisateurs Conception UX/UI : Définir parcours utilisateurs et expérience cible Structurer l’architecture de l’information Réaliser wireframes, maquettes et prototypes Rédiger spécifications fonctionnelles Tests & amélioration continue : Organiser tests utilisateurs Analyser retours et optimiser interfaces Participer aux phases de recette Design system & outils : Maintenir et optimiser le design system Automatiser liens entre Figma, GitHub et Storybook Créer plugins et outils (QA, documentation) Collaboration & leadership : Animer workshops (design thinking, user journey) Accompagner les équipes UI Participer à la stratégie UX globale Veiller sur l’UI et l’IA Livrables attendus : Maquettes et prototypes Parcours utilisateurs (UJM, flows) Personae et wireframes Documents de cadrage et supports pédagogiques Indicateurs de performance : Satisfaction utilisateurs et parties prenantes Respect des délais Qualité de l’expérience utilisateur Contribution aux objectifs (OKR) Implication dans l’équipe de design
Freelance
CDI

Offre d'emploi
Senior Looker / LookML Developer

xITed
Publiée le
BigQuery
Google Cloud Platform (GCP)
Looker Studio

6 mois
40k-66k €
400-600 €
Île-de-France, France
Dans le cadre de l’évolution d’une plateforme Data et de la modernisation des outils de Business Intelligence, un Senior Looker / LookML Developer est recherché afin de renforcer une équipe Data. La mission consiste à intervenir sur la structuration des modèles de données, le développement de dashboards et l’accompagnement des équipes métiers dans l’utilisation de la solution Looker. L’intervention se fera au sein d’une équipe composée de Data Engineers, Data Analysts et Product Owners, dans un environnement international et agile. Missions principales Développement Looker / LookML Conception et développement de modèles LookML (views, explores, dimensions, measures) Mise en place des bonnes pratiques de modélisation Optimisation des performances des requêtes Data Modelling Modélisation des données pour l’analyse et le reporting Collaboration avec les équipes Data Engineering pour structurer les datasets Mise en place de standards de gouvernance des données Data Visualisation Création et maintenance de dashboards Looker Définition et structuration des KPI métiers Amélioration de l’expérience utilisateur des dashboards Accompagnement métier Recueil des besoins auprès des équipes métiers Animation d’ateliers fonctionnels Support et accompagnement des utilisateurs Environnement technique Looker / LookML Google Cloud Platform BigQuery SQL Git
Freelance

Mission freelance
Data-AI-Analytics / Business Intelligence

Nicholson SAS
Publiée le
Azure Data Factory
Azure Synapse
Microsoft Power BI

6 mois
300-420 €
Obernai, Grand Est
Consultant Data & Enterprise Architecture Informations Pratiques: Secteur : Industrie / Excellence Opérationnelle Localisation : Obernai (67) – Présentiel Démarrage : ASAP Durée : Jusqu’au 21/09/2026 (Visibilité long terme) Contexte de la mission Dans le cadre d’une transformation organisationnelle majeure ("Transform 2025"), le groupe souhaite aligner son écosystème digital sur sa nouvelle structure. L'enjeu est de piloter l'adaptation des outils d’ Enterprise Architecture (LeanIX) et la chaîne de valeur Data & Analytics associée. Vos Missions Rattaché(e) à l’équipe Enterprise Architecture, vous intervenez sur l’ensemble du cycle de données, du paramétrage de l’outil métier à la restitution analytique : Architecture & Paramétrage : Ajuster la configuration de LeanIX pour refléter la nouvelle structure organisationnelle. Data Engineering (Stack Azure) : Adapter les flux et le modèle de données (ETL, bases de données) pour garantir la continuité du reporting. Data Visualization : Mettre à jour et optimiser les rapports Power BI existants. Prospective : Participer à l’étude de faisabilité et à l’évaluation de la solution ARIS comme alternative stratégique. Expertise Technique & Livrables Configuration EA : Paramétrage expert LeanIX. Ingénierie de données : Azure Data Factory, Azure Synapse (Dedicated SQL Pool), Azure Functions (Python), déploiement via scripts Bicep. Business Intelligence : Modèles sémantiques et rapports Power BI. Documentation : Rédaction de l’ensemble des supports techniques en anglais . Profil Recherché Expert(e) en Data/BI avec une sensibilité forte pour l’architecture d’entreprise. Expérience : 4 à 10 ans (Profil Confirmé à Expert). Compétences clés : Maîtrise de l’écosystème Azure, SQL, Python et Power BI. Une connaissance de LeanIX ou ARIS est un atout majeur. Soft Skills : Autonomie, force de proposition et capacité à naviguer dans un environnement de transformation. Langues : Français et Anglais courants. Conditions de la prestation Grille de prix (TJM max) : Confirmé (4-7 ans) : 300 € Senior (8-10 ans) : 360 € Expert (+10 ans) : 420 € Critères d'évaluation : Respect des jalons, conformité aux standards de qualité internes et proactivité dans la gestion des interfaces métiers.
CDI

Offre d'emploi
Data Engineer & API Automation (H/F)

Link Consulting
Publiée le

50k-60k €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
Offre premium
Freelance

Mission freelance
Ingénieur Cloud AWS - Data & IA

TEOLIA CONSULTING
Publiée le
AWS Cloud
Large Language Model (LLM)
Pandas

36 mois
410-590 €
La Défense, Île-de-France
Nous recherchons pour l'un de nos clients un Ingénieur Fullstack Data & IA pour intervenir sur la conception et le développement de solutions innovantes autour de la data, du cloud AWS et de l’intelligence artificielle. Missions Contribuer aux phases d’idéation et à l’évaluation de la faisabilité technique de concepts innovants Concevoir et développer des POC et prototypes orientés data / IA Participer aux choix d’architectures et de technologies Évaluer des solutions technologiques externes (open innovation, startups) Assurer l’industrialisation des prototypes et leur transfert vers les équipes DSI Garantir le respect des standards techniques et sécurité du SI Produire la documentation technique et animer les ateliers de passation Réaliser une veille technologique sur les solutions data, cloud et IA Contribuer à l’amélioration des méthodes et processus du Lab Compétences techniques Développement backend Python et APIs REST Environnements cloud AWS (S3, Lambda, API Gateway, IAM…) Infrastructure as Code (Terraform) Data processing / data engineering (Pandas, PySpark, traitements batch) Bases de données SQL et NoSQL Environnements Linux Gestion de versions Git Architectures data / microservices Connaissances ML / NLP / LLM (type AWS Bedrock) appréciées
Freelance

Mission freelance
Cloud Automation & Data Ingénieur junior (H/F)

Insitoo Freelances
Publiée le
AWS Cloud
Bash
Python

2 ans
350-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Cloud Automation & Data Ingénieur junior (H/F) à La Ciotat, France. Les missions attendues par le Cloud Automation & Data Ingénieur junior (H/F) : Automatiser l’intégralité des infrastructures Cloud et des services de données. Industrialiser les déploiements via des pratiques DevSecOps rigoureuses. Concevoir des architectures orientées données (Data Lakes, Streaming) hautement disponibles. Accompagner les équipes projets dans l’adoption des meilleures pratiques Cloud & Data. Responsabilités Principales 1. Automatisation & Infrastructure as Code (IaC) Concevoir et déployer des infrastructures via Terraform. Gérer le cycle de vie complet des ressources sur AWS. Automatiser les services Data (S3, Glue, Kinesis, etc.) et optimiser la performance des environnements. 2. DevSecOps & CI/CD Construire et maintenir des pipelines CI/CD (GitLab, GitHub ou Jenkins). Intégrer nativement la sécurité (contrôles de conformité, scans de vulnérabilités). Automatiser les tests de qualité de données et la validation des schémas. 3. Platform Engineering & Architecture Data Développer des frameworks internes pour faciliter l'usage du Cloud (Serverless, Conteneurs). Mettre en œuvre des architectures orientées événements (Kinesis, Lambda). Assurer l'ingestion, le stockage et la fluidité des flux au sein du Data Lake. 4. Sécurité, Gouvernance & Conformité Piloter la gestion des identités et des accès (IAM) et le chiffrement (KMS). Appliquer les politiques de gouvernance : catalogage, traçabilité et rétention des données. Garantir l'auditabilité et le monitoring des données sensibles. Compétences Requises Cloud : Maîtrise approfondie d'AWS (Core services & Data stack). IaC : Expertise confirmée sur Terraform. Conteneurisation : Docker, Kubernetes. Data Engineering : ETL/ELT, modélisation de données, cycle de vie de la donnée. Développement : Python (avancé), Bash, SQL. Outils : Écosystème CI/CD, la connaissance de Snowflake est un plus significatif.
Freelance

Mission freelance
Tech Lead Data — Snowflake (Libourne) H/F

LeHibou
Publiée le
Snowflake

9 mois
400-600 €
Libourne, Nouvelle-Aquitaine
Notre client dans le secteur Santé et pharma recherche un/une Tech Lead Data — Snowflake H/F Description de la mission: Offre de mission – Tech Lead Data — Snowflake Contexte de la mission Notre client, dans le cadre de sa transformation numérique, engage en 2026 un programme stratégique de refonte complète de sa Data Platform, avec Snowflake comme technologie cible retenue à l’issue d’un benchmark approfondi. Le planning communiqué est ferme et non négociable : • Q2 2026 : bootstrap de la Data Platform Snowflake et de l’usine logicielle Data • Q2 2026 : démarrage de la migration des stacks legacy • Fin 2026 : migration complète Le contexte est celui d’un groupe très décentralisé, avec une forte hétérogénéité des sources de données (plus de 50 instances ERP de type JD Edwards, stacks Oracle, GCP, Azure Databricks) et une ambition claire : générer de la valeur business plutôt que faire de la technique pour la technique. Périmètre de la mission 1. Bootstrap de la Data Platform Snowflake • Définir et implémenter l’architecture générale de la plateforme Data : ingestion, transformation, stockage, exposition • Structurer l’environnement Snowflake : databases, schemas, RBAC, sécurité et accès • Mettre en place des pipelines d’ingestion différentielle (CDC) depuis les sources legacy : Oracle, GCP, Azure Databricks, JD Edwards • Garantir la qualité des données dès l’ingestion, dans un contexte où les pipelines historiques sont en full load sans logique différentielle 2. Bootstrap de l’usine logicielle Data • Définir et imposer les standards de développement Data Engineering : homogénéité, reproductibilité, lisibilité • Mettre en place les bonnes pratiques : tests, CI/CD, versioning, documentation, naming conventions • Structurer la factory Data pour permettre la montée en autonomie des équipes internes • Accompagner les équipes dans l’adoption des pratiques 3. Pilotage de la migration • Coordonner la migration des usages legacy vers la nouvelle stack Snowflake • Arbitrer en continu entre développements sur le legacy et avancement sur la nouvelle stack • Être le référent technique principal vis-à-vis des parties prenantes IT et métier • Assurer le reporting auprès de la DSI Stack technique • Data Warehouse : Snowflake • Sources legacy : Oracle, GCP, Azure Databricks, JD Edwards (50+ instances) • Transformation : dbt ou équivalent • Orchestration : Apache Airflow ou équivalent • Langages : SQL avancé, Python • CI/CD et DevOps : à mettre en place • Data Quality : à définir et implémenter Compétences requises Indispensables • Snowflake : maîtrise avancée, incluant architecture, RBAC, Snowpipe, Snowpark, optimisation des coûts et des requêtes • Data Engineering : conception de pipelines différentiels, architecture Medallion (Bronze / Silver / Gold) • Migration de stacks Data : expérience avérée sur des projets de migration multi-sources vers un Data Warehouse cloud • Leadership technique : capacité à bootstrapper une plateforme from scratch, sans architecture existante • Bonnes pratiques : CI/CD, tests, documentation, standards de code • SQL avancé, Python Appréciées • Expérience sur un ERP multi-instances • Outils de Data Quality • Expérience en environnement industriel ou Life Sciences / Pharma • Connaissance de GCP et/ou Azure Databricks dans un contexte de migration Profil recherché • Expérience totale : 8 à 12 ans • Expérience Snowflake : 3 ans minimum avec projets significatifs • Expérience Tech Lead Data : 3 ans minimum • Expérience de migration de stack : indispensable • Anglais : professionnel courant • Localisation : région Nouvelle-Aquitaine ou mobilité
Freelance

Mission freelance
Senior Data Platform Engineer – Databricks / Snowflake (H/F)

TEOLIA CONSULTING
Publiée le
Azure Data Factory
CI/CD
Databricks

6 mois
550-560 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe Data Engineering / Data Platform au sein d’un environnement international exigeant, nous recherchons un Senior Data Platform Engineer expert Databricks / Snowflake. Vous interviendrez sur la structuration, l’optimisation et l’industrialisation d’une plateforme data cloud moderne, au cœur d’enjeux stratégiques liés à la qualité, la performance et la fiabilité des données. Vos missions principales : Conception et optimisation de pipelines data sous Azure Data Factory et Databricks Modélisation, optimisation et sécurisation d’environnements Snowflake Structuration de modèles de données complexes (multi-sources, multi-réglementations) Industrialisation des workflows via GitHub Enterprise Cloud (CI/CD) Mise en place de bonnes pratiques de qualité et monitoring des données Contribution aux choix d’architecture et à l’amélioration continue de la Data Platform Collaboration étroite avec les équipes techniques et métiers Vous évoluerez dans un environnement à fort niveau d’exigence technique et organisationnelle, où la robustesse, la performance et la rigueur sont essentielles.
Freelance

Mission freelance
Data Architect (Secteur Luxe)

Nicholson SAS
Publiée le
Azure DevOps
Git
Github

8 mois
1 200 €
Paris, France
Bonjour, Pour le compte de l’un de nos clients, acteur majeur du secteur du luxe, nous recherchons un Data Architect afin d’intervenir sur une mission stratégique autour de la structuration, gouvernance et valorisation des données . 📍 Informations clés Localisation : Paris (présence sur site requise) TJM max : 1200 € Démarrage : ASAP Fin de mission : 31/12/2026 🚀 Contexte & mission Vous interviendrez sur la mise en place d’une architecture data moderne et scalable basée sur Azure Fabric , avec un fort enjeu autour de la gouvernance, de la qualité des données et de leur valorisation auprès des métiers. 🎯 Responsabilités principales 🔹 Architecture & Data Platform Concevoir et déployer des solutions data end-to-end (Lakehouse, Data Warehouse, modèles sémantiques) Structurer les couches de données ( Bronze / Silver / Gold ) Garantir la scalabilité, la performance et la robustesse de la plateforme 🔹 Data Engineering & Modélisation Concevoir et implémenter des pipelines ETL / ELT Définir les règles de transformation, de gestion des données incrémentales et des dimensions Optimiser les performances des requêtes et du stockage Développer des scripts Python (PySpark) et des requêtes SQL avancées 🔹 Gouvernance & Qualité des données Définir et mettre en œuvre les frameworks de gouvernance (traçabilité, métadonnées, qualité) Implémenter les mécanismes de contrôle qualité et gestion des erreurs Mettre en place les politiques de sécurité et d’accès ( RBAC, RLS ) 🔹 CI/CD & Industrialisation Mettre en place des pipelines CI/CD pour les produits data Gérer les référentiels Git, stratégies de versioning et déploiements Garantir la traçabilité et l’audit des évolutions 🔹 Data Mapping & KPI Assurer la cartographie des flux de données de bout en bout (E2E) Définir les règles métier et indicateurs KPI en lien avec les enjeux business Construire les dictionnaires de données et glossaires métier 🔹 Documentation & bonnes pratiques Définir les standards d’architecture et de développement Documenter les processus, runbooks, guidelines et décisions d’architecture (ADR) Accompagner les équipes et faciliter l’onboarding 🛠️ Environnement technique Cloud & Data Platform : Microsoft Azure, Azure Fabric Data Engineering : PySpark, SQL, Azure Data Factory, dbt CI/CD & DevOps : GitHub, Git CLI, Azure DevOps Pipelines, GitHub Actions BI & Data Viz : Power BI (RLS) Gouvernance : Azure AD / Entra ID, Purview Documentation : Confluence, Visio / Lucidchart 👤 Profil recherché Data Architect avec 7 ans d’expérience minimum Forte expertise sur les environnements Azure Data (Fabric / Data Platform) Solide expérience en architecture data, gouvernance et modélisation Excellente maîtrise de SQL et Python (PySpark) Expérience en industrialisation, CI/CD et gestion de plateformes data Très bonnes capacités de communication, structuration et vision transverse
145 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous