Trouvez votre prochaine offre d’emploi ou de mission freelance Data Warehouse

Votre recherche renvoie 88 résultats.
Freelance

Mission freelance
Chef de Projet MOA Décisionnelle (PRC)

DEVIK CONSULTING
Publiée le
Coordination
Modélisation
Relation client

1 an
500-700 €
Île-de-France, France
Description Pour le compte de notre client grand compte, nous recherchons un Chef de Projet MOA Décisionnelle - Pilotage Data & Reporting Relation Client (PRC) Dans le cadre de l’amélioration du Programme Relation Client qui s’appuie sur le progiciel Pega nous recherchons une expertise en pilotage décisionnel pour atteindre les objectifs suivants : Expérience de projets décisionnels à l’échelle d’un Groupe, avec une compréhension des enjeux d’un DWH central. Capacité à articuler les besoins locaux avec le cadre décisionnel du Groupe Coordination transverse entre métiers, IT et équipes Data centrales. Bonne compréhension des architectures Data Warehouse et des principes de modélisation décisionnelle. Intégration de nouvelles sources dans un DWH Groupe et réalisation de requêtes SQL. Excellentes capacités rédactionnelles et esprit de synthèse. Expérience dans le secteur de l’assurance ou de la mutualité. Le Chef de projet MOA Décisionnelle interviendra en coordination avec les équipes métiers, les équipes du programme PRC, les équipes IT les instances de gouvernance du programme Compétences demandées Projets décisionnels : Expert Connaissance secteur assurance : Confirmé SQL : Confirmé Modélisation décisionnelle : Confirmé Coordination transverse : Expert Rédaction technique : Expert Architecture Data Warehouse : Confirmé Langues Français : Courant Anglais : Courant Requis
Freelance

Mission freelance
Senior Data Engineer

Signe +
Publiée le
MySQL

12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Concevoir, développer et maintenir des data pipelines et solutions de data warehouse en environnement cloud Mettre en place et industrialiser les processus ETL / ELT et l’orchestration des pipelines en production Traduire les besoins métiers en solutions techniques data robustes en collaboration avec les équipes transverses Définir et appliquer les standards techniques et bonnes pratiques d’ingénierie data Participer à l’amélioration continue des architectures data et des performances des pipelines Expérience requise 6 à 10 ans d’expérience en Data Engineering Expérience confirmée en implémentation de pipelines data et solutions de data warehousing cloud Expérience en modélisation de données et orchestration de pipelines en environnement production Expérience de travail en équipes cross-fonctionnelles Compétences techniques Maîtrise avancée SQL Plateformes Data Warehouse : Snowflake (préféré) ETL / ELT : IICS ou équivalent Transformation data : dbt (préféré) Python pour traitement de données Cloud : AWS (préféré) Orchestration : Airflow (préféré) CI/CD : GitHub Actions Versioning : Git Infrastructure as Code : Terraform Mise en place de standards d’ingénierie et patterns techniques Soft skills Esprit collaboratif et orientation solution Autonomie et proactivité Communication efficace avec équipes techniques et métiers Formation Bachelor minimum (Master apprécié) en informatique ou domaine équivalent Langue Anglais obligatoire
Freelance
CDI

Offre d'emploi
📩 Data Engineer Microsoft Fabric

Gentis Recruitment SAS
Publiée le
Apache Spark
Azure Data Factory
Azure Synapse

12 mois
40k-45k €
400-500 €
Paris, France
Nous recherchons actuellement un Data Engineer pour intervenir au sein d’un grand groupe international du secteur du luxe (cosmétique & parfums), dans le cadre du renforcement de ses équipes data. Contexte Vous interviendrez sur la mise en place et l’optimisation d’une plateforme data moderne basée sur Microsoft Fabric, avec des enjeux autour de la centralisation, de la transformation et de la valorisation des données métiers. Missions principales Développer et maintenir des pipelines de données sur Microsoft Fabric Participer à la conception de l’architecture data (Lakehouse, Data Warehouse) Intégrer et transformer des données issues de multiples sources Assurer la qualité, la fiabilité et la performance des flux de données Collaborer avec les équipes Data, BI et métiers Contribuer aux bonnes pratiques Data Engineering (CI/CD, monitoring, documentation) Stack technique Microsoft Fabric Azure Data Factory / Synapse (ou équivalent) Python / SQL Data Lake / Lakehouse Git / CI-CD Profil recherché 3 à 4 ans d’expérience en Data Engineering Première expérience sur Microsoft Fabric ou forte appétence sur l’écosystème Microsoft data Bonne maîtrise de Python et SQL Expérience sur des environnements cloud (idéalement Azure) Bon niveau d’anglais Soft skills Esprit analytique Autonomie Capacité à monter rapidement en compétence Bonne communication avec les équipes métiers
CDI

Offre d'emploi
Data Engineer Cloud H/F

FED SAS
Publiée le

55k-65k €
75001, France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris, un Data Ingénieur Cloud H/F dans le cadre d'un CDI. Rattaché à la DSI, vous contribuez à la conception, à l'industrialisation et à la fiabilisation de la plateforme data de l'entreprise. Votre rôle est clé pour garantir la disponibilité, la qualité et la sécurisation des données utilisées par les équipes BI, analytics et métiers Vos principales missions : Développement et gestion des pipelines data * Concevoir et maintenir des pipelines d'ingestion et de transformation des données * Contribuer à la structuration et à la performance du Data Lake et du Data Warehouse * Assurer la disponibilité et la fiabilité des flux de données Industrialisation de la plateforme data * Participer à la mise en place de standards de développement et de déploiement * Contribuer à l'automatisation et à l'industrialisation des pipelines data * Garantir la robustesse et la performance des traitements Qualité, sécurité et gouvernance des données * Mettre en place des contrôles de qualité et de traçabilité des données * Contribuer au monitoring et à l'observabilité de la plateforme * Veiller au respect des exigences de sécurité et de conformité (RGPD) Collaboration transverse * Travailler en étroite collaboration avec les équipes BI, Data Analytics et IT * Participer à la documentation et au partage de bonnes pratiques * Contribuer à la structuration et à l'amélioration continue de la Data Factory
Freelance

Mission freelance
Architecte Data - Lyon

Cherry Pick
Publiée le
Apache Kafka
Apache Spark
Architecture

6 mois
700-870 €
Lyon, Auvergne-Rhône-Alpes
Architecte Data / Cloud Senior (Expert)🎯 Contexte & Enjeux Dans le cadre de la transformation de notre client (Secteur d' Assurance) vers un Système d’Information Data Centric , nous recherchons un(e) Architecte Data / Cloud Senior capable d’accompagner la modernisation de notre infrastructure Data On-Premise et Cloud. Cette transformation stratégique vise à bâtir un SI : Agile Évolutif Résilient Orienté données Aligné avec nos enjeux long terme L’expert(e) interviendra en transverse auprès des équipes MOA, Techlead, Développeurs et DBA afin de garantir une intégration fluide des architectures Data modernes. 🎯 Objectifs de la mission Évaluer l’architecture existante et recommander les meilleures pratiques Data / Cloud Concevoir et mettre en œuvre une architecture Data Centric robuste et scalable Définir et implémenter les patterns Data (Batch, Streaming, Event-driven, Microservices data, etc.) Assurer l’intégration cohérente des environnements On-Premise et Cloud Accompagner les équipes internes (MOA, Tech, DBA) Garantir la sécurité, la gouvernance et la performance des données Assurer le transfert de compétences Produire une documentation complète (HLD, LLD, DAT, schémas d’architecture) 📦 Livrables attendus Dossier d’architecture cible (HLD/LLD) Schémas d’urbanisation Data Blueprint Data/Cloud (multi-cloud / hybrid) Recommandations techniques formalisées Plan de migration On-Premise → Cloud Documentation des pipelines Data Guide de bonnes pratiques Support aux équipes techniques Plan de gouvernance et sécurité des données 🛠 Responsabilités principales Définir l’architecture Data (Batch & Streaming) Mettre en œuvre des pipelines temps réel (Kafka, Spark Streaming, Beam) Concevoir des architectures multi-cloud (AWS, GCP, Azure, Oracle Cloud) Intégrer les solutions NoSQL (CouchDB, MongoDB) Concevoir des architectures sécurisées (Keycloak, IAM, RBAC) Superviser les choix techniques liés aux bases Oracle Accompagner l’industrialisation sous OpenShift Garantir la performance, la scalabilité et la résilience 👤 PROFIL RECHERCHÉ🎓 Formation Bac+5 (Ingénieur / Master en Informatique / Data / Cloud) Minimum 8 à 10 ans d’expérience dont plusieurs années en architecture Data
Freelance

Mission freelance
Data Product Manager / Data & BI (Senior)

Inventiv IT
Publiée le
Data analysis
Data modelling
ERP

6 mois
600-750 €
Île-de-France, France
Piloter les études et cadrages des initiatives Data & BI . Recueillir et analyser les besoins métiers et comprendre les enjeux business. Organiser et animer des workshops avec les parties prenantes pour collecter les exigences fonctionnelles. Définir et documenter l’ architecture fonctionnelle des solutions data . Réaliser la modélisation des données et concevoir les couches métiers (Business Layer / Silver Layer). Assurer la cohérence du cycle de vie de la donnée : de la source jusqu’à la visualisation. Coordonner les contributions des Data Architects, Data Engineers et équipes BI . Documenter la valeur métier des solutions data proposées. Préparer le budget (build/run) et le planning projet . Formaliser les propositions de lancement de projets data . Anglais courants . Environnement technique BI / Data Visualization : Power BI, Microstrategy Data Platform / Data Warehouse : Azure, Snowflake Data : SQL, Data Modeling, Data Analysis ERP / Data Sources : SAP Architecture Data & Data Lifecycle
CDI
Freelance

Offre d'emploi
Data engineer Azure

UCASE CONSULTING
Publiée le
Azure
Azure Data Factory
Databricks

1 an
50k-55k €
450-500 €
Lyon, Auvergne-Rhône-Alpes
Mission basée à Lyon. Pour l'un de nos clients, nous recherchons un(e) Data Engineer expérimenté(e) pour intervenir sur des environnements cloud Microsoft et participer à la conception de plateformes data modernes et performantes. Missions Concevoir et développer des pipelines de données robustes sur Azure Mettre en place et maintenir les flux via Azure Data Factory Développer et optimiser les traitements de données dans Databricks Participer à la modélisation des données (Data Lake / Data Warehouse) Garantir la qualité, la performance et la fiabilité des données Collaborer avec les équipes métiers et BI pour faciliter l’exploitation des données (notamment via Power BI )
Freelance
CDI

Offre d'emploi
IT Operations Manager H/F

SPIE ICS
Publiée le
Infrastructure

6 mois
40k-65k €
400-500 €
Levallois-Perret, Île-de-France
Poste Nous recherchons pour notre client basé à Levallois (92) un(e) IT Operations Manager expérimenté(e) pour prendre en charge la gestion et la direction des systèmes d’information au sein d’un environnement international et multi-filiales. Rattaché(e) directement au CTO Groupe, vous êtes responsable du pilotage opérationnel, de la cohérence et de la performance du système d’information d’un groupe international présent dans plusieurs pays. Vous contribuez à la définition et à la mise en œuvre de la stratégie SI à travers l’ensemble des filiales internationales. Vos missions principales sont : Infrastructure Réseau & Administration Piloter et optimiser l'infrastructure réseau (Fortinet, Ruckus), gérer l'administration des identités et des accès (Microsoft Entra), assurer la performance, la disponibilité et la sécurité des infrastructures, superviser leur évolution et gérer le parc informatique global. Cloud & Infrastructures Hybrides Piloter la stratégie cloud (AWS, Google Cloud Platform), optimiser les coûts et la performance, accompagner les migrations et intégrations cloud, garantir la résilience et la scalabilité des environnements. Stratégie & Gouvernance IT Participer à la définition de la stratégie SI avec le CTO et les directions métiers, piloter la roadmap IT, gérer les projets d’évolution du SI (ERP, SIRH, CRM, MDM, Work Management System, DataWarehouse, iPaaS), suivre le budget IT global, assurer la supervision opérationnelle du SI. Management & Coordination Encadrer et animer les équipes IT internes et externes, coordonner les projets transverses impliquant plusieurs départements et filiales, intervenir dans la résolution d’incidents majeurs. Sécurité, Conformité et Risques Collaborer avec le RSSI pour garantir la conformité aux normes (ISO 27001, TISAX, RGPD), suivre les audits et plans d’action, promouvoir la culture cybersécurité. Innovation & Transformation Digitale Accompagner la transformation digitale, intégrer de nouvelles solutions (cloud, automatisation, data, IA), soutenir les croissances externes, développer une culture IT orientée performance et innovation.
CDI

Offre d'emploi
Data Analyst (H/F)

█ █ █ █ █ █ █
Publiée le
Data management
Microsoft Excel
SQL

35k-45k €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Business Analyst MicroStrategy X/ F/H - Marketing (H/F)

█ █ █ █ █ █ █
Publiée le
JIRA

Nantes, Pays de la Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Consultant Data Snowflake

AGH CONSULTING
Publiée le
Qlik
Snowflake

6 mois
38k-45k €
280-400 €
Île-de-France, France
Dans le cadre de projets Data chez l’un de nos clients grands comptes, nous recherchons des consultants Data orientés Qlik disposant d’un vernis sur Snowflake, pour renforcer des équipes BI/Data existantes. Missions principales ▪ Concevoir, développer et maintenir des tableaux de bord sous Qlik Sense / QlikView ▪ Analyser les besoins métiers et les traduire en solutions BI pertinentes ▪ Exploiter des données issues de Snowflake (requêtes, compréhension du modèle, optimisation basique) ▪ Participer à l’amélioration des modèles de données et des performances des reportings ▪ Collaborer avec les équipes Data (BI, Data Engineers, métiers) Environnement technique ▪ BI / Data Viz : Qlik Sense / QlikView ▪ Data Warehouse : Snowflake (niveau compréhension / usage) ▪ Langages & outils : SQL, notions ETL, environnements Data modernes ▪ Méthodologie : projets BI, travail en équipe agile ou hybride
Freelance

Mission freelance
Tech Lead Data — Snowflake (Libourne) H/F

LeHibou
Publiée le
Snowflake

9 mois
400-600 €
Libourne, Nouvelle-Aquitaine
Notre client dans le secteur Santé et pharma recherche un/une Tech Lead Data — Snowflake H/F Description de la mission: Offre de mission – Tech Lead Data — Snowflake Contexte de la mission Notre client, dans le cadre de sa transformation numérique, engage en 2026 un programme stratégique de refonte complète de sa Data Platform, avec Snowflake comme technologie cible retenue à l’issue d’un benchmark approfondi. Le planning communiqué est ferme et non négociable : • Q2 2026 : bootstrap de la Data Platform Snowflake et de l’usine logicielle Data • Q2 2026 : démarrage de la migration des stacks legacy • Fin 2026 : migration complète Le contexte est celui d’un groupe très décentralisé, avec une forte hétérogénéité des sources de données (plus de 50 instances ERP de type JD Edwards, stacks Oracle, GCP, Azure Databricks) et une ambition claire : générer de la valeur business plutôt que faire de la technique pour la technique. Périmètre de la mission 1. Bootstrap de la Data Platform Snowflake • Définir et implémenter l’architecture générale de la plateforme Data : ingestion, transformation, stockage, exposition • Structurer l’environnement Snowflake : databases, schemas, RBAC, sécurité et accès • Mettre en place des pipelines d’ingestion différentielle (CDC) depuis les sources legacy : Oracle, GCP, Azure Databricks, JD Edwards • Garantir la qualité des données dès l’ingestion, dans un contexte où les pipelines historiques sont en full load sans logique différentielle 2. Bootstrap de l’usine logicielle Data • Définir et imposer les standards de développement Data Engineering : homogénéité, reproductibilité, lisibilité • Mettre en place les bonnes pratiques : tests, CI/CD, versioning, documentation, naming conventions • Structurer la factory Data pour permettre la montée en autonomie des équipes internes • Accompagner les équipes dans l’adoption des pratiques 3. Pilotage de la migration • Coordonner la migration des usages legacy vers la nouvelle stack Snowflake • Arbitrer en continu entre développements sur le legacy et avancement sur la nouvelle stack • Être le référent technique principal vis-à-vis des parties prenantes IT et métier • Assurer le reporting auprès de la DSI Stack technique • Data Warehouse : Snowflake • Sources legacy : Oracle, GCP, Azure Databricks, JD Edwards (50+ instances) • Transformation : dbt ou équivalent • Orchestration : Apache Airflow ou équivalent • Langages : SQL avancé, Python • CI/CD et DevOps : à mettre en place • Data Quality : à définir et implémenter Compétences requises Indispensables • Snowflake : maîtrise avancée, incluant architecture, RBAC, Snowpipe, Snowpark, optimisation des coûts et des requêtes • Data Engineering : conception de pipelines différentiels, architecture Medallion (Bronze / Silver / Gold) • Migration de stacks Data : expérience avérée sur des projets de migration multi-sources vers un Data Warehouse cloud • Leadership technique : capacité à bootstrapper une plateforme from scratch, sans architecture existante • Bonnes pratiques : CI/CD, tests, documentation, standards de code • SQL avancé, Python Appréciées • Expérience sur un ERP multi-instances • Outils de Data Quality • Expérience en environnement industriel ou Life Sciences / Pharma • Connaissance de GCP et/ou Azure Databricks dans un contexte de migration Profil recherché • Expérience totale : 8 à 12 ans • Expérience Snowflake : 3 ans minimum avec projets significatifs • Expérience Tech Lead Data : 3 ans minimum • Expérience de migration de stack : indispensable • Anglais : professionnel courant • Localisation : région Nouvelle-Aquitaine ou mobilité
Freelance

Mission freelance
Consultant Business Objects

Net technologie
Publiée le
Business Object
IBM DataStage
SAP BI

3 mois
350-370 €
Avignon, Provence-Alpes-Côte d'Azur
Nous recrutons 2 Consultants BI pour rejoindre un centre de support décisionnel en charge des projets BI sur l’ensemble du périmètre métier. 🎯 Mission (autonomie & responsabilité) : Conception / évolution du Data Warehouse Mise en place des flux d’alimentation Développement du reporting (Univers & Documents Business Objects BI 4) Interaction directe avec les métiers Gestion complète de la chaîne décisionnelle (DWH → flux → restitution)
Freelance

Mission freelance
BA DATA VIZ TABLEAU

Mon Consultant Indépendant
Publiée le
Microsoft Power BI

12 mois
540-600 €
Paris, France
MERCI DE NE PAS POSTULER SI VOUS NE DISPOSEZ PAS: · Expérience en environnement bancaire · Maîtrise avancée des outils Tableau et Power BI · Excellent niveau de communication orale Notre client est une société de financement qui a lancé un projet de mise en place de l'outil DATAVIZ Tableau . Vous aurez plusieurs responsabilités au sein de l'équipe projet dont notamment : · Participer à la formalisation des formations / modes opératoires et des procédures pour acculturer les utilisateurs sur l’utilisation du Datawarehouse/ · Animer les ateliers de prototypage utilisateurs et/ou avec le prestataire, · Accompagner la réalisation des tableaux de bords « Tableau » en binôme avec un expert technique de la solution Conception des TDB et reportings sur « Tableau software» Formation de « Tableau software » Etre en lead sur la phase de conduite du changement Accompagner la structuration de la recette et la mise en qualité des données Assurer le lien avec les chefs de projet et experts
Freelance
CDI

Offre d'emploi
Data Analytics Engineer – SQL & BigQuery

Clostera
Publiée le
BigQuery
Google Cloud Platform (GCP)
Looker Studio

6 mois
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez-nous ! Nous recherchons un Data Analytics Engineer F/H capable de concevoir, structurer et exploiter des pipelines de données dans un environnement cloud moderne. Ce que vous ferez : Le rôle consiste à fiabiliser la donnée, construire les pipelines analytiques et produire des analyses exploitables pour les équipes métiers , en collaboration avec les équipes techniques et data. Le poste se situe à l’intersection entre : data engineering data analytics data visualisation Vos missions principales : Data Engineering Concevoir et optimiser des pipelines de données dans BigQuery Gérer la modélisation et la structuration des données Garantir la qualité, cohérence et fiabilité des datasets Data Analytics Rédiger et optimiser des requêtes SQL complexes Extraire et analyser des volumes importants de données Produire des analyses exploitables pour les équipes métier Data Processing & scripting Utiliser Python et ses bibliothèques analytiques Pandas NumPy PySpark Data Visualisation Concevoir des dashboards interactifs Identifier et suivre les KPIs métier Utiliser : Looker Looker Studio Data architecture Exploiter différents types de bases de données PostgreSQL MongoDB autres bases relationnelles ou NoSQL Comprendre et appliquer les architectures modernes : Data Lake Data Warehouse Cloud & DevOps Travailler dans des environnements cloud Google Cloud Platform Azure Mettre en place : CI/CD avec GitLab CI gestion du versionning avec Git Appliquer les principes DevOps pour améliorer les traitements data Collaboration & méthodes Travailler en méthodologie agile Scrum Sprint planning backlog refinement Collaborer avec : équipes métiers équipes data équipes techniques
Freelance
CDI

Offre d'emploi
Consultant BI

R&S TELECOM
Publiée le
BI
ETL (Extract-transform-load)
IBM DataStage

1 an
Avignon, Provence-Alpes-Côte d'Azur
Contexte de la mission : Le centre de support BI mène à bien les projets décisionnels de l’entreprise sur l’ensemble du périmètre fonctionnel. Chaque projet est confié à un intervenant qui doit prendre à sa charge l’ensemble des développements : Constitution de l’entrepôt de données Mise en place de flux Mise en place du reporting (univers et documents Business Objects) Tâches à réaliser : Conception et évolution de l’entrepôt de données (Data Warehouse) Mise en place des flux d’alimentation Développement et maintenance du reporting (création d’univers & documents BO) Interaction régulière avec les métiers internes Participation aux projets décisionnels transverses Mission en autonomie avec forte responsabilité sur la qualité des livrables.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

88 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous