Trouvez votre prochaine offre d’emploi ou de mission freelance Data Warehouse à Paris

Votre recherche renvoie 22 résultats.
CDI

Offre d'emploi
Consultant BI DataWarehouse

Publiée le
Architecture
Conception
ETL (Extract-transform-load)

40k-55k €
Paris, France
Télétravail partiel
Le client souhaite harmoniser ses KPI/Reporting et pour cela il est nécessaire de mettre en place un datawarehouse (DWH) qui sera interfacé, d'une part avec un outil de dictionnaire de données et d'autre part avec du Power BI. Le/la consultant(e), devra travailler en étroite collaboration avec le Business Analyst qui travaille actuellement sur la mise en place des connecteurs entre les applications. Il/elle devra avoir eu, une ou plusieurs expériences significatives dans la compréhension des architectures de DWH ( dont stockage des données, indexation, partitionnement...), dans la conception de modèles de données ( en étoile) et nous aider dans la conception de datamart en fonction des besoins métiers, avoir des compétences avec les outils de BI mais, des connaissance des bases de données ( oracle, SQL...) Il/elle devra avoir une aptitude à communiquer efficacement avec les parties prenantes techniques et non techniques y compris à rédiger de la documentation, à parler en anglais tant à l'oral qu'à l'écrit.
Freelance

Mission freelance
Data Engineer AWS - PySpark/Databricks

Publiée le
Amazon S3
Apache Spark
AWS Cloud

12 mois
550-600 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
Freelance

Mission freelance
Product Owner Data (H/F)

Publiée le
Agile Scrum
Apache NiFi
Data Warehouse

12 mois
550-620 €
Paris, France
Télétravail partiel
Freelance / Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Paris 8 - 🛠 Expérience de 5 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Product Owner Data pour intervenir chez un de nos clients dans le secteur bancaire & assurance. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Piloter le backlog Data et définir la vision produit autour des flux de données, de la recherche et de la visualisation. - Recueillir les besoins métiers liés à la collecte, l’analyse et la restitution des données. - Prioriser le backlog en fonction de la valeur métier et des contraintes techniques. - Rédiger les user stories et collaborer étroitement avec les Data Engineers et DevOps. - Piloter les développements et intégrations sur Apache NiFi, Grafana et Elasticsearch. - Valider les livrables : pipelines NiFi, dashboards Grafana, index Elasticsearch. - Animer les cérémonies agiles : Daily, Sprint planning, Sprint demo, rétrospectives. - Assurer la qualité des données et la performance des flux. - Suivre les KPI clés : latence, disponibilité, pertinence des recherches. - Collaborer avec les équipes interfonctionnelles (ingénieurs logiciels, architectes, analystes).
Freelance

Mission freelance
Architecte Entreprise - Assurance

Publiée le
Advanced Design System (ADS)
API
API Platform

12 mois
650-750 €
Paris, France
Télétravail partiel
Contexte La Direction Stratégie & Architecture d’Entreprise assure le lien entre la stratégie du groupe et les feuilles de route IT. Elle définit les normes, standards et patterns à privilégier, garantit la cohérence globale de l’architecture et veille à ce que l’entreprise investisse au bon moment dans les bons systèmes et services. L’équipe accompagne également les Directions Métiers dans la transformation stratégique du SI et intervient sur trois axes principaux : Proximité avec les Directions Métiers : soutien à la construction de la vision cible des SI métier. Accompagnement des projets de transformation SI : alignement avec le plan stratégique et cohérence avec le cadre de référence. Diffusion et valorisation du patrimoine informatique : mise à disposition de référentiels capacitaires et partage de la connaissance. Missions principales Réaliser des études de transformation cible du SI, avec un niveau de restitution adapté aux instances managériales, dans une démarche d’architecture d’entreprise. Assurer la cohérence des solutions avec le cadre de référence et les exigences non fonctionnelles. Instruire avec le métier, les experts techniques et les architectes les scénarios d’architecture, les estimations de coûts ("T-Shirt Sizing") et les différentes trajectoires pour atteindre la cible. Faire valider les solutions cibles auprès de la direction informatique. Accompagner les Directions SI et Métiers dans la construction de leur stratégie de transformation SI (Schéma Directeur SI) et de la feuille de route associée. Alimenter, documenter et cartographier les référentiels et principes d’architecture.
Freelance

Mission freelance
Product Owner Technique – Data Platform

Publiée le
Agile Scrum
AWS Cloud
AWS Glue

12 mois
400-510 €
Paris, France
Télétravail partiel
Mission principale : Nous recherchons un Product Owner (PO) technique pour accompagner le développement et le RUN de notre Data Platform . Vous serez en charge de qualifier les besoins, de participer aux rituels agiles et d’assurer la liaison entre les équipes Build et le RUN de la plateforme, en mode Agile. Responsabilités : Qualifier les besoins techniques et fonctionnels des différentes équipes Data. Participer aux rituels Agile : daily, sprint planning, backlog refinement, PI planning (sur 3 mois). Transformer les besoins identifiés en user stories et tickets Jira exploitables par les squads. Accompagner la construction et l’évolution de la Data Platform (environnements GCP, flux de données, pipelines). Assurer le suivi du RUN de la plateforme et identifier les priorités techniques et fonctionnelles. Travailler en coordination avec 4 à 5 squads organisées en trains pour les PI planning et sprints. Être un interlocuteur technique capable de dialoguer avec les équipes Dev, Data et Ops. Profil recherché : Expérience confirmée en Product Ownership , idéalement dans un contexte technique ou data. Compréhension des environnements cloud (GCP) et des flux de données. Capacité à transformer des besoins complexes en user stories / tickets techniques . Connaissance des méthodes Agile / SAFe et pratique des rituels (sprint planning, PI planning, daily, etc.). Esprit technique : ne pas avoir peur de discuter architecture, flux de données, pipeline, outils de production. Bon relationnel et capacité à collaborer avec plusieurs équipes simultanément. Une connaissance de la data (ETL, ingestion, stockage, pipelines) est un plus. Soft Skills : Organisation et rigueur dans le suivi des priorités. Capacité à synthétiser les besoins et à communiquer clairement. Curiosité technique et ouverture à l’innovation. Force de proposition pour améliorer les process et la plateforme.
Freelance

Mission freelance
DATA ENGINEER TALEND

Publiée le
Talend

1 an
280-480 €
Paris, France
Télétravail partiel
Bonjour, Nous recherchons un Data Engineer Talend afin de renforcer notre équipe Data et participer à la conception, au développement et à l’optimisation de nos plateformes d’intégration de données. Missions principales 1. Développement et maintenance des flux de données Concevoir, développer et maintenir des flux ETL sous Talend (Talend Open Studio / Talend Data Integration). Mettre en œuvre des pipelines d’ingestion, de transformation et d'alimentation des systèmes cibles (Data Warehouse, Data Lake, applications métier…). Intégrer des données provenant de sources variées : bases relationnelles, APIs, fichiers, systèmes internes ou externes. 2. Optimisation et performance des jobs Optimiser les traitements existants pour améliorer les performances, la scalabilité et les temps de calcul . Identifier les points de contention et proposer des solutions d’industrialisation. Mettre en place de bonnes pratiques de développement ETL et d’orchestration. 3. Qualité, fiabilité et gouvernance des données Garantir la qualité , la cohérence et la fiabilité des données transportées. Implémenter des contrôles automatiques (data quality, validation, dédoublonnage, gestion des anomalies). Assurer la traçabilité et la documentation des flux en conformité avec les standards Data de l’entreprise. 4. Collaboration et support Travailler étroitement avec les équipes Data, BI, Architecture et les équipes métiers. Participer aux phases de design technique, aux revues de code et aux déploiements. Assurer un support de niveau 2/3 sur les flux en production. Compétences requises Maîtrise de Talend (TOS ou Talend Data Integration). Solides compétences en SQL et en manipulation de bases de données (Oracle, PostgreSQL, SQL Server…). Connaissances en optimisation ETL , gestion des performances et industrialisation. Compréhension des architectures Data : ETL/ELT, Data Warehouse, Data Lake. Connaissance des bonnes pratiques de Data Quality. Capacité d’analyse, rigueur et sens du détail. Compétences appréciées Connaissances des environnements cloud (AWS, GCP, Azure). Notions de scripting (Python, Shell). Expérience sur des outils de supervision et d'orchestration (Airflow, Control-M, Talend TAC).
Freelance

Mission freelance
INGENIEUR DATA BI - CLOUD AZURE

Publiée le
Azure
BI
Cloud

24 mois
200-400 €
Paris, France
Télétravail partiel
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Freelance

Mission freelance
DEV : Consultant expert - Confirmé

Publiée le
MySQL

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 8 ans et plus Métiers Fonctions : Etudes & Développement, Consultant expert Spécialités technologiques Compétences Technologies et Outils SQL Python Informatica Secteurs d'activités Services Informatiques MISSIONS Au sein de l'équipe Marketing & Data , vous intervenez sur les projets d'évolution ou de run sur nos plateformes data client (le DataWarehouse et la CDP : Customer Data Plateforme). Vous évoluez dans un environnement Agile et intervenez à la fois comme développeur et comme garant de la qualité des livrables et des bonnes pratiques d’ingénierie logicielle et de conception. Vous aurez en charge les évolutions du Data model et des jobs de traitement de la données. Vos missions : Participer à l'étude, à la conception et au codage des applications et en assurer le support Maîtriser la dette technique, en sensibilisant vos interlocuteurs (Product Owner, Développeurs…) Pilotage de projets technique Support Technico Fonctionnel à la recette Réalisation des tests techniques Expertise souhaitée Outils : Maîtrise du langage Python et SQL. Maîtrise des outils ETL Informatica PowerCenter, SQL SERVER, T-SQL, UNIX
Freelance

Mission freelance
Tech lead C#, .NET - Angular Orienté Devops

Publiée le
Angular
API REST
ASP.NET

2 ans
400-660 €
Paris, France
Télétravail partiel
Nous recherchons pour notre client un Tech Lead .NET / Angular orienté DevOps pour renforcer son équipe IT Business – Data . Cette équipe gère les applications métiers internes et intègre des solutions externes autour des sujets data et référentiels. Le Tech Lead interviendra sur des projets clés du SI : -Le Datawarehouse principal (ingestion et distribution de données financières) -Les référentiels ESG et Produits, ainsi que les moteurs de calcul associés -Les applications web et client lourd d’analyse de données Principales missions : Revoir les spécifications fonctionnelles avec les métiers et business analysts Concevoir et développer les solutions techniques (C#, Angular, API REST) Participer aux revues de code et aux résolutions d’incidents complexes Préparer les environnements de recette et de production Définir et faire respecter les standards techniques et bonnes pratiques DevOps Contribuer à la rationalisation du SI (désengagement des applications legacy) Encadrer les développeurs juniors et participer aux recrutements Profil du candidat
Offre premium
CDI

Offre d'emploi
Data Architecte Databricks - Paris

Publiée le
Databricks

65k-80k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance
CDI

Offre d'emploi
Data Engineer – Azure / Snowflake / dbt

Publiée le
Azure
DBT
Snowflake

2 ans
Paris, France
Télétravail partiel
Contexte & Objectif de la mission Dans le cadre du renforcement d’une équipe Data de l'un de nos clients du secteur Finance, nous recherchons un Data Engineer confirmé pour contribuer à la conception, au déploiement et à l’industrialisation des plateformes de données sur Azure et Snowflake. Vous interviendrez sur la mise en place de pipelines de données performants, l’automatisation des traitements, et l’implémentation des bonnes pratiques CI/CD, dans un environnement à fort enjeu de qualité et de performance. Rôles & Responsabilités Concevoir, développer et optimiser des pipelines de données dans un environnement Snowflake / Snowpark. Développer et orchestrer des flux via Azure Data Factory et dbt (Python). Intégrer et exploiter des API pour l’ingestion et la diffusion de données. Participer au déploiement et à la gestion de l’infrastructure via Terraform. Mettre en œuvre les pratiques CI/CD sous Azure DevOps. Automatiser les tâches récurrentes (PowerShell, Azure CLI). Contribuer à la modélisation et à l’architecture data (3NF, étoile, data warehouse). Participer à la gouvernance, la qualité et la sécurité des données (RGPD, Data Privacy). Documenter les développements et collaborer avec les équipes techniques et métiers. Environnement technique Azure – Snowflake – dbt (Python/Snowpark) – Azure Data Factory – PowerShell – Azure CLI – Terraform – Azure DevOps – PowerDesigner – Git
Freelance
CDI

Offre d'emploi
Lead Data Engineer – Azure / Snowflake / dbt

Publiée le
Azure
DBT
Snowflake

2 ans
Paris, France
Télétravail partiel
Contexte & Objectif de la mission Dans le cadre d’un projet stratégique de modernisation des plateformes de données, nous recherchons un Lead Data Engineer capable de piloter la conception, l’industrialisation et l’optimisation des flux data sur Azure et Snowflake. Vous interviendrez en tant que référent technique au sein de l’équipe Data Engineering, en apportant votre expertise sur les architectures cloud, la modélisation, la performance et les bonnes pratiques CI/CD. Rôles & Responsabilités Concevoir, développer et optimiser des pipelines de données sous Snowflake / Snowpark. Orchestrer les flux via Azure Data Factory et dbt (Python) pour des traitements fiables et scalables. Intégrer et exposer des APIs pour l’ingestion, la transformation et la diffusion des données. Déployer et administrer l’infrastructure as code via Terraform. Implémenter et superviser les pipelines CI/CD sous Azure DevOps. Automatiser les tâches récurrentes avec PowerShell et Azure CLI. Encadrer la modélisation des données (3NF, étoile) et la mise en œuvre du modèle d’entreprise et du Data Warehouse. Garantir la gouvernance des données, la qualité, la sécurité (RGPD) et le FinOps des plateformes. Assurer la documentation, la supervision et la coordination technique avec les équipes métiers et IT. Environnement technique Azure – Snowflake – dbt (Python/Snowpark) – Azure Data Factory – Terraform – Azure DevOps – PowerShell – Azure CLI – PowerDesigner – Git
Freelance

Mission freelance
Expertise Data Assurance (DSN)

Publiée le
CoreData

6 jours
400-600 €
Paris, France
Télétravail partiel
Vous interviendrez dans les chantiers de transformation afin d'accompagner les travaux sur l'usage des données pouvant provenir des DSN. A ce titre, vos missions consisteront à contribuer: Concevoir un modèle de données Socle des données et de l'implémenter dans le DataWarehouse Recueil des usages de Données DSN Réalisation de l’analyse fonctionnelle et technique Proposition de modélisation fonctionnelle des données, ayant un sens métier Proposition d’Architecture fonctionnelle et technique pour l’implémentation Développement du socle Déploiement du socle auprès des métiers et utilisateurs de ces données Partage de la connaissance du fonctionnement de la DSN, du modèle réalisé et de l’implémentation Pilotage du chantier pour tenir un engagement fort d’implémentation Animation et coordination des ateliers et travaux entre les parties prenantes Organisation et validation des phases de tests et de recette. Suivi des actions, des risques et des décisions pour garantir le bon déroulement des projets
Freelance

Mission freelance
SAP BFC (Magnitude)

Publiée le
SAP

1 an
Paris, France
Télétravail partiel
Télétravail : 2 jours par semaine Technologie : SAP BFC (Magnitude) Démarrage : ASAP Langue : Anglais courant Nous recherchons un Senior Support Expert SAP BFC (Magnitude) pour renforcer le support sur l’application de consolidation financière du groupe. Le rôle combine gestion d’application, administration technique et expertise en traitement des données pour garantir la fiabilité des processus de consolidation et faciliter les besoins en BI et reporting. Responsabilités principales : Gestion de l’application Magnitude : administration, mises à jour, correctifs, performance et disponibilité du système. Infrastructure et support technique : maintenance sur Windows Server, support des intégrations .NET, collaboration avec les équipes IT infrastructure. Data Warehouse et intégration : support du data warehouse SQL Server, développement ETL avec SSIS, intégration avec Snowflake (souhaitable). Collaboration et amélioration continue : travail avec le département Finance Groupe et équipes IT transverses, documentation et amélioration proactive des processus.
Freelance

Mission freelance
Data Analyst / BI Analyst

Publiée le
Data analysis
Microsoft Power BI

6 mois
Paris, France
Télétravail partiel
Contexte de la mission: Dans le cadre d’un projet stratégique de transformation data au sein d’un acteur majeur du secteur bancaire, nous recherchons un Data Analyst / BI Analyst capable d’intervenir sur la modélisation, la visualisation et l’analyse des données métier. L’objectif de la mission est d’optimiser la qualité, la fiabilité et la mise à disposition des données analytiques pour les directions métiers (finance, risque, marketing). Responsabilités principales: · Collecter, nettoyer et modéliser les données issues de différentes sources (internes et externes). · Concevoir et maintenir les tableaux de bord décisionnels sur Tableau et Dataiku . · Développer et maintenir les modèles BI afin de répondre aux besoins métiers (finance, risque, opérations). · Identifier les Data Issues et assurer le suivi de leur résolution. · Accompagner les utilisateurs métier dans l’interprétation et l’exploitation des dashboards. Stack technique: · BI & Data Visualisation : Tableau, Power BI (apprécié) · Data Science / Workflow : Dataiku, SQL, Python (optionnel) · Modélisation & Gouvernance : Data Warehouse, DataCube, Data Modeling (dimensionnel, relationnel) · Base de données : Oracle, Snowflake ou équivalent · Environnement Cloud : AWS (S3, Redshift, Glue, Lambda, etc.) Profil recherché: · Minimum 3 ans d’expérience en tant que Data Analyst ou BI Analyst. · Bonne maîtrise des outils de visualisation et de modélisation ( Tableau, Dataiku, SQL ). · Connaissance du secteur Banque / Finance fortement appréciée. · Expérience dans un environnement AWS est un vrai plus. · Capacité à comprendre les enjeux métiers et à vulgariser les insights auprès des décideurs. · Bon niveau de communication et autonomie dans la gestion de projet data. Informations complémentaires: · Localisation : Île-de-France (hybride possible) · Démarrage : ASAP
Freelance
CDI

Offre d'emploi
DATA ENGINEER MSBI / GCP

Publiée le
BigQuery
Google Cloud Platform (GCP)
MSBI

6 mois
40k-45k €
400-550 €
Paris, France
Contexte du poste Dans le cadre d’un programme de migration des solutions décisionnelles Microsoft vers Google Cloud Platform (GCP) , nous recherchons un Consultant Data Engineer expérimenté capable d’assurer la transition technique et fonctionnelle d’un environnement MSBI on-premise vers un écosystème GCP cloud-native . L’objectif est de moderniser la plateforme BI existante (SSIS, SSAS, SQL Server) vers des architectures Cloud basées sur BigQuery , Dataflow , Cloud Storage et Looker Studio , tout en garantissant la continuité des flux , la performance et la qualité des données . Missions principales Participer aux ateliers de cadrage technique et fonctionnel pour définir la stratégie de migration MSBI → GCP. Analyser l’existant MSBI (packages SSIS, cubes SSAS, rapports SSRS / Power BI) et identifier les dépendances techniques. Concevoir la nouvelle architecture cible GCP (BigQuery, Dataflow, Composer, Cloud Storage, IAM). Assurer la migration et la réécriture des flux ETL vers GCP (Dataflow / DBT / Python). Mettre en place les pipelines d’intégration continue et les jobs d’orchestration (Airflow / Cloud Composer). Optimiser les performances et les coûts d’exécution des traitements cloud. Garantir la gouvernance, la sécurité et la qualité des données dans le nouvel environnement. Accompagner les équipes internes dans la montée en compétences sur GCP . Compétences techniques requises Environnements Microsoft : SQL Server (T-SQL, procédures stockées, optimisation requêtes) SSIS (conception de flux ETL complexes) SSAS (tabular / multidimensionnel) Power BI / SSRS pour la partie reporting Environnements Google Cloud : BigQuery (datawarehouse cloud, modélisation, partitionnement, optimisation) Dataflow / Cloud Composer (orchestration et traitement de données) Cloud Storage, Pub/Sub, IAM Looker Studio pour la restitution Autres atouts : Connaissance de DBT , Python , ou Terraform Notions de DataOps , CI/CD , gouvernance des données Expérience sur des projets de migration cloud (Azure, AWS, ou GCP)
22 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous