Trouvez votre prochaine offre d’emploi ou de mission freelance Data Warehouse

Votre recherche renvoie 46 résultats.
CDI

Offre d'emploi
Data engineer H/F

HAYS France
Publiée le

30k-40k €
Besançon, Bourgogne-Franche-Comté

Rattaché au Directeur des Systèmes d'Information, vous êtes responsable de la gestion des flux de données, de la structuration et de la performance du Data Warehouse, afin de répondre aux besoins analytiques et métiers. Voici vos missions : Concevoir et maintenir des pipelines de données (ETL/ELT). Intégrer et traiter des données issues de sources variées (ERP, API, logiciels métier…). Modéliser les flux de données et automatiser les processus de traitement. Mettre en place des tests automatisés et des contrôles qualité. Documenter les flux et les modèles de données. Optimiser les performances des bases de données et des requêtes. Collaborer avec les équipes métiers pour proposer des solutions BI adaptées. Assurer le suivi et la résolution des incidents techniques.

CDI

Offre d'emploi
Data engineer snowflake / BI (H/F)

Amiltone
Publiée le
BI
Snowflake

35k-40k €
Villeurbanne, Auvergne-Rhône-Alpes

Vos missions ? En tant que Data engineer snowflake / BI, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et d'un Leader Technique, vous devrez développer des traitements robustes, monitorés et résilients dans un écosystème Cloud. Vos traitements répondront à des besoins spécifiques liés à des problématiques complexes dans divers domaines d'activité de l'entreprise. Vous serez également chargé(e) du traitement des requêtes via des entrepôts virtuels. La stack Technique : - Snow Flake ( indispensable ) - Power BI (indispensable) - Base de données - Datawarehouse - SQL

CDI

Offre d'emploi
Data Engineer Talend - DAX

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Snowflake

40k-50k €
Dax, Nouvelle-Aquitaine

Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation

Freelance

Mission freelance
Projet DATAVIZ Tableau // conduite du changement

Mon Consultant Indépendant
Publiée le
Conduite du changement

6 mois
550-580 €
Paris, France

OBLIGATOIRE, sinon merci de NE PAS POSTULER : - Expérience en environnement bancaire - Maîtrise avancée des outils Tableau et Power BI - Excellent niveau de communication orale Dans le cadre de la mise en place de l'outil DATAVIZ Tableau, participer à la formalisation des formations / modes opératoires et des procédures pour acculturer les utilisateurs sur l’utilisation du Datawarehouse/ Animer les ateliers de prototypage utilisateurs et/ou avec le prestataire, Accompagner la réalisation des tableaux de bords « Tableau » en binôme avec un expert technique de la solution : Conception des TDB et reportings sur « Tableau software» Formation de « Tableau software » Etre en lead sur la phase de conduite du changement Accompagner la structuration de la recette fonctionnelle et la mise en qualité des données Assurer le lien avec les chefs de projet et experts

CDI

Offre d'emploi
Data Engineer - Lyon

KOMEET TECHNOLOGIES
Publiée le
Databricks
DBT
Snowflake

50k-60k €
Lyon, Auvergne-Rhône-Alpes

Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance

Mission freelance
ARCHITECTE DATA / POWER BI & AZURE

PROPULSE IT
Publiée le
Azure
BI

24 mois
275-550 €
Massy, Île-de-France

Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité

Freelance

Mission freelance
INGENIEUR DATA BI - CLOUD AZURE

PROPULSE IT
Publiée le
Azure
BI
Cloud

24 mois
200-400 €
Paris, France

Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel

Freelance

Mission freelance
Consultant Dataiku h/f

Freelance.com
Publiée le
BigQuery
Dataiku
Informatica

3 mois
400-600 €
Vélizy-Villacoublay, Île-de-France

Dans le cadre d’une initiative stratégique pilotée par la DSI de notre client, nous engageons un projet de migration de nos plateformes de données : Migration de l’ETL Informatica vers Dataiku Migration du Data Warehouse Teradata vers BigQuery Environ 100 traitements à migrer (flux de données entre fichiers, bases de données, traitements métier diversifiés : comptabilité, fraude, recouvrement, etc.). Missions Prendre en charge la migration des traitements existants vers Dataiku. Assurer la transposition des flux entre l’environnement actuel (Informatica/Teradata) et la nouvelle stack (Dataiku/BigQuery). Être autonome et force de proposition sur la mise en place des bonnes pratiques. Collaborer avec les équipes internes (apport fonctionnel) tout en apportant une expertise technique Dataiku. Faciliter la montée en compétence des équipes internes sur les traitements migrés.

CDI

Offre d'emploi
Data Engineer Teradata

HN SERVICES
Publiée le
DevOps
IBM DataStage
SQL

Île-de-France, France

Contexte : Nous recherchons des développeurs Teradata pour accompagner notre client, un grand compte bancaire dans le développement d'application sur la base de puissantes plates-formes DATA. Votre environnement de travail en tant de Data Engineer TERADATA : Développement Teradata / SQL Connaissance de Unix Connaissance de Control M La connaissance de la démarche DevOps est un plus Mode de chargement dans l’entrepôt : T3R , BTEQ , Datastage Teradata Mode d’historisation dans l’entrepôt (CRI, CRE, CRO) Chargement par flux MVS (anciens chargements avec TPT MVS) Chargement par flux Big Data Suivi des chargements sous CONTROL-M Formation succincte de Collecte / alimentation de Datastage Environnement UNIX (répertoires principaux, Usage & Entrepôt) SQL sur SGBD relationnel (Teradata) Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea L’environnement technique : BTEQ Teradata Datastage Datawarehouse SQL DevOps

Freelance

Mission freelance
DEVELOPPEUR SSIS CONFIRME

PARTECK INGENIERIE
Publiée le
Microsoft SQL Server
Microsoft SSIS

12 mois
400-550 €
Paris, France

Poste : Développeur(se) ETL / Data Engineer expérimenté(e) Localisation : Projets en France et à l’international (environnement multiculturel) Missions principales : Structurer, modéliser et intégrer les données (ETL, Data Warehouse). Optimiser et maintenir des entrepôts de données complexes. Intégrer de nouveaux périmètres de données. Collaborer étroitement avec les Data Analysts et Data Scientists. Environnement technique : Microsoft SQL Server, SSIS / Data Tools, Power BI. SQL confirmé (obligatoire), Python souhaité. Modélisation en étoile (Star Schema). Profil recherché : Bac+5 (école d’ingénieur ou université). Minimum 5 ans d’expérience en Data Engineering (on-premise et/ou cloud). Maîtrise du développement ETL / Data Warehouse. Langues : Français & Anglais (niveau C1 obligatoire). Espagnol/Portugais = atout. Soft skills : Esprit analytique, rigueur, bonne communication, travail en équipe. Intérêt pour des projets internationaux et multiculturels.

Freelance

Mission freelance
FREELANCE – Data Engineer Spark/Scala (H/F)

Jane Hope
Publiée le
Apache Spark
Scala

3 mois
400-550 €
Rennes, Bretagne

Nous constituons un vivier de freelances spécialisés en data engineering pour anticiper les besoins de nos clients sur des projets Big Data et Cloud. Nous recherchons des Data Engineers expérimentés sur Spark et Scala, capables d’intervenir rapidement sur des missions à Nantes et Rennes, dans des contextes variés (banque/assurance, industrie, retail, services). En tant que Data Engineer Spark / Scala, vos missions pourront inclure : Conception et développement de pipelines de données : ingestion, transformation, nettoyage et enrichissement de données massives. Développement d’applications distribuées avec Apache Spark (Batch et Streaming) en Scala. Industrialisation des traitements Big Data : optimisation des performances, gestion des volumes importants, parallélisation. Mise en place d’architectures data : Data Lake, Data Warehouse, solutions temps réel. Intégration Cloud : déploiement et utilisation des services Big Data sur AWS, Azure ou GCP (EMR, Databricks, Synapse, BigQuery, etc.). Tests, qualité et fiabilité : mise en place de bonnes pratiques de développement (CI/CD, tests unitaires et fonctionnels). Sécurité et conformité : respect des normes RGPD et bonnes pratiques de gouvernance des données. Documentation et partage : rédaction des spécifications techniques, bonnes pratiques et transmission de compétences aux équipes internes. Collaboration transverse : travail étroit avec les Data Scientists, Data Analysts, Product Owners et Architectes pour répondre aux besoins métiers.

Freelance

Mission freelance
DBA SQL SERVER H/F

Cheops Technology
Publiée le
Dataiku
Microsoft SQL Server

20 jours
400-550 €
La Défense, Île-de-France

Environnements concernés : 3 environnements DATA Front destinés à l’exposition de datamarts via Dataiku 2 environnements DATA Back pour la collecte de données (type Datawarehouse) OS : Windows Server 2022 Datacenter SGBD : SQL Server 2022 Objectifs de la mission : Vérifier et appliquer les bonnes pratiques de structuration et de validation des bases de données Garantir une configuration optimale des performances (indexation, partitionnement, paramètres SQL, etc.) Sécuriser les connexions : Veiller à une configuration conforme des accès et des droits Mettre en place, si besoin, des plans de maintenance adaptés (sauvegardes, index...) Fournir une documentation de l’architecture actuelle (modèle, flux, droits, environnement) Copier certaines bases depuis les environnements actuels vers la nouvelle architecture, et valider leur bon fonctionnement

CDI

Offre d'emploi
Développeur ETL Junior (H/F)

DATACORP
Publiée le

35 500-45k €
Biot, Provence-Alpes-Côte d'Azur

Description du poste : Nous recherchons un Développeur ETL Junior motivé pour rejoindre notre équipe Data. Vous interviendrez sur des projets stratégiques liés à l’alimentation et la mise à jour de modèles de Data Warehouse. Missions principales : Développer et maintenir les flux ETL pour alimenter les modèles décisionnels. Participer à l’intégration, la transformation et la qualité des données. Collaborer avec les équipes data pour garantir la fiabilité et la performance des processus. Documenter et optimiser les traitements mis en place.

Freelance

Mission freelance
FREELANCE – Data Engineer Spark/Scala (H/F)

Jane Hope
Publiée le
Apache Spark
Scala

3 mois
400-550 €
Nantes, Pays de la Loire

Nous constituons un vivier de freelances spécialisés en data engineering pour anticiper les besoins de nos clients sur des projets Big Data et Cloud. Nous recherchons des Data Engineers expérimentés sur Spark et Scala, capables d’intervenir rapidement sur des missions à Nantes et Rennes, dans des contextes variés (banque/assurance, industrie, retail, services). En tant que Data Engineer Spark / Scala, vos missions pourront inclure : Conception et développement de pipelines de données : ingestion, transformation, nettoyage et enrichissement de données massives. Développement d’applications distribuées avec Apache Spark (Batch et Streaming) en Scala. Industrialisation des traitements Big Data : optimisation des performances, gestion des volumes importants, parallélisation. Mise en place d’architectures data : Data Lake, Data Warehouse, solutions temps réel. Intégration Cloud : déploiement et utilisation des services Big Data sur AWS, Azure ou GCP (EMR, Databricks, Synapse, BigQuery, etc.). Tests, qualité et fiabilité : mise en place de bonnes pratiques de développement (CI/CD, tests unitaires et fonctionnels). Sécurité et conformité : respect des normes RGPD et bonnes pratiques de gouvernance des données. Documentation et partage : rédaction des spécifications techniques, bonnes pratiques et transmission de compétences aux équipes internes. Collaboration transverse : travail étroit avec les Data Scientists, Data Analysts, Product Owners et Architectes pour répondre aux besoins métiers.

Freelance

Mission freelance
Administrer DBA/Architect Snowflake

Comet
Publiée le
Snowflake
SQL

12 mois
400-480 €
Île-de-France, France

🎯 Mission Principale Expert technique Snowflake au sein de l'équipe Architecture & Data Engineering, vous êtes responsable de la maintenance et évolution de la Data Platform qui sert l'ensemble des équipes du groupe (Analytics, Data Science & IA, CRM, Pub, Audience, Finance, Streaming). 🔧 Responsabilités Clés Architecture & Stratégie Définition et revue d'architecture du Data Warehouse/Data Platform Développement et maintenance de la stratégie RBAC Formalisation et planification de la roadmap produit (3, 6, 12 mois) Modernisation des paradigmes d'ingestion, transformation et exposition de données Performance & Optimisation Revues de performances SQL et infrastructure Suivi de coûts par application Mise en place de solutions de monitoring et d'alerting Revues de code SQL Support & Accompagnement Support quotidien sur la plateforme Snowflake Référent technique pour les Data Engineers et Data Analysts Accompagnement des équipes sur la faisabilité des projets Facilitateur entre équipes Data, AdTech et métier ⚙️ Stack Technique Compétences Impératives Snowflake - Expert SQL Avancé - Expert Architecture Data Cloud - Expert Technologies Utilisées Python RBAC Terraform Azure (cloud) Azure DevOps / JIRA / Confluence Snowflake Clean Room (plus) 🌍 Environnement de Travail Méthodologie : Agile Scrum Culture : DevSecOps Équipe : 15 personnes Langues : Français courant (impératif), Anglais professionnel ✨ Profil Recherché Qualités Personnelles Bon relationnel et capacité d'adaptation Excellente communication orale et écrite Esprit de veille technologique Aptitude au travail en équipe Compétences Transversales Maîtrise des méthodes Agiles Culture DevOps confirmée Gestion de projet technique Capacité à garantir la pérennité des développements 🎪 Enjeux du Poste Plateforme critique : Infrastructure data stratégique pour le groupe Innovation continue : Exploitation des dernières fonctionnalités Snowflake Optimisation : Maîtrise des coûts et performances Transversalité : Interface entre multiples équipes métier

Freelance

Mission freelance
Data Engineer F/H - LILLE

Anywr freelance
Publiée le
BigQuery
Google Cloud Platform (GCP)
SQL

3 ans
400-500 €
59000, Lille, Hauts-de-France

Notre client, acteur majeur du secteur du Retail, renforce son équipe Data afin de soutenir sa stratégie de digitalisation et d’optimisation de l’expérience client. Dans ce cadre, nous recherchons un(e) Data Engineer passionné(e) par la donnée et désireux(se) d’évoluer dans un environnement stimulant et innovant. Missions principales : Concevoir, développer et maintenir les pipelines de données (ETL/ELT) pour collecter, transformer et valoriser les données issues de différentes sources (e-commerce, magasins, CRM, supply chain, etc.). Assurer la qualité, la fiabilité et la disponibilité des données pour les équipes métiers, Data Science et BI. Participer à la mise en place d’architectures Big Data et Cloud modernes (Data Lake, Data Warehouse). Contribuer à l’optimisation des performances des traitements de données. Collaborer avec les équipes Data Analysts, Data Scientists et métiers afin de répondre aux besoins business (optimisation de l’expérience client, prévisions de ventes, gestion des stocks…). Mettre en place des bonnes pratiques de développement, de documentation et de monitoring. Environnement technique • Cloud & Data : GCP (BigQuery, Dataform) • Orchestration : Cloud Composer • Transformation : Dataform • Observabilité : Dynatrace • Référentiel & CI/CD : GitLab, Terraform, Cloud Build • Gouvernance & Qualité : DataGalaxy • Documentation & Pilotage : Confluence, JIRA (Scrum)

46 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous