Find your next tech and IT Job or contract Data Warehouse

Your search returns 51 results.
Contractor

Contractor job
Consultant PUR AZURE + BI

Mindquest
Published on
Azure
Azure Data Factory
DAX

3 months
230-430 €
Courbevoie, Ile-de-France

* Concevoir et développer des entrepôts de données (Data Warehouse), Data Marts et Data Cubes * Développer des flux ETL réutilisables avec Azure Data Factory * Intégrer et transformer des données provenant de multiples sources vers Azure SQL DB / Data Lake * Mettre en oeuvre des mécanismes de chargement (complet, delta, historique) * Optimiser la performance des requêtes (SQL, DAX, MDX) et assurer la qualité des données * Mettre en place des outils analytiques et alimenter les dashboards Power BI * Développer des rapports Power BI * Gérer la sécurité des données, notamment le Row Level Security à tous les niveaux de la chaîne * Participer à la mise en place de pipelines CI/CD automatisés via Azure DevOps / GitLab

Contractor

Contractor job
Data Engineer Databricks (F/H)

Quick Source
Published on
Databricks

1 year
500-550 €
Saint-Denis, Ile-de-France

Concevoir et développer des pipelines de traitement de données (ETL/ELT) sur Databricks. Intégrer et transformer des données issues de différentes sources (API, bases SQL/NoSQL, fichiers, data lakes, etc.). Mettre en place des workflows automatisés et orchestrés (via Azure Data Factory, Airflow, ou Databricks Workflows). Optimiser les performances des jobs Spark et la consommation des clusters. Participer à la modélisation des données (Data Lake / Delta Lake / Data Warehouse). Assurer la qualité, la sécurité et la gouvernance des données (contrôles, documentation, catalogage). Collaborer avec les Data Scientists, Analysts et Architectes pour garantir la cohérence et la fiabilité des environnements data. Surveiller et maintenir la plateforme Databricks en production (monitoring, troubleshooting, coûts).

Contractor

Contractor job
[MDO] Développeur Data - Intelligent Data Management Cloud | Lille | L2 (Min 3/4 XP) - 993

ISUPPLIER
Published on

8 months
360-409 €
Lille, Hauts-de-France

Développeur spécialisé dans la plateforme Informatica IDMC (Intelligent Data Management Cloud). Missions : Conception et développement des flux de données (data pipelines) avec les outils de l’écosystème Informatica, Intégration des données provenant de sources multiples (bases SQL, fichiers, API, ERP, CRM, etc.), Transformation et nettoyage des données pour alimenter des systèmes cibles (Data Warehouse, Data Lake, BI, etc.), Met en place des workflows d’intégration, des mappings et des tâches de synchronisation via la console IDMC, S’assurer de la qualité, la sécurité et la traçabilité des données, Collaboration avec les équipes DataOps, BI et Cloud pour déployer et superviser les traitements. Profil recherché : Profil Data Engineer avec une expérience / appétence pour les ETL– IDMC 3 ans d'expérience minimum sur (PowerCenter, Talent, ODI ou autre ETL). Compétences Appréciées : Expé/formation APIs. Expé et/ou formation Modules IDMC : CDI, CAI Cloud Data Integration Developer Cloud Application Integration Developer Certifications & pré requis s'il y en a : Certifié IDMC, prérequis : ETL, API, Kafka, JAVA Localisation : Idéalement Tours ou Lille (Mons) mais autres localisations possibles (y compris Paris) Date de fin : Selon besoins clients - Au plus tôt au 31/12/2025 mais roadmap importante sur 2026

Permanent
Contractor

Job Vacancy
Expert Windows Server / .NET

1G-LINK CONSULTING
Published on
.NET
Microsoft SQL Server
Windows Server

1 year
La Défense, Ile-de-France

VOS MISSIONS : Support Infrastructure & Technique Maintenir et résoudre les incidents sur les applications Windows Server. Assurer le support des intégrations utilisant des composants .NET au sein de l’écosystème applicatif. Collaborer avec les équipes IT infrastructure pour garantir la stabilité, la sécurité et la conformité des systèmes. Data Warehouse & Intégration Maintenir et supporter le Data Warehouse basé sur SQL Server. Développer, améliorer et supporter les processus ETL avec SSIS. Garantir la cohérence, la qualité et la disponibilité des données pour le reporting et la BI. Supporter l’intégration avec Snowflake (souhaité), les datasets étant de plus en plus exploités dans cette solution. Collaboration & Amélioration Continue Travailler en étroite collaboration avec le département Finance et les équipes IT pour assurer le bon fonctionnement des processus de consolidation et reporting. Identifier et mettre en place de manière proactive des améliorations en termes de performance, d’automatisation et de fiabilité. Documenter les processus, standards et solutions pour le partage de connaissances et la conformité.

Contractor
Permanent

Job Vacancy
Data Analyst Production / IT (H/F)

AVA2I
Published on
Microsoft Power BI
Python

3 years
40k-45k €
400-550 €
Montreuil, Ile-de-France

Pour notre client dans le secteur bancaire, vous rejoignez les équipes IT / Production pour piloter, analyser et optimiser les données techniques issues des systèmes de production (logs, incidents, monitoring, supervision). Votre rôle est clé pour assurer la fiabilité , la disponibilité et la performance des services bancaires, en lien avec les équipes techniques, DevOps et métiers. 🎓 Formation & Expérience Bac +5 (école d’ingénieur, université ou équivalent) en data science, statistiques, informatique Expérience en tant que Data Analyst dans un contexte IT / production Une expérience dans le secteur bancaire ou financier est un atout majeur 🛠️ Compétences Techniques Langages : SQL , Python ou R Outils : Power BI , Tableau , Excel avancé (macros, Power Query) Environnements : ETL / ELT , data warehouse , data lake Connaissances en statistiques , modélisation , data mining Notions de DevOps , Jenkins , Airflow , versioning 🔄 Méthodologie & Qualités Méthodes Agile , cycles itératifs Capacité à analyser , structurer et communiquer avec des interlocuteurs techniques et métiers Rigueur, esprit critique, proactivité

Contractor
Permanent

Job Vacancy
Développeur Data (Bordeaux)

CAT-AMANIA
Published on
Apache Kafka
DBT
Microsoft Power BI

3 months
40k-45k €
100-330 €
Bordeaux, Nouvelle-Aquitaine

En tant que Développeur, et en coordination avec l’équipe, vos missions seront de : Développer et maintenir des pipelines de traitement de données (batch ou temps réel) Intégrer, transformer et charger des données depuis différentes sources (APIs, bases de données, fichiers, flux, etc.) Concevoir et optimiser des jobs ETL/ELT pour alimenter les environnements analytiques (Data Lake, Data Warehouse) Implémenter les logiques de nettoyage, d’enrichissement et de validation des données Participer à la modélisation des structures de données pour répondre aux besoins métiers et analytiques Assurer la performance, la fiabilité et la scalabilité des traitements de données Automatiser les processus de collecte et de transformation via des scripts et outils d’orchestration (Airflow, Azure Data Factory, etc.) Collaborer avec les Data Scientists, Data Analysts et les équipes DevOps pour garantir la disponibilité et la qualité des données Surveiller et corriger les anomalies dans les flux de données Rédiger la documentation technique des pipelines et des processus mis en place

Contractor
Permanent

Job Vacancy
Expertise Denodo

KLETA
Published on
Big Data
Virtualization

2 years
Paris, France

Missions principales Concevoir et mettre en œuvre des architectures de virtualisation de données avec Denodo . Définir les bonnes pratiques de modélisation logique et de consommation des données. Participer à l’intégration de Denodo dans l’écosystème existant (ETL, data warehouse, data lake, API, outils BI, etc.). Optimiser les performances (tuning, caching, monitoring) et assurer la haute disponibilité de la plateforme. Garantir la sécurité, la gouvernance et la conformité des données (politiques d’accès, masquage, traçabilité). Former et accompagner les équipes (Data Engineers, Data Analysts, BI, métiers) à l’usage de Denodo. Assurer la veille technologique autour de la data virtualization et proposer des améliorations continues.

Contractor

Contractor job
Ingénieur BI - SAP Datasphere

RED Commerce - The Global SAP Solutions Provider
Published on
BI

3 months
Ile-de-France, France

Je recherche, pour l’un de mes clients finaux, un ingénieur BI expérimenté afin de renforcer leurs équipes Data dans le cadre d’un projet de modernisation BI autour de SAP Datasphere. Le rôle s’inscrit dans un environnement SAP S/4HANA et Power BI, au sein d’une équipe internationale en forte transformation. Missions principales : Participer à la conception et au développement du Data Warehouse SAP Datasphere, en lien étroit avec les équipes SAP et les métiers. Mettre en place et maintenir les modèles de données (views, datasets, modèles analytiques) selon les bonnes pratiques SAP. Intégrer, transformer et documenter les flux de données provenant de SAP S/4HANA et de sources externes. Concevoir et optimiser les rapports et tableaux de bord Power BI connectés à SAP Datasphere. Contribuer à la migration et à la reprise de l’existant depuis d’autres outils BI (Qlik, Cognos, Power BI on-premise, etc.). Assurer la qualité, la cohérence et la performance des modèles de données tout au long du cycle projet. Collaborer avec les architectes BI et chefs de projet pour garantir la gouvernance et la standardisation des solutions Data. Profil recherché : 5 ans d’expérience minimum en Business Intelligence / Data Engineering. Maîtrise de SAP Datasphere (anciennement SAP Data Warehouse Cloud) et des concepts BW / HANA. Bonne compréhension des environnements SAP S/4HANA et SAP Analytics Cloud. Expérience dans la modélisation de données, la création de vues, la gestion des flux ETL et l’intégration vers des outils de reporting. Solides compétences sur Power BI (modélisation, DAX, visualisations). Connaissances des outils Qlik ou Cognos appréciées. Esprit d’analyse, rigueur, sens du travail en équipe et autonomie. Français et anglais impératifs (contexte international). Détails de la mission : Démarrage : Décembre 2025 / Janvier 2026 Localisation : Paris 95 – 3 jours sur site / 2 jours remote Durée : 3 mois renouvelable – Mission longue Si vous souhaitez obtenir davantage d’informations sur le poste ou recommander un collègue ou un ami, n’hésitez pas à me contacter par mail avec votre CV à jour au format Word

Contractor

Contractor job
Chef de projet Gouvernance Data et Adoption Décisionnelle (H/F)

INFOTEL CONSEIL
Published on
Coordination
Governance

1 year
Ile-de-France, France

Pour l'un de nos clients Grand Compte : Dans le cadre d’un vaste programme de modernisation de son dispositif décisionnel, le client souhaite renforcer la gouvernance et l’adoption de sa plateforme de Data Warehouse. La mission vise à structurer un cadre de gouvernance unifié garantissant la cohérence et la qualité des évolutions, tout en accompagnant les entités dans la transition vers les nouveaux usages Data. Elle inclut la cartographie des processus, la définition des rôles, la mise en place d’un workflow de suivi et la conduite du changement pour favoriser l’appropriation durable de la plateforme.

Contractor

Contractor job
Data Analyst BI - PowerBI

Codezys
Published on
SQL

3 months
Paris, France

Métier : Data Management Fonction : Data Analyst Spécialité technologique : Business Intelligence (BI) Type de facturation : Assistance Technique (facturation avec un taux journalier) Secteur d'activité : Assurance Compétences et Technologies / Outils : Excel SQL Developer SQL Power BI Description de la prestation : Accompagnement à la mise en œuvre et à l’industrialisation des extractions de données issues du data warehouse SIAM ERASME, ainsi que la production de rapports liés à l’activité. Le prestataire intervient en tant que Business/Data Analyst pour : Recueillir et analyser les besoins métiers en lien avec les équipes concernées Rédiger les spécifications fonctionnelles pour rapports, statistiques, indicateurs et extractions de données Concevoir et élaborer des requêtes et rapports pour la production des livrables Réaliser des requêtes complexes tout en respectant les règles de sécurité et de confidentialité Automatiser et mettre en forme les requêtes existantes Contribuer à l’automatisation et à l’industrialisation des processus d’extraction de données Rédiger les cahiers de recette et conduire la recette fonctionnelle Accompagner les équipes dans l’interprétation et l’exploitation des résultats

Contractor
Permanent

Job Vacancy
Architecte Cloud Data Stratégique GCP

PointRD
Published on
AWS Cloud
Azure
Big Data

24 months
Ile-de-France, France

Vos Responsabilités Clés Conception d'Architectures Data GCP : Définir et concevoir des architectures Data Cloud robustes, sécurisées et évolutives (Data Lakes, Data Warehouses, Data Mesh, solutions d'Analytics) en utilisant les services natifs de GCP. Expertise et maîtrise de services clés tels que BigQuery, Dataflow, Dataproc, Cloud Storage, Pub/Sub et Vertex AI . Stratégie Multi-Cloud et Migration : Contribuer à la stratégie Multi-Cloud du groupe, en assurant l'interopérabilité et l'intégration des services Data de GCP avec d'autres fournisseurs (AWS/Azure) ou les systèmes on-premise . Mener des phases de migration de systèmes de données existants (Legacy) vers la cible Cloud, en déterminant la meilleure approche (Re-platforming, Refactoring). Gouvernance et Sécurité (Cloud Data Security) : Définir la Landing Zone Data sur GCP , incluant les politiques de sécurité (IAM, KMS) et la gestion de la conformité réglementaire Data. Garantir la mise en œuvre de l' Infrastructure as Code (IaC) via Terraform pour le déploiement reproductible et sécurisé des plateformes Data. Optimisation et Conseil : Mettre en place des pratiques de FinOps pour optimiser les coûts liés au stockage et au traitement des gros volumes de données sur GCP. Fournir un leadership technique et un support aux équipes de Data Engineers et Data Scientists.

Contractor
Permanent
Fixed term

Job Vacancy
Data Steward

LEVUP
Published on
Data governance

12 months
Liège, Belgium

1. Contexte du poste Dans le cadre de la mise en place d’un data warehouse Snowflake alimenté par SAP et d’autres sources, le Data Steward assure la qualité, la cohérence et la documentation des données critiques pour l’entreprise. Il joue un rôle central dans la gouvernance des données et dans le support aux équipes métier et techniques. 2. Missions principalesa) Qualité et gouvernance des données Définir et appliquer les standards de qualité des données (complétude, exactitude, cohérence). Identifier, analyser et corriger les anomalies ou incohérences dans les données SAP et Snowflake. Mettre en place des indicateurs de qualité et suivre leur évolution. b) Gestion des métadonnées et documentation Maintenir un dictionnaire de données à jour pour toutes les tables critiques. Documenter les flux, transformations et règles métier appliquées lors des extractions SAP → Snowflake. Garantir la traçabilité et la conformité des données (ex. RGPD, audits internes). c) Support aux projets ETL/ELT Collaborer avec les data engineers et analystes BI pour assurer la bonne réplication et transformation des données. Valider les mappings et règles métier lors de l’intégration dans Snowflake. d) Collaboration et sensibilisation Être l’ interlocuteur privilégié pour les questions de données auprès des équipes métier et IT. Former et sensibiliser les utilisateurs aux bonnes pratiques de gestion des données. Participer aux comités de gouvernance de données. 3. Profil recherchéCompétences techniques Connaissance des systèmes SAP (FI, MM, SD, ou modules liés au master data). Expérience avec un data warehouse cloud (Snowflake de préférence) et outils ETL/ELT. Maîtrise des concepts de data governance, qualité et master data management . Bonnes compétences en SQL et manipulation de données. Connaissance des outils de documentation et data catalog (ex. Collibra, Alation) est un plus. Compétences comportementales Esprit analytique et rigueur. Capacités à communiquer avec les équipes métiers et techniques. Sens de l’organisation et autonomie. Capacité à prioriser et à gérer plusieurs sujets transverses. Télétravail 2 jours par semaines et 3 jours sur site. La maitrise de l'anglais courant est nécessaire. Formation Bac+3/5 en informatique, statistiques, gestion des données, ou disciplines équivalentes. Certification en data governance ou MDM est un plus.

Contractor
Permanent

Job Vacancy
Data Engineer (Bordeaux)

CAT-AMANIA
Published on
BI
Python
Snowflake

3 months
40k-48k €
100-370 €
Bordeaux, Nouvelle-Aquitaine

En tant que Data Engineer, et en coordination avec l’équipe, vos missions principales seront de : Concevoir, développer et maintenir des pipelines de données robustes et scalables (ETL / ELT) Intégrer et transformer des données issues de sources variées (APIs, bases SQL/NoSQL, fichiers, flux temps réel, etc.) Assurer la qualité, la cohérence et la fiabilité des données tout au long de la chaîne de traitement Participer à la modélisation et à l’optimisation des architectures data (Data Lake, Data Warehouse, etc.) Collaborer étroitement avec les Data Scientists, Data Analysts et les équipes métier pour répondre à leurs besoins en données Mettre en place des bonnes pratiques de développement, de versioning et d’automatisation (CI/CD, monitoring, tests, documentation) Contribuer à la sécurisation, la gouvernance et la conformité des données (RGPD, gestion des accès, traçabilité) Optimiser les performances des traitements et la consommation des ressources cloud Participer à la veille technologique et proposer des améliorations continues sur les outils et les architectures data

Permanent

Job Vacancy
Ingénieur Modern Data Stack (H/F) - 13

Mindquest
Published on
Apache Airflow
DBT
Microsoft Power BI

Marseille, Provence-Alpes-Côte d'Azur

Contexte Je recherche pour l’un de mes clients, entreprise industrielle française en pleine transformation digitale, un(e) Ingénieur(e) Data en CDI à Marseille. Cette opportunité est à pourvoir au sein de la DSI (100 collaborateurs), dans un environnement stimulant et innovant. Vous intégrerez le pôle Data et interviendrez sur des projets stratégiques de modernisation des architectures de données. Missions Rattaché(e) au Responsable de Production, vous aurez un rôle clé dans la conception, l’optimisation et la fiabilité des bases de données transactionnelles et décisionnelles. À ce titre, vos missions incluront : Concevoir et modéliser les bases de données en lien avec les chefs de projet, architectes, consultants ERP et experts décisionnels Participer à la mise en place et à l’évolution de l’entrepôt de données (Data Warehouse) et de la "Modern Data Stack" Développer et maintenir les flux de synchronisation entre systèmes (Airbyte, DBT, Airflow, Snowflake...) Assurer l’optimisation des performances des requêtes SQL/noSQL et le support aux équipes de développement Contribuer à l’adaptation du modèle de données dans le cadre du déploiement d’architectures microservices Participer au support technique de niveau 3 et à la veille technologique

Permanent

Job Vacancy
Database Engineer with SQL Server and SSIS

Nexus Jobs Limited
Published on

£55k-70k
London, United Kingdom

Database Engineer with SQL Server and SSIS Our Client is a bank based in Central London who are looking to recruit a Database Engineer with the ability to work with SSIS. Responsible for the development and delivery of new systems to automate and streamline processes required by different departments. To support the internal IT department with changes and upgrades to software platforms. To be primary contact for all technical questions relating to in-house bespoke systems and interfacing. Database Support Supporting budgeting and financial planning processes for Finance department, including loading and refreshing of data based on requirements. Understand and conduct the front-end functionality to amend and change hierarchical structures within the environment. Debug and analyse errors and anomalies within Hyperion system as raised by Finance and to pinpoint areas of failure and correct any issues. Liaise with Finance on a daily basis to ensure smooth running of the Hyperion environment. Build data flows within the SQL environment in SSIS packages. Risk & Regulatory Duties Maintain knowledge of all applicable regulatory requirements including the Bank’s Risk and Compliance policies and procedures and adhere to these to avoid exposing the Bank to undue risk. Report policy/procedure breaches and areas of potential non-compliance and suspicions promptly upon identification in accordance with the Bank's Risk and Compliance policies. Accurately execute all controls within own area to minimise risk of policy, procedure, and/or regulatory breaches. Identify new risks/control gaps within own area and escalate accordingly to your Line Manager and/or Head of Department. Qualifications/Experience Degree level qualified or equivalent. SQL Programming. Knowledge and Skills Software analysis and design. SQL query language. Data warehouse design concepts, (Inmon or Kimball) Must have solid experience of working with SSIS and building data warehouses and some knowledge of reporting using SSRS. The Client is a Bank based in the Central London. This is a 12 month FTC position with a salary of circa £55K - £70K. You will be required to be in the office at least 3 days week. Do send your CV to us in Word format along with your salary and availability.

Contractor
Permanent

Job Vacancy
Data Engineer Stambia (F/H)

CELAD
Published on
ETL (Extract-transform-load)
Microsoft SQL Server
ODI Oracle Data Integrator

3 years
40k-47k €
400-500 €
Lille, Hauts-de-France

CDI/Freelance/Portage 💼 – 3 jours de télétravail/semaine 🏠 – 📍 Lille – 5 ans d'expérience minimum Vous êtes passionné(e) par les nouvelles technologies et souhaitez mettre vos compétences au service de projets innovants pour un acteur majeur du secteur bancaire ? Cette mission est peut-être faite pour vous ! 💼🚀 Vos missions : Concevoir, développer et maintenir des flux d’intégration de données avec Stambia, en lien avec les besoins métiers et les exigences des projets décisionnels. Participer à la modélisation des données, à l'alimentation des entrepôts (Data Warehouse) et au traitement des données issues de sources hétérogènes. Garantir la qualité, la performance et la fiabilité des traitements ETL, tout en contribuant à l’optimisation des chaînes d’intégration et à l’industrialisation des processus.

51 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us