Trouvez votre prochaine offre d’emploi ou de mission freelance Data Warehouse

Votre recherche renvoie 62 résultats.
Freelance

Mission freelance
Ingénieur Data senior

JobiStart
Publiée le
AWS Cloud
Python

1 an
400-550 €
Île-de-France, France
Intervenir sur des programmes stratégiques Data et Intelligence Artificielle au sein de la DSI, sur un socle Cloud orienté Data Intelligence Apporter une expertise Data et Machine Learning Engineering pour concevoir, déployer et exploiter des solutions analytiques et IA à l’échelle Mettre en place des chaînes complètes de gestion de la donnée, depuis l’ingestion jusqu’à l’exposition des usages data et IA Développer et automatiser des flux de données distribués en s’appuyant sur les services Cloud AWS Construire et maintenir des pipelines robustes intégrant orchestration, traitement et stockage des données Participer à la structuration et à l’industrialisation des environnements MLOps et des cycles de vie des modèles ML et IA générative Déployer, superviser et automatiser les plateformes de Machine Learning (SageMaker) et les mécanismes de monitoring associés Réaliser des traitements analytiques, transformations de données et optimisations sur des plateformes de type data warehouse cloud Mettre en œuvre des processus CI/CD et des déploiements automatisés via des outils DevOps Développer des briques techniques Data/IA exploitables par les équipes internes (pipelines, services, composants applicatifs) Participer aux phases de conception, d’architecture, de tests, d’intégration et de mise en production des solutions Alimenter et maintenir les environnements nécessaires aux produits data, analytiques et applicatifs Accompagner les équipes Data Science et techniques dans la clarification des besoins Data/IA Faciliter l’industrialisation et la mise à disposition rapide des cas d’usage Produire la documentation technique et contribuer au respect des standards d’architecture, sécurité et gouvernance
Freelance

Mission freelance
CONSULTANT MOE BI ORIENTE DATA

PROPULSE IT
Publiée le
BI
MOE

24 mois
275-550 €
Nanterre, Île-de-France
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Freelance

Mission freelance
Product Owner Data GCP

LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud

12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
CDI

Offre d'emploi
Data Engineer (4+ ans d'exp)

WINSIDE Technology
Publiée le
Google Cloud Platform (GCP)

40k-54k €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer confirmé.e ! 🚀 Ce poste est fait pour toi si : Tu as 5 ans d'expérience professionnelle en tant que Data Engineer . Tu as de l'expérience professionnelle avec AWS ou GCP . Tu parles anglais à un niveau professionnel. Tu as déjà travaillé avec Airflow et Spark . Missions: Concevoir, développer et maintenir des pipelines de données robustes, scalables et sécurisés Collecter, transformer et intégrer des données issues de sources hétérogènes (APIs, bases SQL/NoSQL, fichiers, etc.) Mettre en place des architectures data (data lake, data warehouse, data mesh) adaptées aux besoins métiers Optimiser les performances des traitements et garantir la qualité, la traçabilité et la gouvernance des données Collaborer avec les Data Scientists, Analysts et Product Managers pour répondre aux cas d’usage data Industrialiser les modèles et les flux de données dans des environnements cloud ou on-premise Assurer la surveillance, le monitoring et le support des plateformes data Participer à la veille technologique et à l’amélioration continue des outils et pratiques data engineering Contrat: CDI, statut cadre. Démarrage: fin avril 2026. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
CDI

Offre d'emploi
Data Analyst (H/F)

Le Groupe SYD
Publiée le

40k-60k €
Saint-Herblain, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 Dans le cadre du développement de son centre de compétences DATA et des besoins en expertise Client , le Groupe SYD renforce ses équipes et recherche des Consultants DATA confirmés ou seniors . Vous interviendrez sur des projets à forte valeur ajoutée auprès de clients variés, en accompagnant la transformation data et décisionnelle, de la conception à la mise en production des solutions. 📍Lieu : Saint-Herblain 🏠 Télétravail : 1-2 jours 📝Contrat : CDI 👉 Contexte client : Dans le cadre du développement de notre centre de compétences DATA, tu rejoindras une équipe d’experts SYD et interviendras auprès de clients variés pour les accompagner dans leur transformation data et décisionnelle, de l’analyse des besoins métiers jusqu’au déploiement des solutions. Tu auras pour missions de : Recueillir et analyser les besoins métiers des clients Concevoir et modéliser des solutions décisionnelles performantes Développer des tableaux de bord et reportings sous Power BI Mettre en œuvre des modèles de données (DAX, Power Query, modélisation sémantique) Garantir la qualité, la fiabilité et la performance des données Participer aux choix d’architectures Data (Datawarehouse, Lakehouse, etc.) Intervenir sur l’ensemble du cycle de vie des projets (cadrage, build, tests, déploiement) Former nos partenaires clients Accompagner les utilisateurs (formation, conduite du changement) Contribuer au centre de compétences DATA : veille technologique capitalisation des bonnes pratiques montée en compétences des consultants juniors Environnement technique : Dataviz & BI : Power BI (indispensable) Data Platform : Microsoft Fabric, Databricks ou autres ETL : Azure Data Factory, Talend … Langages : SQL, DAX
Freelance

Mission freelance
Ingénieur BI - SAP Datasphere

RED Commerce - The Global SAP Solutions Provider
Publiée le
BI

3 mois
Île-de-France, France
Je recherche, pour l’un de mes clients finaux, un ingénieur BI expérimenté afin de renforcer leurs équipes Data dans le cadre d’un projet de modernisation BI autour de SAP Datasphere. Le rôle s’inscrit dans un environnement SAP S/4HANA et Power BI, au sein d’une équipe internationale en forte transformation. Missions principales : Participer à la conception et au développement du Data Warehouse SAP Datasphere, en lien étroit avec les équipes SAP et les métiers. Mettre en place et maintenir les modèles de données (views, datasets, modèles analytiques) selon les bonnes pratiques SAP. Intégrer, transformer et documenter les flux de données provenant de SAP S/4HANA et de sources externes. Concevoir et optimiser les rapports et tableaux de bord Power BI connectés à SAP Datasphere. Contribuer à la migration et à la reprise de l’existant depuis d’autres outils BI (Qlik, Cognos, Power BI on-premise, etc.). Assurer la qualité, la cohérence et la performance des modèles de données tout au long du cycle projet. Collaborer avec les architectes BI et chefs de projet pour garantir la gouvernance et la standardisation des solutions Data. Profil recherché : 5 ans d’expérience minimum en Business Intelligence / Data Engineering. Maîtrise de SAP Datasphere (anciennement SAP Data Warehouse Cloud) et des concepts BW / HANA. Bonne compréhension des environnements SAP S/4HANA et SAP Analytics Cloud. Expérience dans la modélisation de données, la création de vues, la gestion des flux ETL et l’intégration vers des outils de reporting. Solides compétences sur Power BI (modélisation, DAX, visualisations). Connaissances des outils Qlik ou Cognos appréciées. Esprit d’analyse, rigueur, sens du travail en équipe et autonomie. Français et anglais impératifs (contexte international). Détails de la mission : Démarrage : Décembre 2025 / Janvier 2026 Localisation : Paris 95 – 3 jours sur site / 2 jours remote Durée : 3 mois renouvelable – Mission longue Si vous souhaitez obtenir davantage d’informations sur le poste ou recommander un collègue ou un ami, n’hésitez pas à me contacter par mail avec votre CV à jour au format Word
Freelance
CDI
CDD

Offre d'emploi
Data Engineer Snowflake / AWS / Informatica / Qlik (H/F)

SMARTPOINT
Publiée le
AWS Cloud
Snowflake

1 an
40k-65k €
400-550 €
Île-de-France, France
Data Engineer Snowflake / AWS / Informatica / Qlik (H/F) Contexte Dans le cadre de la croissance de notre pôle Data & Analytics , nous recherchons un Data Engineer pour intervenir sur des plateformes data cloud modernes chez nos clients grands comptes. Vous évoluerez dans des environnements Snowflake, AWS, Informatica et Qlik , au cœur de projets à fort impact métier. Vos missions En tant que Data Engineer / Consultant Data , vous serez amené(e) à : Concevoir et développer des architectures data cloud sur AWS Mettre en place et optimiser des data warehouses Snowflake Développer et maintenir des flux ETL/ELT avec Informatica Participer à la modélisation des données (Data Vault, étoile, snowflake) Alimenter les outils de data visualisation et BI (Qlik Sense / QlikView) Garantir la qualité, la performance et la gouvernance des données Collaborer avec les équipes BI, analytics et métiers Environnement technique Cloud : AWS (S3, Redshift, Lambda, Glue…) Data Warehouse : Snowflake ETL / Intégration : Informatica BI / Dataviz : Qlik Sense, QlikView Langages : SQL (indispensable), Python (apprécié) Méthodologie : Agile / Scrum
Freelance

Mission freelance
Data Engineer AWS / Snowflake

Gentis Recruitment SAS
Publiée le
AWS Cloud
CI/CD
Snowflake

12 mois
Paris, France
Contexte Dans le cadre du renforcement de ses plateformes data, un grand groupe industriel recherche un Data Engineer senior pour intervenir sur des sujets d’industrialisation, de fiabilisation et de montée en charge de ses pipelines data. Objectifs de la mission Concevoir, développer et maintenir des pipelines de données robustes et scalables Industrialiser les traitements data dans un environnement cloud AWS Exploiter et optimiser une plateforme Snowflake Mettre en place et améliorer les chaînes CI/CD liées aux usages data Garantir la qualité, la performance et la sécurité des flux de données Environnement technique (cœur) Cloud : AWS Data Warehouse : Snowflake Langages : Python, SQL Orchestration / ingestion : Airflow, services AWS (Glue, Lambda, S3, etc.) CI/CD : Git, pipelines automatisés Enjeux forts d’industrialisation et de bonnes pratiques DataOps Profil recherché Data Engineer confirmé / senior Expérience significative sur AWS et Snowflake À l’aise avec les environnements industrialisés et les contraintes de production Capacité à travailler avec des équipes data, IT et métiers
Freelance
CDI

Offre d'emploi
CHEF DE PROJET DATA INFORMATICA

UCASE CONSULTING
Publiée le
Informatica

3 ans
40k-50k €
400-500 €
Paris, France
Contexte de la mission Dans le cadre de la transformation du périmètre flux avec un changement de méthodologie et de socle technologique, le pôle architecture et données recherche un(e) chef(fe) de projet data pour le siège social, basé à Paris. Rattaché(e) au Responsable du pôle architecture et data, vous aurez pour mission principale de délivrer ou faire évoluer des solutions permettant de répondre aux besoins d’échange de données, que ce soit avec des ressources internes ou au travers d’un centre de service externe. Détails des missions Recueillir et formaliser les besoins auprès des responsables applicatifs. Planifier les étapes du projet, suivre les délais et assurer la cohérence des livrables. Assurer la coordination entre les parties prenantes. Maintenir la cohérence des flux en lien avec le plan d’occupation des sols. Produire ou mettre à jour les spécifications techniques nécessaires pour les développements. Recetter les livrables. Connaissances requises Plusieurs expériences dans le pilotage de projets data. Capacité à gérer plusieurs sujets en parallèle et passer rapidement de l’un à l’autre. Compréhension et appropriation des enjeux métiers, techniques et fonctionnels auprès des équipes concernées. Adapter le discours selon les interlocuteurs et expliquer l'état d'avancement du projet avec des arguments adaptés. Capacité à comprendre l'architecture des systèmes d'information et appréhender les impacts / adhérences des projets. Connaissances dans les services IDMC. Bonne connaissance du langage SQL. Savoir concevoir des API (REST). Modéliser les cinématiques des échanges de données. Environnement technique Microsoft Fabric (Power BI / Lakehouse / Datawarehouse) IBM Cognos Microsoft Azure APIM Microsoft Azure DevOps (Boards / Repos) Informatica IDMC (MDM / CAI / API Center / CDI / CDQ) Informatica PowerCenter Savoir-être Autonomie, rigueur et méthode Capacité d’analyse et de synthèse Polyvalence et organisation Bonne capacité de communication Profil recherché BAC +5 Expérience de 5 ans minimum Télétravail 2 jours par semaine
Freelance

Mission freelance
Senior Data Analyst / Data Modeler (B2B) (H/F)

Freelance.com
Publiée le
Merise

1 an
400-520 €
Paris, France
2 jours de TT Contexte de la mission Dans le cadre d’un programme stratégique de transformation Data B2B, notre client construit une nouvelle plateforme de données cloud selon une approche Greenfield , visant à reconstruire les produits de données plutôt qu’à effectuer une migration classique des systèmes existants. La mission s’inscrit au sein d’une Core Team transverse fonctionnant en mode Agile , chargée de concevoir le socle technique et les données de référence qui permettront aux équipes métiers de développer leurs futurs cas d’usage analytiques et data science. Objectifs de la mission Le consultant interviendra en tant que référent en modélisation et connaissance de la donnée , avec un rôle clé d’interface entre les experts métiers et les équipes data engineering. Il contribuera à structurer une vision data robuste, gouvernée et orientée usage. Périmètre et responsabilités Concevoir le Core Model et modéliser les objets métiers structurants (vision client 360, contrats, facturation, parc, etc.) dans le datawarehouse cloud (modèles dimensionnels / Data Vault). Définir et prototyper en SQL les règles de rapprochement et d’unicité permettant de fiabiliser la donnée client. Analyser les sources legacy afin d’identifier les règles de gestion implicites et cartographier les écarts avec la cible. Mettre en place la gouvernance des données : dictionnaire de données, métadonnées, définitions fonctionnelles et règles de qualité. Préparer des datasets certifiés pour faciliter le travail des Data Scientists et Data Analysts. Collaborer étroitement avec les équipes métiers et le Lead Data Engineer dans un environnement Agile. Adopter une approche pragmatique orientée delivery avec une production incrémentale de valeur. Livrables attendus Modèles Logiques de Données (MLD) validés. Mapping source-to-target détaillé. Spécifications SQL des règles d’unicité client et des clés de réconciliation. Matrice de gestion des cas particuliers. Business glossary intégré au Data Catalog. Définition des règles de qualité des données. Requêtes d’analyse d’impact et datasets de test. Environnement technique Plateforme Cloud moderne BigQuery SQL avancé Data Catalog / gouvernance Méthodologie Agile / Scrum Profil recherché Expertise confirmée en modélisation de données (Merise, 3NF, Star Schema, Kimball, Data Vault). Excellente maîtrise du SQL et capacité à manipuler des jeux de données complexes. Forte compétence en analyse fonctionnelle et capacité à dialoguer avec des interlocuteurs métiers (marketing, finance, etc.). Expérience significative dans des environnements Agile . Expérience de la modélisation dans des environnements Cloud indispensable. La connaissance d’environnements B2B et de structures de comptes complexes constitue un plus. Soft skills attendues Esprit de synthèse Force de proposition Autonomie Pragmatisme Excellentes capacités de communication Informations complémentaires Compte tenu des enjeux du programme et de la criticité du calendrier, seuls les profils disposant d’une expérience solide en modélisation agile dans le cloud seront considérés.
Freelance

Mission freelance
développeur(euse) datastage - LUXEMBOURG

FUZYO FRANCE
Publiée le
IBM DataStage

6 mois
330-530 €
Luxembourg
FUZYO , ESN spécialisée dans le Digital, la Data & l’IA, accompagne ses clients dans leurs projets stratégiques. Nous recherchons un Développeur Datastage (H/F) pour intervenir sur un projet d’intégration de données chez l’un de nos clients du secteur bancaire au Luxembourg. Démarrage prévu : Mars 2026 . Mission au luxembourg. Vos missions Concevoir, développer et optimiser des flux ETL sous IBM InfoSphere Datastage . Analyser les besoins métiers et rédiger les spécifications techniques. Assurer la maintenance et le support des jobs en production. Collaborer avec les équipes BI et Data pour garantir la qualité des données. Compétences requises Maîtrise d’ IBM InfoSphere Datastage (v11 ou supérieure). Solides compétences en SQL (Oracle, DB2) et en optimisation de requêtes. Connaissance des environnements UNIX/Linux et scripting Shell. Expérience en Data Warehouse et modélisation dimensionnelle. Profil Bac+3 à Bac+5 en informatique ou équivalent. Minimum 5 ans d’expérience sur des projets ETL avec Datastage. Français courant, anglais technique (luxembourgeois est un plus).
CDI

Offre d'emploi
Chef de projet Data & BI H/F

CONSORT GROUP
Publiée le
IDT

39k-45k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Chef de projet Data & BI H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la donnée, la BI et la conduite de projets décisionnels ? Ce poste est fait pour vous. En tant que Chef de projet Data & BI , vous êtes responsable du pilotage , du développement et du déploiement de notre écosystème : Côté build : Prendre en charge l’ensemble des phases projet : recueil & analyse des besoins métier, spécifications, développement et déploiement. Concevoir et modéliser les architectures décisionnelles (datawarehouse, datamarts, modèles relationnels). Développer et maintenir les dataviz dynamiques et intuitives (SAP BO, Need4Viz, Power BI, QlikSense). Mettre en œuvre et optimiser les flux d’alimentation ETL (SAP BODS souhaité). Réaliser les recettes techniques et fonctionnelles : TU, TNR, scénarios, tests de cohérence des données. Garantir la qualité, la cohérence et la sécurité des données dans le respect du RGPD Côté run : Assurer le suivi et la maintenance évolutive des solutions décisionnelles existantes. Diagnostiquer les problématiques data/BI et proposer des solutions pertinentes et performantes. Accompagner les utilisateurs dans l’appropriation des outils BI et assurer un support de proximité. Surveiller la qualité, la cohérence et l'intégrité des données dans le datawarehouse. Maintenir les plateformes BI : SAP BO 4.3, Need4Viz, 360Suite, Infoburst, Power BI, QlikSense. Optimiser les performances des requêtes SQL et des traitements décisionnels. C’est votre parcours Vous avez au moins 4 ans d’expérience dans des environnements de chefferie de projet dans le domaine de la Data & BI exigeants. Vous aimez analyser, modéliser, concevoir et livrer des solutions décisionnelles de qualité , tout en innovant. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Maîtrise de SAP BusinessObjects 4.3 (WebI, IDT, CMC) et de Need4Viz . Très bonne maîtrise du SQL , des bases Oracle / SQL Server , et de la modélisation relationnelle. Expérience en ETL , idéalement SAP BODS, sur des flux complexes. Excellentes compétences en dataviz et en conception de tableaux de bord dynamiques. Connaissance de 360Suite , Infoburst , Power BI et QlikSense appréciée. C’est votre manière de faire équipe : Forte capacité d’analyse et de résolution de problématiques. Esprit critique, force de proposition et goût pour le fonctionnel métier. Curiosité, autonomie et rigueur en toutes circonstances. Sens aigu de la qualité et de la sécurité des données. Excellent relationnel et esprit collaboratif. C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : 2j Salaire : De 39000€ à 45000€ (selon expérience) brut annuel Famille métier : Data & BI Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance

Mission freelance
PRODUCT OWNER (DATA SUPPLY)

Signe +
Publiée le
Snowflake

12 mois
560 €
Paris, France
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
Freelance

Mission freelance
Data Engineer GCP / Big Data (H/F)

ALLEGIS GROUP
Publiée le
Google Cloud Platform (GCP)
Java
Spark Streaming

3 mois
Paris, France
En tant que Data Engineer, vous serez responsable de : Conception & Développement (Big Data / Java / Spark) – 40% Développer et optimiser des traitements Big Data en Java et Spark. Créer, maintenir et améliorer des pipelines de données robustes et scalables. Assurer la qualité, la performance et la fiabilité des traitements batch et streaming. Cloud Engineering – GCP (DataProc / Workflows / Cloud Run) – 30% Concevoir et maintenir des solutions data sur GCP. Déployer et orchestrer les traitements via DataProc, Workflows et Cloud Run. Optimiser les coûts, la sécurité et les performances des environnements GCP. Data Warehousing – BigQuery – 15% Modéliser, structurer et optimiser les tables BigQuery. Mettre en place des requêtes performantes et adaptées aux usages analytiques. Assurer la gouvernance et la qualité des données. Systèmes & DevOps – 5% Intervenir sur des environnements Linux. Contribuer au monitoring et à l’amélioration continue des systèmes. Outils complémentaires – 10% Participer à l'infrastructure-as-code via Terraform. Déployer et automatiser via GitHub Actions. Contribuer aux bonnes pratiques CI/CD.
Freelance

Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
DevOps

24 mois
300-600 €
Nanterre, Île-de-France
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Freelance

Mission freelance
PRODUCT OWNER DATA SUPPLY

Signe +
Publiée le
Snowflake

12 mois
560 €
Paris, France
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
62 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous