Trouvez votre prochaine offre d’emploi ou de mission freelance Data Lake à Paris

Votre recherche renvoie 22 résultats.
Freelance

Mission freelance
Consultant Data

Mon Consultant Indépendant
Publiée le
Data Lake

6 mois
570-590 €
Paris, France

Pour le compte d’un grand groupe français, nous recherchons un consultant spécialisé en data afin d’accompagner le Data Office dans la mise en conformité d’un Data Lake. La mission consiste à assurer la bonne gouvernance des données et leur alignement avec les exigences réglementaires et internes, en collaboration avec les équipes techniques et métiers. Le/la consultant(e) interviendra sur l’analyse des pratiques existantes, la définition et le suivi des plans d’action, ainsi que la mise en place de procédures garantissant la qualité, la sécurité et la conformité des données. Une bonne compréhension des environnements Big Data et des problématiques de data governance est indispensable pour réussir cette mission stratégique.

CDI

Offre d'emploi
Data Analyst / Analytics Engineer (Futur Lead Data)

Agrega
Publiée le
Data analysis
Data Lake
Microsoft Power BI

45k-60k €
Paris, France

Sublimez l’usage de la donnée au sein de la plateforme Sincro Solutions Sincro Solutions est un éditeur de logiciels SaaS qui propose un écosystème interconnecté couvrant l’ensemble des besoins des acteurs de la prestation intellectuelle. Nos solutions VMS , ERP et SRM accompagnent la gestion des talents de bout en bout : de l’analyse de CV à la facturation, en passant par la comptabilité d’entreprise et la gestion de projet. Rejoindre Sincro Solutions , c’est participer à un projet unique, intégré et 100 % agile , dans un contexte de forte croissance. Vous évoluerez dans un environnement stimulant, qui réunit les technologies, langages, infrastructures, outils et méthodes les plus performants du marché . Missions principales Rôle et positionnement En tant que Data Analyst / Analytics Engineer , vous rejoignez le pôle Produit et intégrez l’équipe technique en charge de la construction de nouvelles fonctionnalités et de l’optimisation des performances des outils mis à disposition de nos clients internes et externes. Rattaché·e à l’ Engineering Manager , vous interviendrez principalement sur le Cloud Microsoft Azure . Ce poste représente une opportunité unique de créer la fonction Data chez Sincro Solutions et d’en devenir, à terme, le Lead Data . Analytics Engineering En tant qu’Analytics Engineer, vous jouerez un rôle clé dans le développement et la gestion du Data Lake / Data Warehouse utilisé par nos produits et nos clients. Vos responsabilités incluent notamment : Assurer la qualité des données : garantir des données propres, sécurisées et anonymisées dès leur entrée dans le système, en collaboration avec les équipes Data Engineers, ML Ops et Développement. Développer et maintenir des pipelines de transformation : concevoir et maintenir des flux de données en SQL et Python , sur BigQuery ou équivalents. Vous transformerez les données générées par nos clients et les enrichirez avec des sources tierces. Améliorer et documenter les flux de données : faire évoluer les pipelines selon les besoins métiers et techniques, tout en assurant une documentation claire et à jour sur la traçabilité des données. Data Analysis Vous soutenez l’équipe Data & Performance dans l’analyse et l’exploitation des données afin de favoriser la prise de décision stratégique et la compréhension des indicateurs clés . Vos missions principales : Création et maintenance de dashboards Power BI Explorer le Sincro Data Warehouse et concevoir des KPIs pertinents . Développer et maintenir des dashboards Power BI à destination des équipes métier et des clients. Conseiller les Product Owners et les utilisateurs sur les meilleures pratiques de data visualisation . Analyse et interprétation des données Produire des reportings et analyses pour soutenir la stratégie d’entreprise. Identifier et comprendre les dynamiques métiers : recrutement, pipeline commercial, sourcing de talents, contractualisation, facturation, comptabilité, etc. Profil recherché Expérience et formation Minimum 4 ans d’expérience en data analyse ou analytics engineering. Formation Bac +5 (école d’ingénieurs, master Big Data, mathématiques/statistiques ou équivalent). Bonne compréhension des enjeux de gestion d’entreprise . Une expérience en DataOps est un réel atout. Qualités personnelles Organisé·e, rigoureux·se, curieux·se et autonome. Excellente communication écrite et orale, esprit d’équipe et aisance relationnelle. Bon niveau d’anglais (oral et écrit). Goût pour l’apprentissage et l’autoformation, notamment sur des aspects techniques. Compétences techniques Domaine Compétences attendues BI / Data Visualisation Maîtrise indispensable de Power BI SQL Solide expérience en manipulation de données ( BigQuery, MySQL, Fabric , etc.) ETL / Data Transformation Expérience avec Azure Data Factory , dbt , Dataiku ou équivalents Comptabilité & Finance d’entreprise Connaissances en analyse de données dans ces domaines appréciées Langages Bonne maîtrise de SQL , notions de Python appréciées Machine Learning Connaissances de base bienvenues Ce que nous vous offrons Une place centrale dans la construction de la culture Data chez Sincro Solutions. Un projet stimulant , à fort impact, dans un environnement technique exigeant et bienveillant. Une autonomie réelle dans l’organisation de votre travail et vos choix techniques. Des collaborateurs engagés et une équipe attachée à la qualité, à la coopération et à la montée en compétence continue.

Freelance

Mission freelance
Mission de Data Engineer - Retail

SKILLWISE
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 mois
400-550 €
Paris, France

Nous vous proposons de rejoindre un grand acteur du retail pour une mission de Data Engineer. En tant que Data Engineer vous aurez un rôle clé dans l'amélioration des sales pipelines, la modélisation de nouveaux business models de données de vente et le support aux autres équipes pour une utilisation efficace des données de vente. En tant qu'entreprise de retail , des informations de vente précises et pertinentes sont cruciales, rendant cette équipe centrale pour les processus de décision opérationnels et stratégiques clés. Les responsabilités incluront la maintenance des data flows , avec un accent particulier sur la résilience des produits et l'excellence opérationnelle. Les missions : Développement et maintenance des Data Pipelines User Enablement & Support Promotion des Best Practices Operational Excellence Stack technique : Amazon Web Services (S3) Databricks Approche SQL first avec dbt et/ou Apache Spark (PySpark) Ordonnancement avec Airflow (Python) Github

Freelance

Mission freelance
Développeur AWS (Data Lake / Python / Terraform)

Cherry Pick
Publiée le
AWS Cloud
C#
Data Lake

1 an
430-500 €
Paris, France

Nous recherchons un Développeur AWS confirmé pour renforcer sa squad Data Platform . L’objectif est de concevoir, développer et administrer un Data Lake AWS à grande échelle, en créant des microservices robustes et sécurisés, tout en automatisant les déploiements et la gestion de l’infrastructure via Terraform. Missions principales Concevoir et développer des microservices en Python pour l’administration du Data Lake (gestion des accès aux dossiers, gouvernance des données, automatisation des flux). Créer et maintenir des solutions de Data Lake sur AWS S3 . Définir et mettre en œuvre l’ Infrastructure as Code via Terraform . Participer aux activités de RUN & Build : monitoring, support, optimisation des performances. Contribuer à l’ automatisation et à l’amélioration continue de la plateforme (SRE, observabilité, sécurité, FinOps). Collaborer avec les parties prenantes (Data Engineers, Data Architects, Data Officers) dans un contexte Agile . Documenter les développements, process et bonnes pratiques. Compétences techniques attendues Excellente maîtrise du développement Python (microservices, APIs). Solide expérience sur AWS S3 et les concepts Data Lake. Expertise en Terraform (IaC) . Bonne compréhension des mécanismes d’ alimentation ETL . Expérience en observabilité et monitoring (Grafana, App Insights ou équivalents). Pratique des méthodologies Agile . Plus (nice-to-have) : expérience avec Databricks .

Freelance

Mission freelance
DataOps AWS Engineer -MlOps

Atlas Connect
Publiée le
Apache Airflow
AWS Cloud
AWS Glue

12 mois
500-580 €
Paris, France

Nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer notre équipe data et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste s’adresse à un profil autonome, passionné par les bonnes pratiques de développement , capable de challenger les architectures existantes et de proposer des solutions robustes et scalables . 🧩 Missions principales Concevoir, développer et optimiser des pipelines de données performants, scalables et résilients . Encadrer et accompagner techniquement les équipes sur les choix d’architecture et de stack technologique . Déployer et orchestrer des traitements distribués (PySpark, AWS Glue, Airflow). Concevoir et exposer des APIs de données (via AWS API Gateway / Lambda). Industrialiser les environnements via Terraform et des pipelines CI/CD (GitLab, Jenkins…). Garantir la fiabilité, la performance et la sécurité des flux et services de données. Mettre en place du monitoring et de l’alerting pour la supervision des traitements. Contribuer à la diffusion des bonnes pratiques (tests, code review, documentation, CI/CD). Participer à la formation et au mentoring des ingénieurs juniors. 📦 Livrables attendus Schémas et modélisation des structures de données . Pipelines industrialisés et interconnectés avec les assets produits. Mise à disposition de la data vers des systèmes externes (APIs, exports, injections). Documentation technique et dashboards de suivi. Solutions conformes aux exigences RGPD / Data Privacy / éco-conception . Mise en place du monitoring et alerting en production. Contribution à l’ usine logicielle (intégration continue, tests automatisés, déploiements). Présentation régulière des réalisations techniques aux équipes métiers et produit. 🧠 Compétences techniques requises (Must Have) Python (expert). PySpark et Pandas (traitement et transformation de données). AWS (Glue, Lambda, API Gateway, ECS, IAM). Terraform (infrastructure as code). CI/CD (GitLab, Jenkins ou équivalent). Observabilité et supervision (logs, metrics, alerting). Pratiques de code propre, testé et documenté . 🌱 Compétences appréciées (Nice to Have) Airflow pour l’orchestration des jobs. AWS SageMaker pour le déploiement ou l’entraînement de modèles IA. Sensibilité MLOps et DataOps . Connaissance des standards de l’éco-conception et de la sécurité des données . Expérience en mentorat technique ou lead technique data .

Freelance

Mission freelance
Architecte Entreprise - Assurance

Cherry Pick
Publiée le
Advanced Design System (ADS)
API
API Platform

12 mois
650-750 €
Paris, France

Contexte La Direction Stratégie & Architecture d’Entreprise assure le lien entre la stratégie du groupe et les feuilles de route IT. Elle définit les normes, standards et patterns à privilégier, garantit la cohérence globale de l’architecture et veille à ce que l’entreprise investisse au bon moment dans les bons systèmes et services. L’équipe accompagne également les Directions Métiers dans la transformation stratégique du SI et intervient sur trois axes principaux : Proximité avec les Directions Métiers : soutien à la construction de la vision cible des SI métier. Accompagnement des projets de transformation SI : alignement avec le plan stratégique et cohérence avec le cadre de référence. Diffusion et valorisation du patrimoine informatique : mise à disposition de référentiels capacitaires et partage de la connaissance. Missions principales Réaliser des études de transformation cible du SI, avec un niveau de restitution adapté aux instances managériales, dans une démarche d’architecture d’entreprise. Assurer la cohérence des solutions avec le cadre de référence et les exigences non fonctionnelles. Instruire avec le métier, les experts techniques et les architectes les scénarios d’architecture, les estimations de coûts ("T-Shirt Sizing") et les différentes trajectoires pour atteindre la cible. Faire valider les solutions cibles auprès de la direction informatique. Accompagner les Directions SI et Métiers dans la construction de leur stratégie de transformation SI (Schéma Directeur SI) et de la feuille de route associée. Alimenter, documenter et cartographier les référentiels et principes d’architecture.

Freelance

Mission freelance
Product Owner Technique – Data Platform

Atlas Connect
Publiée le
Agile Scrum
AWS Cloud
AWS Glue

12 mois
400-510 €
Paris, France

Mission principale : Nous recherchons un Product Owner (PO) technique pour accompagner le développement et le RUN de notre Data Platform . Vous serez en charge de qualifier les besoins, de participer aux rituels agiles et d’assurer la liaison entre les équipes Build et le RUN de la plateforme, en mode Agile. Responsabilités : Qualifier les besoins techniques et fonctionnels des différentes équipes Data. Participer aux rituels Agile : daily, sprint planning, backlog refinement, PI planning (sur 3 mois). Transformer les besoins identifiés en user stories et tickets Jira exploitables par les squads. Accompagner la construction et l’évolution de la Data Platform (environnements GCP, flux de données, pipelines). Assurer le suivi du RUN de la plateforme et identifier les priorités techniques et fonctionnelles. Travailler en coordination avec 4 à 5 squads organisées en trains pour les PI planning et sprints. Être un interlocuteur technique capable de dialoguer avec les équipes Dev, Data et Ops. Profil recherché : Expérience confirmée en Product Ownership , idéalement dans un contexte technique ou data. Compréhension des environnements cloud (GCP) et des flux de données. Capacité à transformer des besoins complexes en user stories / tickets techniques . Connaissance des méthodes Agile / SAFe et pratique des rituels (sprint planning, PI planning, daily, etc.). Esprit technique : ne pas avoir peur de discuter architecture, flux de données, pipeline, outils de production. Bon relationnel et capacité à collaborer avec plusieurs équipes simultanément. Une connaissance de la data (ETL, ingestion, stockage, pipelines) est un plus. Soft Skills : Organisation et rigueur dans le suivi des priorités. Capacité à synthétiser les besoins et à communiquer clairement. Curiosité technique et ouverture à l’innovation. Force de proposition pour améliorer les process et la plateforme.

Freelance

Mission freelance
DataOps - MS FABRIC/ Azure

Cherry Pick
Publiée le
.NET
.NET Framework
AWS Cloud

12 mois
500-550 €
Paris, France

Nous recherchons un Data Engineer AWS - Expertise sur MS Fabric Engineer pour rejoindre une squad Data Platform dynamique. Vous travaillerez avec des Data Engineers et DevOps pour concevoir, maintenir et optimiser une plateforme de données cloud , incluant la gestion de Data Lake, le développement de microservices et l’automatisation des déploiements. Missions Développer et gérer des solutions de Data Lake (ADLS Gen2, AWS S3). Concevoir et maintenir des processus de déploiement automatisé avec Terraform. Développer des microservices en Python (C# un plus). Assurer le monitoring et l’exploitation de la plateforme. Participer aux flux ETL et à l’amélioration continue de la plateforme. Collaborer avec les parties prenantes pour proposer des solutions robustes et évolutives. Maintenir la documentation technique et les artefacts de production. Être force de proposition sur les bonnes pratiques SRE, sécurité, qualité et FinOps . Profil recherché Expérience significative en Data Platform et Data Lake (AWS S3, ADLS Gen2). Maîtrise du développement Python (C# un plus) et des environnements cloud (AWS requis, Azure un plus). Compétences en Terraform et automatisation de déploiements. Connaissance des pipelines ETL , du monitoring et des bonnes pratiques SRE . Méthodologie Agile , orientation user-centric et forte capacité de collaboration. Autonomie, rigueur et esprit proactif . Pourquoi nous rejoindre ? Travailler sur des projets innovants autour de la data et du cloud . Collaborer avec des experts techniques dans un environnement Agile. Contribuer à l’ optimisation et l’évolution d’une plateforme moderne et scalable.

Freelance
CDI

Offre d'emploi
Architecte Data / Cloud

KLETA
Publiée le
Apache Airflow
AWS Cloud
Azure

2 ans
Paris, France

Dans le cadre de la modernisation du SI Data, l’équipe recherche un Architecte Data Cloud pour concevoir et accompagner la mise en œuvre de plateformes Data multi-cloud (AWS, Azure, GCP), interconnectées aux produits numériques développés dans l’entreprise. La mission consiste à garantir la cohérence, la gouvernance et la performance des architectures Data Cloud. Missions principales Concevoir des architectures Data sur les environnements Cloud (AWS, Azure, GCP). Définir les standards d’intégration, stockage, orchestration et exposition de la donnée. Élaborer les architectures cibles (Data Lake, Data Mesh, Virtualisation, Catalogues) . Superviser la migration de systèmes On-Prem vers le Cloud (Oracle, Hadoop, etc.). Mettre en place les pipelines d’alimentation (Airflow, Trino, Spark, Glue, Data Factory…). Garantir la conformité (sécurité, RGPD, souveraineté, Cloud de Confiance). Participer aux jalons PMPG (cadrage, déploiement, bénéfices). Documenter les DAT, schémas techniques, POC et livrables d’architecture. Contribuer au transfert de compétences auprès des équipes internes.

Freelance

Mission freelance
Renfort Architecte fonctionnel : activités de marché

NEXORIS
Publiée le
Analyse

1 an
700 €
Paris, France

Notre client, un établissement majeur du secteur financier, recherche un consultant pour l'accompagner dans la conception de l’architecture fonctionnelle d’un environnement dédié aux activités de marché. Missions principales : - Intervenir en tant qu’architecte fonctionnel sur le périmètre Marché et Risques de Marché - Structurer les flux fonctionnels autour de l’outil Calypso, notamment pour les opérations de titrisation - Cadrer et accompagner l’alimentation du Data Lake - Définir les flux nécessaires aux besoins de reporting réglementaire et de groupe - Concevoir l’architecture fonctionnelle cible en lien avec les plateformes électroniques de marché - Accompagner les équipes métier et IT avec pédagogie pour une meilleure compréhension des activités de marché et des processus associés (capacité à vulgariser)

Freelance

Mission freelance
Architecte Solution Data AWS

Hexateam
Publiée le
AWS Cloud
AWS Glue
Big Data

3 ans
600-700 €
Paris, France

Missions principales : * Conception et définition de la plateforme Data : -Définir le plan fonctionnel de la plateforme Data en fonction des besoins -stratégiques et opérationnels de l'entreprise. -Conceptualiser et structurer les fonctionnalités de la plateforme pour répondre aux exigences métiers. * Industrialisation et optimisation des processus : -Optimiser les processus de collecte, gestion, transformation et restitution des données pour les rendre plus efficaces. -Garantir la performance et la scalabilité des solutions mises en œuvre. * Urbanisation des Data Lakes : -Concevoir un schéma d'architecture fonctionnelle pour l’urbanisation des Data Lakes existants. -Mettre en place un référentiel des schémas d'interface d’entrée et gérer le versionning des données. -Assurer la cohérence de la circulation de la donnée, de l'acquisition jusqu’à son utilisation. *Collaboration avec les équipes métiers et techniques : -Travailler en étroite collaboration avec les chefs de projets Data, les architectes techniques et les Data Engineers. -Collecter et classifier les besoins fonctionnels des métiers pour les traduire en solutions techniques. *Rédaction de la documentation fonctionnelle : -Élaborer et maintenir à jour la documentation technique et fonctionnelle de l’architecture Data. -Proposer et formaliser des nomenclatures et des règles de gestion adaptées. *Référent technique : -Jouer un rôle de conseil et d’appui sur la conception des flux de données et la structuration des objets (Data Lake, Dataware, Datamart). -Être un point de référence pour l’équipe Data et garantir l’application des bonnes pratiques dans le cadre de la conception des solutions. Compétences requises :

Freelance
CDI

Offre d'emploi
Expertise Denodo

KLETA
Publiée le
Big Data
Virtualisation

2 ans
Paris, France

Missions principales Concevoir et mettre en œuvre des architectures de virtualisation de données avec Denodo . Définir les bonnes pratiques de modélisation logique et de consommation des données. Participer à l’intégration de Denodo dans l’écosystème existant (ETL, data warehouse, data lake, API, outils BI, etc.). Optimiser les performances (tuning, caching, monitoring) et assurer la haute disponibilité de la plateforme. Garantir la sécurité, la gouvernance et la conformité des données (politiques d’accès, masquage, traçabilité). Former et accompagner les équipes (Data Engineers, Data Analysts, BI, métiers) à l’usage de Denodo. Assurer la veille technologique autour de la data virtualization et proposer des améliorations continues.

Freelance

Mission freelance
DBA confirmé avec forte culture DevOps / Cloud

AKERWISE
Publiée le
PostgreSQL

1 an
400-550 €
Paris, France

Dans le cadre de la modernisation et de l’optimisation de ses systèmes de données, notre client recherche un DBA confirmé disposant d’une expertise sur les bases de données et une solide culture DevOps/Cloud . Au-delà de l’administration classique, il s’agit d’accompagner la migration vers AWS, d’optimiser les performances et d’automatiser la gestion des environnements. 🚀 Missions principales Administration & optimisation OnPrem : PostgreSQL, Vertica, MariaDB, Oracle (11g, 19c – sortie progressive en cours). Migration & gestion AWS : RDS, Aurora MySQL, Redshift, Glue. Pipelines de données : conception, industrialisation et maintien de flux ETL/ELT robustes. Gouvernance des données : qualité, sécurité, conformité. Performance : optimisation des requêtes SQL, tuning, architectures de stockage. Disponibilité & résilience : mise en place et suivi du PRA/PCA, continuité de service. Automatisation & IaC : Terraform, Ansible, intégration dans les chaînes CI/CD. Monitoring & observabilité : Prometheus, Grafana, ELK. Collaboration transverse : équipes Data, BI et IT. Veille technologique : Cloud, Data Lake, Big Data. Gestion des schémas BDD via des outils comme Liquibase.

Freelance
CDI

Offre d'emploi
DATA ENGINEER PYSPARK / PALANTIR / DATABRICKS

UCASE CONSULTING
Publiée le
PySpark

3 ans
40k-60k €
400-550 €
Paris, France

Bonjour, Nous recherchons un data engineer pyspark / Palantir pour le compte de notre client. L’organisation Tech & Data est une organisation matricielle Agile reposant sur 4 piliers : Data and System Engineering, composée des équipes suivantes : Data Center of Excellence, Products and Systems Engineering et Enterprise Architecture La société est composée des équipes supportant les Crews et les domaines fonctionnels transverses : Gouvernance, Mise en œuvre du modèle opérationnel T&D, Sécurité & Conformité, Contrôle financier, Sourcing & Vendor Management, Gouvernance et Processus. Technical, composée des équipes dédiées aux IT Operations, Réseau, Cloud, Services Workplace & Cloud Productivity Crews et domaines fonctionnels transverses Contrainte forte du projet : Palantir Foundry. Livrable : Data Pipeline Risk Compétences techniques : Palantir Foundry – Confirmé – Impératif Python / Pyspark – Confirmé – Impératif Connaissances linguistiques : Français courant (impératif) Anglais courant (impératif) Description détaillée : Nous recherchons un Data Engineer pour développer des pipelines de données pour nos fondations Risk dans Palantir Foundry. Le Data Engineer devra construire, livrer, maintenir et documenter les pipelines de données dans le périmètre des fondations Risk. Il devra notamment livrer les données dans notre Risk Analytical Data Model (représentation medallion de nos données Risk) selon une approche moderne et performante. Livrables attendus : Pipelines de données pour les fondations Risk, livrés dans les délais Code documenté et testé unitairement Contrôles qualité et santé des données implémentés Expérience et compétences attendues : +5 ans en tant que Data Engineer Expérience solide sur Palantir Foundry, principalement sur les modules orientés Data Engineer (code repository, ontologie…) Maîtrise de Python et Pyspark Bonnes pratiques de développement (gitflow, tests unitaires, documentation) Bonne compréhension de l’architecture data mesh et medallion architecture Expérience sur Databricks un atout Expérience en (ré)assurance ou dans le domaine du risque financier un atout Esprit d’équipe Curiosité et goût du challenge Capacité à communiquer avec différents interlocuteurs Rigueur et sens analytique Définition du profil : Le Data Engineer assure la maîtrise de la donnée et est garant de la qualité de son utilisation afin d’en faciliter l’exploitation par les équipes. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion et du traitement des données, ainsi que sur les plateformes Big Data, IoT, etc. Il assure la supervision et l’intégration des données provenant de sources multiples et vérifie la qualité des données entrant dans le Data Lake (recette des données, suppression des doublons, etc.).

Freelance

Mission freelance
ARCHITECTE DATA / BI

UCASE CONSULTING
Publiée le
Azure
Microsoft Power BI

6 jours
280-750 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un Architecte Data / BI. 🎯 But du projet Mettre en place une donnée fiable, robuste et gouvernée , permettant de soutenir la croissance client et de disposer d’une BI performante, maintenable et alignée avec les enjeux métiers . L’objectif global est de : Réaliser un état des lieux complet de l’environnement Data (technique, organisationnel et fonctionnel), Identifier les points de faiblesse et les opportunités d’amélioration , Définir une vision cible à 3–5 ans (schéma directeur Data), Recommander les bonnes pratiques et les outils adaptés , en tenant compte à la fois de l’écosystème Microsoft (Power BI, SQL Server, Azure) et Open Source , Aligner la stratégie Data sur la croissance business et les besoins des métiers (Marketing, Facturation, Supply, Procurement). 🔍 État actuel et contexte technique Architecture et sources : 3 principales sources de données : Open Bravo (ERP / gestion opérationnelle) Magento (e-commerce) SAP BI Design (reporting financier) Environ 30 tables , avec 500 000 lignes / an chacune (volumétrie modérée mais non négligeable). Pas de datamart complet et enrichi , architecture fragmentée. Stack BI : Power BI pour le reporting, mais performances dégradées et pas de mise à jour temps réel sur certains indicateurs clés (notamment CA e-commerce ). Problématiques techniques : Flux SQL complexes et peu optimisés , générant des lenteurs et un risque d’erreur. Manque de gouvernance de la donnée (règles de gestion hétérogènes, absence de traçabilité claire du cycle de vie des données). Pas d’unicité de la donnée → incohérences possibles entre sources. Dépendance forte aux sources brutes , sans couche d’intégration stable (Data Warehouse/Data Lake structuré manquant). ⚠️ Points critiques identifiés Manque de vision globale de l’écosystème Data : absence de cartographie claire des flux, processus, et responsabilités. Architecture sous-optimale : pas de modèle de données central (datamart/warehouse) consolidant les flux multi-sources. Performance Power BI insuffisante : SQL non optimisés, données non préparées, calculs coûteux. Gouvernance et qualité de données à structurer : pas de cadre formalisé de validation, de définition des KPIs ni de dictionnaire de données. Dépendance aux équipes techniques pour chaque évolution de reporting. Pas de benchmark / comparaison sectorielle pour ajuster la stratégie Data à la croissance du groupe. Rapport d’audit Data (état des lieux complet, points critiques, volumétrie, architecture actuelle) Schéma directeur Data cible à 3–5 ans Recommandations techniques (Microsoft & Open Source) Feuille de route priorisée (actions court, moyen, long terme) Benchmark sectoriel (KPI, modèles de gouvernance, architecture comparée)

Freelance
CDI

Offre d'emploi
SAP IBP - Ile de France

CAPEST conseils
Publiée le
SAP
SAP ECC6
SAP S/4HANA

3 mois
40k-45k €
280-420 €
75000, Paris, Île-de-France

Contexte de la mission Dans le cadre d’un programme de transformation stratégique SAP au sein d’un grand acteur du secteur aéronautique, nous recherchons un Consultant SAP IBP confirmé pour accompagner la mise en œuvre de la solution SAP Integrated Business Planning (IBP) . L’objectif du programme est de moderniser et harmoniser les processus de planification de la supply chain, en intégrant les meilleures pratiques du marché et en tirant parti des capacités temps réel offertes par SAP IBP. Responsabilités principales Participer à la conception et au déploiement de SAP IBP dans le cadre du programme SAP S/4HANA. Recueillir et challenger les besoins métiers (planification de la demande, approvisionnement, inventaire, S&OP). Configurer les modules IBP (Demand Planning, Supply Planning, Inventory Optimization, Control Tower). Concevoir et documenter les processus cibles de planification intégrée. Animer les ateliers fonctionnels avec les équipes métier et la DSI. Définir et mettre en place les règles de planification, de gouvernance et de gestion des données. Contribuer à l’intégration d’IBP avec les autres systèmes (S/4HANA, ERP legacy, CRM, Data Lake, API). Réaliser les phases de tests (unitaires, intégration, UAT) et assurer la recette fonctionnelle. Accompagner les métiers dans la conduite du changement (formations, support, communication). Apporter une expertise sur l’optimisation de la performance des processus supply chain dans un contexte industriel exigeant (aéronautique). Compétences clés recherchées Expertise confirmée en SAP IBP (au moins 2 projets de déploiement). Maîtrise des sous-modules : IBP for Demand, IBP for Supply, IBP for Inventory, S&OP . Bonne connaissance des principes Supply Chain Planning (MRP, S&OP, DRP, APS). Expérience dans le secteur industriel (idéalement aéronautique ou manufacturing complexe ). Familiarité avec SAP S/4HANA et son intégration avec IBP. Connaissances sur les environnements API-first, Cloud, CI/CD appréciées. Pratique des méthodologies Agile / SAFe . Excellente communication et capacité à interagir avec les métiers, la DSI et les intégrateurs.

22 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous