Trouvez votre prochaine offre d’emploi ou de mission freelance PowerBI à Paris

Votre recherche renvoie 92 résultats.
Freelance

Mission freelance
Security Expert IAM

Publiée le

12 mois
600-650 €
75001, Paris, Île-de-France
Contexte : Contribuer à la sécurité et à la protection des systèmes d'information et des actifs de l'entreprise Collaborer avec des équipes transverses pour garantir la mise en œuvre de mesures de sécurité robustes Description : Le prestataire doit disposer d'une expertise en gestion de projet : Il apportera son soutien sur des activités liées à la gouvernance opérationnelle de la robustesse des mots de passe, aux initiatives réglementaires et autres initiatives de qualité de service (QoS), ainsi qu'à l'intégration de nouvelles entités. Livrables : Développer et maintenir des procédures et des lignes directrices complètes pour les produits de sécurité Expertise en méthodologies de gestion de projet pour superviser efficacement les initiatives de sécurité Solide expertise en méthodologie Agile, connaissance des réglementations et normes pertinentes (ex. : RGPD, ISO 27001) pour garantir la conformité dans l'organisation ; automatisation via PowerShell, reporting via Power BI Expertise confirmée en IAM (Identity Access Management) et gestion des accès privilégiés (PAM)
Freelance
CDI

Offre d'emploi
Consultant Senior Anaplan

Publiée le
Méthode Agile

18 mois
10k-40k €
100-400 €
Paris, France
Télétravail partiel
CONTEXTE : Expérience : 4 ans et plus Métiers Fonctions : Conseil métier, AMOA, Consultant Senior, Spécialités technologiques : Supply Chain ;BI, ALM, Devops, Intégration de données MISSIONS Recueillir et analyser les besoins métiers Concevoir et modéliser des solutions Anaplan adaptées aux processus clients Participer à la mise en œuvre technique : création de modules, dashboards, actions, intégrations Assurer la gouvernance des modèles et la cohérence des données Former et accompagner les utilisateurs clés Encadrer les consultants juniors et piloter les phases de projet (planning, qualité, livrables) Proposer des améliorations continues et de nouvelles fonctionnalités Participer à la veille technologique autour d’Anaplan et de la planification connectée Expertise souhaitée Formation : Bac+5 (École d’ingénieur, École de commerce, Master en Finance, Data ou SI) Expérience : Minimum 5 ans d’expérience dans la mise en place de solutions EPM/CPM (Anaplan, Tagetik, Adaptive, etc.) Certification Anaplan (Level 2 Model Builder, idéalement Solution Architect) Bonne connaissance d’un ou plusieurs domaines métiers (Finance, Supply Chain, RH, Sales) Capacité à gérer un projet de bout en bout et à interagir avec les directions métiers et IT Bonnes compétences analytiques, rigueur et esprit de synthèse Anglais professionnel Maîtrise d’Anaplan (modélisation, data hubs, actions, dashboards, ALM, Anaplan Connect, CloudWorks) Connaissance de processus budgétaires, prévisionnels ou S&OP Pratique d’outils de BI ou d’intégration de données (Power BI, Tableau, Talend…) Bon niveau en Excel / SQL Connaissance des environnements Agile / DevOps
Freelance

Mission freelance
Business Analyst / Functional Analyst LNG

Publiée le
Power Platform
SQL

12 mois
Paris, France
Nous accompagnons un acteur majeur du secteur de l’énergie dans le renforcement de son équipe IT dédiée aux activités de trading, d’optimisation et de gestion des flux gaziers et LNG. Dans ce contexte, nous recherchons un Business Analyst Fonctionnel LNG pour intervenir au sein de l’équipe Information Systems d’un périmètre stratégique. Contexte Vous intégrerez une organisation internationale spécialisée dans la gestion des ventes d’énergie, l’optimisation de portefeuilles et la valorisation des produits gaziers et LNG sur les marchés mondiaux. L’équipe LNG opère sur des processus Front-to-Back, en interaction quotidienne avec les traders, le product control et les équipes back-office. Votre rôle Vous intervenez comme référent fonctionnel sur l’ensemble du cycle de vie des opérations LNG, depuis le deal booking jusqu’aux sujets d’ accounting . Vous travaillez principalement sur un ETRM de marché (type Allegro ), ainsi que sur plusieurs applications intégrées du SI. Missions principales • Support et administration de la plateforme ETRM et de ses intégrations (ex : systèmes de scheduling, applications comptables). • Accompagnement des utilisateurs métiers dans leurs opérations quotidiennes : booking, scheduling, calcul de PnL, facturation, interfaces comptables. • Recueil, analyse et formalisation des besoins métiers. • Rédaction des spécifications fonctionnelles et contribution aux évolutions du SI. • Participation à l’amélioration continue, notamment sur la data quality et l’usage de technologies digitales avancées (IA générative, agents IA). Compétences techniques recherchées • Solides bases en C# / .NET pour la personnalisation ou l’automatisation. • Maîtrise de SQL pour la manipulation des données. • Connaissance de Power Platform (Power BI, Power Automate…). Compétences fonctionnelles • Très bonne compréhension du cycle de vie du trading de commodités (Front-to-Back). • Connaissance des processus LNG : opérations, risques, optimisation des flux. Soft skills attendues • Aisance dans des environnements internationaux et dynamiques. • Sensibilité forte aux enjeux de transformation digitale et de qualité des données. • Capacité à travailler en transverse avec des équipes business et IT.
Freelance

Mission freelance
Chef de projet Usage Parc informatique

Publiée le
Agile Scrum
Microsoft Excel

1 an
400-650 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Chef de projet Usage Parc informatique Le CP doit assurer la gestion de service de parc avec usage de la data dans ce domaine pour trouver les bons leviers de pilotage de ces services, optimiser le parc, mesurer la qualité de service SLA et apporter de la valeur Rigueur et méthode Autonomie, bon relationnel et pédagogie Bonne communication, capacité à vulgariser Capacité à écouter et à travailler en équipe Savoir-faire et expertise dans le Digital Workplace Aisance à identifier rapidement ses interlocuteurs dans un groupe de grande dimension Analyse et manipulation de données afin de suivre les évitements, l'efficacité des plans de rationalisation à l'aide d'outils tels qu'Excel avancé et Power BI Leadership et autonomie sur l'organisation et le suivi des tâches avec de multiples acteurs Expériences préalables de structuration et gestion de projet en tant que MOA ou AMOA notamment dans un contexte Digital Workplace Aisance dans la tenue de réunions à multiples acteurs dont des acteurs stratégiques Excellente maîtrise des outils de collaborations MS Office 365
Freelance
CDI

Offre d'emploi
Consultant(e) Power Platform

Publiée le
Power Apps
Power Platform

1 an
40k-45k €
190-470 €
Paris, France
Télétravail partiel
Descriptif du poste Consultant(e) Power Platform pour la squad Workstation & Service Management au sein de la Tribe Digital WorkPlace. Ce rôle est centré sur l'automatisation, la visualisation des données et l'accompagnement des utilisateurs. Missions principales Développer et maintenir des flux Power Automate pour automatiser les processus IT et métiers. Concevoir des dashboards Power BI avec historisation des mesures pour le suivi des volumes, des usages et des indicateurs de performance. Accompagner les utilisateurs dans la migration de fichiers Excel avec macros depuis les serveurs NAS vers SharePoint. Étudier et proposer des solutions alternatives à VBScript via des scripts PowerShell, en réponse à sa dépréciation par Microsoft. Contribuer aux activités de run de la squad, notamment sur les sujets liés à la gestion des services et des postes de travail.
Freelance

Mission freelance
Chef de projet Supply Chain - TMS - Transports

Publiée le
Supply Chain

6 mois
570-600 €
Paris, France
Télétravail partiel
Contexte : Au sein de la Direction Distribution & Supply Chain, le pôle de notre client joue un rôle central de coordination transverse et de support stratégique auprès des différentes entités Distribution. Dans le cadre du déploiement d’un TMS (Transport Management System) , nous recherchons un Chef de Projet pour accompagner la mise en œuvre de ce programme stratégique, essentiel à l’amélioration de la performance transport. Missions principales : Piloter l’ensemble du projet TMS, du cadrage jusqu’à la mise en production, en assurant un rôle de PMO . Coordonner les équipes métiers et IT afin de garantir l’alignement des besoins et des solutions. Contribuer à la définition des besoins fonctionnels : ordres de transport, planification, tracking, facturation, pilotage de la performance transport. Participer à la rédaction et à la validation des spécifications fonctionnelles, ainsi qu’aux travaux de conception (ERP, budget, organisation…). Définir et suivre les indicateurs de pilotage : avancement, risques, planning, performance transport. Accompagner les équipes lors des phases de tests, de formation et de conduite du changement. Assurer une communication régulière et claire sur l’avancement du projet, les arbitrages réalisés et les impacts business. Profil recherché : 2 à 4 ans d’expérience en gestion de projet Supply Chain / Transport, idéalement avec une expérience opérationnelle ou projet sur un TMS (déploiement, implémentation, évolution). Bonne maîtrise des processus transport : gestion des flux, affectation des transporteurs, suivi des opérations, facturation, KPI transport. Solides capacités d’analyse et de synthèse, autonomie, rigueur. Excellentes aptitudes relationnelles et capacité à collaborer avec de multiples interlocuteurs. Maîtrise des outils PowerPoint, Excel et Power BI. Anglais opérationnel.
Freelance

Mission freelance
Expert MLOps & LLMOps

Publiée le
Amazon S3
Kubernetes
Large Language Model (LLM)

12 mois
600-650 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Expert MLOPS" pour un client dans le secteur de la finance Description 🎯 Contexte de la Mission L'environnement de travail : Le Lab Data Vous rejoindrez le Lab Data d'un acteur majeur dans son secteur, une équipe clé dont le périmètre d'action et l'impact ont considérablement augmenté. Ce Lab est au cœur de la stratégie data et IA de l'entreprise, agissant comme le moteur de l'accessibilité et de l'exploitation avancée des données ( Data Mesh et Data Lake ). L'équipe est responsable de la construction du magasin Workspace pour rendre accessibles les données et les analytics . Les Enjeux L'équipe est en pleine phase d'accélération ( Go-to-Market ) et gère actuellement une forte croissance, avec plus de 60 agents et modèles en production . L'objectif principal est de professionnaliser l'industrialisation des modèles et des agents IA. L'enjeu est critique : améliorer la vitesse et la maturité du suivi de production pour répondre à l'augmentation des utilisateurs, garantir une performance et une fiabilité irréprochables, et maintenir un onboarding rapide des nouvelles initiatives. 🚀 Missions Principales En tant qu' Expert MLOps , vous jouerez un rôle stratégique dans l'industrialisation, l'orchestration et l'opérationnalisation de la plateforme. Industrialisation des Agents et Modèles (MLOps & LLM Ops) : Définir et implémenter le ML Lifecycle Management complet (entraînement, versioning, déploiement continu et monitoring) pour tous les modèles et agents en production. Mettre en œuvre les processus LLM Ops spécifiques à l'industrialisation des Grands Modèles de Langage et des architectures avancées basées sur des agents. Orchestration et Opérationnalisation : Concevoir et maintenir les architectures d'orchestration basées sur Kubernetes . Assurer la connectivité du Data Lab, notamment via les connecteurs Spark et Workspace , et garantir la consommation des analytics par API . Soutenir l'exploitation de la Plateforme Agentique (ex. : Agent Orchestrator, Agent Catalog ) et des composants IA et Data Viz ( Elastic Search, Power BI ). Performance et Observabilité : Mener des actions pour accélérer la performance et l'exécution des flux de production. Mettre en place un système d' Observabilité avancé (critique pour cette mission) pour le suivi et l'amélioration continue de la qualité, de la stabilité et de la performance des modèles déployés. Montée en Compétence : Agir comme Professional Service en apportant votre expertise pour élever le niveau de maturité technique de l'équipe ( step up ) sur les meilleures pratiques MLOps.
Freelance

Mission freelance
[SCH] Architecte GCP - 1064

Publiée le

10 mois
350-450 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme stratégique de modernisation et centralisation des données RH, le client recherche un Architecte Google Cloud Platform (GCP) expérimenté pour concevoir, déployer et accompagner la mise en place d’une plateforme Data RH unifiée. L’objectif est de fiabiliser, gouverner et valoriser les données RH au sein d’un environnement GCP à forte volumétrie. Missions principales : -Concevoir et documenter l’architecture GCP (BigQuery, Cloud Composer, Storage, IAM, Dataflow…). -Accompagner les équipes Data et RH sur la migration, intégration et fiabilisation des flux de données existants. -Piloter la mise en œuvre des pipelines ETL/ELT et orchestrations avec Cloud Composer / Airflow. -Assurer la sécurité, la gouvernance et la qualité des données dans le respect des standards du groupe. -Contribuer à l’industrialisation des environnements (Terraform, CI/CD). -Coacher les équipes internes sur les bonnes pratiques GCP et l’usage de BigQuery pour les reporting RH. -Participer aux rituels agiles (daily, sprint review, backlog grooming). Objectifs & livrables attendus : -Architecture GCP validée et documentée (DAT, DEX, schémas d’intégration). -Mise en place de la plateforme Data RH (BigQuery, Composer, GCS). -Pipelines automatisés et sécurisés pour la collecte, transformation et exposition des données RH. -Accompagnement des équipes jusqu’à la stabilisation et passage en RUN. Profil recherché : - +8 ans d’expérience en architecture data / cloud, dont 3+ sur GCP. -Maîtrise approfondie des composants BigQuery, Cloud Composer (Airflow), Cloud Storage, IAM. -Expérience en data engineering / ETL / orchestration. -Connaissance des outils de visualisation type Power BI. -Sensibilité aux enjeux RH et gouvernance des données. -Pratique confirmée de l’agilité (Scrum / SAFe). -Excellent relationnel et capacité à vulgariser les aspects techniques auprès des équipes métiers.
Freelance
CDI

Offre d'emploi
Product Owner

Publiée le
BI
Data Warehouse

12 mois
Paris, France
Télétravail partiel
Le/La Data Product Owner – Intermodal est responsable de la définition et de la livraison du produit de données Intermodal , qui servira de datamart de référence pour l’ensemble des sources opérationnelles et commerciales clés (systèmes de gestion du transport existants et futurs, outils opérationnels, solutions de facturation, etc.). Il/Elle est le point focal côté métier pour tous les sujets liés à la construction et à l’évolution du produit de données Intermodal. Le périmètre couvre les données de référence (master data) et les données transactionnelles , issues de l’ensemble des systèmes Intermodal, y compris plusieurs TMS. Dans le cadre d’un projet de déploiement d’un nouveau système de gestion du transport, le/La Data Product Owner pilote les activités de préparation, de nettoyage et de sécurisation des données avant chaque mise en production, en collaboration avec les Product Owners, les experts régionaux et les équipes IT. Il/Elle s’appuie sur un/une référent(e) Master Data , chargé(e) d’accompagner l’identification, la standardisation et la consolidation des données de référence (clients, sites, actifs, etc.) afin de garantir une base de données cohérente et fiable. Travaillant en étroite collaboration avec les chefs de projet métier et IT, les Product Owners et les experts techniques, le/La Data Product Owner documente et supervise les flux de données de bout en bout , maintient le catalogue de données , définit et pilote les règles de qualité des données , et gère le backlog du produit data . Il/Elle promeut des indicateurs cohérents et une source unique de vérité pour le pilotage de la performance. Ce rôle fait le lien entre le métier et l’IT sur les sujets data : compréhension de la création et de l’usage des données dans les systèmes opérationnels, traduction en un datamart fiable et cohérent, et accompagnement de son adoption et de son amélioration continue. Responsabilités clésVision et roadmap du produit data Définir, avec les chefs de projet métier et IT, le plan de construction et d’évolution du datamart Intermodal de référence couvrant l’ensemble des systèmes sources clés. Traduire les objectifs métiers (pilotage de la performance, maîtrise des coûts, qualité de service, visibilité opérationnelle, etc.) en une vision produit data et une roadmap détaillée. Maintenir et prioriser le backlog du produit data (domaines de données, fonctionnalités, transformations, initiatives qualité, prérequis BI), en arbitrant entre valeur métier, contraintes techniques et ressources disponibles. Besoins BI & analytique Recueillir les besoins BI et reporting des parties prenantes métiers en collaboration avec le/la référent(e) BI (KPI, tableaux de bord, reporting réglementaire ou contractuel, suivi opérationnel). Traduire les cas d’usage métiers en exigences data : éléments de données requis, règles de calcul, niveaux d’agrégation, historique, fréquence de mise à jour. Proposer des solutions adaptées à l’architecture et aux outils BI disponibles, en tenant compte : de la fraîcheur des données requise (quasi temps réel, quotidien, mensuel), de la performance et de l’ergonomie, de la sécurité des données et des droits d’accès. Prioriser et coordonner, avec le/la référent(e) BI, la livraison des tableaux de bord et rapports basés sur le datamart Intermodal, en garantissant la cohérence des indicateurs. Compréhension et documentation des flux de données Formaliser les flux de données de bout en bout : création, mise à jour, enrichissement et consommation des données tout au long des processus Intermodal. Cartographier les interfaces et dépendances entre les différents systèmes opérationnels, les référentiels de données et la couche datamart / BI. Produire et maintenir une documentation claire (schémas de flux, lignage des données, liens processus/données) à destination des équipes IT, des utilisateurs métiers et de la gouvernance. Catalogue de données & modèle de données Piloter, en lien avec la gouvernance data, la création et la maintenance du catalogue de données Intermodal, incluant pour chaque donnée : définition et signification métier, système source, classification (master data / transactionnelle), niveau de confidentialité, responsabilités (propriétaires métier et IT). S’assurer, avec les équipes IT et les architectes data, de l’alignement entre les modèles de données logiques et physiques et la vision métier du catalogue. Promouvoir l’usage du catalogue de données comme référence unique sur la signification et l’origine des données. Qualité des données & gouvernance Identifier et évaluer l’impact des données manquantes ou de mauvaise qualité sur les opérations, le reporting et la prise de décision. Définir, pour les données clés, les pratiques de gestion de la qualité : KPI et seuils de qualité, règles de contrôle et de surveillance, processus de gestion des anomalies, rôles et responsabilités (responsables, contributeurs, escalade). Prioriser les améliorations de qualité des données dans le backlog (contrôles, enrichissements, workflows de correction). Garantir la conformité avec les politiques et standards de gouvernance data. Pilotage de la livraison & validation Collaborer avec les data engineers, développeurs BI et équipes plateforme pour livrer les incréments du produit data (nouvelles sources, tables, métriques, vues). Animer les revues de validation avec les équipes IT et métier pour confirmer l’adéquation aux besoins et la qualité de la documentation. Valider les structures de données et transformations selon des critères d’acceptation clairs. Assurer la cohérence et la réutilisation des jeux de données et indicateurs afin d’éviter les duplications. Préparation des déploiements & support Piloter, pour les projets de déploiement de nouveaux systèmes, les phases de préparation et de nettoyage des données avec l’appui du/de la référent(e) Master Data : planification des chargements et migrations, coordination avec les équipes métiers, régionales et IT, validation de la complétude et de la qualité des données avant mise en production. Suivre les incidents data lors des mises en service et en phase de démarrage, et capitaliser pour les déploiements suivants. Mettre à jour la documentation (catalogue, flux, règles de qualité) en fonction des nouvelles zones, périmètres ou évolutions des systèmes. CompétencesCompétences data & techniques Bonne compréhension des concepts de data warehouse (schéma en étoile, dimensions/faits, ETL/ELT, lignage des données). Expérience en catalogage et documentation des données. Connaissance des frameworks et indicateurs de qualité des données. Capacité à échanger avec des équipes techniques sur des modèles de données ; des bases en SQL sont un plus. Expérience avec des outils BI (Power BI, Tableau, Qlik ou équivalent). Compétences produit & métier Forte capacité à traduire les besoins métiers en exigences data et inversement. Expérience en gestion de backlog et en priorisation multi-parties prenantes. Communication claire et structurée auprès de publics métiers et techniques. Soft skills Esprit analytique, rigueur et sens du détail. Capacité à animer des ateliers et à fédérer autour de décisions communes. Sens des responsabilités et de l’ownership dans un environnement en transformation. Excellente organisation pour gérer plusieurs chantiers en parallèle.
Freelance

Mission freelance
PMO Industrie 4.0

Publiée le
Reporting

6 mois
400-550 €
Paris, France
Télétravail partiel
Contexte et Objectif Dans le cadre du renforcement de l’équipe maîtrise d’ouvrage Industrie 4.0 au sein d’un centre de compétences industriel, le profil PMO sera intégré pour soutenir les projets digitaux liés à l’industrie du futur (i4.0). Périmètre des missions Suivi et reporting de projet : Collecte et analyse des données d’avancement, préparation de rapports et création de tableaux de bord visuels. Planification et coordination : Organisation des réunions et ateliers, définition et mise à jour des calendriers, coordination entre équipes. Documentation : Rédaction, mise à jour et gestion de la documentation projet. Gestion des risques : Identification des risques, élaboration de plans d’atténuation et mise à jour du registre des risques. Support aux équipes : Assistance administrative, préparation de présentations, organisation d’événements ou de formations. Analyse et amélioration des processus : Étude des processus existants, proposition et mise en œuvre de méthodologies d’amélioration. Communication : Mise en place de canaux de communication et création de contenus pour les parties prenantes. Formation et sensibilisation : Sensibilisation aux outils et méthodes, préparation de supports pédagogiques. Résultats attendus Collecte de données de production en temps réel pour optimiser la performance industrielle. Contribution à la digitalisation et à l’optimisation des processus pour l’industrie de demain. Compétences requises Techniques : Connaissance des technologies Industrie 4.0 (IoT, IA, big data, MES, automatisation, ERP), maîtrise de JIRA et Power BI, analyse de données, reporting, gestion des risques. Organisationnelles : Coordination d’équipes multidisciplinaires, gestion des ressources, animation de réunions, gestion documentaire, compréhension des processus de transformation digitale. Personnelles : Rigueur, sens de l’organisation, proactivité, capacité à vulgariser l’information technique, orientation résultats, adaptabilité. Livrables attendus Comptes rendus de réunion Bilans de gestion des risques Dashboards de suivi Rapports de projet Supports de communication Lieu d’exécution Principalement sur site industriel en région Île-de-France. Déplacements possibles sur d’autres sites selon les besoins.
Freelance

Mission freelance
Expert Alteryx H/F

Publiée le
Alteryx

3 ans
Paris, France
Télétravail partiel
Mission principale Concevoir, optimiser et maintenir des workflows complexes dans Alteryx afin de répondre aux besoins de transformation, d’automatisation et de fiabilisation des données au sein des équipes métiers et IT. L’expert Alteryx sera également chargé d’accompagner les utilisateurs dans l’adoption de la plateforme et la mise en place des bonnes pratiques. Responsabilités Analyser les besoins métiers et traduire les exigences en solutions dans Alteryx. Concevoir, développer et maintenir des workflows et macros complexes (préparation, transformation et automatisation des données). Optimiser la performance et la robustesse des processus existants. Mettre en place des standards et bonnes pratiques pour l’utilisation d’Alteryx au sein des équipes. Former et accompagner les utilisateurs (analystes, risk managers, contrôle de gestion, etc.). Participer à l’intégration d’Alteryx avec d’autres systèmes (bases de données, BI, cloud). Assurer la documentation et la traçabilité des workflows. Contribuer à la veille technologique autour des outils d’automatisation et de data preparation. Compétences techniques Maîtrise approfondie de Alteryx Designer et Alteryx Server . Excellentes connaissances en manipulation et modélisation de données. Bonne maîtrise du SQL (optimisation de requêtes, jointures complexes). Connaissance d’outils complémentaires : Tableau, Power BI, Python ou R (serait un plus). Compréhension des architectures data (ETL, API, entrepôts de données). Connaissance des environnements cloud (Azure, AWS ou GCP) appréciée. Compétences fonctionnelles Compréhension des activités et produits des marchés financiers (actions, taux, dérivés, change, etc.). Sensibilité aux problématiques de conformité, risque et reporting réglementaire. Capacité à dialoguer avec des interlocuteurs variés : métiers, IT, data engineers, contrôleurs.
Freelance
CDI

Offre d'emploi
Développeur(se) Azure Data Fabric confirmé(e)

Publiée le
MySQL

18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Transformation digitale ; Gouvernance des données Dans un contexte de transformation digitale orientée data, nous recherchons un profil senior capable de concevoir, développer et maintenir des solutions de traitement et d’ingestion de données sur la plateforme Azure Data Fabric. Vous serez un acteur clé dans l’industrialisation des flux de données, l’optimisation des pipelines, et la mise en œuvre de solutions scalables et performantes. Le poste implique à la fois un rôle opérationnel, d’expertise technique et de leadership sur les bonnes pratiques de l’écosystème Azure. MISSIONS 1. Conception et développement ▪ Participer à l’analyse des besoins métiers et techniques en matière de traitement de données. ▪ Concevoir et développer des pipelines d’ingestion, de transformation et de distribution des données sur Azure Data Factory. ▪ Intégrer les services Azure liés à la Data Fabric qui seront nécessaire : ex : Azure Data Lake Storage Gen2 etc... ▪ Implémenter des modèles de données et des solutions de traitement ▪ Encadrer la modélisation des flux de données complexes (batch et streaming) et proposer des architectures “data-driven” adaptées aux enjeux métiers. 2. Conception et développement de pipelines avancés ▪ Concevoir, développer et maintenir des pipelines avec Azure Data Factory et/ou Azure Synapse Pipelines. ▪ Définir et mettre en œuvre des stratégies de surveillance (monitoring) et d’alerting des pipelines. ▪ Optimiser les performances et les coûts des traitements (partitionnement, parallélisation, contrôle qualité). 3. Support et amélioration continue ▪ Assurer le support dans l’utilisation de la plateforme. ▪ Être force de proposition sur l’optimisation des traitements, la réduction des coûts Azure, et les innovations technologiques. ▪ Suivre la performance et la fiabilité des solutions déployées via Azure Monitor, Log Analytics, Application Insights. Expertise souhaitée Compétences requises : Techniques : ▪ Azure Data Factory - Expert ▪ Azure Data Lake Storage Gen2 - Confirmé ▪ Azure Synapse Analytics (dedicated & serverless) - Confirmé à expert ▪ Azure Event Hub / Stream Analytics - Bonne connaissance ▪ Sécurité Azure & gouvernance - Bonne connaissance ▪ Python / SQL / PowerShell - Confirmé ▪ Architecture Data / Cloud - Expérience significative ▪ PowerBI Confirmé Compétences comportementales : • Bon relationnel et sens de l’écoute • Autonomie et esprit d’initiative • Esprit analytique et rigueur • Capacité à vulgariser les sujets techniques pour les métiers • Esprit d’équipe Profil recherché : ▪ Bac+3 à Bac+5 en informatique, ingénierie, data ou équivalent. ▪ Expérience significative en développement de solutions data sur Microsoft Azure. ▪ Minimum 5 ans d’expérience sur des projets data complexes en environnement cloud (Azure de préférence). ▪ Très bonne connaissance de l’écosystème Azure et de ses services data. ▪ Bonne compréhension des architectures data modernes (data lake, real-time,event-driven). ▪ Sensibilité forte à la performance, la sécurité et la gouvernance des données. ▪ Autonomie, rigueur, curiosité technologique, esprit d’équipe. ▪ Bon niveau de communication, capable d’interagir avec les équipes métiers et IT.
92 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous