Trouvez votre prochaine offre d’emploi ou de mission freelance PowerBI

Votre recherche renvoie 286 résultats.
Freelance

Mission freelance
Consultant en conduite du changement M365

Publiée le
Conduite du changement

12 mois
450-490 €
Paris, France
Télétravail partiel
Accompagnement fonctionnel et support technique sur la suite Microsoft 365 dans le cadre d’une transformation digitale. Activités : · Pilotage de projets transverses liés aux outils Microsoft 365 et à l’environnement de travail des utilisateurs (salles de réunion, postes de travail…) : définition de plans d'action, suivi d'activité, coordination avec les équipes techniques, planification, mise en place d'indicateurs et de reporting. · Accompagnement des utilisateurs (ex : systèmes de visioconférences, outils Microsoft 365, authentification forte, Windows 10 vers Windows 11…) : animation de webinaires, coaching individuel et ateliers collectifs, création de contenus pédagogiques · Organisation et accompagnement des directions métiers pour les événements hybrides (conférences, salons…) : gestion du planning et des statistiques de participation, mise en place et vérification du matériel, coordination logistique et technique, conseil aux utilisateurs sur les bonnes pratiques des réunions. · Gestion de SharePoint : analyse de l’existant, conseil sur la conception et la création de sites, proposition d’arborescences, rédaction et mise à jour des contenus. Expertises techniques attendues : · Expert sur la suite Microsoft 365 et les outils associés · Maîtrise de Windows 11. · Maitrise sur les dispositifs techniques de visio-conférence en mode hybride avec une large audience · Maîtrise des outils Power BI et Excel
Freelance
CDI
CDD

Offre d'emploi
Ingénieur Cloud Azure confirmé

Publiée le
Architecture ARM
Azure
DevOps

12 mois
50k-70k €
400-530 €
Châtillon, Île-de-France
Télétravail partiel
Bonjour, Nous recherchons pour notre client basé en région parisienne un INGENIEUR CLOUD AZURE – Confirmé (4-10 ans) Objectif global : Participer au déploiement des projets data du client Contrainte forte du projet Maitrise de la plateforme Cloud Microsoft Azure Les livrables sont Construire des infrastructures Cloud Public (principalement sur Azure) Industrialiser les architectures cibles et configurer les équipements (CI / CD) Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation Description détaillée Contexte Au sein de la Direction Digital et Data, vous intégrerez le Data Lab en charge de l’ensemble des projets BI et Data pour les enseignes et les fonctions d’appui du client En tant qu'Ingénieur DevOps, votre mission principale sera de participer au déploiement des projets data du client. La plate-forme utilisée est le Cloud Microsoft Azure. Vous êtes polyvalent et savez communiquer avec les différentes équipes. Afin d'assurer un niveau de sécurité conformes aux exigences du client sur les applications du Datalab, vous savez organiser des ateliers, suivre et rendre compte de l'avancement des sujets de sécurisation liés aux résultats d'audit, et apporter des solutions ou des pistes de réflexion en accords avec votre expertise de sécurité de la plateforme cloud Azure, notamment sur la mise en place d'applications Web et d'API. Vous ferez partie d’une équipe d’une dizaine de collaborateurs et travaillerez dans un environnement Agile. Le contexte vous plaît ? Découvrez votre quotidien au sein de votre future équipe. Vos missions - Construire des infrastructures Cloud Public (principalement sur Azure) - Industrialiser les architectures cibles et configurer les équipements (CI / CD) - Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures. - Participer aux phases de validation technique lors des mises en production ou des évolutions. - Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation Vos atouts pour réussir De formation supérieure en informatique, vous justifiez d’une expérience de 4-10 ans dans un contexte Data. Vous disposez des connaissances sur les outils et méthodologies suivants : -Cloud Azure -Infrastructure as a code (ARM, YAML) -Intégration et déploiement continu (Git, Azure DevOps) -Services Big Data : Azure DataLake, Azure EventHub, Azure Databricks, Azure Data Factory, Power BI -Services Web : Azure FunctionApp, Azure WebApp -Micro-services/containers (AKS) -Base de données : SQL DB, CosmosDB La connaissance de ces langages de programmation serait un plus : Spark et Scala. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Freelance

Mission freelance
Data engineer - Reconstruction modèle tabulaire – SQL / DAX

Publiée le
DAX
SQL

15 jours
Asnières-sur-Seine, Île-de-France
Télétravail partiel
Data engineer - Reconstruction modèle tabulaire – SQL / DAX - 15 JOURS Contexte & objectif de la mission L’entreprise recherche un Data Engineer opérationnel pour intervenir sur un environnement décisionnel existant présentant des problèmes de : redondance de données , manque de fiabilité / véracité , performances insuffisantes dans les rapports et calculs, modèle tabulaire (cube) devenu difficile à maintenir. L’objectif de la mission est de reconstruire le modèle tabulaire , fiabiliser les sources, optimiser les performances et remettre le datamart sur des bases saines. Missions principales Analyser l’existant : tables SQL, flux, relations, modèle tabulaire actuel. Identifier les causes de redondance, d’incohérences et de problèmes de performances. Proposer une modélisation cible optimisée (star schema, normalisation, référentiels). Reconcevoir ou reconstruire le modèle tabulaire (VertiPaq) dans les bonnes pratiques. Reprendre les mesures DAX : fiabilisation, optimisation, documentation. Améliorer la qualité, la cohérence et la fraîcheur des données. Mettre en place les optimisations SQL (indexation, refactor, vues, partitionnement si nécessaire). Documenter les travaux réalisés et transmettre les bonnes pratiques. Livrables attendus Nouveau modèle tabulaire propre, performant et stable Refonte ou nettoyage des tables SQL sources Mesures DAX revues et fiabilisées Optimisations performances (SQL + DAX + modèle) Documentation technique Plan d’amélioration continue si nécessaire Environnement technique MS SQL Server SSAS Tabular / VertiPaq DAX Modélisation BI MS + Visualisation PowerBI Entrepot de données : Talend
Freelance

Mission freelance
Consultant(e) Oracle Fusion

Publiée le
Oracle Fusion

3 mois
France
Télétravail 100%
Ce poste requiert une solide compréhension des principes comptables, d’excellentes compétences en reporting, ainsi qu’une forte maîtrise des logiciels et outils financiers et de reporting. Le rôle couvre la supervision opérationnelle des systèmes financiers et FP&A à l’échelle mondiale, en étroite collaboration avec l’équipe Digital et les administrateurs des autres systèmes métiers. Responsabilités : Administration des systèmes : Administrer les applications financières et leurs intégrations (Oracle FUSION ERP-GL/EPM), avec le support de l’équipe Digital et des prestataires externes. Superviser les opérations et la maintenance quotidiennes, y compris le dépannage et l’optimisation des systèmes (configuration des cubes, dimensions, formulaires et règles métiers adaptées aux besoins de planification financière, budgétisation, prévisions et consolidation). Apporter un support lors des clôtures (mensuelles, semestrielles et annuelles), notamment l’ouverture/fermeture des périodes, l’émission de rapports de contrôle (journaux non postés, journaux en erreur, etc.). Répondre aux problèmes applicatifs des utilisateurs et aux demandes d’amélioration, en travaillant avec les équipes de support des fournisseurs si nécessaire. Participer à la revue des mises à jour et fournir un support pour les tests UAT. Analyse financière et support au reporting : Développer et maintenir des rapports BI financiers personnalisés et des tableaux de bord offrant des insights à la direction. Garantir la qualité, l’exactitude, la cohérence et la pertinence des données utilisées pour la planification, la budgétisation et le reporting financier à travers l’école. Collaborer avec l’équipe Digital pour améliorer la disponibilité, la structure et la précision des données dans BI. Piloter des initiatives d’automatisation pour rationaliser le reporting et réduire les processus manuels. Apporter un support et des conseils aux Business Partners FP&A pour développer des analyses financières pertinentes et des reportings de gestion structurés, favorisant la prise de décision. Gérer les rapports centraux et consolider les données des unités opérationnelles. Préparer des analyses pour les demandes de reporting ad hoc. Promouvoir et améliorer l’utilisation des technologies pour le reporting et l’analyse. Former et accompagner les Business Partners FP&A à un niveau technique avancé. Documentation et formation des systèmes : Maintenir la documentation fonctionnelle des applications financières. Coordonner la conception fonctionnelle et les tests lors des projets d’amélioration. Développer des workflows applicatifs et des supports de formation pour les utilisateurs. Développer l’utilisation de Power BI pour le FP&A et soutenir la montée en compétences de l’équipe.
Freelance
CDI
CDD

Offre d'emploi
Chef de projet MOA

Publiée le
Agile Scrum

12 mois
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
En lien avec la MOE (chefs de projet SI et responsables applicatifs), il sera en charge des éléments suivants : Animer et participer aux études relatives aux flux du périmètre du projet. Cela concernera notamment l’animation des ateliers de définition du besoin, et la rédaction des EB Métier à l’attention de l’équipe de développement, sur la base du protocole défini et les autres textes associés, des données disponibles et des priorités identifiées avec le Product Owner. Gérer le backlog des features métier, et s’assurer de la bonne progression de leur réalisation, en coordination avec le chef de projet. Assurer la coordination avec les entreprises candidates pour l’exploitation des flux via des ateliers bilatéraux ou plus larges, et la tenue à jour du document décrivant les fonctionnalités mises en oeuvre dans les différentes versions des flux mises en production. Participation aux phases de tests et de pilote pour éprouver la qualité du service mis à disposition Mise en place et évolution d’un tableau de bord métier des flux (PowerBI) Animation de la mise en place d’une supervision des flux au niveau adéquat, et rédaction du PCA (Plan de Continuité d’Activité) Piloter la gouvernance et l’animation du projet Gérer les risques et sécuriser le planning et les jalons associés Réalisation d’un REX sur les différentes phases de pilote de flux Garantir la traçabilité des dépenses conformément aux exigences du suivi des financements de l’Etat et de la Commission Européenne Sécuriser l’archivage de la documentation du projet
Freelance
CDI

Offre d'emploi
Développeur Full Stack PHP / Symfony / React

Publiée le
AWS Cloud
Kubernetes
PHP

1 an
40k-55k €
400-550 €
Île-de-France, France
Télétravail partiel
🚀 Nous recrutons ! – Développeur Full Stack PHP / Symfony / React Vous êtes passionné(e) par le développement et souhaitez rejoindre une équipe agile, innovante et à taille humaine ? Nous avons une opportunité pour vous ! Missions principales Développer et maintenir des fonctionnalités back-end sous PHP (Symfony) Créer et optimiser des interfaces dynamiques avec React / TypeScript Assurer la qualité, performance et sécurité des applications Participer à l’intégration continue et au déploiement automatisé ( CI/CD ) Contribuer à l’architecture logicielle et aux bonnes pratiques de développement Compétences recherchées Langages : PHP 8.2, ReactJS Frameworks : Symfony, Next.js Bases de données : Postgres, SQL Server DevOps / CI/CD : Kubernetes, Docker, GitLab CI/CD, Helm, ArgoCD Cloud : AWS (EC2, RDS, EKS, EFS) Architecture : microservices, APIs REST UX/UI : Responsive Design Les plus Entreprise à taille humaine Participation à des chantiers stratégiques à fort impact utilisateur Télétravail possible après 3 mois ==> Un expérience dans le domaine assurance ou sur des sujets DATA (PowerBI, python, etc.) serait un plus 💡 Intéressé(e) ? Contactez-nous pour en savoir plus ou postuler !
Freelance
CDI
CDD

Offre d'emploi
Directeur de Projet Senior Réversibilité Entrante - Ivry sur seine(H/F)

Publiée le
Back-end
Front-end
Pilotage

1 an
40k-45k €
400-530 €
Ivry-sur-Seine, Île-de-France
🎯 Contexte Nous recherchons un Directeur de Projet Senior pour piloter la réversibilité entrante ANAH au sein d’une Business Unit spécialisée dans les activités de back-office numérique, front-office (téléphonie, mail, live chat) et dématérialisation documentaire. Le projet inclut des évolutions techniques, organisationnelles et fonctionnelles, avec un pilotage renforcé des équipes techniques, fonctionnelles et de production. 🛠 Missions principales Piloter la réversibilité entrante ANAH et garantir la bonne exécution des engagements projet. Coordonner les équipes techniques, fonctionnelles, production et DSI . Assurer le pilotage complet des phases : conception → build → run. Gérer le planning , les risques , le budget et la facturation (interne/externe). Superviser les évolutions techniques (ex : portail Power BI, outil omnicanal). Préparer la transition vers le RUN : documentation, processus, pilotage opérationnel. Produire les reportings projet et la météo projet . Garantir l’application des méthodes et processus internes de gestion de projet. ⚙️ Compétences requisesTechniques Direction de projet – Expert (impératif) Connaissance approfondie des SI Back & Front Office – Confirmé (important) Pilotage / Méthodologie Expérience confirmée en pilotage de projets complexes (multi-équipes, multi-métiers) Gestion contractuelle, budgétaire et organisationnelle Très bon niveau en coordination transverse Soft skills Leadership transverse Excellente communication Capacité à convaincre et arbitrer Sens du relationnel développé 📄 Livrables attendus Météo projet & tableaux de bord Documentation projet & RUN Processus et procédures Suivi budgétaire & reporting direction
Freelance
CDI

Offre d'emploi
Data Analysis – AMOA NIveau 3

Publiée le
Business Analyst

18 ans
40k-45k €
100-400 €
Strasbourg, Grand Est
Télétravail partiel
CONTEXTE : La demande porte sur une mission de contribution à des projet de BI en lien avec le Datalake . Ce rôle combine des compétences techniques en analyse de données avec une compréhension approfondie des processus métiers. La demande porte sur une mission de maitrise d’ouvrage spécialisée Data avec un profil Business Analyst orienté Data/BI. MISSIONS Data Analyst / Assistance à Maitrise d’ouvrage Le profil interviendra dans l’équipe offre métier ; rattaché au responsable d’équipe, il interviendra sur des projets orientés DATA impactant le Datalake. Ces projets spécifiques nécessitent : • Une bonne compréhension des besoins de reporting attendus par les utilisateurs métiers • Une bonne compréhension des processus métiers sous-jacents à l’origine de la production des flux de données Nature des tâches : • Compréhension des process métier et des besoins de reporting des interlocuteurs métiers (back office, chefs produit…) • Analyse des données existantes pour définir les modalités de production de ce reporting • Rédaction des spécifications à destination de l’équipe Data (composée de data engineers) pour la phase d’industrialisation : formalisation des données manipulées, des règles de gestion (filtres, relations, etc.), règles de gestion, définition métier des fonctions de collecte de données • Suivi et pilotage du projet jusqu’à la livraison au client Compétences requises : • Fonctionnelles et transversales o Capacité à traduire des besoins métiers en analyses concrètes o Esprit critique et rigueur dans l’interprétation des données o Excellentes compétences en communication et vulgarisation de données complexes o Autonomie, proactivité et capacité à travailler en équipes • Techniques et analytiques : o Utilisation des outils d’analyse de données (SQL, Notebooks Python, Excel, Power Query…) o Utilisation des outils de Visualisation de données (Power BI)
Freelance

Mission freelance
Product Owner Salesforce

Publiée le
Product management
Salesforce Commerce Cloud

1 an
300-500 €
Paris, France
Télétravail partiel
Notre client dans le domaine énergétique recherche un profil PO Salesforce. Au sein de la Direction Marketing et Data de notre client, vous êtes rattaché(e) au Pôle Marketing Client qui a pour mission de positionner le client au cœur des préoccupations et de contribuer à améliorer son expérience client tout au long de son cycle de vie. Au sein d’une équipe de 6 personnes et en tant que Product Owner marketing automation, vous avez pour mission, dans le contexte de Salesforce Marketing Cloud, de maximiser la valeur des campagnes marketing en pilotant leur conception, leur déploiement et leur amélioration continue. Missions principales : Définir la vision produit et les objectifs des campagnes marketing. Prioriser les besoins métiers dans le backlog produit . Réaliser les campagnes marketing en coordination avec les équipes (marketing, IT, data) Coordonner les équipes (marketing, IT, data) en mode agile (Scrum) . Suivre les performances des campagnes et proposer des optimisations. Assurer la formation et l’adoption des utilisateurs Missions détaillées : Conseil, ciblage et segmentation des campagnes marketing Définition des cibles de campagnes marketing en co-construction avec l’équipe projet Conseil dans la construction de la campagne et adaptation des messages Définition et pilotage du planning des campagnes e-mail + SMS + print Gestion opérationnelle des campagnes marketing digitales : Rédaction de l’expression de besoin en lien avec les chef de projets Paramétrage des campagnes dans outil de marketing automation (SFMC) : création de campagnes, e-mails, formulaire, segmentation des cibles, gestion des données relatives aux clients et prospects Développement des emailings : montage HTML + conception graphique selon la charte en vigueur Recommandation des scénarios de campagnes (A/B testing, optimisation ciblage, personnalisation, relance) Réalisation et suivi des campagnes SMS en coordination avec le prestataire Interface avec les équipes data, DSI et projet Suivi de la performance des campagnes : Suivre et analyser les reporting Effectuer des recommandations pour améliorer la performance des actions Identifier / définir de nouveaux KPI et mettre en place les dashboard correspondants sous Power BI Pilotage métier de l’outil SMFC : Prioriser le back log dans les instances adaptées au fonctionnement Agile : PI planning, ArtSYNC … Relais auprès des instances de la BU d’Engie Formation des collaborateurs
Freelance

Mission freelance
Data Engineer

Publiée le
Azure Data Factory
BI
Databricks

12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Freelance
CDI

Offre d'emploi
Product Owner

Publiée le
BI
Data Warehouse

12 mois
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Le/La Data Product Owner – Intermodal est responsable de la définition et de la livraison du produit de données Intermodal , qui servira de datamart de référence pour l’ensemble des sources opérationnelles et commerciales clés (systèmes de gestion du transport existants et futurs, outils opérationnels, solutions de facturation, etc.). Il/Elle est le point focal côté métier pour tous les sujets liés à la construction et à l’évolution du produit de données Intermodal. Le périmètre couvre les données de référence (master data) et les données transactionnelles , issues de l’ensemble des systèmes Intermodal, y compris plusieurs TMS. Dans le cadre d’un projet de déploiement d’un nouveau système de gestion du transport, le/La Data Product Owner pilote les activités de préparation, de nettoyage et de sécurisation des données avant chaque mise en production, en collaboration avec les Product Owners, les experts régionaux et les équipes IT. Il/Elle s’appuie sur un/une référent(e) Master Data , chargé(e) d’accompagner l’identification, la standardisation et la consolidation des données de référence (clients, sites, actifs, etc.) afin de garantir une base de données cohérente et fiable. Travaillant en étroite collaboration avec les chefs de projet métier et IT, les Product Owners et les experts techniques, le/La Data Product Owner documente et supervise les flux de données de bout en bout , maintient le catalogue de données , définit et pilote les règles de qualité des données , et gère le backlog du produit data . Il/Elle promeut des indicateurs cohérents et une source unique de vérité pour le pilotage de la performance. Ce rôle fait le lien entre le métier et l’IT sur les sujets data : compréhension de la création et de l’usage des données dans les systèmes opérationnels, traduction en un datamart fiable et cohérent, et accompagnement de son adoption et de son amélioration continue. Responsabilités clésVision et roadmap du produit data Définir, avec les chefs de projet métier et IT, le plan de construction et d’évolution du datamart Intermodal de référence couvrant l’ensemble des systèmes sources clés. Traduire les objectifs métiers (pilotage de la performance, maîtrise des coûts, qualité de service, visibilité opérationnelle, etc.) en une vision produit data et une roadmap détaillée. Maintenir et prioriser le backlog du produit data (domaines de données, fonctionnalités, transformations, initiatives qualité, prérequis BI), en arbitrant entre valeur métier, contraintes techniques et ressources disponibles. Besoins BI & analytique Recueillir les besoins BI et reporting des parties prenantes métiers en collaboration avec le/la référent(e) BI (KPI, tableaux de bord, reporting réglementaire ou contractuel, suivi opérationnel). Traduire les cas d’usage métiers en exigences data : éléments de données requis, règles de calcul, niveaux d’agrégation, historique, fréquence de mise à jour. Proposer des solutions adaptées à l’architecture et aux outils BI disponibles, en tenant compte : de la fraîcheur des données requise (quasi temps réel, quotidien, mensuel), de la performance et de l’ergonomie, de la sécurité des données et des droits d’accès. Prioriser et coordonner, avec le/la référent(e) BI, la livraison des tableaux de bord et rapports basés sur le datamart Intermodal, en garantissant la cohérence des indicateurs. Compréhension et documentation des flux de données Formaliser les flux de données de bout en bout : création, mise à jour, enrichissement et consommation des données tout au long des processus Intermodal. Cartographier les interfaces et dépendances entre les différents systèmes opérationnels, les référentiels de données et la couche datamart / BI. Produire et maintenir une documentation claire (schémas de flux, lignage des données, liens processus/données) à destination des équipes IT, des utilisateurs métiers et de la gouvernance. Catalogue de données & modèle de données Piloter, en lien avec la gouvernance data, la création et la maintenance du catalogue de données Intermodal, incluant pour chaque donnée : définition et signification métier, système source, classification (master data / transactionnelle), niveau de confidentialité, responsabilités (propriétaires métier et IT). S’assurer, avec les équipes IT et les architectes data, de l’alignement entre les modèles de données logiques et physiques et la vision métier du catalogue. Promouvoir l’usage du catalogue de données comme référence unique sur la signification et l’origine des données. Qualité des données & gouvernance Identifier et évaluer l’impact des données manquantes ou de mauvaise qualité sur les opérations, le reporting et la prise de décision. Définir, pour les données clés, les pratiques de gestion de la qualité : KPI et seuils de qualité, règles de contrôle et de surveillance, processus de gestion des anomalies, rôles et responsabilités (responsables, contributeurs, escalade). Prioriser les améliorations de qualité des données dans le backlog (contrôles, enrichissements, workflows de correction). Garantir la conformité avec les politiques et standards de gouvernance data. Pilotage de la livraison & validation Collaborer avec les data engineers, développeurs BI et équipes plateforme pour livrer les incréments du produit data (nouvelles sources, tables, métriques, vues). Animer les revues de validation avec les équipes IT et métier pour confirmer l’adéquation aux besoins et la qualité de la documentation. Valider les structures de données et transformations selon des critères d’acceptation clairs. Assurer la cohérence et la réutilisation des jeux de données et indicateurs afin d’éviter les duplications. Préparation des déploiements & support Piloter, pour les projets de déploiement de nouveaux systèmes, les phases de préparation et de nettoyage des données avec l’appui du/de la référent(e) Master Data : planification des chargements et migrations, coordination avec les équipes métiers, régionales et IT, validation de la complétude et de la qualité des données avant mise en production. Suivre les incidents data lors des mises en service et en phase de démarrage, et capitaliser pour les déploiements suivants. Mettre à jour la documentation (catalogue, flux, règles de qualité) en fonction des nouvelles zones, périmètres ou évolutions des systèmes. CompétencesCompétences data & techniques Bonne compréhension des concepts de data warehouse (schéma en étoile, dimensions/faits, ETL/ELT, lignage des données). Expérience en catalogage et documentation des données. Connaissance des frameworks et indicateurs de qualité des données. Capacité à échanger avec des équipes techniques sur des modèles de données ; des bases en SQL sont un plus. Expérience avec des outils BI (Power BI, Tableau, Qlik ou équivalent). Compétences produit & métier Forte capacité à traduire les besoins métiers en exigences data et inversement. Expérience en gestion de backlog et en priorisation multi-parties prenantes. Communication claire et structurée auprès de publics métiers et techniques. Soft skills Esprit analytique, rigueur et sens du détail. Capacité à animer des ateliers et à fédérer autour de décisions communes. Sens des responsabilités et de l’ownership dans un environnement en transformation. Excellente organisation pour gérer plusieurs chantiers en parallèle.
Freelance
CDI

Offre d'emploi
Consultant Senior Anaplan

Publiée le
Méthode Agile

18 mois
10k-40k €
100-400 €
Paris, France
Télétravail partiel
CONTEXTE : Expérience : 4 ans et plus Métiers Fonctions : Conseil métier, AMOA, Consultant Senior, Spécialités technologiques : Supply Chain ;BI, ALM, Devops, Intégration de données MISSIONS Recueillir et analyser les besoins métiers Concevoir et modéliser des solutions Anaplan adaptées aux processus clients Participer à la mise en œuvre technique : création de modules, dashboards, actions, intégrations Assurer la gouvernance des modèles et la cohérence des données Former et accompagner les utilisateurs clés Encadrer les consultants juniors et piloter les phases de projet (planning, qualité, livrables) Proposer des améliorations continues et de nouvelles fonctionnalités Participer à la veille technologique autour d’Anaplan et de la planification connectée Expertise souhaitée Formation : Bac+5 (École d’ingénieur, École de commerce, Master en Finance, Data ou SI) Expérience : Minimum 5 ans d’expérience dans la mise en place de solutions EPM/CPM (Anaplan, Tagetik, Adaptive, etc.) Certification Anaplan (Level 2 Model Builder, idéalement Solution Architect) Bonne connaissance d’un ou plusieurs domaines métiers (Finance, Supply Chain, RH, Sales) Capacité à gérer un projet de bout en bout et à interagir avec les directions métiers et IT Bonnes compétences analytiques, rigueur et esprit de synthèse Anglais professionnel Maîtrise d’Anaplan (modélisation, data hubs, actions, dashboards, ALM, Anaplan Connect, CloudWorks) Connaissance de processus budgétaires, prévisionnels ou S&OP Pratique d’outils de BI ou d’intégration de données (Power BI, Tableau, Talend…) Bon niveau en Excel / SQL Connaissance des environnements Agile / DevOps
Freelance

Mission freelance
Consuntant FinOps / Financial performance

Publiée le
FinOps

9 mois
Auvergne-Rhône-Alpes, France
Télétravail partiel
Client : Grand Groupe Industriel – Lyon Durée : 9 à 12 mois Démarrage : début T1 2026 Mode : 3 jours sur site / 2 jours remote Budget : selon séniorité Description du poste Dans le cadre du renforcement de son équipe Cloud & FinOps, notre client — un grand groupe industriel international — recherche un Consultant FinOps / Financial Performance pour accompagner la gestion, l’optimisation et la gouvernance financière de ses environnements cloud (AWS, Azure, GCP). Votre mission consistera à structurer, piloter et améliorer la performance financière des plateformes cloud & SaaS, en collaboration étroite avec le responsable FinOps, les équipes Cloud Engineering, les Achats et les équipes Métiers. Vos responsabilités principales : 1. Pilotage et analyse financière du Cloud Suivi quotidien et mensuel des dépenses Cloud & SaaS. Analyse détaillée des coûts (AWS, Azure, GCP). Identification des dérives, anomalies et axes d’optimisation. 2. Gouvernance & optimisation FinOps Mise en place des modèles de gestion des coûts : allocation, chargeback/showback. Déploiement et suivi des politiques d’optimisation (réservations, Savings Plans, rightsizing, rationalisation, stockage). Définition des règles de tagging et des bonnes pratiques. Animation des comités FinOps. 3. Prévisions et budgétisation Construction des forecasts trimestriels et annuels. Participation aux travaux budgétaires avec les équipes finance. Anticipation des risques financiers liés aux évolutions de charge et aux nouveaux projets. 4. Reporting & communication Création et mise à jour des dashboards financiers et opérationnels (Power BI, Clic, équivalent). Production de rapports destinés aux équipes techniques, aux directions et aux métiers. Vulgarisation des enjeux financiers du cloud. 5. Support aux projets Cloud Accompagnement à la structuration des coûts dans les nouveaux projets. Revue des architectures sous l’angle performance financière. Interaction avec les fournisseurs cloud pour optimiser les engagements et contrats.
Freelance

Mission freelance
Data Engineer Sénior (5 ans d’expérience minimum)

Publiée le
Azure

12 mois
380 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Description du poste : Nous recherchons un Data Engineer autonome disposant d’au moins 5 ans d’expérience, capable de collecter, analyser et exploiter les données pour améliorer le pilotage des activités et identifier les leviers de création de valeur. Le consultant accompagnera également les équipes métier dans le développement, le déploiement et l’exploitation de solutions data afin d’atteindre leurs objectifs. Missions principales : – Collecter, préparer et structurer les données pertinentes pour les besoins des utilisateurs. – Construire et optimiser des pipelines ETL/ELT robustes et performants. – Analyser les données et produire des visualisations accessibles via les outils décisionnels. – Proposer des recommandations et lignes directrices pour créer de la valeur au sein des activités métier. – Accompagner l’optimisation des offres, services et processus grâce à l’analyse et l’évaluation des données. – Garantir la conformité aux règles d’éthique et de gouvernance du groupe. – Présenter les fonctionnalités des produits data et faciliter leur maintenance. – Réaliser des tests conformément à la stratégie définie. – Maintenir à jour le catalogue des produits data (datasets). – Fournir des kits de formation et des outils pour les utilisateurs. Résultats attendus : – Identification et sélection des données pertinentes pour les besoins opérationnels. – Optimisation du temps, des ressources et des outils dédiés à l’analyse de données. – Production de jeux de données et visualisations compréhensibles et accessibles. – Mise à disposition de recommandations métier génératrices de valeur. – Amélioration des processus, services et offres grâce aux analyses. – Application stricte des règles de gouvernance et d’éthique data. – Tests réalisés et conformes aux exigences. – Catalogue des datasets à jour. – Mise à disposition de supports et kits de formation pour les utilisateurs. Compétences requises en Data Engineering : – Modélisation de données : modèles relationnels, dimensionnels, Data Vault. – ETL / ELT : conception, optimisation et gestion des dépendances. – Gouvernance et qualité de données : data lineage, qualité, catalogage, gestion des métadonnées. – Architecture data : maîtrise des patterns modernes (Data Lakehouse, Data Mesh…). Langages : – SQL avancé – Python avancé – PySpark avancé Outils et technologies : – Dataiku – Power BI – Databricks – Azure Data Factory – Azure Logic Apps

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

286 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous