Trouvez votre prochaine offre d’emploi ou de mission freelance Microsoft Power à Paris
Votre recherche renvoie 141 résultats.
Offre d'emploi
Data Analyst
KLETA
Publiée le
Microsoft Power BI
Reporting
3 ans
Paris, France
Dans le cadre d’un programme de transformation data et décisionnelle, nous recherchons un Data Analyst pour analyser, structurer et valoriser les données au service des décisions métiers. Vous travaillerez étroitement avec les équipes métiers pour comprendre leurs besoins, définir des indicateurs pertinents et proposer des analyses adaptées. Vous serez responsable de l’exploration des données, de la construction de modèles analytiques simples et de la création de tableaux de bord lisibles et actionnables via des outils tels que Power BI, Tableau, Qlik ou équivalents. Vous participerez à la définition et à la fiabilisation des KPIs, en collaboration avec les équipes Data Engineering pour garantir la qualité et la cohérence des données sources. Vous réaliserez des analyses ad hoc, identifierez des tendances et formulerez des recommandations basées sur les données. Vous contribuerez également à la documentation des analyses, à la structuration des reportings et à l’amélioration continue des usages data au sein de l’organisation.
Mission freelance
Analytics Engineer – Migration DataBoost (SAP BO → Power BI)
SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks
3 mois
230-680 €
Paris, France
Dans le cadre du projet DataBoost , nous recherchons un Analytics Engineer pour participer à la migration des rapports SAP Business Objects vers Power BI . Ce projet vise à décommissionner SAP BO en industrialisant l’intégration des données dans une architecture lakehouse moderne (Bronze → Silver → Gold), et à construire un référentiel analytics centralisé pour l’ensemble des datamarts. Vos missions consisteront à : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory (POC avec Airflow). Développer des pipelines d’intégration de données en PySpark (Spark Declarative Pipeline). Transformer et optimiser les flux de données en SQL avec le framework DBT . Développer de nouveaux indicateurs de qualité de données sur DBT. Garantir la qualité du code et le respect des normes de développement. Implémenter des tests unitaires pour assurer la fiabilité des solutions. Maintenir les outils de monitoring pour suivre les performances. Ce poste est idéal pour un professionnel souhaitant contribuer à une transformation majeure des outils BI et travailler sur une architecture data moderne .
Mission freelance
Data Analytics– Power BI (Pilotage Financier & RH)
Atlas Connect
Publiée le
Analyse financière
BI
Comptabilité
3 mois
480-560 €
Paris, France
Dans le cadre d’un projet stratégique à fort impact, notre équipe Data Analytics renforce ses capacités pour concevoir un outil de pilotage financier et RH qui deviendra la référence au niveau groupe. Ce projet structurant est mené en collaboration directe avec le CFO, la DRH et le contrôle de gestion. 🧩 Missions Rattaché(e) à l’équipe Data Analytics, vous interviendrez sur : 🔹 Conception & déploiement Concevoir et développer un dashboard Power BI avancé Mettre en place un outil de pilotage consolidé : P&L, budgets, forecasts Structurer un modèle de données robuste et scalable 🔹 Data engineering & modélisation Intégrer des données multi-sources (comptabilité, RH, paie) Concevoir des modèles de données complexes Développer des mesures avancées en DAX Garantir la qualité, la cohérence et la fiabilité des données 🔹 Collaboration métier Travailler en lien direct avec : CFO DRH Contrôle de gestion Traduire les besoins métiers en indicateurs actionnables Accompagner les utilisateurs dans la prise en main de l’outil
Mission freelance
Flow Trader Foreign Exchange (FX)
JobiStart
Publiée le
Analyse financière
3 ans
540-1 040 €
Paris, France
Description du poste : Expert du marché des changes, vous assurez la cotation et l'exécution des flux clients sur les paires de devises majeures (G10) et émergentes. Votre mission est de gérer le risque de change intraday résultant de l'activité commerciale de la banque tout en prenant des positions pour compte propre selon les opportunités de marché. Vous surveillez les annonces économiques et les interventions des banques centrales pour ajuster vos prix en temps réel. Vous collaborez à l'amélioration des plateformes d'e-trading (Electronic Market Making) pour accroître l'automatisation de la cotation. Vous veillez scrupuleusement au respect des limites de risque de change et de liquidité, tout en garantissant une qualité d'exécution irréprochable sur un marché ouvert 24h/24. (889 caractères)
Mission freelance
la recherche d'un profil PMO
CONSULT IT
Publiée le
PowerBI
36 mois
100-450 €
Paris, France
Je suis à la recherche d'un profil PMO : Chargé d’affaires interne - Pilotage de la Qualité de fonctionnement, des Contrats et des Coûts DWP. Maitrise du vocable, process financier et règle de l’art (charges à payer, charges constatées d’avance, déduction TVA….) Appétence à la gestion des coûts (facturation, projection financière, répartition des couts, pilotage global) Participation à l’élaboration du budget DWP Participation aux réunions interne DWP, SNI, filiales et intra Groupe Suivi de la prestation Flottes mobiles (évolution, budget, facturation) assurée par une autre filiale du groupe. Suivi et optimisation du budget et de la facturation. Bonne maitrise des outils type excel, Power BI Bonne autonomie dans l’activité et bon niveau de reporting sont exigés Expérience de pilotage d’activité (suivi de budget, participation ou animation de comités internes et externes, synthèse, pragmatisme) Excellent relationnel, organisation personnelle éprouvée, sens du service, réactivité, rigueur Capacité d’anticipation et force de proposition sont attendus sur ce poste Production de reportings
Mission freelance
Tech Lead Power BI
Signe +
Publiée le
Power BI Desktop
12 mois
600 €
Paris, France
Contexte de la mission Dans le cadre du renforcement de l’équipe Data & Reporting, nous recherchons un Tech Lead Power BI pour intervenir sur des sujets à forte valeur ajoutée autour du reporting, de la gouvernance Power BI et de l’optimisation de plateformes existantes. Le consultant interviendra en référent technique Power BI , avec un rôle clé de cadrage, d’architecture, d’optimisation et d’accompagnement des équipes. Profil recherché Tech Lead Power BI disposant de : 5 à 10 ans d’expérience minimum sur Power BI Une expertise confirmée en modélisation avancée Une solide expérience en administration Power BI Une capacité à traiter des problématiques complexes de performance et d’optimisation Compétences techniques requises Power BI (expertise avancée) Dashboards complexes Datasets Dataflows Power Automate Report Builder Optimisation des performances (DAX, modèles, volumétrie) Environnement Data / Cloud BigQuery (Google Cloud Platform) Compétences transverses Bases de données relationnelles Modélisation avancée (étoile, flocon, optimisation des modèles) Bonnes pratiques CI/CD appliquées aux projets BI Périmètre et responsabilités Analyse et conception des nouveaux besoins de reporting Développements avancés Power BI : Dashboards Datasets Dataflows Power Automate Report Builder Définition, formalisation et diffusion des bonnes pratiques de développement Administration de la plateforme Power BI et des gateways Mise en place des outils d’administration et de monitoring Power BI Réalisation d’ audits de programmes Power BI existants Préconisations d’optimisation (performance, coûts, gouvernance) Accompagnement et montée en compétence des équipes de développement Support Power BI niveau 3 (L3) sur les incidents complexes
Offre d'emploi
Data Analyst Paris (H/F)
TimTek
Publiée le
Microstrategy
PowerBI
1 an
Paris, France
TimTek est une entreprise à mi-chemin entre l'incubateur et l'ESN, dont les objectifs sont multiples. Tout d'abord, nous développons une activité de prestation intellectuelle dans le domaine IT autour de 4 sujets : Développement : Java, PHP, C#, Javascript et tous leurs frameworks. Infrastructure : Cloud, Devops, Architecture, Administration systèmes et réseaux. Data : Business Intelligence, Data Science, Big Data, Data Analysis, Data Engineering. Fonctionnel : Gestion de projet, Consultant fonctionnel Dans un second temps, nous réinvestissons l'ensemble des bénéfices afin d'autofinancer le lancement de projets digitaux innovants qui ont un rapport avec la RSE (intérêt général, écologie ou autre). Ainsi, nous rassemblons aujourd'hui une communauté de 50 consultants entreprenants et notre objectif est de continuer cette croissance en vous présentant des projets de qualité. Aujourd'hui, nous sommes à la recherche d’un Développeur Data Analyst (H/F) pour intégrer notre équipe de Paris. Vos missions seront de : Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers Présenter les résultats aux équipes métiers Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital Contribuer à l’évolution des pratiques de l'équipe dans une logique d’amélioration continue
Offre d'emploi
Directeur de Projet Décommissionnement SI (H/F)
CITECH
Publiée le
microsoft
Microsoft Power BI
60k-70k €
Paris, France
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet innovant, nous avons LE poste pour vous ! Nous recherchons en effet un(e) Directeur de Projet Décommissionnement SI (H/F) 🚀 Vous interviendrez pour l’un de nos clients dans le domaine de la retraite et prévoyance afin de renforcer la gouvernance du SI de la fédération en assurant le pilotage de la trajectoire de transformation et l'accompagnement des IRC dans l'adoption de la future plateforme de données fédérale. 👉 Vous aurez les missions suivantes : 👈 🔸 Pilotage stratégique : Suivre la feuille de route de transformation des SI des IRC et assurer le pilotage des travaux de décommissionnement des traitements. 🔸 Gestion budgétaire : Suivre la trajectoire budgétaire prévoyant une décroissance des coûts informatiques du périmètre retraite et s'assurer de la réduction des charges. 🔸 Expertise Data : Enrichir la cartographie du Plan d’Urbanisation du SI (P-USI) et définir les cas d’usage "Data retraite" sur la base des inventaires réalisés. 🔸 Coordination et Conseil : Soutenir les IRC dans leurs travaux de décommissionnement, partager les choix de solutions et s'assurer de l'adéquation des solutions retenues avec les besoins métiers. 🔸 Reporting : Mettre en place les indicateurs de suivi, piloter les chantiers et assurer un reporting régulier auprès de la Direction. 🔸 Accompagnement au changement
Mission freelance
Responsable Opérations Partenariat Back-Office H/F
HAYS France
Publiée le
Microsoft Power BI
Qlik Sense
1 mois
Paris, France
Pilotage d’une activité portée par 2 partenaires centres d’appel offshore et garantir la performance du dispositif opérationnel associé, totalisant approximativement 150 agents Le périmètre couvre : L’activité de Back Office Entrant concernant l’avancement des dossiers (15 000 appels/mois, 50 agents) L’activité de Back Office Sortant pour finalisation des dossiers clients (15 000 dossiers/mois, 60 agents) L’activité Services : gestion des ventes d’assistance et d’entretien chaudière (20 agents) L’activité Digital : traitement des avis vérifiés et interactions chat (3 000 interactions/mois, 12 agents) 1. Pilotage des équipes Back‑Office, Digitale et Services Assurer le pilotage hebdomadaire è responsable des comités de pilotage hebdomadaires et contributeur des comités stratégiques trimestriels Analyser les performances quantitatives et qualitatives è rationaliser les objectifs opérationnels (taux de transformation, DMT, productivité, taux d’exploitation des fiches, qualité) et proposer un dashboard dédié Identifier les leviers d’amélioration et recommander des plans d’actio è Piloter et animer deux partenaires centres d’appel externalisés Contribuer à la consolidation de ce pilotage è travail en partenariat avec le business analyst pour alimenter un PowerBI dédié au suivi de la performance commerciale BO/Services/Digital Avec l’appui de la cellule « Coachs Vente », accompagner les partenaires dans l’atteinte des objectifs : challenges, ateliers, montée en compétences, optimisation des process. Analyser les reportings opérationnels et déployer les actions correctives nécessaires pour atteindre les indicateurs quantitatifs et qualitatifs. Garantir le dimensionnement et la disponibilité des ressources partenaires : effectifs, compétences, planification. Comparer et benchmarker les partenaires afin de promouvoir les meilleures pratiques. 2. Garantir la qualité et la conformité des opérations Contrôler l’application des process via des écoutes régulières (sur site ou à distance). Collaborer étroitement avec les équipes Qualité, Process et Formation pour assurer la cohérence et l’évolution des procédures. Soutenir les équipes opérationnelles dans la gestion des demandes clients et des dossiers sensibles. 3. Campagnes d’appels sortants sur base de fichiers chauds Suivre la bonne exécution des campagnes existantes Définir le pilotage et accompagner sa création dans PowerBI avec l’appui du Business Analyst Concevoir et déployer de nouvelles campagnes de ventes ou de finalisation de dossiers 4. Gérer des projets transverses Contribuer aux projets d’amélioration continue liés au périmètre Back‑Office et Digital. Identifier, remonter et suivre la résolution des anomalies opérationnelles et des points bloquants. Produire les reportings internes nécessaires au pilotage (via QlikSens) et assurer leur fiabilité.
Offre d'emploi
Consultant Data Gouvernance sur Paris 12
EterniTech
Publiée le
Cloudera
Microsoft Power BI
SAS
2 ans
75560 CEDEX 12, Paris, Île-de-France
Je recherche pour un de mes clients un Consultant Data Gouvernance sur Paris 12 CONTEXTE DE LA MISSION Dans le cadre de ses missions de définition des politiques de gestion des données et du suivi de leur mise en œuvre, l'activité Gouvernance de la Donnée du client (3 salariés à ce jour) souhaite renforcer son équipe d'un profil confirmé en la matière. Le client recherche donc à apporter à l'équipe Gouvernance de la donnée un accompagnement assorti d'un regard éclairé dans l'exécution des différents pans de ses missions : définition des politiques de gestion des données (rôles et responsabilités; mise en place/alimentation d'un Glossaire métier et d'un Dictionnaire des données; modalités de suivi de la qualité des données; modalités permettant d'assurer la sécurité et la conformité réglementaire de l'accès aux données; articulation avec les capacités de la plate-forme Data choisie par l'entreprise); mise en oeuvre et suivi de ces politiques, en lien avec les contributeurs nécessaires; acculturation des différentes populations de l'entreprise aux exigences et apports en lien avec la gouvernance des données; etc..... DESCRIPTION DE LA MISSION Les missions principales au sein de l'activité Gouvernance de la donnée seront les suivantes : - Participation le cas échéant au choix des outils de gouvernance des données (rencontres fournisseurs initiées ; échanges en cours) - Catalogage / connaissance des données : Définir les standards et bonnes pratiques et en vérifier la bonne application en mobilisant les acteurs requis (SI, métier), assurer l’acculturation nécessaire ; - Cartographie des Données : Approfondir la cartographie des données qui aura été initiée (avec les acteurs métier, SI, urbanistes) et être capable de la présenter, la faire adopter et de l’utiliser à des fins de gouvernance des données… - Conformité règlementaire : Garantir que toutes les données respectent les normes internes et externes, en particulier en matière de RGPD et de conformité légale. - Gestion des rôles et animation de la communauté Data : Identifier les relais de la gouvernance dans un contexte de responsabilités fédérées. Mobiliser les acteurs (animation de séminaires, communication…). - Gestion des habilitations : Définir la granularité des habilitations des rôles et utilisateurs identifiés. - Accompagnement de la montée en compétence des autres membres de l'équipe sur des sujets structurants devant être maîtrisés pour mener à bien les missions de l'activité LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Exemples de livrables attendus : Chapitres thématiques de la politique de Gouvernance des données : - rôles et responsabilités ; - gestion Glossaire/Dictionnaire ; - gestion du Data Lineage ; - sécurité et droits d'accès, dont conformité juridique ; - Suivi de la qualité des données ; - process permettant l'évolution de la plate-forme Data Environnement technique : Sélection en cours du fournisseur pour une plateforme Data d’entreprise cible Couche stockage : - Teradata - Hadoopa Cloudera - Postgre Transformation : - Data stage - Spark BI : - Power BI - SAS Expériences attendues : - Expérience au sein d'un Data Office en charge de la Gouvernance des données (au moins 2 expériences significatives) - Utilisation des outils de Gouvernance des données (gestion des méta données, dont Glossaire / Dictionnaire, Catalogage, Création/Exposition de Data Product, Data Quality, Lineage) - Compréhension des grands modèles d'Architecture Data (Extraction/Chargement, Transformation/Nettoyage, Mise à disposition, Suivi des usages) - Pratique d'une solution Plate-Forme Data
Mission freelance
Expert data visualisation & OPS(Power Bi & Python & spark & Trino & On promise & NoSQL)
WINSIDE Technology
Publiée le
Apache Spark
Python
3 ans
400-590 €
Paris, France
Au sein de la société , dans un contexte multi domaines/Clients (banque de détail, assurances, banque de marchés, asset management, etc.), vous êtes rattaché à l’équipe « Data4Ops », au sein du Domaine d’Expertise « Automatisation et Observabilité » Cette équipe a la charge de structurer les données dites « opérationnelles » , à savoir les données utiles à l’ensemble des métiers et équipes opérationnelles, en adéquation avec la stratégie Data (basée sur les principes/concepts Data Mesh) et en relation avec le PO Data4Ops et le PM (Product Manager) Observabilité La transformation des SI de nos Clients vers des architectures modulaires, type micro-services, l’essor de nos infrastructures et l’évolution des technologies associées, ou encore l’automatisation accrue sur nos socles et applications, génèrent une quantité massive de données devenues très hétérogènes, dispersées et silotées du fait de l’organisation et de ses Clients (équipes applicatives et techniques multiples et dispersées). Prenant en compte ce cadre, votre mission sera plus spécifiquement de collecter, manipuler et valoriser de manière automatique les données complexes de notre SI en visualisations claires, interactives et exploitables pour faciliter la prise de décision stratégique et opérationnelle par le biais de développement des Dashboards et modélisation et mise en place de KPI. Attendus Pour réaliser la mission, vous serez amené à contribuer sur : - La conception via le recueil des besoins, la réalisation des spécifications et de la documentation liée - Le développement de visualisations : création de tableaux de bord interactifs, de graphiques dynamiques et de rapports visuels adaptés aux différents besoins métiers CA-GIP. - L’analyse et le traitement des données : Définition et développement de KPI, pour cela, si nécessaire, extraction, transformation et analyse de données provenant de sources multiples (bases de données, APIs, etc.), de façon automatique Ceci en collaboration transversale étroite avec les différentes équipes CA-GIP pour comprendre les besoins, définir les spécifications, assurer le suivi, et garantir la cohérence des livrables. Contexte technique - Outils de visualisation : maîtrise avancée de Power BI, Grafana - Langages de programmation : Python ou Java pour le traitement de données, SQL pour les requêtes - Environnement technique : bases de données SQL et NoSQL principalement dans un contexte « On Premise » : o Moyens de stockage tels que la suite Elastic, InfluxDB o Suite de type Data Lakehouse (Spark, MinIO, Stockage S3, Iceberg, Trino) o Solution SGBD “Classique”: PostgreSQL
Offre d'emploi
Data Analyst Lead
GAGNITECH
Publiée le
Big Data
Databricks
Microsoft Power BI
6 mois
Paris, France
Contexte de la mission : Dans le cadre du renforcement du DataLab, nous recherchons un Data Analyst Lead en prestation, rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution, multienseignes et multimétiers, avec de forts enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. La connaissance du domaine de la Grande Distribution est un critère essentiel. Objectifs de la mission: - Apporter une expertise en data analyse et en conception de solutions informatiques orientées données. - Contribuer à la montée en compétence des Data Analysts du DataLab. - Accompagner les équipes produits et projets sur des sujets analytiques et techniques avancés. - Animer la communauté des Data Analystes. - Coanimer la Data Authority et les ateliers associés, en lien avec l’équipe Gouvernance des données. Principales missions - Expertise en data analyse et conception de solutions data. - Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions). - Contribution à la structuration et à l’alignement des KPI métiers. - Animation de la communauté des data analystes (ateliers, bonnes pratiques, retours d’expérience). - Contribution à la modélisation des données, notamment en faisant vivre le modèle de données communes. - Coanimation de la Data Authority et des ateliers associés.
Mission freelance
Gestionnaire de probleme senior - Paris
Signe +
Publiée le
Incident Management
ITIL
PowerBI
6 mois
410-430 €
Paris, France
Nous recherchons un candidat ayant de solides connaissances dans le domaine de l’assurance et de l’épargne afin de garantir une intégration rapide et efficace. Voici les principales missions du poste : - Gestion des problèmes : - Enregistrer, analyser et prioriser les problèmes. - Organiser et animer des réunions de résolution. - Suivre les plans d’actions et relancer les parties prenantes. - Analyser les incidents récurrents pour identifier des axes d’amélioration. - Supervision des incidents : - Veiller au respect des processus et des priorités. - Garantir la qualité du traitement des incidents. - Production et suivi des indicateurs : - Concevoir et mettre à jour des tableaux de bord quotidiens, hebdomadaires et mensuels. - Utiliser Power BI pour la visualisation et l’analyse des données. - Préparer et animer les comités de suivi. - Communication : - Assurer une communication claire auprès des équipes métiers et techniques. - Rédiger des comptes rendus et des synthèses. - Amélioration continue : - Proposer des optimisations de processus. - Participer aux audits et à la veille technologique.
Mission freelance
Proxy PO RUN - Snowflake + Power BI
FF
Publiée le
Microsoft Power BI
Snowflake
1 an
400-550 €
Paris, France
Bonjour à tous, Mission longue à Paris : 1 an + Télétravail : 2 jours par semaine Date de démarrage courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour stabiliser la phase de RUN de notre plateforme data. Cette mission répond à un besoin critique : Situation actuelle : • Volume important d'incidents en cours, faute de capacité suffisante • Absence de système d'alerte en place • Absence de remontée automatique en cas de défaillance Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de soulager les équipes de développement en prenant en charge le RUN au quotidien et en assurant la stabilité opérationnelle de la plateforme data et des usages BI. Objectif principal Assurer la stabilité opérationnelle de la plateforme data et des usages BI, en prenant en charge le RUN au quotidien et en soulageant les équipes de développement. Le PPO RUN devra gérer les incidents, investiguer de manière autonome, échanger quotidiennement avec les utilisateurs pour le support fonctionnel, et contribuer à la mise en place du monitoring et de l'alerting. Responsabilités clésGestion des incidents et support • Prendre en charge la première phase d'analyse des incidents • Investiguer de manière autonome avant sollicitation des développeurs • Gérer et prioriser le backlog d'incidents ServiceNow • Proposer l'arbitrage des tickets RUN dans ServiceNow basé sur le risque et l'impact business • Prioriser et qualifier les incidents selon leur criticité • Analyser et coordonner les tickets d'incident ServiceNow avec l'équipe de développement pour communiquer aux utilisateurs • Échanger quotidiennement avec les utilisateurs (support fonctionnel) Monitoring et alerting Enjeu clé de la mission – Le PPO RUN devra : • Comprendre les flux et le fonctionnement fonctionnel de la plateforme data • Fournir les inputs fonctionnels aux équipes data pour la mise en place du monitoring • Contribuer à la mise en place du monitoring et de l'alerting (sans être expert outil) • Implémenter la surveillance et l'alerte sur les sources de données pour assurer la fraîcheur, la qualité et la disponibilité des données ⚠️ Important : Les équipes data attendent des inputs fonctionnels clairs, pas une expertise technique en alerting. Documentation et procédures • Produire des SOPs (Standard Operating Procedures) pour les incidents récurrents permettant à l'équipe RUN externe de gérer les opérations RUN de routine • Créer des procédures d'investigation détaillées • Fournir des extraits de code utiles utilisés par les développeurs • Documenter des procédures de remédiation Transition et formation • Structurer et supporter une transition fluide de Build à RUN des activités du projet • Contribuer à la formation et au support des utilisateurs sur les rapports Power BI et le modèle de données (self-BI) • Assurer la performance opérationnelle et la fiabilité des solutions livrées par l'équipe Coordination avec les équipes de développement • Être en contact régulier avec les équipes de développement pour creuser certaines pistes • Analyser et coordonner les tickets d'incident avec l'équipe de développement Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (lecture, compréhension des usages) • SQL : capacité à faire des requêtes SQL simples pour analyses préliminaires et analyse de données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Très bonne communication avec les utilisateurs et les équipes de développement • Autonomie forte – capacité à investiguer seul avant escalade • Rigueur et sens des priorités pour gérer et prioriser efficacement les incidents • Esprit collaboratif • Excellente communication, facilitation et négociation avec les parties prenantes • Décisif et axé sur les résultats Langues • Anglais courant / bilingue : obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à intermédiaire) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Gérer le backlog ServiceNow et assurer la priorisation efficace des incidents • Implémenter la surveillance et l'alerte sur les sources de données • Produire des SOPs (Standard Operating Procedures) pour les incidents récurrents • Contribuer à la formation et au support des utilisateurs • Assurer une transition fluide de Build à RUN et la stabilité opérationnelle de la plateforme data Compétences clés demandées • Snowflake (fonctionnel) • Microsoft Power BI • AGILE Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Mission freelance
Proxy PO build - Snowflake + Power BI
FF
Publiée le
Azure Data Factory
Microsoft Power BI
Snowflake
1 an
Paris, France
Bonjour à tous, Mission longue 1 an ou + à Paris. Télétravail : 2 jours par semaine Date de démarrage : courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour accélérer la phase de BUILD de notre plateforme data. Cette mission vise à répondre à un besoin critique : face à un volume important de demandes utilisateurs et une incapacité à tout traiter faute de bande passante, ce PPO sera en charge de structurer et accélérer la livraison de nouvelles fonctionnalités, KPI et spécifications fonctionnelles. Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de faire le lien entre les utilisateurs métiers et les équipes de développement, en fournissant des spécifications fonctionnelles claires et exploitables. Objectif principal Accélérer le BUILD produit data : spécifications, nouveaux KPI, structuration des demandes utilisateurs. Le PPO BUILD devra gérer un fort volume d'échanges avec les utilisateurs, recueillir et formaliser les besoins métiers, définir et cadrer de nouveaux KPI, et travailler en étroite collaboration avec le Product Owner Data et les équipes de développement. Responsabilités clésGestion du backlog et cérémonies Agile • Participer aux cérémonies Agile et supporter le PO dans la gestion d'équipe • Gérer et opérer le backlog BUILD • Créer et maintenir les tickets Jira pour les équipes de développement avec des informations complètes : spécifications d'intégration de données, sources de données requises pour la construction des KPI, règles de transformation et critères d'acceptation Recueil et formalisation des besoins • Recueillir les besoins métiers auprès des utilisateurs clés • Mener des interviews utilisateurs à haut volume pour comprendre et cadrer les demandes • Formaliser les besoins sous forme de spécifications fonctionnelles claires et exploitables Analyse et construction des KPI • Analyser les sources de données nécessaires pour construire les KPI • Définir et cadrer de nouveaux KPI dans la plateforme data • Effectuer l'analyse technique et optimiser la logique de calcul des KPI • Concevoir des modèles de données dans Snowflake et Power BI Tests et validation • Effectuer des tests UAT (User Acceptance Testing) avec les parties prenantes dans Snowflake et Power BI • Tester et valider les fonctionnalités et améliorations livrées Suivi et optimisation • Surveiller et examiner l'orchestration et la planification des sources • Construire et affiner les modèles de données Power BI • Contribuer à la documentation fonctionnelle Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (KPI, dashboards) • SQL : connaissance fonctionnelle pour effectuer l'analyse de données, validation et compréhension des données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Spécifications fonctionnelles : capacité à rédiger des spécifications fonctionnelles claires et exploitables • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Excellentes capacités de communication avec les utilisateurs et les équipes de développement • Aisance dans les échanges avec des utilisateurs exigeants et capacité de facilitation et négociation avec les parties prenantes • Esprit de synthèse et structuration pour transformer des besoins complexes en spécifications claires • Autonomie forte et curiosité – capacité à apprendre rapidement le contexte métier • Décisif et axé sur les résultats • Esprit collaboratif Langues • Anglais : courant / bilingue obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à confirmé) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Assurer une approche centrée utilisateur dans toutes les décisions produit • Construire et maintenir la roadmap produit en collaboration avec le Product Owner Data • Définir des spécifications fonctionnelles claires et complètes • Planifier, piloter et prioriser les développements en utilisant la méthodologie Agile • Tester et valider les fonctionnalités et améliorations livrées • Fournir formation, support et communication aux utilisateurs Compétences clés demandées • AGILE • Snowflake (fonctionnel) • Microsoft Power BI : Niveau Expert Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Mission freelance
Consultant fonctionnel Finance sur l'ERP Peoplesoft (modules PC/CA/EX)
Mon Consultant Indépendant
Publiée le
ERP
JIRA
Microsoft Power BI
12 mois
470-500 €
Paris, France
Pour un contrat de longue durée 3 ans dont 1 an ferme, je recherche un Consultant fonctionnel Finance sur l'ERP Peoplesoft capable d'intervenir en assistance à Maitrise d’Ouvrage SI. Compétences clés : • ERP : Maîtrise de PeopleSoft (modules PC/CA/EX), notamment pour la gestion des investissements et des budgets pluriannuels. • Reporting : Expérience avec des outils de reporting analytique (Power BI). • Gouvernance : Connaissance des processus de pilotage budgétaire (suivi des investissements, clés analytiques). • Intégration : Expérience dans la gestion des interfaces entre SI amont (ex. : ERP, outils métiers) et solutions de reporting. • Méthodologies : Maîtrise des méthodes Agile/Scrum et des outils de suivi (Jira, Confluence). • Support utilisateur : Capacité à former et accompagner plusieurs milliers d'utilisateurs sur des évolutions fonctionnelles.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- ARCE | Informations générales-Indemnisation
- Je code pour vous une application gratuitement
- Passage au réel après dépassement micro : notification URSSAF ?
- Placement via mon EURL à l'IS
- Pourquoi est-il si dur de décrocher une mission avec un CV pourtant plutôt intéressant ?
- TJM en vrille sur une proposition d'AO
141 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois