Trouvez votre prochaine offre d’emploi ou de mission freelance Microsoft Power
Votre recherche renvoie 566 résultats.
Mission freelance
Business Analyst RPA (Freelance)
Zenith Rh
Publiée le
Migration
Power Automate
6 mois
Hauts-de-Seine, France
Contexte de la mission : Dans le cadre d'un projet de carve in notre client procède à l'intégration des systèmes d'information des entités rachetées et déploie ses outils. Une phase critique de projet "Carve-out / Carve-in" est en cours, nécessitant une reprise massive et un nettoyage de données tierces (données comptables et fournisseurs) que notre client souhaite automatiser au maximum grâce à la RPA. Objectifs et Missions : Analyse et Reprise de Données : Creuser et extraire les données des anciens systèmes pour assurer une migration de qualité vers les outils cibles. Automatisation (RPA) : Identifier et mettre en œuvre des solutions d'automatisation "Low-code / No-code" pour éviter les saisies manuelles et accélérer le nettoyage des données. Optimisation des Processus : Proposer des solutions innovantes, comme l'utilisation d'API (ex: connexion à des bases comme Pappers ou Sirene) ou de robots RPA pour enrichir et fiabiliser la base de données tierce.
Mission freelance
Architecte Technique & Fonctionnel – Solutions de Protection des Données
CONSULT IT
Publiée le
Avamar
Commvault
Grafana
2 ans
400-660 €
Île-de-France, France
Dans le cadre du renforcement de notre pôle infrastructure, nous recherchons un expert en architecture orientée sauvegarde et continuité des données. Missions principales : Accompagner l’équipe d’architecture dans l’analyse et la formalisation des besoins sur plusieurs environnements clients Contribuer à la préparation et à la structuration de consultations (RFI/RFP) ainsi qu’aux phases de cadrage Produire la documentation technique et fonctionnelle : spécifications détaillées, dossiers d’architecture, schémas fonctionnels et documents de conception détaillée Organiser et animer des ateliers autour des solutions de backup (recueil des besoins, audits, revue des standards, partage des bonnes pratiques) Déployer et intégrer des plateformes de sauvegarde sur différents sites Assurer la coordination avec les éditeurs et intégrateurs partenaires Consolider les informations clés et produire des reportings à destination du management Apporter un support expert (Niveau 3) aux équipes d’exploitation dans la gestion des incidents complexes Compétences attendues : Maîtrise confirmée d’au moins une solution majeure de sauvegarde telle que Commvault ou les environnements Dell (Avamar, Data Domain, PPDM) Connaissance élargie d’autres outils du marché de la protection des données Excellente compréhension des environnements systèmes : Windows Server (2016 et versions ultérieures), Linux (RHEL, SUSE), Solaris, HP-UX Compétences en automatisation et scripting (Ansible, API REST, Python, PowerShell…) Sensibilité ou expérience autour des sujets IA appréciée Maîtrise des outils de reporting et d’analyse de données (Power BI, Grafana, Prometheus…) Solides bases en sécurité des systèmes : chiffrement, PKI, mécanismes d’authentification, gestion des correctifs, firewall, antivirus, etc.
Mission freelance
Gestionnaire de probleme senior - Paris
Signe +
Publiée le
Incident Management
ITIL
PowerBI
6 mois
410-430 €
Paris, France
Nous recherchons un candidat ayant de solides connaissances dans le domaine de l’assurance et de l’épargne afin de garantir une intégration rapide et efficace. Voici les principales missions du poste : - Gestion des problèmes : - Enregistrer, analyser et prioriser les problèmes. - Organiser et animer des réunions de résolution. - Suivre les plans d’actions et relancer les parties prenantes. - Analyser les incidents récurrents pour identifier des axes d’amélioration. - Supervision des incidents : - Veiller au respect des processus et des priorités. - Garantir la qualité du traitement des incidents. - Production et suivi des indicateurs : - Concevoir et mettre à jour des tableaux de bord quotidiens, hebdomadaires et mensuels. - Utiliser Power BI pour la visualisation et l’analyse des données. - Préparer et animer les comités de suivi. - Communication : - Assurer une communication claire auprès des équipes métiers et techniques. - Rédiger des comptes rendus et des synthèses. - Amélioration continue : - Proposer des optimisations de processus. - Participer aux audits et à la veille technologique.
Offre d'emploi
Data Analyst Lead
GAGNITECH
Publiée le
Big Data
Databricks
Microsoft Power BI
6 mois
Paris, France
Contexte de la mission : Dans le cadre du renforcement du DataLab, nous recherchons un Data Analyst Lead en prestation, rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution, multienseignes et multimétiers, avec de forts enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. La connaissance du domaine de la Grande Distribution est un critère essentiel. Objectifs de la mission: - Apporter une expertise en data analyse et en conception de solutions informatiques orientées données. - Contribuer à la montée en compétence des Data Analysts du DataLab. - Accompagner les équipes produits et projets sur des sujets analytiques et techniques avancés. - Animer la communauté des Data Analystes. - Coanimer la Data Authority et les ateliers associés, en lien avec l’équipe Gouvernance des données. Principales missions - Expertise en data analyse et conception de solutions data. - Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions). - Contribution à la structuration et à l’alignement des KPI métiers. - Animation de la communauté des data analystes (ateliers, bonnes pratiques, retours d’expérience). - Contribution à la modélisation des données, notamment en faisant vivre le modèle de données communes. - Coanimation de la Data Authority et des ateliers associés.
Mission freelance
Expert data visualisation & OPS(Power Bi & Python & spark & Trino & On promise & NoSQL)
WINSIDE Technology
Publiée le
Apache Spark
Python
3 ans
400-590 €
Paris, France
Au sein de la société , dans un contexte multi domaines/Clients (banque de détail, assurances, banque de marchés, asset management, etc.), vous êtes rattaché à l’équipe « Data4Ops », au sein du Domaine d’Expertise « Automatisation et Observabilité » Cette équipe a la charge de structurer les données dites « opérationnelles » , à savoir les données utiles à l’ensemble des métiers et équipes opérationnelles, en adéquation avec la stratégie Data (basée sur les principes/concepts Data Mesh) et en relation avec le PO Data4Ops et le PM (Product Manager) Observabilité La transformation des SI de nos Clients vers des architectures modulaires, type micro-services, l’essor de nos infrastructures et l’évolution des technologies associées, ou encore l’automatisation accrue sur nos socles et applications, génèrent une quantité massive de données devenues très hétérogènes, dispersées et silotées du fait de l’organisation et de ses Clients (équipes applicatives et techniques multiples et dispersées). Prenant en compte ce cadre, votre mission sera plus spécifiquement de collecter, manipuler et valoriser de manière automatique les données complexes de notre SI en visualisations claires, interactives et exploitables pour faciliter la prise de décision stratégique et opérationnelle par le biais de développement des Dashboards et modélisation et mise en place de KPI. Attendus Pour réaliser la mission, vous serez amené à contribuer sur : - La conception via le recueil des besoins, la réalisation des spécifications et de la documentation liée - Le développement de visualisations : création de tableaux de bord interactifs, de graphiques dynamiques et de rapports visuels adaptés aux différents besoins métiers CA-GIP. - L’analyse et le traitement des données : Définition et développement de KPI, pour cela, si nécessaire, extraction, transformation et analyse de données provenant de sources multiples (bases de données, APIs, etc.), de façon automatique Ceci en collaboration transversale étroite avec les différentes équipes CA-GIP pour comprendre les besoins, définir les spécifications, assurer le suivi, et garantir la cohérence des livrables. Contexte technique - Outils de visualisation : maîtrise avancée de Power BI, Grafana - Langages de programmation : Python ou Java pour le traitement de données, SQL pour les requêtes - Environnement technique : bases de données SQL et NoSQL principalement dans un contexte « On Premise » : o Moyens de stockage tels que la suite Elastic, InfluxDB o Suite de type Data Lakehouse (Spark, MinIO, Stockage S3, Iceberg, Trino) o Solution SGBD “Classique”: PostgreSQL
Offre d'emploi
Power BI and Microsoft Fabric Analytics Expert
VISIAN
Publiée le
DAX
Microsoft Power BI
1 an
Île-de-France, France
Descriptif du poste Expert reconnu en Power BI et sur une plateforme d’analytique cloud de premier plan, incluant : Power BI Desktop, Power BI Service, Power BI Fabric et Report Builder Conception et optimisation de modèles sémantiques (schémas en étoile, modèles composites) Maîtrise avancée de DAX (patterns avancés, groupes de calcul, optimisation des performances) Power Query (M), avec un fort accent sur le query folding et la performance Expert reconnu en intégration de données et en mise en œuvre de pipelines sur une plateforme d’analytique cloud de référence, incluant : Extraction de données depuis de multiples sources (bases de données, Google Analytics, API, Databricks, Delta Sharing, OneLake) Ingestion de données depuis Azure Data Lake (Parquet, CSV, SQL Server) Transformation, préparation et stockage des données à des fins analytiques et de reporting Bonne maîtrise des solutions de thématisation Power BI, incluant : Création, personnalisation et application de thèmes Power BI Alignement des rapports avec l’identité visuelle de l’entreprise et les standards d’ergonomie Maîtrise avancée de la gouvernance et de l’architecture Power BI, incluant : Traçabilité des données ( data lineage ), étiquettes de sensibilité et configurations de sécurité Pipelines de déploiement et séparation des environnements Rôles administratifs Power BI et bonnes pratiques de gouvernance de la plateforme Maîtrise avancée dans la restitution d’analyses décisionnelles, incluant : Conception de modèles sémantiques en libre-service et de jeux de données réutilisables Développement de tableaux de bord et de rapports destinés aux décideurs Data storytelling et communication claire des analyses auprès des parties prenantes métier
Offre d'emploi
PMO budgétaire & financier confirmé
Lùkla
Publiée le
JIRA
Microsoft Excel
Microsoft Power BI
40k-55k €
Île-de-France, France
🛠️ Missions principales 1. Suivi budgétaire opérationnel Suivi du budget global programme (internes + externes). Consolidation du consommé réel par domaine et par lot. Analyse des écarts budget / réalisé et alerte proactive. Mise à jour des outils de suivi (Excel, tableaux consolidés, fichiers internes). 2. Pilotage financier transverse Préparation des atterrissages mensuels et trimestriels . Construction des scénarios d’atterrissage financier jusqu’à la bascule (2027). Suivi des risques financiers et des points d’attention budgétaires. Coordination avec direction financière, achats, pilotage programme. 3. Gestion des engagements et prestataires Suivi des engagements, renouvellements, factures. Interaction avec les partenaires externes (sous‑traitants, régie, AT, etc.). Préparation des éléments pour les renouvellements et arbitrages. 4. Reporting & préparation des instances Préparation des éléments budgétaires pour : COPIL programme COSUI / comités IT Comité de direction Production des KPI financiers (consommé, projection, écarts, risques). 5. Support à la direction de programme Participation active au pilotage consolidé du programme. Aide à la prise de décision par mise en visibilité des tendances financières. Propositions d’optimisation ou de réallocation si nécessaire.
Offre d'emploi
Data Steward F/H
Karma Partners
Publiée le
PowerBI
Python
SQL
6 mois
40k-49k €
400-500 €
Croix, Hauts-de-France
POSTE EN PRE-EMBAUCHE : 6/7 mois en presta suivi d'un CDI Accompagnement des Référents Métiers : Vous serez le point de référence pour guider les Data Owners dans la mise en qualité de leurs données métier, en animant les processus de gouvernance et en favorisant une collaboration efficace entre les équipes. Responsabilité de la gouvernance des données : Vous participerez activement à la gouvernance d'un périmètre applicatif Data, en analysant les anomalies détectées et en proposant des solutions. Gestion et enrichissement du Data Catalog : Vous serez en charge de la mise à jour et de l'enrichissement de notre Data Catalog, en veillant à ce que les données soient bien documentées et facilement accessibles pour les utilisateurs. Vous animerez les sessions de formation et de sensibilisation sur l'utilisation du Data Catalog. Création et suivi des indicateurs de qualité des données : Vous serez responsable de la création, de la mise en œuvre et du suivi des indicateurs de qualité des données. Vous présenterez les résultats aux métiers et vous vous assurerez que les données restent conformes aux exigences et aux évolutions des processus et outils. Transformation des outils de Data Quality : Vous contribuerez à la transformation de nos outils de Data Quality, en jouant un rôle clé dans l'optimisation de la mise en oeuvre des sondes ainsi que des outils de décision et de visualisation.
Mission freelance
Expert BI
EBMC
Publiée le
Microsoft Power BI
SAP
6 mois
400-650 €
Essonne, France
Dans le cadre d’un programme de modernisation des usages décisionnels et de migration vers une nouvelle plateforme data, nous recherchons un consultant freelance disposant d’une expertise technique avancée en BI et data analytics. La mission s’inscrit dans un contexte de forte autonomie, avec une responsabilité complète sur la conception, l’évolution et la fiabilisation des solutions de reporting. Le consultant interviendra sur des environnements hybrides mêlant SAP et outils Microsoft, avec un rôle clé dans la phase de cadrage et de mise en œuvre de la migration vers une architecture cible reposant sur Power BI et une plateforme data moderne. Il contribuera activement à la sécurisation des données, à la cohérence des chiffres et à l’accompagnement des équipes métiers tout au long de la transformation, dans un objectif de fiabilité, de performance et de pérennité des solutions décisionnelles.
Offre premium
Offre d'emploi
Chef de Projet BI / Data
Projets et Performance
Publiée le
Microsoft Power BI
Microsoft SSIS
Power Apps
50k-60k €
Lyon, Auvergne-Rhône-Alpes
Vous souhaitez rejoindre une ETI française dynamique , tournée vers l’innovation et engagée dans un plan de développement ambitieux ? Vous recherchez un environnement où les valeurs humaines, la cohésion d’équipe, l’expertise technique et la qualité de service sont au cœur du fonctionnement ? Ce poste est fait pour vous. Dans le cadre de son développement, notre client recherche un Chef de Projet BI / Data Middleware (H/F) pour renforcer sa Direction Digitale et Systèmes d’Information. Vous jouerez un rôle clé dans la collecte, la transformation et la valorisation des données , ainsi que dans la mise en œuvre des flux d’échanges entre les différents systèmes. Le poste comporte environ 60 % de BUILD et 40 % de RUN . Vos missions : Conception et gestion des infrastructures data Recueillir les besoins métiers en matière de collecte, traitement et exploitation des données. Concevoir des architectures de données robustes (DWH, Data Lake…). Développer et maintenir des pipelines de données performants et sécurisés. Assurer la qualité, la sécurité et la conformité des données (gouvernance, RGPD). Optimiser les systèmes de traitement de données et industrialiser les processus. Support aux projets Data et intégration Collaborer étroitement avec les key users BI sur les projets décisionnels. Mettre en place et suivre les flux EDI (INVOIC, ORDERS…). Assurer la maintenance, les tests automatisés et l’exploitabilité des solutions. Contribuer à la rédaction des bonnes pratiques d’architecture et de sécurité. Veille, amélioration continue et qualité Réaliser une veille sur les technologies Big Data, frameworks et langages associés. Proposer des améliorations continues, tant sur les outils que sur les performances. Garantir la traçabilité et la haute qualité des données mises à disposition. Support utilisateurs et supervision quotidienne des flux (40 % du temps) Traiter les tickets utilisateurs (incidents, assistance). Assurer la supervision quotidienne des flux : analyse d’erreurs, corrections, rejouements, optimisations.
Mission freelance
Responsable Facturation Infrastructures & Services IT – Mi-temps
IT-newvision sas
Publiée le
Analyse
Comptabilité
Microsoft Excel
12 mois
500-560 €
Le Pecq, Île-de-France
Nous recherchons actuellement pour l'un de nos partenaires majeurs, un Responsable Facturation IT (Operations Controller) pour une mission stratégique en assistance technique. Votre Mission : Au sein de la direction des infrastructures, vous assurez la gestion opérationnelle et le pilotage de la ventilation des facturations fournisseurs ainsi que des conventions de services. Votre rôle est central pour garantir l'équilibre financier et la transparence des coûts IT. Vos principales responsabilités : Gestion de la refacturation : Intégrer et ventiler les coûts d'hébergement, de services et de licences vers les filiales. Pilotage Budgétaire : Élaborer le budget prévisionnel, suivre les dépenses réelles et présenter les projections aux différentes lignes de solutions. Suivi Contractuel : Contrôler la cohérence des factures des hébergeurs et participer au suivi des contrats et conventions de service. Optimisation : Définir des plans d'action pour fiabiliser le processus de refacturation et valider l'équilibre recettes/dépenses.
Mission freelance
Proxy PO RUN - Snowflake + Power BI
FF
Publiée le
Microsoft Power BI
Snowflake
1 an
400-550 €
Paris, France
Bonjour à tous, Mission longue à Paris : 1 an + Télétravail : 2 jours par semaine Date de démarrage courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour stabiliser la phase de RUN de notre plateforme data. Cette mission répond à un besoin critique : Situation actuelle : • Volume important d'incidents en cours, faute de capacité suffisante • Absence de système d'alerte en place • Absence de remontée automatique en cas de défaillance Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de soulager les équipes de développement en prenant en charge le RUN au quotidien et en assurant la stabilité opérationnelle de la plateforme data et des usages BI. Objectif principal Assurer la stabilité opérationnelle de la plateforme data et des usages BI, en prenant en charge le RUN au quotidien et en soulageant les équipes de développement. Le PPO RUN devra gérer les incidents, investiguer de manière autonome, échanger quotidiennement avec les utilisateurs pour le support fonctionnel, et contribuer à la mise en place du monitoring et de l'alerting. Responsabilités clésGestion des incidents et support • Prendre en charge la première phase d'analyse des incidents • Investiguer de manière autonome avant sollicitation des développeurs • Gérer et prioriser le backlog d'incidents ServiceNow • Proposer l'arbitrage des tickets RUN dans ServiceNow basé sur le risque et l'impact business • Prioriser et qualifier les incidents selon leur criticité • Analyser et coordonner les tickets d'incident ServiceNow avec l'équipe de développement pour communiquer aux utilisateurs • Échanger quotidiennement avec les utilisateurs (support fonctionnel) Monitoring et alerting Enjeu clé de la mission – Le PPO RUN devra : • Comprendre les flux et le fonctionnement fonctionnel de la plateforme data • Fournir les inputs fonctionnels aux équipes data pour la mise en place du monitoring • Contribuer à la mise en place du monitoring et de l'alerting (sans être expert outil) • Implémenter la surveillance et l'alerte sur les sources de données pour assurer la fraîcheur, la qualité et la disponibilité des données ⚠️ Important : Les équipes data attendent des inputs fonctionnels clairs, pas une expertise technique en alerting. Documentation et procédures • Produire des SOPs (Standard Operating Procedures) pour les incidents récurrents permettant à l'équipe RUN externe de gérer les opérations RUN de routine • Créer des procédures d'investigation détaillées • Fournir des extraits de code utiles utilisés par les développeurs • Documenter des procédures de remédiation Transition et formation • Structurer et supporter une transition fluide de Build à RUN des activités du projet • Contribuer à la formation et au support des utilisateurs sur les rapports Power BI et le modèle de données (self-BI) • Assurer la performance opérationnelle et la fiabilité des solutions livrées par l'équipe Coordination avec les équipes de développement • Être en contact régulier avec les équipes de développement pour creuser certaines pistes • Analyser et coordonner les tickets d'incident avec l'équipe de développement Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (lecture, compréhension des usages) • SQL : capacité à faire des requêtes SQL simples pour analyses préliminaires et analyse de données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Très bonne communication avec les utilisateurs et les équipes de développement • Autonomie forte – capacité à investiguer seul avant escalade • Rigueur et sens des priorités pour gérer et prioriser efficacement les incidents • Esprit collaboratif • Excellente communication, facilitation et négociation avec les parties prenantes • Décisif et axé sur les résultats Langues • Anglais courant / bilingue : obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à intermédiaire) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Gérer le backlog ServiceNow et assurer la priorisation efficace des incidents • Implémenter la surveillance et l'alerte sur les sources de données • Produire des SOPs (Standard Operating Procedures) pour les incidents récurrents • Contribuer à la formation et au support des utilisateurs • Assurer une transition fluide de Build à RUN et la stabilité opérationnelle de la plateforme data Compétences clés demandées • Snowflake (fonctionnel) • Microsoft Power BI • AGILE Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Mission freelance
Proxy PO build - Snowflake + Power BI
FF
Publiée le
Azure Data Factory
Microsoft Power BI
Snowflake
1 an
Paris, France
Bonjour à tous, Mission longue 1 an ou + à Paris. Télétravail : 2 jours par semaine Date de démarrage : courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour accélérer la phase de BUILD de notre plateforme data. Cette mission vise à répondre à un besoin critique : face à un volume important de demandes utilisateurs et une incapacité à tout traiter faute de bande passante, ce PPO sera en charge de structurer et accélérer la livraison de nouvelles fonctionnalités, KPI et spécifications fonctionnelles. Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de faire le lien entre les utilisateurs métiers et les équipes de développement, en fournissant des spécifications fonctionnelles claires et exploitables. Objectif principal Accélérer le BUILD produit data : spécifications, nouveaux KPI, structuration des demandes utilisateurs. Le PPO BUILD devra gérer un fort volume d'échanges avec les utilisateurs, recueillir et formaliser les besoins métiers, définir et cadrer de nouveaux KPI, et travailler en étroite collaboration avec le Product Owner Data et les équipes de développement. Responsabilités clésGestion du backlog et cérémonies Agile • Participer aux cérémonies Agile et supporter le PO dans la gestion d'équipe • Gérer et opérer le backlog BUILD • Créer et maintenir les tickets Jira pour les équipes de développement avec des informations complètes : spécifications d'intégration de données, sources de données requises pour la construction des KPI, règles de transformation et critères d'acceptation Recueil et formalisation des besoins • Recueillir les besoins métiers auprès des utilisateurs clés • Mener des interviews utilisateurs à haut volume pour comprendre et cadrer les demandes • Formaliser les besoins sous forme de spécifications fonctionnelles claires et exploitables Analyse et construction des KPI • Analyser les sources de données nécessaires pour construire les KPI • Définir et cadrer de nouveaux KPI dans la plateforme data • Effectuer l'analyse technique et optimiser la logique de calcul des KPI • Concevoir des modèles de données dans Snowflake et Power BI Tests et validation • Effectuer des tests UAT (User Acceptance Testing) avec les parties prenantes dans Snowflake et Power BI • Tester et valider les fonctionnalités et améliorations livrées Suivi et optimisation • Surveiller et examiner l'orchestration et la planification des sources • Construire et affiner les modèles de données Power BI • Contribuer à la documentation fonctionnelle Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (KPI, dashboards) • SQL : connaissance fonctionnelle pour effectuer l'analyse de données, validation et compréhension des données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Spécifications fonctionnelles : capacité à rédiger des spécifications fonctionnelles claires et exploitables • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Excellentes capacités de communication avec les utilisateurs et les équipes de développement • Aisance dans les échanges avec des utilisateurs exigeants et capacité de facilitation et négociation avec les parties prenantes • Esprit de synthèse et structuration pour transformer des besoins complexes en spécifications claires • Autonomie forte et curiosité – capacité à apprendre rapidement le contexte métier • Décisif et axé sur les résultats • Esprit collaboratif Langues • Anglais : courant / bilingue obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à confirmé) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Assurer une approche centrée utilisateur dans toutes les décisions produit • Construire et maintenir la roadmap produit en collaboration avec le Product Owner Data • Définir des spécifications fonctionnelles claires et complètes • Planifier, piloter et prioriser les développements en utilisant la méthodologie Agile • Tester et valider les fonctionnalités et améliorations livrées • Fournir formation, support et communication aux utilisateurs Compétences clés demandées • AGILE • Snowflake (fonctionnel) • Microsoft Power BI : Niveau Expert Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Offre d'emploi
Project manager Data Trade Denodo/VQL ( H/F)
AVA2I
Publiée le
Data quality
Finance
Microsoft Power BI
3 ans
Île-de-France, France
Dans le cadre d’un programme stratégique Data mené au sein d’un grand environnement bancaire international , une équipe IT orientée métiers Corporate & Trade Finance renforce ses capacités pour accompagner la transformation et l’accessibilité des données. Un projet structurant est en cours visant à centraliser, modéliser et distribuer les données Trade Finance , tout en garantissant un haut niveau de qualité, de gouvernance et de sécurité . Accompagner le métier Trade Finance dans l’accessibilité et la valorisation de ses données Piloter la migration des rapports BI existants vers une nouvelle solution Data Définir les plans d’actions et les roadmaps de migration des rapports existants Analyser et cadrer les besoins métier via des ateliers fonctionnels Prioriser et budgétiser les sujets de migration Coordonner les échanges avec des équipes internationales Implémenter les modèles de données sur une plateforme de virtualisation de données (Denodo / VQL) Rédiger la documentation fonctionnelle et les user stories Superviser les développements afin de maîtriser les risques et le périmètre Assurer l’assistance fonctionnelle auprès des équipes de développement Concevoir et maintenir des rapports sur Power BI Contribuer aux processus de Data Quality (définition et mise en place de règles)
Mission freelance
Développeur Junior .NET React Power BI
emagine Consulting SARL
Publiée le
.NET
C#
Microsoft Power BI
3 ans
400-500 €
Île-de-France, France
Pour l’un de nos clients grand compte dans le secteur de la finance , vous interviendrez sur des applications stratégiques dédiées à la gestion de la trésorerie . Vos principales missions seront : Assurer la maintenance évolutive et corrective de l’application Concevoir, développer et implémenter des modules fonctionnels liés à la trésorerie et à l’ALM Participer activement aux projets de migration des modules vers .NET Core Réaliser les tests unitaires et fonctionnels , ainsi que le monitoring des applications en production Garantir la qualité, la performance et la fiabilité des systèmes
Mission freelance
📢 Nous recrutons : Formateur·rice Power BI, Power Query, Power Pivot, VBA Niveau 2
Editions ENI
Publiée le
Microsoft Power BI
Power Pivot
Power Query
3 jours
300-350 €
Nantes, Pays de la Loire
Votre profil : Vous possédez la certification PL300 et MCT ? Vous maîtrisez Power BI, Power Query, Power Pivot, VBA et aimez transmettre vos connaissances ? Vous savez accompagner aussi bien des débutants que des utilisateurs avancés ? Alors cette mission est faite pour vous ! Votre rôle : Vous animerez des sessions de formation entre 1 et 3 jours, sur Power BI, Power Query, Power Pivot, VBA auprès de clients dans nos centres de formation ou dans leur locaux. Conditions : Rémunération : 300 à 350€ HT / jour Lieu : Pays de la Loire, Bretagne, Paris Mission flexible et évolutive, selon votre disponibilité.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passage en EI régime réel
- Pourquoi est-il si dur de décrocher une mission avec un CV pourtant plutôt intéressant ?
- Cadeau reçu en micro-entreprise
- ARCE | Informations générales-Indemnisation
- Je code pour vous une application gratuitement
- Passage au réel après dépassement micro : notification URSSAF ?
566 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois