Trouvez votre prochaine offre d’emploi ou de mission freelance Microsoft Power à Paris
Votre recherche renvoie 149 résultats.
Mission freelance
Engineering Manager
Publiée le
AWS Cloud
Node.js
React
12 mois
700-750 €
Paris, France
Contexte : Dans le cadre de la structuration de son pôle Digital, le client renforce sa gouvernance technique afin d’améliorer la cohérence, la qualité et la performance de son delivery. Le périmètre comprend à la fois des collaborateurs internes et des prestataires externes, et s’effectue en coordination avec les équipes internes Plateforme, UX, QA, Produit et IT Groupe. Missions principales : Dans ce contexte, la mission de l’Engineering Manager consistera à assurer un delivery homogène, fiable et durable en consolidant les outils, les workflows et les pratiques d’ingénierie. L’Engineering Manager aura également pour mission de standardiser les pratiques d'ingénierie, d’aligner et de structurer les méthodologies de travail, et de favoriser la mise en œuvre de bonnes pratiques de développement au sein des différentes équipes Axes de mission : Les missions de l’Engineering Manager s’articulent autour de quatre axes principaux : 1. Leadership et vision technique : Structurer les pratiques d'ingénierie et de delivery, piloter la cohérence technique à l’échelle du pôle et contribuer à la définition des standards communs 2. Suivi et encadrement Accompagner les développeurs et tech leads dans leur progression, renforcer la cohésion d’équipe et instaurer une dynamique de communication continue 3. Excellence technique Garantir la qualité, la maintenabilité et la testabilité du code, tout en alignant les méthodologies de travail et les processus d’intégration continue 4. Communication et influence Assurer un rôle d’interface entre les équipes techniques et les autres parties prenantes et favoriser la circulation de l’information technique ainsi que l’alignement entre le produit et la technique. Activités principales Leadership & coordination ➔ Encadrer et accompagner les développeurs et tech leads des différentes équipes ➔ Mettre en place une organisation d’équipe favorisant la communication et la visibilité (1:1, synchronisations techniques, points de suivi…) ➔ Créer un environnement collaboratif favorisant le partage et la montée en compétence Standardisation & méthodologie ➔ Structurer et aligner les pratiques d'ingénierie entre équipes (Git flow, tests, revue de code…) ➔ Consolider et partager les bonnes pratiques d’ingénierie logicielle adaptées au contexte de chaque équipe (Clean architecture, testabilité, séparation des responsabilités…) ➔ Promouvoir la qualité de code, la maintenabilité et la documentation technique ➔ Aligner les méthodologies de delivery pour favoriser la lisibilité et la cohérence technique à l’échelle du pôle Outillage & CI/CD ➔ Renforcer la cohérence des outils et environnements de développement pour assurer une base commune et durable ➔ Participer à la mise en place de templates de CI/CD unifiées ➔ Piloter la migration des projets vers GitHub ➔ Garantir la cohérence des configurations et environnements entre composants ➔ Collaborer étroitement avec la Platform Team afin d’assurer la cohérence entre les besoins techniques des différentes équipes et les capacités fournies Expérience développeur & Onboarding ➔ Simplifier l’onboarding technique via des outils automatisés et des guides consolidés ➔ Faire évoluer l’environnement technique et les pratiques pour offrir une expérience développeur fluide et efficace Innovation & automatisation ➔ Promouvoir l’intégration raisonnée d’outils d’assistance basés sur l’IA dans la toolchain des développeurs ➔ Identifier les opportunités d’amélioration continue via l’automatisation en collaboration avec le pôle Innovation Environnement technique Langages: Typescript, Python Frameworks: React, Node.js Environnement technique: Github, AWS CI/CD: Github Actions, AWS CodePipeline Documentation; Confluence, Jira, Google Drive
Mission freelance
Consultant Marketing B2B – Structuration d’offre & Présentation Corporate
Publiée le
Marketing
1 mois
520-550 €
Paris, France
Télétravail partiel
Dans le cadre d’une mission menée pour un client du secteur de l’intérim, nous recherchons un(e) consultant(e) freelance pour formaliser et structurer une présentation marketing Corporate. L’objectif est de clarifier le business model d’une nouvelle offre stratégique, aujourd’hui principalement portée par le CEO, pas encore formalisée, et de le traduire en un support clair, cohérent et convaincant en vue d’un appel d’offres. Votre rôle consistera à : Comprendre rapidement le positionnement, la proposition de valeur et les éléments différenciants, Structurer l’offre, le business modèle et les messages clés, Formaliser la proposition de valeur et les preuves associées, Concevoir un support de présentation professionnel et des visuels impactants (PowerPoint / Google Slides / équivalent). Profil recherché : Expérience confirmée en marketing B2B ou conseil en positionnement / structuration d’offre, Capacité à clarifier et reformuler des modèles d’affaires BtoB, Aisance dans la conception de présentations structurées et lisibles et la création de visuels impactants.
Mission freelance
Data Analyst Azure Data Factory
Publiée le
Azure
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Data Management, Data Analyst Spécialités technologiques ERP, SI Financier, Progiciels Dans le cadre du renforcement de l’équipe Data Factory de notre client, au service des équipes Finance & Procurement, la mission vise à transformer les données issues de l’ERP Oracle Cloud en indicateurs fiables et tableaux de bord Power BI permettant le pilotage opérationnel et financier. Les travaux s’inscrivent dans l’environnement Azure (Azure Data Factory, Azure Databricks, Power BI) et suivent les bonnes pratiques de qualité, de performance et de gouvernance des données. MISSIONS Objectifs de la mission : - Analyse des besoins Finance / Procurement et formalisation des exigences fonctionnelles (KPI, règles de gestion, périmètres analytiques). - Mapping des données depuis la source Oracle vers les modèles analytiques Power BI (modèle en étoile, dictionnaire de données, règles de transformation). - Développement et industrialisation des data pipelines dans Azure . - Conception et développement des tableaux de bord Power BI (datasets, DAX, RLS, UX) prêts à être déployés et adoptés par les métiers. Responsabilités principales : 1) Analyse de besoins et cadrage - Conduire des ateliers avec les key users Finance (Comptabilité générale, Fournisseurs/AP, Clients/AR, Contrôle de gestion) et Achats. - Produire les spécifications fonctionnelles et le backlog associé. 2) Cartographie & modélisation des données (Oracle → Power BI) - Identifier tables, vues et colonnes Oracle pertinentes ; définir la granularité et les jointures. - Rédiger le document de mapping et le dictionnaire de données (définitions, sources, règles de calcul). - Concevoir le modèle sémantique (étoile) pour Power BI, avec dimensions conformes et mesures DAX documentées. 3) Développement des pipelines (Azure Databricks / ADF) - Développer notebooks et jobs (PySpark/SQL) pour ingestion, nettoyage, transformations et calculs d’indicateurs. - Mettre en place des contrôles qualité (règles, reconciliations, gestion des écarts) et optimiser coûts/performance. 4) Développement des dashboards Power BI - Créer les datasets (mesures DAX, hiérarchies, rôles RLS) et les rapports (navigation, filtres, drill, bookmarks). - Réaliser la recette avec les utilisateurs, intégrer les retours, publier et organiser le partage (Apps, workspaces). 5) Documentation, gouvernance & transfert - Tenir à jour la documentation (spécifications, mapping, checklist de qualité). - Contribuer aux bonnes pratiques (naming, versioning Git/Azure DevOps, sécurité & conformité). Domaines de données concernés : - Finance : Comptabilité générale (GL), Comptabilité fournisseurs (AP), Comptabilité clients (AR), Contrôle de gestion (actuals, budget, forecast). - Achats / Procurement : données fournisseurs, familles d’achat, contrats, engagements, réceptions, paiements. Expertise souhaitée - Expérience avérée d’au moins une mission de reporting financier incluant : Comptabilité générale, AP, AR, Contrôle de gestion, Achats. - Maîtrise d’Azure Data Factory, Azure Databricks et Power BI (datasets, DAX, RLS, publication). - Compétences en modélisation décisionnelle (modèle en étoile, granularité, dimensions conformes) et qualité des données. - Capacité à animer des ateliers, rédiger des spécifications claires et collaborer avec des profils métiers et techniques. - Anglais courant indispensable (ateliers, documentation, échanges avec parties prenantes).
Mission freelance
Data Analyst pilotage opérationnel et financier
Publiée le
MySQL
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Expérience : 5 ans et plus Métiers Fonctions : Data Management, Data Analyst Spécialités technologiques : ERP, SI Financier, Progiciels Dans le cadre du renforcement de l’équipe Data Factory de notre client, au service des équipes Finance & Procurement, la mission vise à transformer les données issues de l’ERP Oracle Cloud en indicateurs fiables et tableaux de bord Power BI permettant le pilotage opérationnel et financier. Les travaux s’inscrivent dans l’environnement Azure (Azure Data Factory, Azure Databricks, Power BI) et suivent les bonnes pratiques de qualité, de performance et de gouvernance des données. MISSIONS Objectifs de la mission : - Analyse des besoins Finance / Procurement et formalisation des exigences fonctionnelles (KPI, règles de gestion, périmètres analytiques). - Mapping des données depuis la source Oracle vers les modèles analytiques Power BI (modèle en étoile, dictionnaire de données, règles de transformation). - Développement et industrialisation des data pipelines dans Azure . - Conception et développement des tableaux de bord Power BI (datasets, DAX, RLS, UX) prêts à être déployés et adoptés par les métiers. Responsabilités principales : 1) Analyse de besoins et cadrage - Conduire des ateliers avec les key users Finance (Comptabilité générale, Fournisseurs/AP, Clients/AR, Contrôle de gestion) et Achats. - Produire les spécifications fonctionnelles et le backlog associé. 2) Cartographie & modélisation des données (Oracle → Power BI) - Identifier tables, vues et colonnes Oracle pertinentes ; définir la granularité et les jointures. - Rédiger le document de mapping et le dictionnaire de données (définitions, sources, règles de calcul). - Concevoir le modèle sémantique (étoile) pour Power BI, avec dimensions conformes et mesures DAX documentées. 3) Développement des pipelines (Azure Databricks / ADF) - Développer notebooks et jobs (PySpark/SQL) pour ingestion, nettoyage, transformations et calculs d’indicateurs. - Mettre en place des contrôles qualité (règles, reconciliations, gestion des écarts) et optimiser coûts/performance. 4) Développement des dashboards Power BI - Créer les datasets (mesures DAX, hiérarchies, rôles RLS) et les rapports (navigation, filtres, drill, bookmarks). - Réaliser la recette avec les utilisateurs, intégrer les retours, publier et organiser le partage (Apps, workspaces). 5) Documentation, gouvernance & transfert - Tenir à jour la documentation (spécifications, mapping, checklist de qualité). - Contribuer aux bonnes pratiques (naming, versioning Git/Azure DevOps, sécurité & conformité). Domaines de données concernés : - Finance : Comptabilité générale (GL), Comptabilité fournisseurs (AP), Comptabilité clients (AR), Contrôle de gestion (actuals, budget, forecast). - Achats / Procurement : données fournisseurs, familles d’achat, contrats, engagements, réceptions, paiements. Expertise souhaitée - Expérience avérée d’au moins une mission de reporting financier incluant : Comptabilité générale, AP, AR, Contrôle de gestion, Achats. - Maîtrise d’Azure Data Factory, Azure Databricks et Power BI (datasets, DAX, RLS, publication). - Compétences en modélisation décisionnelle (modèle en étoile, granularité, dimensions conformes) et qualité des données. - Capacité à animer des ateliers, rédiger des spécifications claires et collaborer avec des profils métiers et techniques. - Anglais courant indispensable (ateliers, documentation, échanges avec parties prenantes).
Offre d'emploi
Développeur(se) Azure Data Fabric confirmé(e)
Publiée le
MySQL
18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Transformation digitale ; Gouvernance des données Dans un contexte de transformation digitale orientée data, nous recherchons un profil senior capable de concevoir, développer et maintenir des solutions de traitement et d’ingestion de données sur la plateforme Azure Data Fabric. Vous serez un acteur clé dans l’industrialisation des flux de données, l’optimisation des pipelines, et la mise en œuvre de solutions scalables et performantes. Le poste implique à la fois un rôle opérationnel, d’expertise technique et de leadership sur les bonnes pratiques de l’écosystème Azure. MISSIONS 1. Conception et développement ▪ Participer à l’analyse des besoins métiers et techniques en matière de traitement de données. ▪ Concevoir et développer des pipelines d’ingestion, de transformation et de distribution des données sur Azure Data Factory. ▪ Intégrer les services Azure liés à la Data Fabric qui seront nécessaire : ex : Azure Data Lake Storage Gen2 etc... ▪ Implémenter des modèles de données et des solutions de traitement ▪ Encadrer la modélisation des flux de données complexes (batch et streaming) et proposer des architectures “data-driven” adaptées aux enjeux métiers. 2. Conception et développement de pipelines avancés ▪ Concevoir, développer et maintenir des pipelines avec Azure Data Factory et/ou Azure Synapse Pipelines. ▪ Définir et mettre en œuvre des stratégies de surveillance (monitoring) et d’alerting des pipelines. ▪ Optimiser les performances et les coûts des traitements (partitionnement, parallélisation, contrôle qualité). 3. Support et amélioration continue ▪ Assurer le support dans l’utilisation de la plateforme. ▪ Être force de proposition sur l’optimisation des traitements, la réduction des coûts Azure, et les innovations technologiques. ▪ Suivre la performance et la fiabilité des solutions déployées via Azure Monitor, Log Analytics, Application Insights. Expertise souhaitée Compétences requises : Techniques : ▪ Azure Data Factory - Expert ▪ Azure Data Lake Storage Gen2 - Confirmé ▪ Azure Synapse Analytics (dedicated & serverless) - Confirmé à expert ▪ Azure Event Hub / Stream Analytics - Bonne connaissance ▪ Sécurité Azure & gouvernance - Bonne connaissance ▪ Python / SQL / PowerShell - Confirmé ▪ Architecture Data / Cloud - Expérience significative ▪ PowerBI Confirmé Compétences comportementales : • Bon relationnel et sens de l’écoute • Autonomie et esprit d’initiative • Esprit analytique et rigueur • Capacité à vulgariser les sujets techniques pour les métiers • Esprit d’équipe Profil recherché : ▪ Bac+3 à Bac+5 en informatique, ingénierie, data ou équivalent. ▪ Expérience significative en développement de solutions data sur Microsoft Azure. ▪ Minimum 5 ans d’expérience sur des projets data complexes en environnement cloud (Azure de préférence). ▪ Très bonne connaissance de l’écosystème Azure et de ses services data. ▪ Bonne compréhension des architectures data modernes (data lake, real-time,event-driven). ▪ Sensibilité forte à la performance, la sécurité et la gouvernance des données. ▪ Autonomie, rigueur, curiosité technologique, esprit d’équipe. ▪ Bon niveau de communication, capable d’interagir avec les équipes métiers et IT.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
149 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois