Trouvez votre prochaine offre d’emploi ou de mission freelance Microsoft Power BI à Lyon

Ce qu’il faut savoir sur Microsoft Power BI

Microsoft Power BI est un outil d'analyse de données et de visualisation développé par Microsoft, conçu pour transformer des données brutes en insights exploitables. Il permet de connecter, modéliser et analyser des données provenant de diverses sources, comme des bases de données, des fichiers Excel, ou des services cloud. Grâce à ses tableaux de bord interactifs, ses visualisations personnalisables et ses fonctionnalités de partage en ligne, Power BI facilite la prise de décision dans les entreprises. Intégré à l’écosystème Microsoft, il fonctionne en complémentarité avec Excel, Azure et d’autres solutions, tout en offrant une expérience intuitive adaptée aux utilisateurs techniques et métiers.

Votre recherche renvoie 27 résultats.
Freelance

Mission freelance
PMO - Lyon

Codezys
Publiée le
Cloud
Gestion des risques
Powerpoint

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la prestation L’objet de la consultation est de réaliser des missions de PMO dans le cadre d’un programme visant à sécuriser le fonctionnement du SI. L’objectif est de réduire le risque, le nombre et la portée des incidents, tout en améliorant la réactivité en cas d’incident et la continuité des services critiques. Le programme se structure autour de 3 axes : La sécurisation du SI La mise en résilience des services offerts par la DO La mise en résilience des infrastructures Différentes thématiques ont été définies : Protection du SI (macro et micro segmentation) pour limiter la propagation d’incidents cyber Mécanismes de reconstruction du SI (plans de reprise d’activité) et tests Suivi de l’obsolescence du SI (besoin de gérer la dette technique) Assurer la continuité d’activité via le pilotage du SI par chaînes applicatives Objectifs et livrables 2.1 Objectifs Le programme Résilience, impulsé par la Direction du Numérique du Groupe, mobilise des acteurs des DSI, des architectes et des OPS. Le PMO doit : Proposer, produire et analyser des indicateurs pour suivre le programme Fédérer les acteurs et assurer la circulation de l’information 2.2 Description des tâches En lien avec les PMO transverses de la Direction des Opérations, le titulaire doit : Mettre en place le suivi des objectifs et leur réalisation Aider à la formalisation des objectifs à partir des besoins Collecter les données pour produire des indicateurs et garantir leur cohérence Proposer, définir, industrialiser et suivre les indicateurs via PowerBi Créer des tableaux de bord pour suivre l’avancement Organiser et animer des comités opérationnels avec les DSI et autres correspondants Présenter les indicateurs lors des comités Rédiger les comptes-rendus des réunions Résultats attendus et livrables Les principaux livrables sont : Des tableaux de bord pour suivre l’avancement du programme Des indicateurs pour mesurer l’atteinte des objectifs Supports d’avancement pour les réunions (Comités Projet, Pilotage) Animation de certaines réunions et production de comptes-rendus Suivi des actions issues des réunions
Freelance

Mission freelance
Data Analyst Expert

Codezys
Publiée le

6 mois
300-450 €
Lyon, Auvergne-Rhône-Alpes
Analyser, structurer et valoriser les données prescriptives du SIP afin de transformer des données issues de documents en référentiels exploitables, au service de la performance et de la décision métier. Objectifs et livrables Responsabilités clés Mettre en qualité et transformer les données prescriptives Réaliser des analyses statistiques descriptives Identifier et structurer les référentiels métier Produire des tableaux de bord et visualisations (Power BI) Restituer les résultats aux commanditaires métiers Travailler en collaboration étroite avec les équipes produit et data Environnement technique Google Cloud Platform (GCP) Outils data et BI Power BI Conformité aux principes data et SI Vision 2035 Compétences attendues Solide expérience en analyse de données Capacité à passer du document à la donnée structurée Bonne compréhension des enjeux métiers Capacité de restitution et de pédagogie Orientation valeur et usage
CDD
CDI
Freelance

Offre d'emploi
QA Expert Décisionnel - SQL

KEONI CONSULTING
Publiée le
IBM DataStage
SQL
Squash

18 mois
20k-60k €
100-500 €
Lyon, Auvergne-Rhône-Alpes
Contexte Nous recherchons pour notre client un profil qualifieur sénior (plus de 7 ans d'expérience) pour compléter le dispositif du service qualification . l’objectif est le renforcement de l'équipe qualification Décisonnel avec l'intégration d'une resource maitisant le requetage SQL. Fort de ses expériences techniques et fonctionnelles, le candidat devra également montrer une forte connaissance de la BI et une connaissance des méthodes Agiles." MISSIONS • Identifier les impacts d’une nouvelle application ou des applications modifiées sur le niveau d’intégration du SI ; • Vérifier l’interopérabilité entre les systèmes ; • Réaliser les tests d’intégration : valider les correctifs livrés, vérifier l’interopérabilité ; • Organiser et préparer la phase de test, planifier les tests : critères de recevabilité des livraisons, estimation et planification des travaux, organisation des équipes, définition des besoins d’infrastructure et d’environnement, préparation des jeux de données ; • Préparer les tests : préparation des scénarios et mise à disposition des infrastructures (contextes, logiciels, données) ; • Coordonner et apporter le support aux campagnes de tests : suivi exécution des sessions TP, exécution des plans batch, analyse des résultats, suivi des non-conformités ; • Rédiger le bilan de qualification ; • Participer à la coordination des phases de recettes ; • Participer aux phases de déploiement en préproduction et en production LIVRABLES Etude d’impact Stratégie de test Plan de tests Bilan de qualification Environnement technique - technologique "ETL/ELT/Traitement : Datastage/SQL Restitution : PowerBI (dataset, dataflow, rapports) Stockage : Teradata, PostgreSQL • SQL pour des usages multiples (requêtage) • JIRA (ticketing) • iTOP (gestionnaire des matériels, logiciels, et services) • SquashTM (référentiel tests)"
Freelance

Mission freelance
QA BI Senior à Lyon

ODHCOM - FREELANCEREPUBLIK
Publiée le
BI
MySQL
QA

3 ans
400-690 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons pour notre client, un Qualifieur Senior. Contexte: Dans le cadre de son activité Décisionnel, notre client recherche un profil qualifieur sénior pour renforcer le dispositif du service qualification sur le site de Lyon. Objet de la prestation : Renforcement de l'équipe qualification Décisionnel par l'intégration d'une ressource maîtrisant le requêtage SQL. Fort de ses expériences techniques et fonctionnelles, le prestataire devra démontrer une solide connaissance de la BI ainsi qu'une maîtrise des méthodes Agiles. Missions principales : Rattaché au responsable Bureau d'Études et Qualification Décisionnel & Big Data, le profil aura pour missions de : - Identifier les impacts d'une nouvelle application ou des applications modifiées sur le niveau d'intégration du SI-RC ; - Vérifier l'interopérabilité entre les systèmes ; - Réaliser les tests d'intégration : valider les correctifs livrés, vérifier l'interopérabilité ; - Organiser et préparer la phase de test, planifier les tests : critères de recevabilité des livraisons, estimation et planification des travaux, organisation des équipes, définition des - besoins d'infrastructure et d'environnement, préparation des jeux de données ; - Préparer les tests : préparation des scénarios et mise à disposition des infrastructures (contextes, logiciels, données) ; - Coordonner et apporter le support aux campagnes de tests : suivi d'exécution des sessions TP, exécution des plans batch, analyse des résultats, suivi des non-conformités ; - Rédiger le bilan de qualification ; - Participer à la coordination des phases de recette ; - Participer aux phases de déploiement en préproduction et en production. Technologies & certifications attendues Power BI · Datastage · Teradata · PostgreSQL Livrables attendus - Étude d'impact - Stratégie de test - Plan de tests - Bilan de qualification - Bon de livraison
Freelance

Mission freelance
Développeur confirmé DATABRICKS (Lyon)

SQLI
Publiée le
Azure Data Factory
Java

1 an
450-500 €
Lyon, Auvergne-Rhône-Alpes
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un développeur confirmé Databricks. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
CDI
Freelance

Offre d'emploi
Développeur Data & IA (Python & Dataviz) - Lyon

STHREE SAS pour COMPUTER FUTURES
Publiée le
API
Confluence
DevOps

6 mois
36k-40k €
360-390 €
Lyon, Auvergne-Rhône-Alpes
Renforcer le groupe en assurant la conception, le développement et l’industrialisation de solutions Data, IA et Dataviz destinées aux équipes de développement et DevSecOps. Le consultant contribuera également à : l’intégration d’usages IA dans les outils du développeur augmenté , l'accompagnement et la montée en compétences des équipes internes Responsabilités principales 1. Développement & Industrialisation Data / IA (activité dominante) Développer des composants logiciels Python : scripts, services, APIs, traitements batch. Construire et optimiser des chaînes de traitement de données (ingestion, qualité, traçabilité, performance). Concevoir, industrialiser et maintenir des solutions Data & IA au service des équipes de développement Contribuer à l’intégration d’usages IA dans l’outillage du développeur augmenté (assistants de code, automatisation, observabilité, analyse). 2. Dataviz & reporting décisionnel Concevoir des tableaux de bord Power BI et autres outils de visualisation. Produire des visualisations destinées au pilotage, à l’observabilité et à l’aide à la décision. 3. Documentation, capitalisation & qualité Rédiger et maintenir la documentation technique. Alimenter les référentiels de connaissances (Confluence). Contribuer à la capitalisation des bonnes pratiques Data/IA. 4. Accompagnement & formation des équipes internes Appuyer les équipes internes lors de la prise en main des solutions développées. Animer des formations, démonstrations et sessions d’acculturation (ex. : GitHub Copilot). Participer au transfert de compétences et à la montée en maturité Data/IA. 5. Pilotage & coordination opérationnelle Suivre le backlog et collaborer avec les équipes projets, produits et outillage. Produire un reporting régulier d’avancement, d’activité et de difficultés éventuelles.
Freelance

Mission freelance
Lead Data Scientist

Signe +
Publiée le
Big Data

12 mois
580-810 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Leader technique et fonctionnel chargé de concevoir, déployer et industrialiser des solutions AI/ML utilisant des algorithmes avancés Identifier les opportunités d’amélioration data et piloter leur mise en œuvre dans des environnements cross-fonctionnels Encadrer et faire monter en compétences une équipe de Data Scientists et Data Analysts Garantir le cycle de vie complet des modèles (développement, déploiement, monitoring, amélioration continue) Collaborer étroitement avec les équipes métiers pour transformer les besoins business en solutions data Expérience requise 8 à 10+ ans d’expérience en Data Science Expérience confirmée en développement de code déployable et mise en production de modèles Expérience en développement logiciel production-ready et en environnement agile Expérience de management d’équipe Data Expérience en environnement healthcare ou manufacturing appréciée Compétences techniques Maîtrise des langages Data Science : Python, R, C++ Connaissance des bases de données SQL / NoSQL / Graph / Time series Expertise en AI/ML : Supervised & Unsupervised Learning Deep Learning LLMs Reinforcement Learning Federated Learning Time series forecasting Bayesian statistics et optimisation Expérience cloud et HPC : AWS, Azure, Spark CI/CD, orchestration et industrialisation des modèles Data visualization & storytelling (Tableau, Power BI, Streamlit) Expérience APIs enterprise et big data mining Connaissance des réglementations Data & AI Compétences comportementales Leadership et management d’équipe Communication écrite et orale excellente Capacité à aligner plusieurs équipes et parties prenantes Esprit analytique et résolution de problèmes Autonomie, proactivité et esprit d’équipe Formation Master ou PhD en mathématiques, informatique, ingénierie, statistiques ou domaine quantitatif équivalent
Freelance

Mission freelance
Data Architect

Codezys
Publiée le
API
Azure
Azure Data Factory

12 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Architect qui intégrera l'équipe stable dédiée à la Business Intelligence (BI) et à l'Analyse, avec un focus particulier sur le domaine Achats. Objectifs et livrables Ce que vous aurez à réaliser : En tant que Data Architect, vous veillerez à ce que les produits délivrés par votre équipe soient conformes à notre architecture cible globale. Pour soutenir cette fonction, nous cherchons un Data Architect spécialisé dans Azure, possédant une bonne compréhension des services disponibles dans la stack analytique Azure. Vous collaborerez avec le DPO, les Data Analysts, Data Engineers & Data Scientists de l'équipe, ainsi qu'avec la communauté d'architectes, afin de définir une architecture de qualité, apportant une valeur métier pertinente et assurant la maintenabilité à long terme. De plus, vous devrez faire preuve de compétences en leadership pour prendre en charge le rôle de lead technique et participer aux discussions avec les parties prenantes métier et l’architecture d’entreprise. Vous apportez un leadership technique, participez aux efforts de développement et représentez l’ensemble des capacités internes et externes de la plateforme. Vous êtes un membre actif de la guilde des architectes, chargé de superviser le processus de gestion des données et de fournir guidance et orientation aux équipes de développement. Vous êtes responsable de la conception et de la documentation des solutions dans votre domaine. Vous avez une expérience avec Databricks, ADLS Storage, SQL Database, Azure Data Factory (ADF) et Power BI. Vous avez l’expérience de la définition et de la gestion d’une architecture de données évolutive de bout en bout, en tenant compte de l’architecture d’entreprise et des normes du secteur. Vous maîtrisez le développement, la documentation et la maintenance de modèles de données logiques et physiques. Votre futur équipe Dans le cadre du domaine Achats, vous devrez relever de nombreux défis et aborder des sujets passionnants : Mettre en place des Data Products pour soutenir l’approche CAST (produits réutilisables partagés), conformément à notre stratégie. Contribuer à la définition de la feuille de route des initiatives BI & Analytics. Définir le Modèle de Données EDM et le mettre en œuvre en respectant les directives existantes. Participer à l’équipe de maintenance afin d’assurer la continuité des processus métier.
Freelance

Mission freelance
Développeur Data & IA Python & Dataviz

QUALIS ESN
Publiée le
Confluence
Github
JIRA

6 mois
400 €
Lyon, Auvergne-Rhône-Alpes
Mission générale : Renforcer le groupe en assurant la conception, le développement et l’industrialisation de solutions Data, IA et Dataviz, au service des équipes de développement et DevSecOps. Le consultant contribue également à l’intégration d’usages IA dans les outils du développeur augmenté, ainsi qu’à l’accompagnement des équipes internes. Responsabilités principales 1. Développement & industrialisation Data / IA (activité dominante) Concevoir et développer des composants logiciels Python : scripts, services, APIs, traitements batch. Mettre en œuvre des chaînes de traitement de données (ingestion, qualité, traçabilité, performance). Développer et industrialiser des solutions Data et IA destinées aux équipes de développement Enedis. Contribuer à l’intégration des usages IA dans l’outillage du développeur augmenté (assistants de code, automatisation, analyse, observabilité). 2. Dataviz & reporting décisionnel Concevoir des tableaux de bord Power BI et autres outils de visualisation. Produire des visualisations utiles au pilotage, à l’observabilité et à l’aide à la décision. 3. Documentation, capitalisation et qualité Structurer et maintenir la documentation technique. Contribuer aux référentiels de connaissances (Confluence). Participer à la capitalisation des bonnes pratiques Data/IA. 4. Accompagnement et formation des équipes internes Appuyer les équipes dans la prise en main des solutions. Animer des sessions de formation ou démonstrations (ex : GitHub Copilot). Participer au transfert de compétences et à la montée en maturité des équipes Enedis. 5. Pilotage et coordination opérationnelle Suivre le backlog, collaborer avec les équipes projets / produits / outillage. Produire un reporting régulier d’avancement et d’activité.
Freelance
CDI

Offre d'emploi
Développeur Big Data sur Lyon

EterniTech
Publiée le
Cloudera
Hadoop
SQL

3 ans
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un de mes client un Développeur Big Data sur Lyon CONTEXTE DE LA MISSION Le client, dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs. DESCRIPTION DE LA MISSION Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gouvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Les principales missions confiées seront les suivantes : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs - Capacité à expliquer simplement le sujet, à communiquer vers des interlocuteurs type développeur, bureau d'étude, qualifieur et "clients" (Groupes de protection sociale). La connaissance de Power BI et SAS sont des plus. Exemples de livrables attendus : - Code source documenté - Plan de tests / fiches de test - Bilan - Bordereau de livraison - Manuel d’installation - Dossier d’exploitation - JIRA documentée Environnement technique : - Hadoopa Cloudera - Hive - Impala - Python - Shell - Spark - Linux - SQL - VBA - Git - Jupyter Des connaissances de l’écosystème de la protection sociale sont les bienvenues (retraite complémentaire idéalement).
Freelance

Mission freelance
DevSecOps (H/F)

Insitoo Freelances
Publiée le
Confluence
Gitlab
Google Cloud Platform (GCP)

2 ans
500-600 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un DevSecOps (H/F) à Lyon, France. Contexte : Intégration fluide de la sécurité, de la performance et de l’automatisation dans le cycle de vie du produit numérique, avec une approche agile et cloud-native. Les missions attendues par le DevSecOps (H/F) : Industrialisation des livraisons (CI/CD) Maintenir et optimiser les chaînes d’intégration et de déploiement continu (CI/CD). Automatiser les tests (unitaires, d’intégration, de non-régression) et gérer les pipelines de build et de déploiement. Sécurité par Conception (Security by Design) Intégrer des scans de sécurité automatisés et piloter la gestion des vulnérabilités. Collaborer avec les experts cybersécurité pour sécuriser l’architecture produit. Promouvoir les bonnes pratiques de développement sécurisé auprès des équipes. Infrastructure as Code & Automatisation Automatiser la gestion des infrastructures via des outils IaC. Configurer les environnements de manière cohérente et gérer les environnements de test, recette et production. Monitoring, Observabilité & Performance Mettre en place des outils de supervision et de logs. Définir et surveiller les indicateurs clés (SLA, erreurs, latence, capacité, DORA). Collaborer avec les équipes pour améliorer la performance et l’observabilité en production. Amélioration Continue & Résilience Participer aux auto-diagnostics (accelerate) et identifier les leviers d’amélioration. Organiser et participer aux GameDays RUN pour tester la résilience du produit. Capitaliser sur les retours d’expérience (Rex, Post-Mortem, Incident Review). Collaboration & Culture DevSecOps Travailler en binôme avec les développeurs, PO, experts sécurité et production. Former et accompagner les équipes aux outils et pratiques DevSecOps. Documenter les processus et incidents pour favoriser la montée en compétences collective. Contribuer activement à la communauté DevSecOps interne (guildes, rituels, veille). Objectifs : Catalyser la livraison continue dans une démarche agile et cloud-native. Renforcer la résilience des solutions livrées. Automatiser et outiller l’équipe pour une efficacité opérationnelle accrue. Favoriser l’autonomie des équipes sur les aspects techniques et opérationnels. Environnement : GCP S3NS / Confluence / Jira / Gitlab / Checkmarx / Terraform / Helm / Office 365 / Power BI / Python / Java

Les métiers et les missions en freelance pour Microsoft Power BI

Data analyst

Le/La Data Analyst utilise Power BI pour créer des tableaux de bord interactifs et explorer des données complexes.

Consultant·e décisionnel / Business Intelligence (PowerBI, SAS, Tableau...)

Le/ La Consultant·e décisionnel / Business Intelligence (PowerBI, SAS, Tableau...) utilise Power BI pour concevoir des rapports et des tableaux de bord interactifs afin d'aider les entreprises à analyser et visualiser leurs données pour prendre des décisions éclairées.

Business analyst

Le/ La Business analyst utilise Power BI pour analyser les données, créer des rapports dynamiques et des visualisations pour faciliter l'interprétation des informations commerciales et stratégiques.

Consultant·e fonctionnel / métier (ecommerce, RH, finance, supply chain, BPM, achat...)

Le/ La Consultant·e fonctionnel / métier (ecommerce, RH, finance, supply chain, BPM, achat...) utilise Power BI pour aider les clients à exploiter et visualiser leurs données métier, en créant des solutions adaptées à leurs besoins spécifiques, comme dans le domaine du e-commerce ou de la finance.

27 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Lyon, Auvergne-Rhône-Alpes
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous