Trouvez votre prochaine offre d’emploi ou de mission freelance PowerBI
Votre recherche renvoie 286 résultats.
Mission freelance
Directeur de Projet Data (secteur de l'assurance)
Publiée le
Direction de projet
Infrastructure
12 mois
830-880 €
Paris, France
Télétravail partiel
Objectif global : Accompagner l’Assistance Pilotage et Engagements Contrainte forte du projet Connaissance des outils de type Power BI, outils Data (la dimension Data sera importante) Description détaillée Au sein du client, le prestataire interviendra sur le cadrage de la Roadmap du client (en lien avec la Strat IT du client), ainsi que sur certains chantiers associés. Le prestataire contribuera également à la revue des reportings et tableaux de bord décisionnels du client. Les objectifs principaux sont : Missions principales Revoir les tableaux de bord du client dans une logique d’amélioration continue Construire un reporting pertinent couvrant l’ensemble du périmètre de la du client, notamment : Les infrastructures (réseaux, sécurité opérationnelle) Les systèmes et middlewares Le Workplace Revoir les sources de données et proposer des solutions d’amélioration de la solution CMDB actuelle (voire son remplacement), incluant les volets collecte / stockage / restitution Être force de proposition, avec retours d’expérience sur les solutions CMDB, Big Data, Datafactory, etc. Challenger et évaluer l’utilisation de Power BI ou solutions alternatives Les livrables sont Comptes-rendus d’entretiens / cadrage de chantiers Dossiers de synthèse / dossiers de validation Dossiers économiques et de consolidation financière Livrables attendus pendant la mission Comptes-rendus d’entretiens Fiches de cadrage de chantiers Propositions de « quick win » Dossiers de synthèse / dossiers Go/No Go Consolidations économiques des solutions proposées Notes de synthèse et modélisation des solutions Dossiers de validation pour le comité OITC Compétences attendues Pilotage, management de projet Connaissances techniques larges en environnement DSI (réseaux, infrastructures, sécurité…) Maîtrise d’ outils de type Power BI et outils Data (dimension Data importante) Compétences techniques DATA – Expert – Impératif Infrastructures techniques – Expert – Impératif Direction de projets – Expert – Impératif
Mission freelance
DATA ANALYST DBT / FABRIC
Publiée le
Apache Airflow
DBT
Microsoft Fabric
12 mois
400-600 €
Paris, France
Télétravail partiel
Maison internationale du secteur du luxe , notre client renforce son pôle Data afin de soutenir ses enjeux stratégiques et décisionnels. La donnée est au cœur des prises de décision : fiable, lisible, élégante et orientée business . 🧠 Vos missions En tant que Data Analyst Senior , vous intervenez sur l’ensemble du cycle de valorisation de la donnée : Data & Modélisation Concevoir et maintenir des modèles analytiques robustes via dbt Exploiter l’écosystème Microsoft Fabric (Lakehouse, Data Warehouse, pipelines) Orchestrer et superviser les flux de données avec Airflow Garantir la qualité, la cohérence et la traçabilité des données Reporting & Dashboards Concevoir et maintenir des dashboards décisionnels à forte valeur ajoutée Traduire des besoins métiers complexes en KPIs clairs, cohérents et partagés Garantir une single source of truth entre les modèles data et le reporting Veiller à la lisibilité, performance et élégance des tableaux de bord Adapter les niveaux de lecture (opérationnel, management, exécutif) Documenter les indicateurs et règles de calcul Business & Communication Collaborer étroitement avec les équipes métiers, IT et Data Challenger les besoins métiers et formuler des recommandations Présenter les analyses de manière claire et impactante Accompagner l’adoption des dashboards et usages data 👤 Profil recherché Nous recherchons un(e) expert(e) data , à l’aise aussi bien sur la technique que sur la restitution business. Expérience & compétences Minimum 7 ans d’expérience en Data Analysis / Analytics Engineering Excellente maîtrise de SQL Solide expérience sur dbt Bonne connaissance de Microsoft Fabric (ou environnement Azure Data équivalent) Expérience avec Airflow Pratique avancée du reporting et de la conception de dashboards (Power BI ou équivalent) Forte culture data : qualité, gouvernance, performance, cohérence des indicateurs Soft skills Très bon communicant , à l’écrit comme à l’oral Capacité à dialoguer avec des interlocuteurs métiers exigeants Esprit analytique, rigueur, autonomie Sens du détail et de l’excellence Langues Anglais fluent impératif (environnement international)
Mission freelance
CONSULTANT MOE BI ORIENTE DATA
Publiée le
BI
MOE
24 mois
275-550 €
Nanterre, Île-de-France
Télétravail partiel
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Offre d'emploi
Data Engineer Python/DBT
Publiée le
Databricks
45k-50k €
Occitanie, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Architecte Domaine Data - Azure (h/f)
Publiée le
1 mois
550-680 €
69000, Sainte-Foy-lès-Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Résumé : Vous rejoignez notre client pour prendre le Lead Technique sur le pôle Achats. Vous interviendrez pour mettre en place différents environnements et services en cohérence avec l’architecture globale. Responsabilités : A ce titre, vous serez en charge de : Définir des architectures avec un haut niveau de qualité, une valeur métier pertinente et une maintenabilité à long terme, en collaboration avec les équipes Data (DPO, Data Analysts, Data Engineers, Data Scientists, Architectes Data) Fournir un leadership technique, participer aux efforts de développement et représenter l’ensemble des capacités internes et externes de la plateforme. Être un membre actif de la guilde des architectes, en charge de superviser les processus de gestion des données et d’apporter conseils et orientations aux équipes de développement. Assurer la conception et rédiger la documentation des solutions de votre domaine. Soutenir le DPAO dans le traitement des demandes de l’Area Manager Définir la roadmap et accompagner les équipes dans la priorisation de leur backlog Veiller en permanence à l’alignement des produits avec l’architecture globale Vous avez de l’expérience dans la définition et la prise en charge d’architectures data scalables de bout en bout, en tenant compte de l’architecture d’entreprise et des standards de l’industrie. Vous êtes habitué à concevoir, documenter et maintenir des modèles de données logiques et physiques. Veiller à ce que les produits livrés par votre équipe stable soient alignés avec l’architecture cible globale du Volvo Group . Pour ce poste, nous recherchons un Architecte Data Azure ayant une excellente connaissance des services de la stack Azure Analytics et une expertise avancée sur Databricks . Must Haves : Une formation supérieure (Bac+5 ou Ecole d’Ingénieur) spécialisée en Data Votre expérience de 8 ans minimum sur un poste similaire en tant que Data Architecte Votre expérience dans la définition et la prise en charge d’architectures data scalables de bout en bout Votre expertise des services Azure Analytics (ADLS, SQL DB, ADF, Power BI) Votre fort leadership technique et votre capacité à définir et piloter des roadmaps Vos excellentes capacités de communication en français et en anglais (Niveau Courant C1) Compétences en leadership technique. Nice to Haves : Votre connaissance du secteur industriel Vos certifications Azure Autres détails : Date de démarrage : ASAP Localisation : Lyon (69). Dans le cadre de vos fonctions, vous pourrez bénéficiez de 2 jours de télétravail par semaine
Mission freelance
Responsable de la transformation EMS & du portefeuille de projets (H/F)
Publiée le
Finance
Project Portfolio Management (PPM)
6 mois
480-550 €
La Défense, Île-de-France
Télétravail partiel
Nous recherchons pour le compte de notre client, grand acteur de la finance, un Responsable de la transformation EMS (Execution Management System) et du portefeuille de projets. Contexte : Pendant la période temporaire où le responsable de la gestion de la qualité et de la performance assumera les responsabilités de responsable de la transformation et des projets, le responsable de la transformation EMS et du portefeuille de projets fournira un soutien opérationnel essentiel pour assurer la continuité des activités de transformation et de projets et aidera le responsable de la gestion de la qualité et de la performance dans ses activités quotidiennes. Objectifs et livrables : Matériel de communication et de présentation Coordination d'équipe et assistance aux réunions Assistance à la transformation et à l'élaboration de la feuille de route Coordination du portefeuille de projets Plus précisément : Matériel de communication et de présentation Préparer des présentations PowerPoint percutantes pour les réunions, les comités, les groupes de pilotage et les moments de communication interne (direction). Contribuer aux livrables de communication EMS (bulletins d'information, comptes rendus de réunions clés, mises à jour internes), conformément aux responsabilités T&P. Traduire des informations complexes en messages clairs et visuels pour la direction et les équipes EMS. Coordination de l'équipe et soutien aux réunions Aider à organiser et à préparer des réunions, des ateliers ou des sessions de partage d'informations. Documenter les résultats des réunions, y compris la préparation des procès-verbaux, des décisions, des risques et des plans d'action, en assurant un suivi structuré avec les responsables. Faciliter les interactions efficaces entre les responsables T&P, QPM et EMS pendant cette période. Suivre l'avancement des actions et les prochaines étapes dans tous les projets, en assurant le suivi avec les chefs de projet et les équipes. Consolider les mises à jour des projets dans des tableaux de bord clairs, des résumés et des rapports de gestion, et mettre en évidence les incohérences entre les mises à jour ou les contraintes potentielles. Soutien à la transformation et à la feuille de route Aider à la surveillance et à la coordination de la feuille de route de transformation du SME et des initiatives d'amélioration continue. Aider à vérifier la cohérence, l'exhaustivité et l'alignement des activités et des étapes clés de la feuille de route. Gérer les activités générales du PMO. Configuration du RBAC et des politiques réseau pour segmenter l'accès et réduire la surface d'attaque inter-pod. Déploiement de solutions de sécurité d'exécution pour détecter les comportements anormaux dans les environnements de production. Suivi complet des vulnérabilités, de la détection à la correction, en coordination avec les équipes de développement. Correction et suivi des vulnérabilités, avec des mesures opérationnelles mises en œuvre via Power BI pour mesurer l'efficacité des correctifs et le MTTR (temps moyen de correction).
Offre d'emploi
Lead AI Engineer
Publiée le
AI
GenAI
Large Language Model (LLM)
60k-70k €
Paris, France
Télétravail partiel
Dans le cadre d’un projet stratégique Data & IA, nous accompagnons l’un de nos clients, acteur tech à fort enjeu produit, dans le recrutement d’un Lead AI Engineer. Le rôle Le Lead AI Engineer est responsable de la conception, du développement et du déploiement de solutions IA à forte valeur métier. À la fois référent technique IA et acteur clé du delivery, il combine une posture très hands-on avec une vision produit / ROI, en lien étroit avec les équipes métier, produit et la direction. Vos responsabilités 1. Conception & développement de solutions IA (cœur du poste) Concevoir et développer des solutions IA avancées : LLM & GenAI (RAG, MCP, agents, workflows IA, fine-tuning si nécessaire) Modèles de scoring, recommandation, prédiction, classification Développer des solutions robustes, scalables et industrialisées, prêtes pour la production Être très fortement hands-on en développement, principalement en Python Garantir la qualité du code, la performance, la sécurité et la maintenabilité Utiliser des outils d’assistance au développement (ex. Claude Code) 2. Leadership technique & delivery IA Porter les projets IA de bout en bout : cadrage fonctionnel et technique, choix d’architecture, priorisation delivery, mise en production et suivi de la valeur Jouer un rôle de leader technique, sans management hiérarchique direct Être capable d’arbitrer et de prendre des décisions techniques structurantes Structurer le delivery dans une logique produit et ROI, en lien avec le CPTO 3. Interface produit, métier et direction Travailler en proximité avec : les équipes métiers, le produit, les équipes techniques, la direction Traduire des besoins métier complexes en solutions IA concrètes Animer des ateliers de cadrage, restituer les avancées, vulgariser les sujets IA Porter une vision transverse des projets (roadmap, dépendances, risques) 4. Structuration et montée en maturité IA Contribuer à la vision IA globale (choix technologiques, standards, bonnes pratiques) Mettre en place des patterns réutilisables (RAG, pipelines IA, templates projets) Participer à la diffusion de la culture IA Assurer une veille active sur les évolutions IA (LLM, frameworks, usages) Environnement technique Langage : Python (expert) IA / Data : LLM / GenAI, RAG, embeddings, agents Pandas, PySpark (selon cas) Plateforme Data : MinIO, MongoDB, PostgreSQL, ElasticSearch, Airflow, RabbitMQ Infra : Docker, Kubernetes Dataviz / exposition : PowerBI, Metabase Outils : Git, CI/CD, outils d’IA d’assistance au développement
Offre d'emploi
Scrum Master Plateformes Data
Publiée le
Amazon Elastic Compute Cloud (EC2)
Apache Kafka
Scrum
2 ans
40k-45k €
400-630 €
Nanterre, Île-de-France
Télétravail partiel
Scrum Master Plateformes Data Mission longue Nanterre Démarrage ASAP (au plus tard 01/02/2026) Environnement Data & SAFe — Plateformes Data & IA TJM d’achat : 600 Localisation : Nanterre Réponse : ASAP / Démarrage prévu ASAP Nous recherchons un Scrum Master sénior pour accompagner plusieurs équipes au sein d’un train SAFe, dans un contexte de plateformes Data mutualisées à forte visibilité. La mission consiste à structurer le cadre agile, faciliter la collaboration et soutenir la mise en place de standards autour de la valorisation de la donnée. Vos missions : • Accompagner les équipes dans l’application de Scrum et Agile à l’échelle • Animer les cérémonies (daily, sprint planning, reviews, retrospectives, PI Planning…) • Identifier et lever les obstacles impactant la delivery • Favoriser la collaboration inter-équipes et le partage des pratiques • Travailler avec les PO sur la gestion et la priorisation des backlogs • Suivre les indicateurs agiles et contribuer à l’amélioration continue • Collaborer avec le RTE et le Product Manager pour assurer l’alignement des objectifs • Participer au déploiement des plateformes Data au sein du groupe Profil recherché : • 7 à 10 ans d’expérience en tant que Scrum Master / Coach Agile • Expérience indispensable sur des projets Data / Plateformes Data • Pratique de SAFe, coordination de plusieurs équipes • Maîtrise des outils : JIRA, Confluence, BigPicture, EazyBI, Teams • Aisance pédagogique, leadership, posture facilitatrice et orientée valeur • Idéalement : background Data / Ingénierie ayant évolué vers un rôle Scrum Master Environnement technique (exemples) : Cloud, Big Data, Data Platforms, Kafka, Spark, Airflow, BigQuery, Power BI, outillage agile.
Mission freelance
Ingénieur Data / BI
Publiée le
Azure Data Factory
Databricks
Scala
12 ans
400-560 €
Île-de-France, France
Télétravail partiel
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB est le datamart TV qui vise à centraliser et fiabiliser les données nécessaires au pilotage et à l’analyse de l’activité publicitaire TV linéaire. Le datamart se source principalement d’OptiPub, base de référence regroupant les informations issues des différentes applications métiers de la régie publicitaire. Côté restitution, Ouranos fonctionne principalement avec une logique de self-BI : nous mettons à disposition des métiers un univers BusinessObjects et/ou un dataset Power BI standardisé, que les utilisateurs exploitent pour construire leurs propres tableaux de bord et analyses. La finalité est de fournir un socle de données unique et cohérent permettant aux équipes métier d’accéder rapidement à des informations fiables sur l’activité pub TV et de gagner en autonomie dans le reporting. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Ingenieur Data 5-8 ans Définition du profil Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Mission freelance
Data engineer
Publiée le
Azure Data Factory
Databricks
Scala
12 mois
400-560 €
Île-de-France, France
Télétravail partiel
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques : Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB - Digital vise à centraliser et harmoniser l'ensemble des données relatives à la diffusion publicitaire digital (impressions, chiffre d'affaire etc) pour permettre un reporting fiable selon différentes dimensions (canal de vente, origine, équipes commerciales, annonceurs etc) et garantir une vision unifiée de la performance digitale. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité (réécriture en DBT) - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code Le profil est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Mission freelance
Analytics Engineer – Expertise Cornerstone
Publiée le
Analyse
1 an
100-550 €
Île-de-France, France
Description de la mission Pour le besoin de mon client basé à Paris , je suis à la recherche d'un Analytics Engineer – Expertise Cornerstone Tâches Contexte : Au sein du HR Data Office, accompagner les Business Process Owners (BPO) Formation dans la définition et la création de dashboards Power BI, en exploitant les données issues de Cornerstone onDemand. Objectifs : Traduire les besoins métier en exigences claires pour la création de dashboards. Créer, mettre à jour et maintenir des dashboards Power BI pour la formation. Étudier les options de reporting Cornerstone et optimiser les reportings existants. Fournir des analyses quantitatives et qualitatives sur les données de formation. Présenter les dashboards aux équipes et stakeholders. Documenter les solutions mises en place. Compétences Demandées Compétences requises : Expertise Cornerstone onDemand (obligatoire) Maîtrise Power BI, DAX, Power Query Modélisation de données, publication, sécurité (RLS), refresh PBIRS Compréhension des KPIs et besoins utilisateurs Anglais professionnel Capacité à former et expliquer les dashboards
Offre d'emploi
Data Engineer Microsoft Fabric (Azure Cloud) - Bruxelles
Publiée le
BI
Data Lake
Microsoft Fabric
9 mois
40k-45k €
540-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre de la modernisation de l'entrepôt de données de notre client , nous recherchons un Data Engineer expérimenté pour accompagner la migration vers Microsoft Azure et l’adoption de Microsoft Fabric et Power BI . Mission : Concevoir et développer des flux ETL dans Microsoft Fabric (Dataflows Gen2, Pipelines, Notebooks PySpark). Modéliser les données pour le BI selon Kimball / Snowflake (tables de faits, dimensions, agrégats). Assurer la qualité, fiabilité et performance des flux de données et mettre en place le monitoring. Automatiser les déploiements via CI/CD (Azure DevOps ou GitHub). Collaborer avec l’équipe ICT pour assurer la cohérence et la gouvernance des systèmes.
Offre d'emploi
Administrateur applicatif HR Access SIRH
Publiée le
60k-70k €
Provence-Alpes-Côte d'Azur, France
1. Structure Nous recherchons un Administrateur Applicatif SIRH pour rejoindre une organisation structurée autour de projets RH et SIRH. Le poste est rattaché au pôle SIRH , en interaction avec des directions internes (Juridique, Finance, Contrôle de gestion, Recrutement, Informatique) et des prestataires externes. Le contexte est celui d'un environnement multi-sociétés avec des enjeux forts de fiabilité des processus RH et d'évolution des outils. 2. Rôle & Missions Votre rôle sera de garantir la performance et la continuité des applications SIRH et de contribuer aux projets d'évolution. Vos principales missions : Gestion opérationnelle de la paie et administration du personnel Suivi technique des processus paie et administration sur HR Access. Gestion d'activités spécifiques (acomptes, soldes de tout compte, participation). Pilotage et projets SIRH Rédaction et validation des cahiers des charges fonctionnels. Validation des solutions et accompagnement à la mise en production. Administration des applicatifs et interfaces Gestion des outils transverses (BDES) et interfaces (Talentsoft, Peoplesoft, Expert HSE). Maintien en condition opérationnelle du BI RH (Power BI) Pilotage des ressources et priorités. Recueil des besoins et anomalies, rédaction des conceptions générales et détaillées. 3. Profil recherché Expérience confirmée en administration applicative SIRH , idéalement sur HR Access. Connaissance des processus paie et administration du personnel. Maîtrise des outils BI (Power BI) et des interfaces SIRH. Capacité à rédiger des cahiers des charges et à piloter des projets. Qualités attendues : rigueur, sens du service, capacité à travailler en transversal avec des interlocuteurs variés.
Offre d'emploi
Architecte Cloud Azure - Expert AD/Entra ID (h/f)
Publiée le
Microsoft Entra ID
Virtualisation
92100, Boulogne-Billancourt, Île-de-France
Télétravail partiel
APRILE est une société de services basée à Boulogne-Billancourt et regroupant une quarantaine de collaborateurs. Depuis 2004, notre activité s’articule autour de plusieurs pôles : Infogérance (Exploitation ; Hébergement ; Helpdesk), Intégration de Systèmes&Réseaux et Services Associés (Délégations chez nos clients de profils liés aux métiers de la Production, Assistance, Exploitation et Etudes et Développement). Descriptif Notre client basé à Boulogne-Billancourt (92) recherche un Architecte Cloud Azure - Expert AD/Entra ID (h/f) pour un démarrage ASAP, afin de renforcer son équipe pour travailler sur des sujets variés dans un contexte international. Au sein d'une équipe à taille humaine, vous aurez pour principales missions : Participer à l'amélioration continue des services cloud Azure Renforcer la s écurité du tenant Azure AD pour répondre aux exigences réglementaires et réduire les vulnérabilités critiques Assurer le suivi et le maintien des systèmes Cloud existants Assurer la surveillance et la sécurité des infrastructures. Rédaction des documents d’architecture technique, documents d’exploitation.. Assurer une veille régulière pour optimiser les performances des services Cloud. Scripting PowerShell , automatisation des activités Azure et Office 365 Collaborer avec les équipes et les chefs de projets sur différents sujets et projets ( Hybridation...) Le poste prévoit 1 jour de Télétravail par semaine. Profil Vous avez une bonne maîtrise générale de l’environnement serveur Microsoft et une expérience confirmée sur un poste d'Ingénieur système ? Vous êtes expert sur Azure et sur Entra ID ? Vous êtes autonome, avez un bon sens de l'organisation, de la rigueur ainsi qu'une aisance en communication pour le travail en équipe ? Alors n'hésitez plus, postulez pour que l'on puisse en discuter ! Compétences requises Cloud Azure Entra ID Virtualisation Sécurité AD / GPO Power BI ( Notions de base) Linux ( notions de base) Anglais professionnel pour certains échanges avec les filiales du groupe. Type de contrat : CDI/ Freelance - Temps plein Salaire : selon expérience
Offre d'emploi
Développeur MSBI / GCP
Publiée le
Google Cloud Platform (GCP)
Microsoft Analysis Services (SSAS)
Microsoft SSIS
2 ans
40k-45k €
400-550 €
Montrouge, Île-de-France
Télétravail partiel
Développeur MSBI / GCP Mission longue – Montrouge Démarrage ASAP Contexte Cloud Data / BI TJM d’achat : jusqu’à 650 € Localisation : Montrouge Réponse : avant le 16/01/2026 Nous recherchons un Développeur MSBI / GCP confirmé pour renforcer une équipe Data dédiée au développement de cas d’usage décisionnels et au pilotage de projets Data. Vous interviendrez au sein d’une équipe Cloud Data, sur des sujets de modélisation, d’industrialisation et de valorisation de la donnée, dans un environnement hybride Microsoft BI / Google Cloud. Vos missions : • Participer aux développements BI (modélisation, flux, requêtes, dashboards) • Contribuer aux projets Data sur GCP (pipelines, optimisation, évolutions) • Mettre en œuvre les traitements batch/stream et automatisations associées • Industrialiser et sécuriser les workflows Data • Participer aux revues techniques et à l’amélioration continue • Collaborer avec les équipes projet pour fiabiliser les livrables Profil recherché : • 5 à 7 ans d’expérience minimum en environnement BI / Data Engineering • Solide maîtrise des environnements Microsoft BI et GCP • Capacité à intervenir sur des architectures data industrielles • Bon esprit d’analyse, rigueur et autonomie Compétences techniques attendues : • Power BI Desktop & Online • GCP : BigQuery, Dataflow, Airflow (DAG), Cloud Storage, IAM • Iceberg • Suite Microsoft BI : SQL Server, SSIS, SSAS • Modélisation BI (dimensionnelle / analytique) • PySpark • CI/CD (industrialisation et déploiement) Contexte apprécié : projets Data orientés pilotage, reporting, optimisation et industrialisation.
Mission freelance
CONSULTANT MOA BI - EQUIPEMENT
Publiée le
BI
MOA
24 mois
300-600 €
Le Plessis-Robinson, Île-de-France
Télétravail partiel
AMOA BI - Equipement - GMAO MISSION l'AMOA BI est le point d'entrée de la DSI pour toute demande de BI sur les Solutions Equipement. Il fait l'interface entre les interlocuteurs Métier les équipes BI de développement et l'équipe Solution équipement. Son rôle est de comprendre les enjeux et besoins Métier en coordination avec l'AMOA BI pour les spécifier aux équipes de développement. Dans le cadre de la Roadmap BI le Référent fonctionnel BI devra notamment : • Travailler en étroite collaboration avec les équipes équipement pour spécifier l'extraction des données Maximo servant aux KPI Métier (utilisé dans Power BI) • Préparer le modèle de données BI pour l'intégration des données MAXIMO (équipement). Une attention toute particulière sera apportée aux notions de site Maximo ainsi qu'à la consolidation des données. • Spécifier les traitements d'intégration à destination du pole DATA. • Identifier les dimensions de « croisement » avec les Terminaux (équipement, temps, site etc…) • Proposer et accompagner les ajustements pour le portage des rapports MAXIMO & leur version consolidé sur la source. ACTIVITES PRINCIPALES 1. Piloter les projets BI opérationnels et l'implémentation des nouveaux usages / nouvelles solutions, coordonner les parties prenantes métier et DSI, et accompagner le changement associé (y compris la transition en RUN) 2. Sous l'impulsion des équipes BI, accompagner la diffusion d'une culture Data au sein des équipes DSI et Métier 3. Contribuer à la gouvernance appropriée pour mener à bien les projets BI sur le périmètre concerné 4. Proposer, en étroite collaboration avec les équipes Solutions et BI les solutions /modèles pour consolider et croiser les données équipement 5. Participer à la rédaction des spécifications fonctionnelles aux équipes BI de la DSI 6. Réaliser les Tests d'intégration, une fois les Données & rapports BI livrés 7. Organiser les UAT avec le Métier/Solution 8. Contribuer au déploiement des nouveaux rapports équipement 9. Être le garant du delivery (coût, qualité, délai) 10. Accompagner les pays et les équipes de déploiement pour s'approprier les outils et reporting BI et opérationnel existants Conditions particulières de travail Déplacements ponctuels à l'étranger dans le cadre des déploiements, de formations, d'Université ou de cadrage de sujets à enjeux majeurs
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
286 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois