L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 567 résultats.
Offre d'emploi
CONSULTANT MASTER DATA SAP – ECC → S/4HANA
Publiée le
Data cleaning
Legacy System Migration Workbench (LSMW)
Microsoft Power BI
1 an
40k-45k €
400 €
Île-de-France, France
Télétravail partiel
🚨 MISSION CONSULTANT MASTER DATA SAP – ECC → S/4HANA 🚨 Dans le cadre d’un projet de migration SAP ECC vers S/4HANA, nous recherchons un Consultant Master Data SAP (Manufacturing & Reporting). 📆 Démarrage : ASAP ⏳ Durée : 6 mois 🏢 Rythme : 3 jours sur site / 2 jours télétravail Nationalité FR 🎯 Mission Migration des Master Data SAP ECC → S/4HANA Data cleansing, préparation et bascule des données Mises à jour massives (LSMW, Mass Update) Gestion des Master Data Manufacturing (articles, BOM, gammes, PP/PPDS, BP, qualité) Production de reporting à destination des métiers 🛠 Compétences clés (impératif) SAP ECC / S/4HANA – Master Data Manufacturing LSMW, Mass Update, Data Cleansing Reporting : Power BI, SQ01/SQ02, CDS Views, Analysis for Office Interaction forte avec les métiers / SMEs 👤 Profil Consultant Master Data SAP expérimenté Expérience migration SAP significative Anglais professionnel
Offre d'emploi
Consultant Expert Power BI (Gouvernance & Administration)
Publiée le
Microsoft Power BI
ServiceNow
3 ans
Île-de-France, France
Télétravail partiel
Consultant Expert Power BI (Gouvernance & Administration) Contexte L’équipe Data & Intégration pilote l’ensemble des projets liés à la data, à l’analyse et aux intégrations applicatives, en lien étroit avec les équipes opérationnelles, les fonctions support et la DSI. Elle contribue à améliorer les processus, méthodes et outils avec des objectifs de simplification, standardisation, efficacité et transparence . Dans ce cadre, l’équipe assure l’administration d’un nœud Power BI Premium comprenant un nombre important de workspaces aux usages variés. Aujourd’hui, il n’existe pas de vision globale permettant d’évaluer la qualité des développements, les performances des rapports ou la consommation des ressources du nœud. Objectifs de la mission La mission vise à professionnaliser, sécuriser et standardiser l’administration du nœud Power BI Premium selon les bonnes pratiques ITIL, tout en anticipant les impacts d’une éventuelle migration vers Fabric. Le consultant aura pour responsabilités de : 1. Cartographie et analyse des environnements Recenser et documenter tous les workspaces du nœud Premium. Collecter les informations clés : propriétaires, usages, criticité, volumétrie, typologie des rapports, etc. 2. Mise sous contrôle des déploiements Structurer les processus de mise en production. Définir et outiller des Change Standard dans ServiceNow. Produire les guides, procédures et bonnes pratiques nécessaires. S’assurer de la conformité des déploiements effectués par toutes les équipes. 3. Gouvernance et sécurité Proposer un modèle de gestion des accès et rôles, commun à l’ensemble des équipes. Standardiser la gestion des demandes, droits d’accès, responsabilités et supervision. Garantir l’administrabilité de tous les workspaces, quel que soit leur propriétaire. 4. Audit, performance et optimisation Réaliser un audit global des usages, de la performance et de la consommation du nœud Premium. Identifier des quick wins immédiatement activables. Formuler des recommandations structurelles pour une amélioration durable. Profil recherché Expertise confirmée en administration Power BI, gouvernance BI et gestion de plateformes Premium. Solide expérience des bonnes pratiques ITIL et des processus de gestion des changements. Compétences en audit, optimisation de performances et structuration de modèles de gouvernance. Compréhension des enjeux liés à la sécurité, aux accès et à la standardisation des environnements BI.
Offre d'emploi
Data Analyst (H/F)
Publiée le
Data analysis
Data science
30k-65k €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Votre mission En tant que Data Analyst (H/F) , vous jouerez un rôle clé dans la valorisation des données au service du métier. Vous serez responsable de l’analyse de grands volumes de données, de la production d’analyses et de reportings à forte valeur ajoutée, et de l’accompagnement des équipes métier dans l’optimisation de l’utilisation de leurs données, en lien avec les objectifs stratégiques de l’organisation. Vos responsabilités seront : Analyser de grands volumes de données afin de comprendre les enjeux métier et les besoins exprimés par les parties prenantes Traduire les besoins business en analyses de données pertinentes et exploitables Contribuer à la sélection, à l’implémentation et à l’amélioration des outils d’analyse et de reporting Produire des analyses stratégiques, des tableaux de bord et des reportings à destination du business Identifier des tendances, des anomalies et des opportunités à partir des données Présenter et vulgariser les résultats d’analyse auprès des parties prenantes métier Collaborer avec les équipes IT, data et métier afin d’assurer la qualité, la cohérence et la fiabilité des données Aider les équipes métier à mieux exploiter et optimiser l’usage de leurs données S’adapter à l’environnement spécifique et aux enjeux de nos clients
Mission freelance
Data Engineer
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Mission freelance
Développeur PowerPlateform H/F
Publiée le
Power Platform
3 ans
Île-de-France, France
Télétravail partiel
Contexte / Objectifs : Nous recherchons un expert PowerPlatform (Power Apps et power Automate) pour maintenance et développement d'applications à destination des collaborateurs. Savoir analyser le besoin métier. - Concevoir et développer des applications PowerApps adaptées aux besoins des utilisateurs. - Mettre en place des flux automatisés avec Power Automate pour améliorer l’efficacité opérationnelle. - Communiquer avec les différents métiers. - Rédiger les différents livrables. - Assurer la formation et l’accompagnement des équipes métiers dans l’utilisation des solutions PowerPlatform. - Administrer et sécuriser l’environnement PowerPlatform (gestion des environnements, gouvernance, conformité). - Participer à la veille technologique et proposer des améliorations continues. - Partager les connaissances avec l’équipe en place Expertises spécifiques : Excellente maîtrise des outils PowerPlatform (PowerApps, Power Automate, Dataverse). Connaissance du SQL. Compréhension des architectures Microsoft 365 et Azure, et idéalement celles du Groupe BPCE Capacité à travailler en mode projet et en collaboration avec les équipes métiers. Être autonome, rigoureux. Avoir la capacité à vulgariser les concepts techniques. Avoir un bon relationnel
Mission freelance
Data Engineer / Data Analyst Python
Publiée le
Analyse
KPI
Python
3 ans
320 €
Marseille, Provence-Alpes-Côte d'Azur
🔍 Nous recherchons un(e) Data Analyst / Data Engineer pour renforcer une équipe existante et accompagner la transformation digitale et la gestion des données réglementaires du département Chartering , dans un contexte fortement exposé aux enjeux de conformité FUEL EU . 1) Suivre et agir pour la transformation digitale et la gestion/collecte des données réglementaires du département Chartering (état des lieux et mise en place de process) 2) Collecter les informations nécessaires pour le calcul de la compliance FUEL EU et tenir à jour les bases de données spécifiques pour ces calculs et leurs couts 3) Elaborer et comparer les différentes options pour diminuer l’exposition réglementaire 4) Contrôler et challenger les informations et projections communiquées par les armateurs et les lignes exploitantes 5) Mettre en place des outils et KPI’s permettant des prises de décisions opérationnelles 6) Négocier / coordonner avec les armateurs le timing et la nature des mesures pour compenser ou neutraliser les déficits réglementaires 7) Présenter et partager les résultats avec les lignes, plateau IMO, départements/métiers concernés
Mission freelance
Data Analyst Senior – Contexte International (h/F)
Publiée le
Data analysis
1 an
400-550 €
Neuilly-sur-Seine, Île-de-France
Télétravail partiel
Dans le cadre d’un programme international de déploiement de systèmes vente, un acteur majeur du secteur média recherche un Data Analyst expérimenté (h/f)pour accompagner les équipes IT et les Business Units. La mission s’inscrit dans un environnement complexe et international, avec un fort enjeu de maîtrise des flux de données end-to-end, de sécurisation des migrations de données et d’industrialisation des processus de chargement. Missions principales Comprendre et piloter les flux de données de bout en bout entre systèmes Corporate et locaux Analyser les sources de données des Business Units et en évaluer la qualité Organiser et piloter les actions de data migration dans le cadre des projets de rollout Définir et formaliser des stratégies de migration de données claires et robustes Piloter les chargements de fichiers dans le respect des délais projet Collaborer étroitement avec les équipes produit sur les aspects techniques Animer les comités de restitution (avancement, risques, plans de mitigation) Contribuer à l’industrialisation des processus de data loading Assurer un reporting régulier auprès des chefs de projet
Mission freelance
Developpeur COBOL H/F
Publiée le
COBOL
IBM Db2
JCL (Job Control Language)
2 ans
400-550 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Developpeur COBOL H/F à Paris, France. Les missions attendues par le Developpeur COBOL H/F : - Contexte / Objectifs o Participer aux maintenances du domaine gestion Crédit pour renforcer l’équipe o Devs / tests unitaires / Livraison en recette et en prod
Offre d'emploi
Project Manager Digital – Communication
Publiée le
Microsoft Copilot Studio
Azure
Workplace
9 mois
40k-52k €
400-800 €
Le Havre, Normandie
Télétravail partiel
Project Manager Digital – Communication Interne & Digital Workplace 1. Contexte Dans le cadre d’un programme de transformation digitale à l’échelle d’un grand groupe international , le/la Project Manager Digital interviendra sur des projets stratégiques liés à la communication interne et à la digital workplace . La mission couvre notamment : Le pilotage et l’optimisation des outils digitaux de communication interne (réseau social d’entreprise, outils événementiels internes, plateformes collaboratives). La mise en place et l’évolution de la digital workplace du groupe , incluant : migrations de tenants Microsoft pour de nouvelles entités, optimisation de l’usage pour les entités existantes, intégration de solutions d’IA générative (Copilot), développement et déploiement d’agents métiers de niveau L2/L3. 2. Objectifs Communication interne Déployer et optimiser les outils digitaux afin de renforcer la cohésion interne, la fluidité des échanges et l’efficacité opérationnelle. Digital Workplace Piloter les migrations et optimisations des environnements Microsoft 365 pour les filiales. Pour les entités les plus matures (activités industrielles, logistiques, services) : piloter le déploiement et l’adoption de Copilot, optimiser l’usage des nouvelles fonctionnalités, intégrer et gouverner les agents métiers (L2 / L3). Accompagnement au changement Organiser la formation et le support utilisateurs. Faciliter l’adoption des nouveaux outils et processus. Dans ce cadre, le/la Project Manager supervisera une équipe d’environ 12 consultants externes , répartis sur les différents périmètres fonctionnels. Il/elle devra garantir : une compréhension fine des besoins métiers , la traduction de ces besoins en solutions concrètes et adaptées , l’alignement avec les processus de la DSI, la prise en compte des contraintes cybersécurité, architecture, opérations et infrastructures . L’objectif est d’assurer une intégration fluide, sécurisée et à forte valeur ajoutée , dans le respect des standards techniques et de sécurité du groupe.
Offre d'emploi
Data engineer - Vannes - 5-10 ans d'éxpérience Vannes (56)
Publiée le
Agile Scrum
Apache
Apache Kafka
1 an
40k-45k €
400-550 €
Vannes, Bretagne
Télétravail partiel
Merci de bien lire l'annonce ci dessous et vérifier que vous correspondez au besoin. Nous recherchons exclusivement des candidats basés à Vannes ou en Bretagne . Merci de ne pas envoyer de candidature si vous êtes situés hors de cette zone géographique. En tant que Data Engineer , votre mission principale sera de produire des solutions techniques robustes et performantes pour exploiter au mieux les données du client. Cependant, votre rôle ne se limitera pas à l’aspect technique : vous serez également un partenaire stratégique des métiers , capable d’identifier leurs besoins, de comprendre leurs enjeux et de proposer des solutions techniques adaptées. Vos responsabilités : Concevoir, développer et maintenir des pipelines de données performants et évolutifs Participer à la définition de l'architecture Data Développer les solutions de collecte et de stockage des données Mettre en place les tests unitaires et automatisés Garantir la qualité, la sécurité et l’intégrité des données tout au long de leur cycle de vie. Implémenter des solutions qui optimisent la gestion des données pour les équipes métier. Collaborer étroitement avec les équipes métier pour comprendre leurs objectifs stratégiques. Faciliter la communication entre les équipes techniques et les non-techniciens Vous serez à la croisée des chemins entre technique et métier , jouant un rôle clé pour transformer les données en un véritable levier de décision. Votre capacité à allier expertise technique et vision stratégique fera de vous un acteur indispensable pour relever les défis de l’entreprise.
Mission freelance
Lead Développeur Frontend Vue3 / Typescript
Publiée le
CI/CD
Git
Github
12 mois
400-450 €
Ronchin, Hauts-de-France
Au sein de notre siège social, nous recherchons pour le compte de notre client spécialisé dans la Grande Distribution, un Lead Développeur Frontend – Vue3 / Typescript (H/F). La mission est basée à Ronchin (59) . Contexte : Les équipes du domaine Inhabitant Data & Profile construisent les référentiels Clients et Habitats globaux d’un large écosystème digital. Notre objectif : améliorer la connaissance des utilisateurs et de leurs environnements, tout en garantissant la protection des données et une expérience utilisateur fluide et qualitative. Dans ce cadre, nous renforçons notre équipe transverse domaine avec un Lead Développeur Frontend expérimenté, capable d’incarner la vision technique front et d’accompagner les équipes digitales dans la maîtrise de la collecte et de la valorisation des données. Plus particulièrement, vos tâches seront les suivantes : • Être le garant des bonnes pratiques frontend et du respect des standards techniques • Collaborer étroitement avec l’UX Designer, l’Architecte Solution et les Tech Leads des produits • Accompagner et coacher les développeurs frontend des différentes équipes • Concevoir, développer et documenter des composants partagés et réutilisables • Participer à la mise en place des tests unitaires et à la documentation technique
Mission freelance
Architecte Solution Intégration type ESB, ETL/ELT, API Management (H/F) – IDF 92 – Vorstone
Publiée le
API Platform
API REST
Architecture
1 an
750-950 €
Paris, France
Télétravail partiel
Architecte Solution Intégration ESB, ETL/ELT, API Management (H/F) – IDF 92 – Mission 9 à 12 mois – Programme Stratégique Groupe Vorstone recherche un Architecte Solution Intégration data et applications pour un grand groupe badée en IDF/PARIS (92) Démarrage : ASAP Durée : 9 à 12 mois (BDC trimestriel) Contexte : Environnement international – Equipes Digital & IT – GDO (Global Data Operations) Contexte de la mission Le département Global Data Operations conçoit, développe et opère les plateformes Data, AI, Automation et Integration du groupe. Au sein de GDO, la ligne de service Integration Platform pilote et opère les solutions d’intégration de données et d’applications , et conduit un programme stratégique visant à : Rationaliser et moderniser le paysage d’intégration, Globaliser les activités d’intégration, Définir les architectures cibles et le futur operating model, Unifier les pratiques et technologies au niveau groupe. Cela inclut des solutions d ’ETL/ELT, ESB, B2B/EDI, API, CDC, EDA. Le client recherche un Architecte Solution Intégration de données et applications très expérimenté , immédiatement opérationnel, pour renforcer l’équipe. En tant qu’ Architecte Solution Intégration , et sous la responsabilité du Program Manager, vous contribuerez directement au programme de globalisation des activités d’intégration. Vos missions principales : 1. Architecture, Analyse & Vision Cible Réaliser l’inventaire détaillé des solutions d’intégration existantes au sein du groupe. Recueillir et analyser les besoins d'intégration (actuels et futurs). Évaluer les solutions existantes et concevoir les architectures cibles et scénarios d’évolution. Contribuer à la cohérence globale et à la rationalisation du paysage. 2. Conception et Gouvernance Concevoir des architectures robustes, évolutives, sécurisées, alignées aux standards Groupe. Participer ou animer les comités TADA (Technology & Architecture Design Authority). Intervenir sur les projets impactant l’intégration pour garantir l’alignement architectural. Produire la documentation d’architecture, les bonnes pratiques et règles d’intégration. 3. Expertise & Support avancé Accompagner les équipes techniques sur les patterns, performances, supervision, dimensionnement… Conduire des PoCs pour valider technologies ou choix architecturaux innovants. Garantir la mise à jour des référentiels dans Atlas Archi . 4. Animation & Collaboration transverse Animer une communauté d’experts autour de la plateforme d’intégration. Collaborer avec les architectes (solutions, produits, entreprise), experts techniques, responsables programmes/projets et partenaires externes. Intervenir dans un contexte international et multi-équipes.
Mission freelance
Ingénieur Big Data / Infrastructure en Île-de-France
Publiée le
Big Data
Cloud
Infrastructure
6 mois
Île-de-France, France
Télétravail partiel
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier. Responsabilités principales 1. Conception et mise en place de l’infrastructure Big Data Concevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…). Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation. Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride. 2. Administration et exploitation des plateformes Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances. Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage. Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables. 3. Automatisation, CI/CD et industrialisation Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…). Standardiser les déploiements via Infrastructure as Code. Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring. 4. Sécurité, conformité et gouvernance Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau. Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité). Veiller au respect des politiques RGPD et des normes internes. 5. Support aux équipes Data et accompagnement technique Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data. Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence. Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
Offre premium
Offre d'emploi
Ingénieur DATA / DEVOPS (F/H)
Publiée le
AWS Cloud
Data analysis
DevOps
Nice, Provence-Alpes-Côte d'Azur
Télétravail partiel
Mission sur SOPHIA ANTIPOLIS 4 jours de présentiels (préférable d'habiter la région Alpes maritimes) En vue d'embauche en CDI Notre client, une start-up dans l'énergie, recherche un tech lead pour accompagner les équipes dans le développement de leur solution de prévision météo. Mission principale : Assurer le pilotage technique et la mise en production des solutions de prévision solaire développées, en garantissant la robustesse, la scalabilité et la fiabilité de l’infrastructure data et logicielle. Responsabilités clés : Data Engineering : maintenir et optimiser les pipelines de données (météo, satellite, capteurs PV) pour les modèles de prévision. Infrastructure & DevOps : Déploiement et gestion des environnements cloud (AWS). Mise en place et maintenance de l’Infrastructure as Code (Terraform). Automatisation et optimisation des déploiements via CI/CD (GitHub Actions). Orchestration des tâches : concevoir, monitorer et optimiser les workflows de données et de calcul via Dagster. Opérations métiers : garantir la bonne exécution des codes de prévision (algorithmes, modèles, calculs intensifs) en production. Onboarding & Process : structurer et gérer les procédures d’onboarding technique des nouveaux clients et des PoCs. Qualité & Sécurité : veiller à la résilience, à la sécurité et à la performance des systèmes déployés. Compétences attendues : Solide expérience en Data Engineering et/ou DevOps. Maîtrise de AWS et des outils Terraform. Connaissance des bonnes pratiques CI/CD et expérience avec GitHub Actions. Expérience en orchestration de workflows de données (idéalement Dagster, sinon Airflow ou équivalent). Compétences en scripting (Python, Bash) et monitoring. Capacité à travailler dans un environnement agile, en lien avec des data scientists et des équipes projet. Esprit de structuration et sens des responsabilités pour accompagner la croissance d’une scale-up deeptech.
Mission freelance
Data Analyst - Power BI Montpellier
Publiée le
Microsoft Power BI
12 mois
450 €
Montpellier, Occitanie
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Analyst - Power BI" pour un client dans le secteur de l'Energie Description 🎯 Contexte de la mission Dans le cadre de la consolidation et du développement des outils de pilotage métiers , l’entreprise recherche un Data Analyst Power BI confirmé afin de garantir la performance, la fiabilité et l’évolution de ses tableaux de bord stratégiques. L’objectif : assurer la maintenance en condition opérationnelle (MCO) des rapports critiques, développer de nouveaux tableaux Power BI et contribuer à l’amélioration de la qualité des données. ⚙️ Rôle et responsabilités Intégré(e) à l’équipe Data et en lien direct avec les directions métiers, le Data Analyst aura un rôle clé dans la valorisation des données et la fiabilité des indicateurs . Vos missions principales : Assurer le MCO des tableaux Power BI critiques : supervision, rafraîchissement, vérification des sources et résolution d’anomalies. Concevoir et déployer de nouveaux tableaux de bord Power BI répondant aux besoins métiers (performance, ergonomie, fiabilité). Analyser et comprendre les besoins métiers variés, formaliser les règles de gestion et traduire les demandes en solutions concrètes. Identifier les anomalies de données et sensibiliser les métiers à la qualité et à la cohérence des informations. Collaborer avec les équipes techniques (AWS, Dataiku, Power Platform) pour améliorer les flux de données et la gouvernance . Documenter les processus, les évolutions et les incidents afin d’assurer la traçabilité et la continuité des projets. Produire les reportings d’avancement et suivre les demandes dans Jira.
Mission freelance
POT8787 - Un Lead Développeur Power BI expérimenté sur Saint-Denis
Publiée le
Microsoft Power BI
6 mois
Saint-Denis, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses client, Un Lead Développeur Power BI expérimenté sur Saint-Denis. Compétences techniques indispensables : • Expertise Power BI (Desktop & Service) • Maîtrise du DAX et de la modélisation de données (modèles en étoile, relations) • Connaissances avancées en SQL et bases de données • Maîtrise de la Power Platform : PowerApps, Power Automate, DataVerse, DataFlow, MS365 • Connaissance des normes de sécurité et gouvernance (RLS, gestion des accès) • Expérience en développement web et intégration agile • Veille technologique et optimisation des performances Power BI Compétences fonctionnelles et soft skills : • Aisance relationnelle et esprit d’équipe • Capacité à mentorer et former des développeurs juniors • Autonomie, rigueur, sens de l’analyse et esprit de synthèse • Capacité à gérer des projets multiples et à respecter les priorités et délais • Discrétion et respect de la confidentialité des données Missions principales • Accompagner et former les développeurs BI / Data Analysts • Recueillir les besoins utilisateurs, analyser la faisabilité et rédiger des spécifications • Concevoir, développer, déployer et maintenir des rapports et dashboards Power BI • Modéliser, transformer et enrichir les données via Power Query • Assurer la qualité et cohérence des données, tests DAX, optimisation des performances • Respecter les standards Microsoft, normes de sécurité et gouvernance • Documenter techniquement les modèles et indicateurs • Participer à la veille technologique et au support utilisateur
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
4567 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois