L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 777 résultats.
Mission freelance
Domain Data Architect
Groupe Aptenia
Publiée le
Architecture
Azure
Databricks
3 ans
660-700 €
Lyon, Auvergne-Rhône-Alpes
🔍 Nous sommes à la recherche d'un Architecte Data Domain pour piloter la stratégie de transformation de notre client. Votre rôle : définir la feuille de route, prioriser les programmes, et aligner les équipes techniques et métiers. Vous serez le référent technique Azure/Databricks, tout en coordonnant des équipes d’architectes data et en intervenant techniquement si nécessaire. ✅ Définir et piloter la stratégie d’évolution du domaine data. ✅ Prioriser et justifier les transformations techniques auprès des métiers. ✅ Être référent technique sur Azure et Databricks. ✅ Coordonner des équipes d’architectes data et intervenir techniquement (dépannage, analyse d’impacts). ✅ Garantir l’alignement entre enjeux métiers et solutions techniques.
Offre d'emploi
Expert Tech Lead Chiffrement des Données
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Île-de-France, France
Contexte de la mission : La prestation demandée vise à assurer le rôle de tech lead de l’infrastructure chiffrement de données garantissant la cohérence, la fluidité et la performance du delivery (Run & Build) bout-en-bout du Projet puis du Service de Chiffrement de Données de notre client final. À ce titre, le prestataire est le responsable technique du service et formera un duo complémentaire avec le Chef de Projet puis le Pilote de Service. Il garantira la robustesse, la performance et l'évolution des solutions techniques mises en œuvre. Tâches à réaliser : Apporter votre expertise technique sur les infrastructures de chiffrement et participer aux activités de support de niveau 3 (SN3) en vous assurant que les infogérants disposent du bon niveau de connaissance de notre écosystème · Concevoir les futures briques des services de gestion des clés de chiffrement de manière sécurisée (design, architecture, supervision…) notamment dans le cadre du projet stratégique de mise en œuvre des composants Thalès HSM Luna et KMS Ciphertrust · Challenger les intégrateurs et les fournisseurs afin de garantir des solutions techniques répondant parfaitement aux attentes des métiers et aux standards de sécurité de notre client final · Contribuer à l’amélioration continue des outils et services existants, s’assurer de leur bonne utilisation et aider les métiers et projets à résoudre leurs problèmes techniques complexes · Anticiper les évolutions technologiques et adapter les infrastructures aux nouveaux besoins en assurant une veille technologique active pour détecter les évolutions et ruptures dans le domaine du chiffrement de données et de la cybersécurité (aspects post quantique) · Apporter votre savoir-faire technique pour étayer les dossiers présentés au niveau du management du département et de la direction · Travailler en utilisant les méthodes agiles (SAFE), en étroite collaboration avec le Pilote de Service pour faire évoluer l'infrastructure et répondre aux besoins des projets tout en prenant en compte l'exigence d'optimisation économique Compétences recherchées : Obligatoires : Exploitation infrastructures et administration système Architecture SI Principes de chiffrement de PKI et de KMS HSM Thalès Luna et Thalès Ciphertrust Scripting et automatisation (Shell, Python, Ansible) Connaissance des environnements Cloud (Azure, AWS et GCP) Optionnelles : Connaissance du secteur de l'énergie Expérience nécessaire : profil senior minimum 7 années Méthodologie : SAFE Langues : Français, anglais est un plus
Mission freelance
DATA ENGINEER DDL ( profil habilitable)
Signe +
Publiée le
Python
12 mois
610 €
Issy-les-Moulineaux, Île-de-France
Contexte Ouverture d’une nouvelle entité chez le client. Le Data Engineer interviendra dans un environnement IA / Big Data avec forte dimension cloud et DevOps. Missions Identification et analyse des besoins Participation aux ateliers d’idéation Rédaction de documentations techniques détaillées Définition des spécifications projets IA Proposition de solutions algorithmiques adaptées Interaction avec les infrastructures data Intégration et maintenance de solutions d’IA Gestion d’environnements Big Data, cloud et on-premise Mise en place DevOps / DevSecOps / MLOps Implémentation de pipelines CI/CD Mise en place de dépôts de code Contribution à une culture agile et sécurisée Communication et partage Partage de connaissances au sein de l’entité Communication sur les avancées et retours d’expérience Accompagnement à la montée en compétence de l’équipe Compétences techniques attendues Développement : Python, SQL, Spark, Scala Frameworks ML : pandas, numpy, scikit-learn ETL / pipelines : Apache Nifi, Talend, Kafka Big Data / Cloud : S3, Hadoop, MapReduce Bases de données : PostgreSQL, MySQL, MongoDB, Cassandra DevOps / MLOps : Docker, Gitlab, Kubernetes Profil recherché Expérience confirmée en environnement Data / IA Forte capacité d’analyse et de structuration À l’aise dans un contexte de création d’entité
Mission freelance
Développeur Senior Smart Automation & IA Agentique / Dataiku certifié/ LLM Mesh / Python
Octopus Group
Publiée le
Agent IA
CI/CD
Dataiku
6 mois
520-620 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte dans le domaine de la finance, un développeur sénior en Smart Automation & IA Agentique pour concevoir, mettre en œuvre et industrialiser des solutions avancées d'automatisation des processus. Ces solutions s'appuient principalement sur la plateforme Dataiku et ses fonctionnalités LLM Mesh, qui permettent l'intégration de modèles linguistiques et d'agents IA dans des flux de travail automatisés. L'objectif de l'équipe est de créer des automatisations intelligentes capables d'orchestrer les données, les systèmes d'application et les agents IA afin d'optimiser et de simplifier les processus opérationnels. Principales responsabilités : 1. Concevoir des solutions d'automatisation intelligente : Concevoir des solutions d'automatisation des processus à l'aide de la plateforme Dataiku. Définir des architectures d'automatisation combinant : des pipelines de données l'orchestration des workflows l'intégration avec les systèmes d'application des agents IA Exploiter le LLM Mesh de Dataiku pour intégrer des modèles linguistiques dans les processus automatisés. 2. Développer des solutions d'IA agentique : Concevoir et mettre en œuvre des agents IA capables d'exécuter ou d'assister des tâches au sein de processus automatisés. Développer des workflows intégrant des LLM via Dataiku LLM Mesh. Mettre en œuvre une logique d'orchestration entre : les agents IA les pipelines de données les systèmes d'application. 3. Industrialisation et intégration : Construire et maintenir des pipelines et des workflows automatisés sur la plateforme Dataiku. Intégrer des solutions d'automatisation aux systèmes informatiques existants via des API et des services. Appliquer les meilleures pratiques en matière d'industrialisation : contrôle de version surveillance automatisation du déploiement gouvernance des workflows. 4. Collaborer avec les équipes informatiques : Travailler en étroite collaboration avec les équipes informatiques en charge des systèmes impliqués dans les processus automatisés. Concevoir des mécanismes d'intégration avec les applications existantes. Contribuer à la définition de modèles d'intégration et de normes techniques. 5. Contribuer à la plateforme d'automatisation intelligente : Contribuer à l'évolution des capacités d'automatisation intelligente et d'IA agentique. Définir des normes de développement et d'architecture pour l'automatisation. Accompagner les profils techniques juniors. Promouvoir les meilleures pratiques en matière d'automatisation et d'utilisation des modèles de langage (LLM). Environnement technique : Plateforme Dataiku LLM Mesh API et services d'application Environnements cloud (AWS, Azure ou GCP)
Mission freelance
Data ingénieur Databricks & Power BI Full remote ASAP
WorldWide People
Publiée le
Databricks
6 mois
320-340 €
France
Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL
Mission freelance
Data Analyst (1 ETP)
Signe +
Publiée le
Business Analyst
8 mois
400-550 €
Marseille, Provence-Alpes-Côte d'Azur
Missions Gestion des données de référence (gouvernance & qualité) Compétences obligatoires Spécifications techniques de données Connaissance data management Qualité de données Profil Expérience Data Analyst Rigueur analytique ---- Missions Gestion des données de référence (gouvernance & qualité) Compétences obligatoires Spécifications techniques de données Connaissance data management Qualité de données Profil Expérience Data Analyst Rigueur analytique --- Missions Gestion des données de référence (gouvernance & qualité) Compétences obligatoires Spécifications techniques de données Connaissance data management Qualité de données Profil Expérience Data Analyst Rigueur analytique
Mission freelance
Data Analyst confirmé Powerbi, SQL, Python Nantes/st
WorldWide People
Publiée le
Data analysis
12 mois
320-350 €
Nantes, Pays de la Loire
Data Analyst confirmé Powerbi, SQL, Python Nantes Maîtrise des outils de gestion de données (ex : SQL, Excel avancé, Python ou R…). • Connaissance des outils de visualisation (ex : Power BI, Tableau, …). • Compétences en statistiques et en modélisation de données. 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Powerbi, SQL, Python Prestation Data Analyst confirmé (Min 3 ans exp sur la fonction) Tâches : • apporte un appui analytique à la conduite d’exploration et à l’analyse complexe de données Métiers permettant de fournir des indicateurs concrets. • identifie les données les plus intéressantes et les rends exploitables (structuration, normalisation, documentation) • assure la qualité et la fiabilité de ces données. • dégage des logiques de génération d’indicateurs pour les Métiers. • dégage des tendances en utilisant ses compétences statistiques. • conçoit les tableaux de bord nécessaires à la restitution des différents indicateurs sous la forme de Data visualisation. Compétences Technique : • Maîtrise des outils de gestion de données (ex : SQL, Excel avancé, Python ou R…). • Connaissance des outils de visualisation (ex : Power BI, Tableau, …). • Compétences en statistiques et en modélisation de données.
Mission freelance
Data Ops Confirmé Azure Databricks, DevSecOps Nantes/st
WorldWide People
Publiée le
DevSecOps
12 mois
370-430 €
Nantes, Pays de la Loire
Data Ops Confirmé Azure Databricks, DevSecOps Nantes• Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Azure Databricks, DevSecOps prestation de DataOps confirmé Le DataOps (pour Data Operations) a pour objectifs d’améliorer la qualité, l'efficacité et la vitesse du traitement et de l'analyse des données, en appliquant des principes d'ingénierie logicielle (DevOps) à la gestion des données. Tâches : Automatisation des flux de données : - met en place des pipelines de données automatisés pour ingérer, transformer, valider et charger les données. Amélioration de la qualité des données : - met en œuvre des pratiques pour contrôler et améliorer la qualité des données (tests automatiques, vérifications de la qualité en temps réel, détection d'anomalies, etc.) Mise en œuvre de pratiques CI/CD : - adapte les pratiques de CI/CD (Intégration Continue/Déploiement Continu), pour permettre aux équipes de données de déployer des mises à jour de pipelines et de traitements plus rapidement, en appliquant des tests et des déploiements automatisés. Surveillance et observabilité : - mise en place d'outils de surveillance pour suivre la performance des pipelines de données en temps réel et diagnostiquer les problèmes Gestion de la gouvernance et de la conformité des données : - s'assure que les données suivent les règles de gouvernance et de conformité, en surveillant les accès, les permissions et en appliquant les bonnes pratiques de sécurité des données. Optimisation des coûts et des ressources : - optimise l'utilisation des ressources (infrastructure, stockage, calculs) pour rendre les opérations de données plus économiques, notamment dans des environnements de cloud. Compétences : • Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème
Mission freelance
Expert N3/ architecte kubernetes - mission conseil et audit
FUZYO FRANCE
Publiée le
Cloud
DevOps
Kubernetes
10 jours
Paris, France
Responsabilités principales Conduire un audit complet de l’environnement Kubernetes (on‑prem VMware &/ou AWS). Analyser : Le design des clusters Le dimensionnement et les patterns de déploiement Les composants critiques du control plane et du data plane Le réseau, les CNI et la haute disponibilité Réaliser un audit de sécurité Kubernetes : RBAC Network Policies Gestion des secrets Durcissement du cluster (CIS, benchmarks) Posture globale de sécurité Évaluer les pratiques CI/CD & GitOps (ArgoCD, FluxCD, Jenkins…). Analyser l’écosystème d’observabilité : Prometheus, Grafana, EFK/ELK, alerting, métriques. Examiner les pratiques de conteneurisation avancée : optimisation d’images, best practices Docker/OCI, gestion des registries. Produire les livrables : Rapport d’audit complet Analyse des risques Roadmap d’amélioration détaillée Recommandations stratégiques et techniques Compétences techniques requises Kubernetes (Expert N3) Maîtrise avancée du fonctionnement interne des clusters (API Server, Scheduler, ETCD…) Expertise multi-environnements : on‑prem VMware, cloud AWS (EKS). Sécurité Kubernetes RBAC avancé Zero trust Network Policies complexes Secrets management Standards CIS et CNCF CI/CD / GitOps ArgoCD, FluxCD, Jenkins, GitLab CI Pipelines Kubernetes natifs Helm / Kustomize (un plus) Observabilité Prometheus & Alertmanager Grafana ELK/EFK Traces, logs, monitoring applicatif & infra Conteneurisation Optimisation Docker/OCI Multi-stage builds Scanners / image policies Profil recherché 7 à 12 ans d’expérience en DevOps / Cloud / Kubernetes, dont au minimum 5 ans sur Kubernetes. Expérience confirmée en architecture, audit, design de clusters. Capacité à vulgariser les sujets complexes. Rédaction impeccable de rapports et recommandations. Autonomie totale, posture conseil / expertise.
Mission freelance
Développeur Power Platform - Power Automate / Power Apps / Copilot
CAT-AMANIA
Publiée le
Power Platform
12 mois
400-470 €
Hauts-de-Seine, France
Vos missions consisteront à contribuer : Accompagner les projet de développement en Power Automate et Power Apps : configuration d'environnements, gestion politique DLP, gestion Habilitations, gestion Stockage Dataverse... Concevoir et implémenter des solutions sur la power platform : Conception et Développement de flux Power Automate et des applications Power Apps Etudier et développer des Assistants IA avec Copilot Studio (bot/agent base sur l'IA Gen) Bien connaitre l'ingénierie du prompt : exploiter pleinement les capacités des modèles d'IA Etre force de proposition et participer à la gouvernance : cadre et régles d'usage sur la power Platform. Assurer la communication générale avec Microsoft autour des services de la Power PLatform Mettre en place toutes les automatisations nécessaires à base de scripts Powershell pour automatiser la gestion et l'administration de ces services Mettre en œuvre les éléments de sécurité demandés par le RSSI Produire toute la documentation à destination des équipes N2 Traiter les incidents de niveau 3 Animer en tant qu'expert des groupes de travail technique autour de la power Platform
Mission freelance
Développeur Microsoft Power Platform Expérimenté
UTALENT
Publiée le
Power Apps
Power Platform
12 mois
Paris, France
Dans le cadre du projet de digitalisation des demandes de dérogations commerciales, l’équipe souhaite renforcer ses capacités avec un développeur expérimenté sur le framework Microsoft Power Platform. Le consultant interviendra au sein d’une équipe de développement basée en France et participera à la conception, au développement, à l’intégration et à l’optimisation de solutions métier basées sur l’écosystème Microsoft. Il contribuera à la mise en place de solutions robustes, performantes et maintenables, tout en assurant un rôle de support technique et de conseil sur les choix d’architecture et les bonnes pratiques de développement.
Mission freelance
Consultant Data Governance & Steward - Delivery Ops
Tenth Revolution Group
Publiée le
Collibra
CRM
ERP
1 an
550-750 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Vous intervenez en tant que Data Steward Transverse / Consultant Gouvernance pour transformer la stratégie data en réalités opérationnelles. Votre mission est de faire le pont entre les enjeux métiers et les contraintes SI. Vous ne vous contentez pas de définir des politiques : vous les déployez concrètement sur le terrain. Vos principales missions : Opérationnalisation du patrimoine Data : Recenser les acteurs clés, cadrer les besoins métiers et formaliser les exigences (dictionnaires de données, règles de gestion, qualité, sécurité). Gouvernance "Hands-on" : Produire et maintenir la documentation (glossaires, cartographies de flux, procédures) et veiller à l'implémentation des règles dans les solutions cibles. Coordination & Delivery : Animer les comités opérationnels, réaliser les études d'impacts lors des évolutions SI et piloter les stratégies de migration de données. Outillage : Participer activement au choix et au déploiement des outils (MDM, Data Catalog) : contribution aux RFP, cadrage fonctionnel et accompagnement au changement auprès des utilisateurs.
Mission freelance
Change Manager Data & Cloud – Secteur Assurance (H/F)
CAPEST conseils
Publiée le
Business Object
Conduite du changement
Dataiku
3 mois
Paris, France
Dans le cadre d’un programme de transformation data d’envergure chez un acteur majeur du secteur de l’assurance, nous recherchons un Change Manager Data & Cloud afin d’accompagner les équipes métiers dans l’adoption des nouveaux usages liés à la donnée. Le programme vise à moderniser l’écosystème data, notamment via la migration d’applications vers des environnements cloud et SaaS , et à favoriser une culture data-driven au sein des différentes directions métiers. Vous interviendrez à l’interface entre les équipes data, IT et métiers , avec un rôle clé de vulgarisation et d’accompagnement au changement. Vos missionsAccompagnement à la transformation data Définir et déployer la stratégie de conduite du changement autour des nouveaux outils et usages data. Identifier les impacts organisationnels et métiers liés aux migrations vers des solutions cloud et SaaS . Mettre en place des plans d’adoption pour favoriser l’appropriation des solutions data. Acculturation et vulgarisation de la data Traduire les sujets techniques en messages accessibles pour les métiers . Promouvoir la culture data et les usages analytiques dans les différentes directions. Concevoir et animer des ateliers, démonstrations et formations utilisateurs . Produire des supports de communication et de pédagogie (guides, newsletters, webinars). Adoption des outils analytiques Accompagner les métiers dans l’utilisation des solutions data et BI : Business Objects Tableau Dataiku Objectif : démocratiser l’accès à la donnée et faciliter l’autonomie des métiers dans l’analyse. Coordination avec les équipes techniques Assurer le lien entre les équipes data, IT et les utilisateurs métiers . Contribuer à l’amélioration de l’expérience utilisateur autour des outils data. Participer à la structuration des bonnes pratiques et de la gouvernance data . Profil recherchéExpérience 5 ans ou plus d’expérience en conduite du changement, transformation digitale ou data . Expérience dans des environnements BI, analytics ou data platforms . Une connaissance du secteur assurance ou financier est appréciée. Compétences Capacité à vulgariser des sujets techniques complexes . Bonne compréhension des environnements cloud, SaaS et data analytics . Expérience avec des outils de data visualisation ou BI . Excellentes capacités de communication, animation d’ateliers et gestion des parties prenantes . Qualités attendues Sens du service et orientation métier. Leadership et capacité à embarquer les équipes. Autonomie et esprit d’initiative. Forte appétence pour les sujets data et transformation digitale . Environnement de la mission Secteur : Assurance Environnement : Transformation data et migration cloud Outils : Business Objects, Tableau, Dataiku Mode de travail : interaction forte avec les équipes data, IT et métiers Quelques déplacements à prévoir occasionnellement en province.
Mission freelance
Dev SRE DevOps
SQLI
Publiée le
Azure DevOps
6 mois
400-600 €
Paris, France
Bonjour, Pour le compte de l'un de mes clients dans le secteur du luxe, je suis à la recherche d'un développeur SRE DevOps. Contexte du rôle : Au sein de notre Direction Digitale, vous rejoignez l’équipe en charge des plateformes technologiques qui soutiennent l’ensemble de nos expériences digitales : e‑commerce international, applications retail, outils stylistes & collections, supply chain omnicanale et services clients premium. En tant que Développeur SRE, vous jouez un rôle clé dans la fiabilité, l’observabilité et la performance de nos services, tout en accompagnant les équipes de développement dans une démarche DevOps moderne au sein d’une Maison de Mode innovante. Missions principales : 1. Fiabilité & Performance des plateformes : Garantir la disponibilité, la stabilité et la performance des applications critiques (e-commerce, POS, ERP, PLM, DAM…). Concevoir, automatiser et maintenir des pipelines CI/CD robustes. Mettre en place et maintenir des SLO/SLI, dashboards et alerting. 2. Automatisation & Infrastructure as Code : Développer et maintenir l’Infrastructure as Code (Terraform, Ansible, Pulumi…). Automatiser les déploiements, tests, rollback et opérations de maintenance. Participer au design et à l’évolution des architectures cloud (Azure / AWS / GCP selon contexte). 3. Sécurité & Conformité : Intégrer les bonnes pratiques de sécurité dans les pipelines. Contribuer aux audits, durcissements, politiques IAM et gestion des secrets. 4. Support aux équipes produit & tech : Accompagner les développeurs sur les bonnes pratiques DevOps / SRE. Participer aux revues d’architecture et recommandations de performance. Travailler étroitement avec les équipes e-commerce, retail et supply chain pour garantir un haut niveau de service. 5. Observabilité & Monitoring : Définir et améliorer l’observabilité (logs, traces, metrics). Implémenter des outils type Datadog, Prometheus, Grafana, Splunk… Piloter l’analyse post‑incident (RCA), mise en place d’actions correctives.
Mission freelance
Ingénieur Observabilité & Devops Platform
CHARLI GROUP
Publiée le
Ansible
ELK
Grafana
3 ans
Paris, France
Au sein de la direction IT d'un grand groupe financier international, les équipes Platform Engineering pilotent des services digitaux critiques autour de l'Observabilité, de l'Automatisation et du DataOps. Dans le cadre d'un programme de transformation majeur, l'objectif est de développer une capacité d'observabilité "by design" couvrant l'ensemble des applications et infrastructures métiers. Missions principales Recueil des besoins auprès des équipes applicatives et infrastructure — Conception de solutions de collecte de métriques, logs et traces — Réalisation de POC et MVP sur les solutions d'observabilité pertinentes — Intégration dans l'écosystème existant de monitoring et d'alerting — Développement d'automatisations via pipelines DevOps (déploiement d'agents, gestion de configuration) — Mise en place et maintien de pipelines CI/CD avec tests unitaires selon des standards élevés — Contribution à la définition des standards produit dans le contexte groupe — Onboarding de nouveaux clients internes sur les plateformes. Stack & compétences recherchées Prometheus / Grafana, OpenTelemetry, Datadog / Dynatrace, ELK / Loki, Ansible / Terraform, Kubernetes, CI/CD (Jenkins / GitLab), Python / Go / Shell, APM, pratiques SRE. Secteur financier · Grande entreprise internationale · DSI Globale · Transformation digitale
Mission freelance
POT9006- Un Data Analyst Power BI confirmé sur Chécy.
Almatek
Publiée le
Microsoft Excel
PowerBI
SAS
6 mois
330-380 €
Chécy, Centre-Val de Loire
Almatek recherche pour l'un de ses clients, un Data Analyst Power BI confirmé sur Chécy. Descriptif: Contexte de la mission Dans le cadre de la mise en place et de l’industrialisation de tableaux de bord décisionnels Power BI, le client recherche un Data Analyst Power BI confirmé pour accompagner les directions métiers dans la construction et le pilotage de leurs indicateurs stratégiques. La mission s’inscrit dans un contexte assurance , avec des enjeux forts de compréhension métier, de structuration de la donnée et d’aide à la décision au niveau Direction Générale. Objectifs de la mission: Concevoir, développer et maintenir des tableaux de bord Power BI à destination de la Direction Générale Accompagner les métiers dans la transformation de leurs usages historiques (Excel, SAS) vers une logique Power BI plus industrialisée Structurer la démarche décisionnelle et garantir la cohérence des indicateurs Périmètre fonctionnel: Les tableaux de bord concernent notamment : Direction Générale Direction des Offres Direction Commerciale Direction Marketing Activités principales: Capacité à s’asseoir avec les métiers, comprendre leurs besoins et leurs usages actuels Accompagnement au changement : expliquer pourquoi une logique Excel / SAS ne peut pas être transposée telle quelle dans Power BI Définition de la logique de données et des indicateurs Rédaction de notes de cadrage, validation avec les métiers Conception et développement des rapports Power BI Mise en production et assurance du RUN (maintien, évolutions, fiabilité des dashboards) Profil recherché: Data Analyst Power BI confirmé Minimum 5/7 ans d’expérience sur des projets décisionnels Très bonne connaissance des environnements assurance, c'est obligatoire. Forte capacité de communication et de pédagogie auprès des métiers (forte compétences métier assurance obligatoire) Autonomie, structuration et sens du résultat Organisation
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2777 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois