L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 393 résultats.
Offre d'emploi
Data Analyste Expert Dataiku
VISIAN
Publiée le
Dataiku
1 an
40k-45k €
400-560 €
Paris, France
Descriptif du poste La mission se déroulera au sein de l'équipe de la direction pour prendre en charge la modélisation sous Dataiku d'un programme data pour la Direction Finance. La mission nécessite une expertise forte sur Dataiku en data analyse (minimum 5 ans de développement sous Dataiku) pour maintenir un flux complexe existant, l'optimiser et développer et automatiser de nouveaux flux suite à l'évolution du projet. Par ailleurs, le Métier Finance impose un respect de jalons de livraison très précis (clôtures comptables régulières notamment) et une réactivité très forte dans la correction des anomalies. Vos principales responsabilités seront : Développement sous Dataiku pour répondre à un cahier des charges précis demandé par la Direction Finance (format de sortie imposé) Maintenance du flux déjà développé et optimisation des différentes étapes Proposition de features innovantes pour optimiser le flux Mise en production dans l'automation node, paramétrage avancé des scénarios d'automatisation qui peuvent utiliser des steps custom en Python Mise en place de contrôles et de checks automatisés Animation d'atelier, participation au Comité de pilotage du projet (en binôme avec un autre data analyste)
Mission freelance
Data Manager Lead
STHREE SAS pour COMPUTER FUTURES
Publiée le
Business Intelligence
6 mois
Paris, France
Piloter le projet de renforcement BI & Analytics (BIGUP), incluant la rationalisation du périmètre métier, la standardisation, l’amélioration du modèle de delivery et l’opérationnalisation du modèle opératoire. Gérer la gouvernance BI & Analytics en mode BAU (run). Faire appliquer la stratégie Data en veillant à ce que les standards Data soient définis et mis en œuvre. Les standards minimum requis sont : la politique de gouvernance des données, le cadre de Data Quality et le cadre Data By Design, supportés par la documentation des données. Mettre en place et accompagner le processus Data By Design avec les Data Architects, le Data Privacy Officer et les autres parties prenantes. Soutenir les Business Data Owners et Data Stewards dans leurs activités de gestion des données, y compris la mise en œuvre des frameworks Data dans leur domaine.
Offre d'emploi
Développeur Big Data Expérimenté (H/F)
CITECH
Publiée le
Cloudera
Git
Hadoop
50k-60k €
Lyon, Auvergne-Rhône-Alpes
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet innovant, nous avons LE poste pour vous ! Nous recherchons en effet un(e) Développeur Big Data Expérimenté (H/F) 🚀 ☘️ Votre mission est pour un client connu du secteur de la retraite et prévoyance. L’objectif de la mission est dans le cadre de la réalisation et la maintenance de développements nécessaires à l'alimentation d’une plateforme, ainsi que la mise en place d'extractions de données et l'accompagnement des utilisateurs finaux. Description du poste 👉 Vous aurez les missions suivantes : 👈 🔸 Développement et maintenance : Assurer l'alimentation du Datalake et faire évoluer les flux en fonction des besoins métiers. 🔸 Conception et architecture : Mettre en place des extractions de données et contribuer à garantir la tenue de la plateforme en environnement opérationnel. 🔸 Support et expertise : Assurer le support de niveau 2, apporter une expertise technique sur l'écosystème Hadoop et réaliser des revues de code. 🔸 Coordination : Collaborer avec la Direction Technique Informatique et la Gouvernance de la Donnée pour le respect et l'évolution des modèles référencés. 🔸 Documentation : Rédiger la documentation technique (spécifications, dossiers d'exploitation, manuels d'installation) et les bilans de tests.
Mission freelance
Consultant Senior Big Data CDP/HDP
Nexius Finance
Publiée le
CI/CD
Dynatrace
1 an
440-510 €
Paris, France
Contexte : Notre client, acteur majeur du secteur bancaire, recherche un Expert CDP (Cloudera Data Platform) avec une solide expérience sur HDP (Hortonworks Data Platform). Le consultant interviendra sur l’amélioration continue des services Big Data, la gestion des incidents et la coordination des équipes techniques situées en France et en Inde. La maîtrise d’Ansible pour l’automatisation est indispensable pour optimiser l’infrastructure et les processus critiques. Responsabilités : Assurer l’amélioration continue des services sur CDP : optimisation des performances et configurations. Gérer les incidents sur HDP et CDP en production. Automatiser les processus via Ansible : mise à jour et création de playbooks pour le déploiement et la gestion des clusters. Coordonner et collaborer avec les équipes techniques en France et en Inde. Livrables attendus : Documentation technique à jour des environnements. Playbooks automatisés et opérationnels.
Mission freelance
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) /sa
WorldWide People
Publiée le
DBT
Informatica
Snowflake
6 mois
400-500 £GB
France
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) pour diriger la migration d'IICS vers DBT sur Snowflake. Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration). 5 à 10 ans d’expérience Anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : Bordeaux de préférence sinon France L'équipe recherche un data Engineer senior pour diriger la migration d'IICS vers DBT sur Snowflake. Le candidat idéal doit jouer le rôle de « traducteur » : il doit être capable de lire des mappages IICS hérités complexes (logique de rétro-ingénierie) et de les refactoriser en modèles SQL DBT modulaires et propres. Compétences requises : Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration).
Mission freelance
Data Engineer Azure Python
Cherry Pick
Publiée le
Azure
Python
SQL
12 mois
600 €
Paris, France
Le Datahub est la plateforme centrale du système d’information d’un acteur majeur de l'épargne. Il centralise, normalise et expose l’ensemble des données pour des usages métiers critiques : calcul des commissions, génération de documents clients, finance, marketing et écosystème partenaires. En tant que Data Engineer (Renfort) , vous rejoignez une équipe de 3 personnes pour accélérer le développement, l’industrialisation et la fiabilisation des pipelines de données dans un environnement en pleine transformation. 🛠️ Stack Technique Cloud & Stockage : Azure (Azure SQL, Cosmos DB). Orchestration & ETL : Azure Data Factory (ADF). Langages : SQL (Expertise requise), Python (Azure Functions). DevOps / IaC : Terraform, Azure DevOps, SonarCloud, Snyk. Évolution : Migration vers Airflow prévue prochainement. 🎯 Vos Missions Développement de Pipelines : Concevoir, maintenir et optimiser les flux d'intégration (ingestion, transformation, normalisation) via Azure Data Factory. Expertise Data : Réaliser des transformations et agrégations de données complexes en SQL, avec un focus sur la performance et la qualité. Industrialisation : Automatiser les processus via Python (Azure Functions) et gérer l'infrastructure via Terraform. Collaboration Métier : Travailler en direct avec les équipes Finance, Marketing et Relation Client pour traduire leurs besoins en solutions techniques robustes. Qualité & Sécurité : Garantir la fiabilité des données et la propreté du code (CI/CD, tests, revues de code). 👤 Profil Recherché Expérience : Data Engineer confirmé (3 à 5 ans d'expérience minimum). Maîtrise SQL : Capacité à gérer des traitements de données volumineux et complexes. Expertise Azure : Expérience solide sur ADF et l'écosystème Cloud Microsoft. Culture Dev : Bonne connaissance de Python et des principes DevOps (Git, CI/CD, Terraform). Soft Skills : Force de proposition, capacité d’adaptation et aisance pour échanger avec des interlocuteurs non techniques. Langue : Anglais professionnel (un vrai plus pour l'environnement international). 💼 Modalités Pratiques Démarrage : Sous 1 mois (disponibilité immédiate ou courte). Durée : Visibilité sur l'année 2026. Lieu : Paris (Locaux haut de gamme). Rythme : 3 jours de présence sur site / 2 jours de télétravail (pas de full remote).
Mission freelance
DevOps IaaS – Automatisation Cloud
NEXORIS
Publiée le
Ansible
Git
Jenkins
1 an
400-470 €
Paris, France
Notre client recherche un DevOps IaaS – Automatisation Cloud (H/F) dans le cadre d'une longue mission. Au sein de la DSI Groupe , la mission s’inscrit dans l’évolution du Cloud privé Cloud by ITaaS et dans son hybridation avec des solutions cloud externes (notamment Azure et Numspot). Le consultant interviendra comme référent automatisation DevOps pour améliorer l’industrialisation et les pratiques d’automatisation de la plateforme IaaS. - Analyser et tester le code produit par d’autres développeurs - Définir et mettre en place des méthodes d’unification et d’automatisation - Identifier les problèmes techniques et proposer des axes d’optimisation - Réaliser certains développements liés à l’automatisation - Accompagner les administrateurs de l’équipe sur les bonnes pratiques DevOps - Assurer le support technique et le transfert de compétences auprès des équipes IaaS
Mission freelance
Analytics Engineer – Migration DataBoost (SAP BO → Power BI)
SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks
3 mois
230-680 €
Paris, France
Dans le cadre du projet DataBoost , nous recherchons un Analytics Engineer pour participer à la migration des rapports SAP Business Objects vers Power BI . Ce projet vise à décommissionner SAP BO en industrialisant l’intégration des données dans une architecture lakehouse moderne (Bronze → Silver → Gold), et à construire un référentiel analytics centralisé pour l’ensemble des datamarts. Vos missions consisteront à : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory (POC avec Airflow). Développer des pipelines d’intégration de données en PySpark (Spark Declarative Pipeline). Transformer et optimiser les flux de données en SQL avec le framework DBT . Développer de nouveaux indicateurs de qualité de données sur DBT. Garantir la qualité du code et le respect des normes de développement. Implémenter des tests unitaires pour assurer la fiabilité des solutions. Maintenir les outils de monitoring pour suivre les performances. Ce poste est idéal pour un professionnel souhaitant contribuer à une transformation majeure des outils BI et travailler sur une architecture data moderne .
Offre d'emploi
Data Engineer / BI (H/F)
HAYS France
Publiée le
Master Data Management (MDM)
Microsoft SQL Server
Microsoft SSIS
46k-60k €
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons pour notre client un Data Engineer / BI (H/F) Contexte : Consolidation de l’environnement existant, Projets, Axes de développement sur moyen et long terme. · Vous intégrez une équipe à taille humaine. · Véritable bras droit du manager, vous êtes amené à superviser l’équipe, gérant les priorités ainsi que les escalades. · Ce qui vous attend ? Du support opérationnel, de la Qualité & Conformité, du Reporting ainsi qu’une participation active dans l’Amélioration continue. Responsabilités principales : Modélisation de données, ETL, Data gouvernance… La mission consiste à garantir la continuité, la fiabilité et la conformité des activités Data & Business Intelligence, tout en pilotant les projets d’intégration, de reporting et d’optimisation au service des décisions stratégiques de l’entreprise. · Support opérationnel — Assurer le suivi des projets Data (ETL, data warehouse, dashboards) et veiller à la disponibilité des services BI. · Qualité et conformité — Maintenir les standards de qualité des données et garantir le respect des règles de sécurité et de conformité. · Reporting — Produire, contrôler et diffuser les KPI, tableaux de bord et analyses destinés aux directions métiers. · Amélioration continue — Identifier et mettre en avant les pistes d’optimisation des processus Data et BI. · Communication — Assurer le rôle d’interlocuteur privilégié auprès des parties prenantes internes et externes. · Coordination — Encadrer l’équipe Data en l’absence du manager, organiser les priorités et gérer les escalades. Environnement technique : Microsoft SQL Server, SQL, ETL, MS BI (SSIS, SSAS, SSRS), PowerBI, Data Modeling, Master Data Management (MDM), Cloud privé.
Offre d'emploi
Product Owner Data F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
Scrum
Marseille, Provence-Alpes-Côte d'Azur
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Responsable Opérationnel Cloud (H/F)
EXMC
Publiée le
Cloud
DevOps
1 an
580-620 €
Paris, France
Soutien au Head of Cloud (et à son équipe de direction ; 6 managers exécutifs supervisant ~220 collaborateurs internes) dans la coordination de la gouvernance, des interfaces et des activités projets. Le service comprendra : • Gestion de la gouvernance : préparation des réunions de gouvernance Cloud (Town Hall, Cloud LT Offsite, réunions Cloud LT, etc.), rédaction des comptes rendus et suivi des actions. • Contributions des parties prenantes : préparation, relecture et remise en question des contributions destinées aux parties prenantes GO (GTO, ExCom, Finance, RH, etc.) dans le périmètre des Cloud Products, afin d’en garantir l’exactitude et la pertinence. • Stratégie d’interface et de communication : développement et coordination des stratégies d’interface internes et externes afin d’assurer une communication claire et cohérente. • Support aux projets : soutien ou pilotage de projets internes impliquant la BU Cloud ; coordination des activités, suivi de l’avancement et garantie du respect des jalons et des échéances. • Support Cloud Broker : revue et restructuration de la gouvernance du Cloud Broker en interne et avec les entités ; soutien au Cloud Broker Executive Manager pour l’onboarding en Europe. Supporting the Head of Cloud (and his leadership team; 6 exec. managers managing ~220 internals) in coordinating governance, interface, and project activities. The service will: • Governance management: preparing, managing minutes, and following up on Cloud governance meetings such as Town Hall, Cloud LT Offsite, Cloud LT Meetings, etc. • Stakeholder Inputs: preparing, reviewing, and challenging inputs provided to GO stakeholders (GTO, ExCom, Finance, HR, etc.) within the Cloud Products scope, ensuring accuracy and relevance in response. • Developing and coordinating internal and external interface strategies to ensuring clear and consistent messaging. • Project Supporting: Supporting or leading internal projects involving the Cloud BU; coordination, monitoring progress, and ensuring milestones/deadlines are met. • Cloud Broker supporting: Reviewing and restructuring the Cloud Broker governance internally and with entities, support Cloud Broker Executive Manager for Europe onboarding
Mission freelance
Ingénieur Data
JobiStart
Publiée le
AI
AWS Cloud
Cloud
1 an
400-550 €
Île-de-France, France
Concevoir, développer et opérer des pipelines de données robustes et évolutifs au sein d’environnements Cloud Mettre en place des mécanismes d’ingestion, de transformation et d’exposition de données provenant de sources multiples, structurées ou non Exploiter les services Cloud pour l’orchestration des flux, le stockage et le calcul distribué Développer des composants Data orientés usages analytiques et Intelligence Artificielle Participer à la mise en production et à l’industrialisation de modèles de Machine Learning et d’IA générative Optimiser la performance, la fiabilité et la maintenabilité des traitements et des pipelines Définir et appliquer des règles de qualité, de cohérence et de normalisation des données Contribuer à la structuration des référentiels data et aux démarches de gouvernance Produire et maintenir la documentation technique et fonctionnelle des flux et modèles de données Accompagner les équipes métiers et analytiques dans la formalisation des besoins Data Animer des ateliers de cadrage afin de traduire les usages fonctionnels en solutions techniques Jouer un rôle d’interface entre les équipes IT, Data Science et utilisateurs finaux Automatiser les déploiements et les traitements via des pipelines CI/CD Contribuer à la conception et à la sécurisation des architectures Data Cloud Intégrer les traitements selon les standards ETL/ELT et les bonnes pratiques DevOps
Mission freelance
Cloud Security Architect
NEXORIS
Publiée le
AWS Cloud
Azure
Cloud
12 mois
650 €
Île-de-France, France
Notre client recherche un Cloud Security Architect (H/F) dans le cadre d’une longue mission. Dans un contexte de migration des produits et applications vers le cloud (principalement Azure et partiellement AWS), la mission consiste à définir et piloter les standards de sécurité cloud du groupe tout en accompagnant les équipes architecture et infrastructure sur les problématiques de sécurité et de résilience. - Définir les blueprints et standards de sécurité pour les architectures cloud - Valider les architectures cloud d’un point de vue sécurité - Définir et structurer la stratégie de résilience cloud (multi-zone, multi-région) - Analyser et prioriser les vulnérabilités remontées par les outils CNAPP / CSPM - Définir et implémenter les politiques de sécurité Azure - Apporter une expertise sur la gestion des identités (Entra ID) et les Conditional Access Policies - Collaborer avec les équipes Security, Architecture et Infrastructure - Produire des guidelines et documents opérationnels pour les équipes techniques
Offre d'emploi
Développeur Java Full Stack confirmé (H/F)
CITECH
Publiée le
Java
Javascript
Spring Data
12 mois
45k-50k €
330-390 €
Quimper, Bretagne
CITECH recrute ! 👌 👍 Nous recherchons un(e) Développeur Java Full Stack confirmé (H/F) 🚀 🌟 Dans le cadre du développement et de la maintenance de solutions applicatives à forts enjeux métier, nous souhaitons renforcer nos équipes avec un profil technique confirmé, capable d’intervenir sur l’ensemble du cycle de vie des applications. Le poste s’inscrit dans un environnement collaboratif, orienté qualité et bonnes pratiques de développement. 🌟 🎯 Objectifs de la mission : Participer à la maintenance corrective et évolutive des applications Concevoir et développer des solutions performantes et maintenables Garantir la qualité du code et la fiabilité des livraisons Contribuer à l’amélioration continue des pratiques techniques 🙌🔽 Vos principales missions : 🔽🙌 Participer à la maintenance corrective et évolutive des produits Concevoir la solution en collaboration avec l’analyste fonctionnel et l’architecte applicatif Développer des fonctionnalités full stack (backend Java / frontend JavaScript) Réaliser des revues de code et partager les bonnes pratiques Concevoir et mettre en œuvre des tests unitaires automatisés Contribuer à la performance, la sécurité et la maintenabilité des applications
Offre d'emploi
Architecte Cloud KUBERNETES/OPENSHIFT
VISIAN
Publiée le
Kubernetes
Openshift
1 an
Île-de-France, France
Contexte Une organisation spécialisée dans les offres de containerisation on-prem Kubernetes et Openshift en mode managé propose également des landing zones Cloud public permettant aux entités de consommer les produits EKS/GKE en toute autonomie. Des réflexions sont en cours pour proposer un modèle alternatif d'offre de conteneurs managés sur cloud public sur les bases d'EKS ou GKE. Objectifs de la Mission L'objectif est de : Étudier comment se déploie un Kong sur Openshift Adapter l'offre Kong sur Kubernetes, existante, sur un Openshift Mettre à jour le GitOPS Engine de la squad APIM afin de pouvoir déployer Kong de manière automatisée sur Openshift Posture : Mission exploratoire et conceptuelle avec un attendu de delivery. Finalité de la Mission Qualifier et prioriser les prérequis nécessaires au déploiement de Kong sur Openshift Formaliser au niveau Low Level Design les options de déploiement en fonction des contraintes du produit et de l'offre APIMNG existante sur Kubernetes (Livrables de la prestation) Décider : Go/No Go/MVP, périmètre cible, roadmap et modalités de mise en œuvre si et seulement si la valeur est démontrée. Objectifs Opérationnels Conduire des assessments techniques et fonctionnels auprès d'un noyau de 2 entités pilotes (nombre susceptible d'évoluer), et élargir si nécessaire. Cartographier : architectures actuelles, pratiques d'exploitation, zones de friction (sécurité, réseau, observabilité, support, RACI, compliance, coûts). Comparer la couverture actuelle et les attentes internes (SLO/SLA, posture de conseil, run/SRE, sécurité, gouvernance). Proposer des scénarios : accompagnement ciblé, co-managé, managé - avec périmètre, responsabilités, niveaux de service Éclairer la décision par une analyse technique, organisationnelle, financière (TCO/FinOps) et réglementaire. Périmètre d'Analyse Openshift version 4.19/4.20 Architecture et landing zones : comptes/projets, VPC/VNet, sous-réseaux, connectivité hybride, multi régions Kubernetes opensource : lifecycle cluster/node pools, multi tenancy (namespaces/projects), isolation, autoscaling Sécurité et conformité : IAM, RBAC, OPA/Gatekeeper, secrets management, image signing, supply chain, PSA, network policies, chiffrage (au repos/en transit), journalisation/traçabilité Observabilité & opérations : monitoring, logging, APM, SLO/SLA, politique de rétention des logs et métriques, alerting, on call, gestion des incidents/problèmes/changes, backups/DR CI/CD & policy-as-code : pipelines, qualité, sécurité, promotion, contrôles Coûts & FinOps : modélisation TCO, refacturation interne (ex. par vCPU/heure, par cluster/namespace), optimisation, quotas/limites Gouvernance & modèle de responsabilité : RACI partagé avec CSP/entités, périmètre support (L1/L2/L3), posture de conseil, cibles d'autonomie Livrables Attendus HLD + LLD Plateformes Openshift avec le produit APIMNG (KONG) installé Chaîne CI/CD de déploiement Comptes rendus détaillés des assessments incluant synthèse des besoins et points de friction Dossier d'exploitation RACI Documentations techniques Coûts et synthèse des points d'attention, friction d'une migration Kube vers Openshift pour Kong Déroulé et Jalons Phase 1 - Cadrage & Préparation Cadrage des objectifs et du périmètre ; identification des entités pilotes et des interlocuteurs clés Méthodologie d'assessment, grilles d'entretien, supports de communication Plan de conduite du changement et canaux de feedback Rapport de synthèse, décision (Go/No Go/MVP) et roadmap Architecture de référence (si Go/MVP), critères d'éligibilité et de succès Restitution aux parties prenantes (exécutif et technique) Phase 2 - Build Déploiement de l'offre APIMNG sur Openshift Phase 3 - Automatisation Modification des chaînes CI/CD pour intégrer le déploiement sur Openshift Profil Recherché Expérience 7+ ans en architecture cloud et containers ; missions de conseil/assessment réussies Expertise confirmée sur Amazon EKS et Google GKE ; Kubernetes et écosystème (networking, sécurité, observabilité, CI/CD) Solide expérience hybride on-prem / cloud et compréhension des modèles d'exploitation internes (infogérance, SRE, RACI) Connaissance des exigences du secteur bancaire (sécurité, conformité) [un plus] Connaissance des API Management avec de l'expérience sur du déploiement d'APIM (Kong fortement recommandé et apprécié) Compétences Techniques AWS/GCP (IAM, networking, monitoring, storage, backup/DR) Kubernetes : RBAC, PSA/PSS, OPA/Gatekeeper/policy as code, network policies, secrets, image registry/signing, autoscaling Openshift Observabilité : logs, métriques, traces ; politiques de rétention ; SLO/SLA ; runbooks Sécurité/compliance – si nécessaire : contrôle d'accès, chiffrement, traçabilité, audits ; PCI DSS, 2SR, RGPD (si applicable) FinOps/TCO : modélisation de coûts, refacturation, quotas/limites Compétences Fonctionnelles & Posture Cloud Solution Architect : traduction des besoins métiers en architectures techniques et modèles de service Maîtrise des méthodologies d'assessment ; synthèse claire et actionnable Excellente communication orale/écrite ; conduite d'ateliers/entretiens Posture de conseil - influence, pédagogie, capacité à challenger utilement Autonomie, rigueur, orientation résultat ; adaptabilité aux contraintes bancaires Certification EKS/GKE non obligatoire ; ce sont l'expérience et la posture qui priment.
Offre d'emploi
Business Analyst / Data Analyst
R&S TELECOM
Publiée le
Apache Airflow
Azure Logic Apps
ETL (Extract-transform-load)
1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Pour l’un de nos clients, cette mission consistera par l’accompagnement du lancement d’un projet interne stratégique destiné à doter ses équipes commerciales d’un outil de pilotage centralisé axé sur la donnée. Tâches à réaliser : Recueillir et formaliser les besoins métier des équipes Sales / Sales Ops (indicateurs, rapports, cas d’usage). Analyser les sources de données existantes (dont Salesforce) et comprendre le business data model actuel. Concevoir et faire évoluer le modèle de données dans une logique Medallion / Canonical / Shared Data Model. Cadrer et spécifier les pipelines de données (ETL / workflows) avec les outils en place : Fabric Pipeline, dbt, Alteryx, Airflow, LogicApps, PowerAutomate, etc. Définir les règles de transformation et de qualité de données (nettoyage, harmonisation, gestion des doublons, référentiels). Mettre en place et documenter l’historisation et la data lineage de bout en bout (de la source jusqu’aux vues analytiques). Rédiger la documentation fonctionnelle et le dictionnaire de données pour les équipes data et métiers. Jouer le rôle de “go-to person” / référent data pour l’équipe projet, en répondant aux questions et en arbitrant les choix fonctionnels. Accompagner les utilisateurs (explication des KPIs, démonstration des vues, recueil de feedbacks) et proposer des améliorations continues.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4393 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois