L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 336 résultats.
Offre premium
Offre d'emploi
Data Analyst – Power BI / Business Objects (Junior / Confirmé) – CDI
Publiée le
Business Object
C#
Finance
3 jours
Île-de-France, France
Télétravail partiel
KS Consulting recrute un(e) Data Analyst BI disposant de 1 à 3 ans d’expérience pour intervenir chez un acteur majeur du secteur bancaire . Vous intégrerez une équipe Data / BI et interviendrez sur des sujets de reporting, d’analyse métier et de maintenance des solutions décisionnelles , dans un environnement structuré et exigeant. Missions principales Analyse et compréhension des besoins métiers (finance, banque, reporting réglementaire) Conception, développement et évolution de reportings et dashboards sous Power BI et Business Objects Participation à la maintenance et à l’optimisation des solutions BI existantes Exploitation et interrogation des données via SQL Contribution à la qualité, la fiabilité et la cohérence des données Collaboration avec les équipes métiers et techniques
Mission freelance
Chef de projet - Data/Print Intégration de société
Publiée le
Data governance
3 mois
400-650 €
Seine-Saint-Denis, France
Télétravail partiel
Bonjour à tous, Je recherche pour le compte d'un de mes clients, dans le secteur de la distribution B2B, un chef de projet qui va venir assurer une intégration complète des processus et outils de la société rachetée. Le profil doit nécessairement avoir DÉJÀ fait des carves-in, fusion acquisition, M&A Missions principales : 1. Pilotage global du projet d’intégration • Orchestrer et coordonner l’intégration de la société dans la chaîne de publication standard du Groupe. • Définir le plan de transformation (cadrage, étapes clés, roadmap, risques, budgets, dépendances). • Assurer la synchronisation des chantiers fonctionnels et techniques • Superviser la gouvernance de projet, le reporting et les arbitrages auprès des sponsors et directions métier/IT. 2. Cadrage fonctionnel et harmonisation des processus • Cartographier les processus actuels de publication et de gestion produit de la société en question • Identifier les écarts avec le modèle standard et des solutions • Définir les flux cibles, les modèles de données et les interfaces inter-systèmes. • Garantir la cohérence des processus métiers à travers les différents outils. 3. Coordination multi-acteurs et conduite du changement • Fédérer les équipes locales et les équipes centrales autour d’une vision commune. • Organiser et animer les comités, ateliers et points d’avancement (métier, IT, data, publication). • Accompagner les équipes dans la montée en compétence sur les outils et standards Groupe. • Anticiper et gérer les impacts humains, organisationnels et techniques liées à l’intégration. 4. Data & publication : cohérence end-to-end • Garantir la qualité, fiabilité et complétude des données produits tout au long du processus. • S’assurer de l’alignement entre les systèmes • Suivre les indicateurs de performance et d’adoption (KPI qualité data, flux, taux de publication, délais). • Travailler en synergie avec les équipes Data / BI
Offre d'emploi
Responsable Activité « Mainframe Cluster CXI
Publiée le
Data management
1 an
Île-de-France, France
Télétravail partiel
Les principales missions s’articuleront autour des axes suivant: • Gouvernance o Gestion du plan de capacité des ressources du périmètre o Gestion des entrées et sorties des prestataires o Production de reportings mensuels consolidés des activités du périmètre o Consolidation des indicateurs au sein de tableaux de bord • Coordination o Suivi de la consommation CPU Batch des traitements applicatifs o Suivi de la volumétrie des unités d’œuvre de facturation des environnements systèmes o Élaboration du planning annuel des opérations mensuelles de redémarrage des partitions, en coordination avec les parties prenantes o Animation du comité mensuel de planification de capacité o Représentation du périmètre dans les différentes instances de gouvernance et de pilotage o Gestion documentaire, partage de la connaissance et lutte contre l’obsolescence documentaire • Supervision et participation aux activités suivantes, en collaboration avec l’équipe : Exploitation applicative (RUN) o Vérification de la bonne exécution du planning et mise en œuvre des actions nécessaires pour assurer la reprise des traitements et le retour au fonctionnement nominal o Qualification, traitement et résolution des incidents, avec mise à jour de la base de connaissance et sollicitation des équipes tierces si nécessaire o Maintien à jour de la documentation, de la CMDB, des consignes de pilotage et des référentiels associés o Traitement et exécution des évolutions et des changements, incluant la gestion des demandes associées
Mission freelance
Data Manager / Data Quality Lead H/F
Publiée le
Data governance
6 mois
450-580 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Notre client dans le secteur Santé et pharma recherche un/une Data Manager / Data Quality Lead H/F Description de la mission: Contexte & Mission L’entreprise renforce son organisation Data afin de délivrer des produits data fiables et de confiance à l’échelle du Groupe. Au sein de la Data Product Squad , l’entreprise recherche un(e) Data Manager / Data Quality Lead expérimenté(e) pour lancer et structurer le chantier Data Quality , identifié comme un point de douleur majeur et une priorité stratégique . L’objectif principal de cette mission est de construire, piloter et opérationnaliser la Data Quality , en étroite collaboration avec les Business Data Owners et la Data Engineering Squad . Objectifs clés La mission s’articule autour de quatre objectifs principaux : Identifier et structurer les Data Domains , et animer la communauté des Data Owners Définir et piloter la roadmap Data Quality , en priorisant les jeux de données et domaines à corriger en premier Mettre en place le pilotage et les outils de Data Quality , incluant les indicateurs de qualité et le reporting sur le data drift Coordonner les Data Owners et la Data Engineering Squad afin d’assurer des corrections de données efficaces et durables Responsabilités principales Identifier les Data Domains et formaliser les responsabilités (Data Owners, Data Custodians) Animer, fédérer et structurer la communauté des Data Owners Évaluer les problématiques actuelles de qualité des données et leurs impacts métiers Définir, maintenir et prioriser la roadmap Data Quality Définir les règles de Data Quality , KPI et indicateurs Déployer ou paramétrer les outils de Data Quality (monitoring, alertes, reporting, détection de dérive) Reporter l’état de la Data Quality , les risques et l’avancement auprès des parties prenantes Compétences & Expérience requises Expérience confirmée en tant que Data Manager / Data Quality Lead dans des organisations complexes Expérience de travail étroite avec des Data Owners métiers Expérience avec des outils de Data Quality (monitoring, contrôles, métriques, détection de dérive) Excellentes capacités de facilitation , de coordination et de communication Capacité à conduire le changement sans autorité hiérarchique Profil senior requis (autonome, structuré, pragmatique) Modalités de la mission Démarrage : janvier 2026 Langues : français & anglais
Offre d'emploi
Business analyst data / BI (Nantes)
Publiée le
Business Analysis
Data management
Data visualisation
Nantes, Pays de la Loire
Télétravail partiel
Métier et Fonction : Conseil métier, AMOA, Business Analyst. Spécialités technologiques : BI, API, Reporting. Type de facturation : Assistance Technique (facturation avec un taux journalier). Compétences techniques : SQL, Power BI. Public: Nantes (uniquement) Description de la prestation : Objectifs et environnement : Offrir une vue consolidée et fiable des données pour tous les métiers afin d'accompagner le Self BI. Passage de SAS à Power BI, avec une évolution possible vers Snowflake. Modernisation des outils. Missions principales : Analyse métier et besoins : Recueillir, formaliser et traduire en spécifications fonctionnelles, garantir la cohérence des données. Consolidation et qualité des données : Superviser la consolidation multi-sources (Nantes, Inde) et améliorer la qualité et les standards. Conception et restitution : Définir des vues métiers (extractions, dashboards) et mettre en place des solutions de reporting (Power BI, outils analytiques). Accompagnement de la transformation : Promouvoir le Self BI, participer à la transition vers un modèle Data Next, sensibiliser à la gouvernance des données.
Mission freelance
Data Analyst / Data Quality
Publiée le
Azure
Data quality
SQL
24 mois
Paris, France
Télétravail partiel
Profils et Métiers : Métiers : Data Management Fonctions : Data Analyst Spécialités technologiques : Reporting MDM (Master Data Management) Cartographie des données Data quality (qualité des données) Type de facturation : Assistance Technique (taux journalier) Compétences techniques : Technologies et outils : Azure (4 ans), SQL (4 ans), Power BI, GCP Méthodes / Normes : KPI Soft skills : Rigueur Secteur d'activité : Énergie Description et livrables de la prestation : Le prestataire intervient dans le cadre du déploiement d’un référentiel centralisé des identités pour garantir la qualité, l’intégrité et la fiabilité des données issues de systèmes variés, support aux processus IAM/IGA. Il couvre : Données RH et organisationnelles, interfaces, flux et pipelines d’ingestion Interactions avec les équipes Data, RH, Sécurité et Métiers Les prestations incluent : Collecte et intégration : cartographie, amélioration des flux, contrôle de conformité, transformation et enrichissement Analyse de la qualité : détection anomalies, rapports, causes racines, actions correctives Mise en qualité et gouvernance : règles de qualité, golden records, dédoublonnage, remédiations Reporting et indicateurs : tableaux de bord KPI, suivi de la qualité, rapports consolidés Contribution au projet IGA : alignement des données, tests, mise en production Livrables attendus : Documentation systèmes sources et flux Catalogue de données et dictionnaire des attributs Règles de qualité et d’unicité Rapports d’analyse (initial et périodiques) Données nettoyées, normalisées et documentées Tableaux de bord Data Quality (Power BI) Documentation technique et fonctionnelle Rapports d’avancement et d’activité
Mission freelance
Business analyst data / BI
Publiée le
API
Business Analysis
Snowflake
18 mois
100-350 €
Vanves, Île-de-France
Télétravail partiel
CONTEXTE Expérience: 1 ans et plus Métiers Fonctions : Conseil métier, AMOA, Business Analyst Spécialités technologiques : BI, Reporting, API objectif : offrir une vue consolidée et fiable des données pour tous les métiers et accompagner le SELF BI. · Sortie de SAS vers Power BI pour le moment une prochaine étape se fera probablement vers des outils snowflake · Modernisation des outils MISSIONS 1. Analyse métier et besoins - Recueillir et formaliser les besoins des métiers - Traduire les demandes en spécifications fonctionnelles claires - Garantir la cohérence des données (identifiants et des champs) 2. Consolidation et qualité des données - Superviser la consolidation des données provenant de plusieurs sources (Nantes, Inde). - Contribuer à l’amélioration de la qualité des données et à la définition des standards. 3. Conception et restitution - Définir des vues métiers adaptées (extractions, dashboards). - Mettre en place des solutions de reporting via Power BI et outils analytiques. 4. Accompagnement de la transformation - Promouvoir le self Bi auprès des équipes métier : l’accès direct et autonome - Participer à la phase de transformation vers un modèle Data Next. - Sensibiliser les métiers à l’usage des outils et à la gouvernance des données. Expertise souhaitée Technique : - Bonne connaissance des datawarehouses, modèles de données, requêtes SQL, SAS. - Maîtrise des outils de BI (Power BI). Profil recherché · Expérience confirmée en Business Analysis orientée data. · Sensibilité technique + compréhension des enjeux utilisateurs. · Capacité à travailler dans un environnement international (Inde, France, Italie). Soft skills : · Communication claire avec les métiers et les équipes techniques. · Sens de la qualité et de la cohérence des données. · Proactivité : crée un lien fort avec les métiers afin d’accompagner la transformation vers le SELFBI
Mission freelance
Product Owner Data Technique - (facturation électronique)
Publiée le
BI
Data analysis
Data governance
12 mois
470-580 €
Île-de-France, France
Télétravail partiel
Contexte Dans un contexte de transformation digitale et d’optimisation de la gestion des données, nous recherchons un Product Owner Data Senior pour piloter la mise en place et l’évolution de solutions liées à la signature électronique , au respect RGPD , et aux outils de BI et reporting . Le poste implique une collaboration étroite avec les équipes techniques (Data Engineers, BI Developers), les métiers et la direction juridique et conformité. Missions principales Pilotage produit : Définir et prioriser le backlog Data en lien avec les besoins métiers et réglementaires. Assurer le suivi des projets de signature électronique et de conformité RGPD. Garantir la qualité et la cohérence des données utilisées pour le reporting et la BI. Coordination et communication : Servir d’interface entre les équipes métiers, juridiques et techniques. Présenter les évolutions et résultats aux parties prenantes. Promouvoir les bonnes pratiques en matière de gouvernance des données. Conformité et sécurité des données : S’assurer du respect des réglementations RGPD et des normes internes de sécurité des données. Participer à la rédaction et à la mise à jour des politiques de données et des workflows de conformité. Reporting et BI : Définir les besoins en reporting, KPIs et dashboards pour les métiers. Superviser la qualité des données, leur disponibilité et leur fiabilité. Contribuer à la mise en place d’outils et de process de BI avancés. Profil recherché Expérience : 5 à 8 ans minimum en Product Ownership / Data Management. Compétences techniques : Expertise en signature électronique et flux documentaires digitaux. Connaissance approfondie de la RGPD et de la conformité des données. Bonne maîtrise des outils BI / reporting (Power BI, Tableau, Looker…). Connaissances en bases de données et modélisation (SQL, Data Warehouses…). Compétences comportementales : Leadership et capacité à fédérer des équipes pluridisciplinaires. Sens de l’organisation, rigueur et priorisation. Communication claire et capacité à vulgariser des concepts techniques.
Offre premium
Mission freelance
Référent Data
Publiée le
Architecture
Data governance
3 mois
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
1. Contexte Le Système d’Information regroupe près de 70 applications couvrant la recherche d’itinéraires, l’information voyageurs, la vente (digitale & physique), la billettique, les contrôles, le reporting et les interconnexions avec les partenaires de transport. Ce système est exploité dans un environnement complexe multi-acteurs avec des obligations contractuelles fortes vis-à-vis des instances publics. La gouvernance des données devient un enjeu clé pour garantir cohérence, sécurité, qualité de service et conformité réglementaire. 2. Rôle du Référent Data Ce poste opérationnel vise à structurer et piloter la stratégie Data , en mode RUN, en complément des développements BUILD. Il s’agit de définir les règles d’utilisation des données, d’assurer leur conformité, leur disponibilité, leur cohérence fonctionnelle, et de produire l’ensemble des reportings exigés. 3. Missions principales A. Gouvernance & Stratégie Data Définir une démarche Data Driven pour le RUN. Cadrer les besoins Data : brutes, personnelles, reporting, listings opérationnels. Être l’interlocuteur privilégié de la Région pour l’expression et la priorisation des besoins. Proposer les évolutions contractuelles nécessaires. Définir les guidelines Data : consommation, protection, nommage, droits d’accès. Évaluer l’évolution de l’architecture Data (MDM, outils, flux, organisation). B. Analyse et cadrage Réaliser le cadrage global : périmètre, responsabilités, planning, livrables. Lister et qualifier les cas d’usage Data. Construire la cartographie des données : thèmes, typologies métiers, systèmes, structures détaillées. Définir les processus de gestion de la donnée : cycle de vie, responsabilités, sécurité. Recenser les exigences légales et contractuelles (RGPD, archivage, purge, sécurité). C. Pilotage & Production Produire les documents de gouvernance Data : dictionnaires, cartographies, politiques. Établir les reportings contractuels et non contractuels, dont : Financier : prévisionnel, réalisé, écarts, dépenses par phase. Recettes : ventes par canal, recettes par gamme, reversements, régularisations. Maintenance : interventions, disponibilité, stock pièces, préventif/curatif. SI : disponibilité plateformes, temps de réponse, SLA, MTBF, intégration des données. Usagers : tickets CRC, satisfaction, fréquentation, usage titres. Distribution : CA & commissions par canal (Région et partenaires). D. Coordination Faire le lien entre : métiers, DSI, architectes SIBR, sous-traitants, et instances publics. Conduire et animer les ateliers Data. Garantir la cohérence et la fiabilité des flux data inter-outils et inter-équipes. E. Études de faisabilité pour nouveaux besoins Aider la Région à exprimer un besoin (et non une solution). Étudier impacts contractuels, sécurité, architecture, outillage et coûts. Proposer des arbitrages et une priorisation. 4. Compétences requises Techniques Gouvernance data (MDM, métadonnées, data lineage, qualité, sécurité). Connaissance des architectures data modernes (Cloud, API, flux). Capacité à structurer un dictionnaire de données et une cartographie. Compréhension des enjeux réglementaires (RGPD). Expérience des environnements complexes multi-SI. Fonctionnelles & personnelles Forte capacité de synthèse, communication et pédagogie. Orientation opérationnelle (« doer »). Capacité à anticiper les risques et sécuriser les engagements. Aisance dans les échanges institutionnels et le pilotage multi-parties. 5. Livrables attendus Note de cadrage Data Cartographie des sources et flux Dictionnaire des données Politique de cycle de vie, archivage et sécurité Plan de contrôle qualité Reporting financier, opérationnel, SI, marketing, maintenance, distribution Tableaux de bord contractuels Études de faisabilité détaillées pour les nouveaux besoins 6. Profil recherché +5 ans d’expérience en gouvernance Data ou architecture de données. Bac+5 en informatique ou équivalent. Expérience dans un contexte de création ou transformation d’un SI. Profil pragmatique, opérationnel et autonome. 7. Conditions de mission Lieu : Paris ou Marseille Déplacements ponctuels sur sites Durée : 6 à 12 mois minimum Temps plein
Mission freelance
Data Analyst
Publiée le
Cognos
Microsoft SQL Server
PowerBI
24 mois
100-530 €
Mer, Centre-Val de Loire
Télétravail partiel
Le service Modélisation des Données, dans le cadre de son activité projet et MCO autour de la restitution et l’analyse de données, recherche un Data Analyst. Le service Modélisation des Données est en charge du SI Décisionnel centré sur un Datawarehouse qui est la source de données pour les briques de : - Reporting/dataviz (Power BI, COGNOS) - DataScience : mise en oeuvre de cas d’usage IA Ce Datawarehouse est alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Le service Modélisation des Données intervient : - sur les aspects techniques des projets Décisionnel / Data. - dans la constitution de datamarts métier et la réalisation de dashboards / rapports - sur la gouvernance des données - Sur la mise en place d’outils IA Le prestataire sera placé directement sous la responsabilité du responsable du service Modélisation des Données. Il exécutera les missions suivantes : Projets métier de mise en place de SI Décisionnels : modélisation de données, conception de rapports, accompagnement des utilisateurs finaux (sur la conception de rapport, leur adoption et la prise en main des modèles de données par des publishers métier). Power BI : être le point de contact technique des utilisateurs finaux ou des Publishers de Power BI , réalisation de reporting complexes Intervention sur un projet de migration de dataplatform : refonte de reporting COGNOS/Power BI vers superset, refonte de chaînes ETL TALEND vers Dagster, conception de datamarts. Projet en agilité. Le poste a une dimension technique mais aussi une dimension relationnelle forte autour de l’analyse des besoins, leur recette et le suivi en mode projet. La sensibilité aux problématique de gouvernance des données (contribution au dictionnaire de données d’entreprise, qualité des données) est un enjeu fort du poste.
Offre d'emploi
Data Analyst (H/F)
Publiée le
Data analysis
Data science
30k-65k €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Votre mission En tant que Data Analyst (H/F) , vous jouerez un rôle clé dans la valorisation des données au service du métier. Vous serez responsable de l’analyse de grands volumes de données, de la production d’analyses et de reportings à forte valeur ajoutée, et de l’accompagnement des équipes métier dans l’optimisation de l’utilisation de leurs données, en lien avec les objectifs stratégiques de l’organisation. Vos responsabilités seront : Analyser de grands volumes de données afin de comprendre les enjeux métier et les besoins exprimés par les parties prenantes Traduire les besoins business en analyses de données pertinentes et exploitables Contribuer à la sélection, à l’implémentation et à l’amélioration des outils d’analyse et de reporting Produire des analyses stratégiques, des tableaux de bord et des reportings à destination du business Identifier des tendances, des anomalies et des opportunités à partir des données Présenter et vulgariser les résultats d’analyse auprès des parties prenantes métier Collaborer avec les équipes IT, data et métier afin d’assurer la qualité, la cohérence et la fiabilité des données Aider les équipes métier à mieux exploiter et optimiser l’usage de leurs données S’adapter à l’environnement spécifique et aux enjeux de nos clients
Mission freelance
Ingénieur Data / BI
Publiée le
Azure Data Factory
Databricks
Scala
12 ans
400-560 €
Île-de-France, France
Télétravail partiel
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB est le datamart TV qui vise à centraliser et fiabiliser les données nécessaires au pilotage et à l’analyse de l’activité publicitaire TV linéaire. Le datamart se source principalement d’OptiPub, base de référence regroupant les informations issues des différentes applications métiers de la régie publicitaire. Côté restitution, Ouranos fonctionne principalement avec une logique de self-BI : nous mettons à disposition des métiers un univers BusinessObjects et/ou un dataset Power BI standardisé, que les utilisateurs exploitent pour construire leurs propres tableaux de bord et analyses. La finalité est de fournir un socle de données unique et cohérent permettant aux équipes métier d’accéder rapidement à des informations fiables sur l’activité pub TV et de gagner en autonomie dans le reporting. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Ingenieur Data 5-8 ans Définition du profil Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Offre d'emploi
Chef de Projet BI / Data
Publiée le
Microsoft Power BI
Microsoft SSIS
Power Apps
50k-62k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Vous souhaitez rejoindre une ETI française dynamique , tournée vers l’innovation et engagée dans un plan de développement ambitieux ? Vous recherchez un environnement où les valeurs humaines, la cohésion d’équipe, l’expertise technique et la qualité de service sont au cœur du fonctionnement ? Ce poste est fait pour vous. Dans le cadre de son développement, notre client recherche un Chef de Projet BI / Data Middleware (H/F) pour renforcer sa Direction Digitale et Systèmes d’Information. Vous jouerez un rôle clé dans la collecte, la transformation et la valorisation des données , ainsi que dans la mise en œuvre des flux d’échanges entre les différents systèmes. Le poste comporte environ 60 % de BUILD et 40 % de RUN . Vos missions : Conception et gestion des infrastructures data Recueillir les besoins métiers en matière de collecte, traitement et exploitation des données. Concevoir des architectures de données robustes (DWH, Data Lake…). Développer et maintenir des pipelines de données performants et sécurisés. Assurer la qualité, la sécurité et la conformité des données (gouvernance, RGPD). Optimiser les systèmes de traitement de données et industrialiser les processus. Support aux projets Data et intégration Collaborer étroitement avec les key users BI sur les projets décisionnels. Mettre en place et suivre les flux EDI (INVOIC, ORDERS…). Assurer la maintenance, les tests automatisés et l’exploitabilité des solutions. Contribuer à la rédaction des bonnes pratiques d’architecture et de sécurité. Veille, amélioration continue et qualité Réaliser une veille sur les technologies Big Data, frameworks et langages associés. Proposer des améliorations continues, tant sur les outils que sur les performances. Garantir la traçabilité et la haute qualité des données mises à disposition. Support utilisateurs et supervision quotidienne des flux (40 % du temps) Traiter les tickets utilisateurs (incidents, assistance). Assurer la supervision quotidienne des flux : analyse d’erreurs, corrections, rejouements, optimisations.
Mission freelance
Consultant DATA Gouvernance Senior
Publiée le
Data governance
1 an
Paris, France
Télétravail partiel
Intervention au sein d'un programme de transformation du SI Finance Corporate visant à fiabiliser, harmoniser et piloter les données financières (reporting, performance, réglementaire). Missions principales ➡️ Définir et déployer le cadre de gouvernance des données Finance (référentiels, règles de gestion, qualité des données). ➡️ Cartographier les flux de données financières et leurs usages (comptabilité, contrôle de gestion, reporting, réglementaire). ➡️ Mettre en place et animer les rôles Data Owner / Data Steward Finance. ➡️ Définir et suivre les indicateurs de qualité de données (complétude, cohérence, fiabilité). ➡️ Contribuer à la conduite du changement et à l'appropriation des bonnes pratiques data par les équipes Finance et IT. ➡️ Assurer l'alignement entre les besoins métiers Finance et les solutions SI (ERP, EPM, BI, Data Platform).
Offre d'emploi
Product owner
Publiée le
Data analysis
1 an
40k-51k €
400-550 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Qualité des données & Gouvernance Identifier et évaluer les impacts des données manquantes, incohérentes ou de mauvaise qualité sur les opérations Intermodal, le reporting et la prise de décision. Définir, pour les données clés, des pratiques de gestion de la qualité des données , incluant : des KPI et seuils de qualité, des règles et contrôles de monitoring, des processus de traitement des anomalies et de correction, des rôles et responsabilités (responsables, contributeurs, escalades). Prioriser et formaliser les améliorations de la qualité des données sous forme de user stories dans le backlog (nouveaux contrôles, logiques d’enrichissement, workflows de correction). Veiller au respect des politiques et standards de gouvernance des données et contribuer à la clarification des rôles (data owners, data stewards). Pilotage de la livraison & validation Collaborer avec les data engineers, développeurs BI et équipes plateforme pour livrer les incréments du produit data : nouvelles sources, tables, métriques et vues attendues par le métier. Animer les réunions de validation avec les équipes IT et métier afin de confirmer l’alignement des livrables avec les exigences et leur bonne documentation (définitions, lignage, règles de qualité). Revoir et approuver les structures de données et transformations implémentées sur la base de critères d’acceptation clairement définis. Garantir la cohérence et la réutilisation entre les initiatives data , en évitant la duplication des jeux de données et des indicateurs. Préparation des déploiements & support (nouveau TMS et autres systèmes) Pour le projet de nouveau TMS, piloter la phase de préparation et de nettoyage des données avant chaque déploiement, avec l’appui du Référent Master Data : identifier et planifier les chargements, migrations et nettoyages de données nécessaires, coordonner les travaux avec les Product Owners, experts régionaux et équipes IT, valider la disponibilité, la complétude et l’adéquation des données pour le déploiement. Assurer le suivi des incidents liés aux données lors des phases de bascule et de démarrage, en garantissant une résolution rapide et la capitalisation pour les futurs déploiements. Mettre à jour la documentation (catalogue, flux de données, règles de qualité) afin de refléter l’ouverture de nouveaux pays, régions ou périmètres, ainsi que les évolutions des TMS et systèmes sources. Qualifications & expérience requises Diplôme de niveau Licence ou Master en Data / Informatique, Ingénierie, Supply Chain, Business ou domaine équivalent, ou expérience professionnelle équivalente. Plusieurs années d’expérience dans un ou plusieurs des rôles suivants : Data Product Owner / Product Manager, Data Analyst / Business Data Analyst, Projets BI / Data Warehouse dans un contexte opérationnel ou logistique. Expérience confirmée sur des plateformes data, datamarts ou data warehouses (recueil des besoins, modélisation, validation, déploiement). La connaissance des processus transport / logistique / intermodal constitue un atout majeur.
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
Publiée le
BI
24 mois
250-500 €
Paris, France
Télétravail partiel
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
- Contrat de prestation ESN
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
336 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois