Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 650 résultats.
Mission freelance
Ingénieur DATA
ROCKET TALENTS
Publiée le
Apache Kafka
Big Data
Cloudera
1 an
400-460 €
Saint-Quentin, Hauts-de-France
Ingénieur DATA : . Contexte Dans le cadre de l’exploitation et de l’optimisation de notre infrastructure Cloudera Data Platform (CDP), nous recherchons un prestataire expert capable d’assurer le support technique, l’analyse et la résolution des incidents critiques ainsi que l’optimisation continue de la plateforme. Le prestataire devra maîtriser les architectures Cloudera, posséder une expertise avancée en développement Shell, Ansible et Python, et être capable d’intervenir sur les problématiques de dimensionnement et de tuning de l’infrastructure. Une connaissance de Kafka est requise pour la gestion des flux de données en temps réel. Des connaissances en sur la plateforme Dataiku seraient un plus. 3. Missions Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2. 4. Profil Recherché Le prestataire devra justifier des compétences suivantes : • Expérience avérée en administration et support de Cloudera Data Platform. • Maîtrise de Kafka (optimisation, gestion des performances et de la scalabilité). • Capacité à analyser et résoudre des incidents critiques sur un environnement Big Data. • Maîtrise des langages Shell, Ansible et Python pour l’automatisation et le déploiement. • Expérience sur les bases de données Elasticsearch. • Capacité à intervenir sur des problématiques de dimensionnement et d’optimisation des performances. • Autonomie, rigueur et capacité à être force de proposition. • Une connaissance de la plateforme Dataiku serait un plus. • Capacité à collaborer avec des équipes multi-disciplinaires et à transmettre des connaissances. • Bonnes connaissances de Linux (à l'aise avec un terminal).
Mission freelance
Data Analyst – AI Governance
Okara
Publiée le
Collibra
Google Cloud Platform (GCP)
Looker Studio
9 mois
Lille, Hauts-de-France
🎯 Okara cherche un Data Analyst – AI Governance & Insights L’enjeu : Devenir la boussole stratégique de l'IA chez l'un de nos clients leaders mondiaux du retail. En tant que consultant·e Okara, tu rejoins l'équipe IA Transverse de notre client pour structurer l'adoption de l'IA à l'échelle internationale. Ton terrain de jeu ? L' AI plateforme , l'outil critique qui permet de piloter la valeur, de standardiser les processus et d'outiller toutes les initiatives IA. 🚀 Ton rôle Tu es le moteur de la refonte de l'AI: l'enjeu c'est de quitter l'artisanat des feuilles de calcul pour bâtir une gouvernance industrialisée et intégrée. Concrètement, tu vas : Réinventer le Workflow : Piloter la migration vers Collibra . Tu ne te contentes pas de paramétrer, tu dessines les processus de demain (règles de validation, alertes, intégration aux SI existants). Transformer la donnée en Insights : Analyser l'existant pour identifier les axes d'amélioration et faire évoluer la dataviz sous Looker . Optimiser la tuyauterie (Data Engineering) : Collaborer à la refonte du DBT pour garantir des flux de données fluides et fiables entre les sources et la restitution. Acculturer à l'international : Être le pont entre les AI Leaders mondiaux et la technique. Tu vulgarises et traduis les besoins métiers en solutions robustes.
Offre d'emploi
Product Owner Senior
VISIAN
Publiée le
Data Product Management
Stratégie
1 an
Paris, France
Contexte Accompagner l’équipe Product Management dans l’alignement de la stratégie produit avec les OKR produit Coacher les équipes pour identifier les problèmes utilisateurs et formuler des hypothèses afin d’atteindre les objectifs Insuffler une culture de l’expérimentation en apportant outils et savoir-faire Passer d’une roadmap orientée fonctionnalités à une roadmap orientée valeur et résultats en : Aidant à définir un modèle clair de gouvernance/ownership de la roadmap produit Accompagnant les Product Managers pour répondre de manière constructive aux demandes des parties prenantes Instaurant une culture data-driven avec des indicateurs clairs (ARPU, conversion, rétention) Renforcer la stratégie de monétisation et l’impact business Accompagner les équipes dans l’adoption de pratiques produit modernes (discovery, priorisation, expérimentation)
Mission freelance
ARCHITECTE DATA EXPERT
Groupe Ayli
Publiée le
.NET
.NET Framework
Apache Kafka
3 mois
Paris, France
Étude de refonte du backbone data & modernisation des plateformes décisionnelles 🏢 Contexte Dans un environnement data à forte volumétrie, comparable à des secteurs comme les télécoms, banques, assurance ou l’e-commerce, notre Client souhaite engager une réflexion stratégique sur l’évolution de son architecture data . L’architecture actuelle, conçue en 2018, repose sur des technologies éprouvées mais nécessite aujourd’hui une évolution pour répondre aux enjeux de performance, de scalabilité et de nouveaux usages . 🏗️ Stack technique actuelle ETL : IBM InfoSphere DataStage Base de données : Oracle Exadata Restitution : IBM Cognos Analytics + applications .NET Architecture globale : mise en place en 2018 🎯 Enjeux business Définir une trajectoire d’évolution du backbone data Structurer une roadmap de transformation autour de l’évolution des outils ETL Accompagner le développement de nouveaux usages data (API, microservices, etc.) Moderniser l’écosystème décisionnel et analytique 🎯 Objectifs de la mission Piloter et réaliser, en autonomie, une étude d’architecture complète sur une durée inférieure à 3 mois, visant à : Diagnostiquer les limites de l’architecture actuelle et identifier les besoins de performance Concevoir une architecture cible moderne, scalable et performante Définir une stratégie de transformation technologique Identifier et structurer les nouveaux usages autour de la donnée (API, microservices…) Élaborer une roadmap de transformation avec estimation des impacts (coûts, risques, organisation) 📦 Livrables attendus Diagnostic technique Audit complet de l’architecture existante, identification des limites, des forces et des axes d’amélioration Cahier des charges cible Recommandations argumentées, définition de l’architecture cible et des choix technologiques Roadmap de transformation Planning de transformation, estimation budgétaire et analyse des risques Présentation exécutive Synthèse stratégique et recommandations à destination de la direction 📌 Livrables détaillés Cartographie applicative et technique actualisée Analyse comparative des solutions alternatives ETL Architecture cible (logique et physique) documentée Estimation budgétaire et planning de transformation Matrice des risques et plans de mitigation
Offre d'emploi
ARCHITECTE DATA (H/F)
GROUPE ALLIANCE
Publiée le
Cloudera
MEGA
TOGAF
60k-75k €
France
ACCROCHE SI POUR TOI, CHAQUE DONNEES A SA PLACE, CETTE ANNONCE TE METTRA SUR LA BONNE VOIE ... CE QUE TU RECHERCHES : Travailler sur des architectures Data performantes et scalables Participer à des projets innovants de valorisation des données Relever des défis autour du Big Data, du Cloud et de l’IA Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur de l'assurance, tu participeras à la mise en place et à l’optimisation des architectures data pour une exploitation stratégique et innovante : Analyse des besoins métier et data, tu feras Modélisation et structuration des données, tu assureras Solutions d’ingestion et d’exploitation, tu concevras Bonnes pratiques Data, tu instaureras Veille sur les innovations Data, tu réaliseras Les équipes, tu accompagneras Aux instances de pilotage, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Expérience de 10 ans minimum dans l’architecture Data Expert(e) des plateformes de Modèle Logique de Données Habile avec les outils : et méthologies TOGAF, UML & Merise, Scrum, Safe AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Rigoureux(se) : chaque donnée doit être bien placée Curieux(se) : tu suis les tendances Data et IA Visionnaire : tu anticipes les besoins Data des entreprises Pédagogue : tu sais expliquer la valeur des données Organisé(e) : tu aimes structurer et optimiser Communicant(e) : tu fais le lien entre métier et technique
Offre d'emploi
Data Engineer / DevOps
OCTOGONE
Publiée le
AWS Cloud
Databricks
DevOps
6 mois
Paris, France
Contexte Le rôle vise à apporter l’expertise nécessaire pour soutenir les projets data et l’écosystème Databricks au sein du Groupe. L’équipe met à disposition des environnements d’évaluation et de test, définit les standards et bonnes pratiques d’usage, et accompagne les entités ayant des besoins spécifiques sur des périodes dédiées. Les interlocuteurs sont principalement des Data Specialists et Data Citizens. Les environnements techniques s’appuient sur Databricks AWS et Azure. Les activités se structurent autour de trois axes : • Data Engineering : développement et opérations data • DevOps / DataOps : déploiement, automatisation, Infrastructure-as-Code, administration des plateformes • Expertise : veille technologique, anticipation des évolutions, test et validation des nouvelles fonctionnalités. Description Dans ce contexte, les responsabilités confiées sont les suivantes : 1. Administrer, surveiller et maintenir les espaces de travail Databricks du COE. 2. Élaborer, documenter et faire évoluer les standards, bonnes pratiques et blueprints groupe. 3. Garantir la qualité et la conformité des services fournis aux entités. 4. Accompagner les équipes métiers et data dans l’adoption de l’écosystème Databricks et leur transition vers les normes groupe. 5. Tester, évaluer et recommander les nouvelles fonctionnalités de l’éditeur ou d’outils complémentaires pour améliorer l’expérience globale. 6. Veiller au respect des politiques groupe et accompagner leur mise en œuvre. 7. Contribuer à la conception et à la réalisation des use cases stratégiques portés par les entités. Livrables Dans ce contexte, les responsabilités confiées sont les suivantes : 1. Administrer, surveiller et maintenir les espaces de travail Databricks du COE. 2. Élaborer, documenter et faire évoluer les standards, bonnes pratiques et blueprints groupe. 3. Garantir la qualité et la conformité des services fournis aux entités. 4. Accompagner les équipes métiers et data dans l’adoption de l’écosystème Databricks et leur transition vers les normes groupe. 5. Tester, évaluer et recommander les nouvelles fonctionnalités de l’éditeur ou d’outils complémentaires pour améliorer l’expérience globale. 6. Veiller au respect des politiques groupe et accompagner leur mise en œuvre. 7. Contribuer à la conception et à la réalisation des use cases stratégiques portés par les entités.
Offre d'emploi
Consultant Data gouvernance
UCASE CONSULTING
Publiée le
DataGalaxy
Master Data Management (MDM)
1 an
40k-45k €
400-630 €
Île-de-France, France
Bonjour à tous 😀 Nous recherchons un(e) 📌 Contexte Dans le cadre de sa transformation Data, notre client souhaite renforcer la maturité de sa DSI en matière de gouvernance des données et se positionner comme référent Data pour l’ensemble de ses filiales. La démarche s’inscrit en deux grandes phases : → Acculturation & structuration → Outillage & industrialisation 🎯 Missions : 🔹 Phase 1 : Acculturation & structuration Sensibiliser les équipes métiers et IT aux enjeux Data Animer des ateliers (Data Governance, MDM, référentiels) Réaliser un audit de maturité Data Définir les bonnes pratiques de gouvernance Mettre en place les rôles clés (Data Owner, Data Steward) Construire un parcours d’acculturation et d’adoption Data Accompagner la transformation de la DSI en référent Data Groupe 🔹 Phase 2 : Outillage & industrialisation : Déployer un Data Catalogue (DataGalaxy) Structurer les référentiels et le MDM Mettre en place une plateforme de knowledge sharing Définir et implémenter les processus de gouvernance (qualité, documentation, lineage) Animer la gouvernance Data dans la durée ⚙️ Environnement technique : Microsoft Fabric · Databricks · Architecture Medallion (Bronze / Silver / Gold) Talend · Pimcore (MDM) · DataGalaxy · SharePoint 💡 En résumé 👉 Profil hybride stratégique + opérationnel , capable de : Structurer une gouvernance Data from scratch Acculturer et embarquer les équipes Déployer les outils (notamment DataGalaxy) et industrialiser les pratiques
Offre d'emploi
Data Engineer (F/H)
CELAD
Publiée le
35k-42k €
Strasbourg, Grand Est
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Strasbourg - Expérience de 2 ans minimum Vous aimez transformer les données en décisions concrètes ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, intervenant dans le secteur bancaire. Contexte : Vous interviendrez directement sur des projets d’intégration et d’exploitation de données, contribuant à rendre l’information accessible et exploitable pour les équipes métier. Voici un aperçu détaillé de vos missions : - Concevoir et maintenir des processus d’intégration de données (ETL / ELT), idéalement avec Semarchy xDI (anciennement Stambia) - Participer à la modélisation de systèmes décisionnels et à l’organisation des données - Manipuler et optimiser les bases de données avec le SQL - Collaborer avec les équipes BI sur des outils comme SAP/BO Situation géographique : Strasbourg (67)
Offre d'emploi
QA Data (H/F)
SMARTPOINT
Publiée le
Databricks
JIRA
Microsoft Power BI
3 ans
40k-45k €
400-450 €
Île-de-France, France
Nous recherchons un(e) QA Data (H/F) pour rejoindre la squad Équipement de la Maison , rattaché(e) au Pôle Qualité Data . Vous évoluerez dans un environnement agile et structuré , rythmé par : Des rituels agiles cadrés et trimestriels Des cycles de réalisation de 3 semaines (Sprint Planning, Affinage, Sprint Review, Daily Meeting) Une culture d'équipe basée sur l'entraide et l'autonomie Pilotage de la qualité Définir et réaliser la stratégie de test adaptée au contexte Data Analyser et évaluer les cas d'usage et User Stories Rédiger les plans de test , identifier les prérequis et spécifier les jeux de données Identifier et réceptionner les environnements de test Maintenir et faire évoluer le référentiel de test Exécution & suivi Exécuter les cas de tests fonctionnels Réaliser des tests d'intégration 2 à 2 , des tests end-to-end et des tests de surface dans un contexte Data Créer et assurer le suivi des défauts avec les différentes parties prenantes Rédiger les Procès-Verbaux de recette Présenter les sujets en CAB (Change Advisory Board) pour le passage en production Collaboration & amélioration continue Participer activement aux ateliers et rituels agiles Contribuer à l' amélioration continue des pratiques et process qualité Être force de proposition pour gagner en efficacité et en qualité
Mission freelance
Scrum master Data
Tritux France
Publiée le
Agile Scrum
Azure Data Factory
Azure DevOps
3 mois
400-550 €
Paris, France
POSTE: SCRUM MASTER DATA SENIOR Objectifs de la mission : · Uniformiser les pratiques Agile sur l’ensemble du périmètre · Stabiliser et sécuriser les cycles de sprint · Améliorer la qualité du backlog et des User Stories · Structurer les processus de production, d’arbitrage et de communication · Mettre en place un pilotage clair : capacité, consommés, KPIs, roadmap · Assurer la synchronisation et la gestion des dépendances inter squads Périmètre d’intervention · Animation des rituels : daily, refinements, poker plannings, sprint plannings, reviews, rétros · Vision prévisionnelle de la capacité et du backlog sur les prochains sprints · Construction d’une roadmap consolidée · Amélioration de la qualité des US : découpage, prérequis, critères d’acceptation · Mise en place / harmonisation de la Definition of Ready et Definition of Done · Alignement des pratiques entre les équipes · Production des release notes et mise en place des KPIs de delivery · Standardisation des checklists de livraison / reprise de données (UAT, OAT, PRD) · Analyse de charge, détection d’anomalies, gestion proactive des risques · Mise en place d’un reporting clair et régulier vers la Data Factory Livrables types attendus · Cadre Agile documenté et harmonisé · Processus formalisés (production, arbitrage, communication) · Roadmap + capacité prévisionnelle · Tableau de bord CAF / consos / KPIs · Release notes pour chaque MEP · Synthèse et présentation aux responsables Data Profil recherché : · 8+ ans d’expérience en Scrum Mastery dans des contextes complexes et exigeants · Expertise en delivery Data · Solide expérience en coordination multi‑prestataires · Forte capacité de structuration, formalisation et communication · Leadership non hiérarchique, autonomie, rigueur, assertivité · Culture du delivery prévisible et du continuous improvement · Bonne connaissance de Jira & Azure DevOps
Mission freelance
Architecte Data
PROPULSE IT
Publiée le
24 mois
350-700 €
Paris, France
PROPULSE IT recherche un Architecte DATA. Pour soutenir la sélection et la mise en œuvre d'un nouveau système CRM et d'une plateforme d'automatisation marketing, le client recherche un expert capable de préparer l'avenir et de développer davantage le modèle de données client et consommateur, et d'établir un plan d'intégration et une feuille de route. - Conception de bases de données Traduire le modèle consommateur canonique existant en une base de données concrète. Définir et documenter les entités, attributs et relations dans un dictionnaire de données. Assurer de la qualité des données et de la cohérence sémantique. Intégration et cartographie fonctionnelle Cartographier fonctionnellement les données des consommateurs à travers les différents systèmes B2C. Développer des cartographies et des transformations à partir des CRM, e-commerce, POS (physique), fidélisation et automatisation marketing vers la base de données consommateurs. Définir les approches de transformation et de standardisation. - Architecture et feuille de route Finaliser l'architecture de l'application autour des données des consommateurs : systèmes, processus et dépendances. Ajuster le modèle de données lorsque cela est nécessaire, en tenant compte des limites des systèmes existants. Élaborer une feuille de route pour relier les différents systèmes par phases.
Offre d'emploi
Responsable DATA/BI - Martinique
INFOBAM
Publiée le
Data analysis
Data management
Gouvernance
Le Lamentin, Martinique
En tant que Responsable du Domaine DATA & BI, vous êtes le chef d'orchestre de la stratégie déployée au sein des filiales de GBH. Votre mission consiste à conduire des projets, chantiers de conception et de mise en œuvre en apportant votre expertise sur les outils décisionnels. Au quotidien, vous managez les équipes du domaine, en charge du développement, de la maintenance et de l’évolution des systèmes décisionnels pour les sociétés de GBH. Vos missions principales seront les suivantes : - Vous managez, animez et assurez le suivi opérationnel (coaching, formation, accompagnement métier, définition des objectifs) d’une équipe de 10 consultants (une équipe en cours de croissance) - Vous gérez et pilotez les relations avec les partenaires tiers de la DSI INFOBAM (ESN, consultants indépendants) ; - Vous êtes force de propositions pour l’implémentation d’une roadmap DATA/BI, en lien avec les besoins exprimés par les métiers ; - Vous animez périodiquement des réunions avec les métiers dans le but d’analyser et prioriser les demandes d’évolutions ; - Gestionnaire du « Build », vous assurez la bonne exécution des projets dans le respect des délais, du contenu, de la qualité et des objectifs budgétaires initialement convenus ; - Gestionnaire du « Run » de la plate-forme DATA/BI et de son maintien en conditions opérationnelles, incluant également la maintenance évolutive/corrective ; - Vous assurez la gouvernance des données, notamment au niveau de la définition des indicateurs opérationnels, garant de la maintenance, de l’évolution et de la pertinence des rapports ou des modèles utilisés ; - Vous pilotez l’ensemble de l’activité au travers de plan d’actions (tableaux de bord d’activité, indicateurs de performance) ; - Vous assurez une veille technologique afin de détecter les nouvelles possibilités techniques et fonctionnelles offertes par le marché.
Offre d'emploi
Data Engineer Databricks
ASTRELYA
Publiée le
Amazon S3
Ansible
Apache Spark
Noisy-le-Grand, Île-de-France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre mission : En tant que Data Engineer Databricks vous participez à la définition de l’architecture de la data platform et du Datawarehouse/Data Lake. Concevoir et développer des nouvelles fonctionnalités sur des applications hébergées par les plateformes Data. Développer et maintenir des pipelines de données performants (batch & streaming) et participer à toutes les étapes de traitement des données du niveau bronze au niveau gold. Garantir la sécurité, la robustesse et la fiabilité des pipeline de données en veillant aux enjeux de performance, d’accessibilité et d’intégrité des données. Contribuer à l’implémentation d’un Data Lab pour accélérer les usages Data & IA. Mettre en place et industrialiser des chaines CI/CD. Participer aux mises en production et au support en cas d’incident majeur. Travailler aux côtés de Data Product Owner, Data Architect et de BI & Analytics Engineer. Participer aux cérémonies agiles organisées par la squad : daily, sprint planning, sprint review, sprint rétrospective Effectuer une veille technologique continue sur de nouvelles solutions et tendances Data.
Mission freelance
Data Quality Analyst – VBA & Reconciliation
PARTECK INGENIERIE
Publiée le
Data quality
VBA
12 mois
400-500 €
Paris, France
Dans le cadre d’un programme de transformation KYC d’un grand groupe bancaire, intervention au sein d’une équipe Data Quality en charge de la fiabilité, réconciliation et migration des données entre systèmes legacy et plateforme cible. Rôle hybride 50% développement / 50% production : maintenance et évolution de scripts VBA pilotage des réconciliations de données et des traitements de remédiation (bulk) garantie de la continuité des flux vers des équipes internationales administration et migration SharePoint Online Intervention dans un environnement critique nécessitant rigueur, organisation et réactivité , avec respect des SLA et gestion de flux en continu. Stack principale : VBA, SQL, PowerShell, SharePoint (+ outils de ticketing et reporting). Objectif : assurer la continuité opérationnelle , sécuriser les flux de données et accompagner la migration vers les systèmes cibles jusqu’au décommissionnement des legacy. Profil : expérience confirmée en VBA / data processing , bonne capacité d’analyse, gestion multi-sujets et anglais professionnel.
Offre d'emploi
Responsable Data F/H
LED'RH
Publiée le
Data Engineering
Data governance
Gestion de projet
60k-70k €
Nord, France
Envie d’avoir de l’impact sur la stratégie data d’une entreprise ? Discutons-en! Je suis Laetitia de LED’RH et accompagne les entreprises sur leurs projets de recrutements IT. Dans un contexte d’accélération autour de la Data et de l’IA, je recherche un profil en capacité de structurer et de piloter des stratégies Data, pour un client du secteur du Retail. Missions principales : Définir et mettre en œuvre la stratégie DATA et IA Assurer le lien avec les équipes de la DSI, les équipes Métiers et les différents partenaires externes. Piloter l’ensemble des projets DATA et IA, jusqu’à leur mise en production Participer au comité de pilotage Data Encadrer l’équipe technique, composée de spécialistes de la Data Garantir la qualité, la gouvernance et la sécurité des données Assurer une veille technologique et mettre en place les bonnes pratiques dans le domaine de la DATA et de l’IA.
Offre d'emploi
Data Manager / Data Steward
INFOGENE
Publiée le
Data management
Data quality
Malakoff, Île-de-France
Contexte Dans le cadre du renforcement de la gouvernance des données au sein d’un grand groupe industriel, nous recherchons un(e) Data Manager / Data Steward expérimenté(e), avec une forte sensibilité aux environnements métiers industriels et ERP. Missions principales Piloter la qualité des données (data quality management) Mettre en place et maintenir des référentiels de données fiables Réaliser la cartographie des données et des processus métiers Travailler en étroite collaboration avec les équipes métiers pour comprendre et structurer les flux de données Définir et suivre les indicateurs de qualité de données (KPIs) Participer à la gouvernance des données (data governance) Contribuer à l’amélioration continue des processus liés aux données dans les systèmes ERP Environnements métiers Vous interviendrez sur des domaines variés, notamment : Logistique Approvisionnement Achats Bâtiment / infrastructures Machines / production industrielle Compétences requises Expérience confirmée en Data Management / Data Stewardship Maîtrise des problématiques de qualité de données Expérience en cartographie des processus métiers Bonne connaissance des systèmes ERP (SAP ou équivalent) Capacité à interagir avec des interlocuteurs métiers variés Esprit analytique, rigueur et sens de l’organisation
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1650 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois