L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 640 résultats.
Mission freelance
Administrateur Systèmes SharePoint On-Premise
UTALENT
Publiée le
Powershell
SharePoint
Windows Server
12 mois
Paris, France
Dans le cadre de l’exploitation et de l’administration d’environnements collaboratifs, nous recherchons un Administrateur Systèmes SharePoint afin d’assurer le bon fonctionnement et la performance des infrastructures SharePoint On-Premise. Le consultant interviendra sur l’administration quotidienne de plateformes SharePoint hébergées sur des infrastructures Windows Server , avec un rôle clé dans la maintenance, l’optimisation et la sécurisation de l’environnement technique. Les principales missions incluent : Administrer et exploiter les environnements SharePoint On-Premise afin de garantir leur disponibilité, performance et stabilité Gérer les opérations quotidiennes des infrastructures Windows Server Réaliser la maintenance, les mises à jour et le troubleshooting sur SharePoint, SQL Server et IIS Mettre en œuvre et maintenir les configurations de sécurité (authentification, certificats, gestion des accès) Superviser la santé des systèmes et résoudre les incidents techniques Assurer un support technique niveau 2 / niveau 3 Automatiser certaines tâches d’administration via PowerShell Collaborer avec les équipes infrastructure, sécurité et offshore Documenter les configurations, procédures et évolutions techniques
Offre d'emploi
Data Engineer Snowflake H/F
JEMS
Publiée le
40k-55k €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un(e) data engineer spécialisé(e) sur Snowflake capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 12zcorxp80
Offre d'emploi
Développeur Full Stack (H/F)
IA Soft
Publiée le
.NET CORE
Angular
Java
1 an
40k-45k €
400-550 €
Île-de-France, France
1. Intitulé du poste Développeur Full Stack (H/F) 2. Mission principale Le Développeur Full Stack conçoit, développe, teste et maintient des applications web ou logicielles en intervenant à la fois sur la partie front-end et back-end . Il participe à l’ensemble du cycle de vie des projets techniques, de l’analyse du besoin jusqu’à la mise en production, en veillant à la performance, à la sécurité et à la qualité du code. Il travaille en étroite collaboration avec les équipes produit, design, QA et infrastructure afin de livrer des solutions robustes, évolutives et adaptées aux besoins métiers. 3. Responsabilités principalesDéveloppement applicatif Concevoir et développer des fonctionnalités front-end et back-end. Participer à l’architecture technique des applications. Développer et maintenir des API, services et interfaces utilisateurs. Assurer l’intégration entre les différentes couches de l’application. Veiller à la qualité, à la lisibilité et à la maintenabilité du code. Maintenance et amélioration continue Corriger les anomalies et résoudre les incidents techniques. Optimiser les performances des applications. Participer aux évolutions techniques et fonctionnelles des produits. Assurer la maintenance corrective et évolutive des solutions existantes. Contribuer à la réduction de la dette technique. Qualité et sécurité Réaliser les tests unitaires, tests d’intégration et revues de code. Appliquer les bonnes pratiques de développement sécurisé. Veiller à la conformité du code avec les standards de l’entreprise. Participer à la documentation technique des applications. Garantir la fiabilité, la stabilité et la sécurité des développements. Travail en équipe Collaborer avec les Product Owners, UX/UI designers, DevOps et QA. Participer aux cérémonies Agile : sprint planning, daily meeting, rétrospectives, démos. Estimer la charge de développement et contribuer à la planification. Partager les connaissances techniques au sein de l’équipe. 4. Profil recherchéFormation Bac+3 à Bac+5 en informatique, développement logiciel ou équivalent. Une spécialisation en développement web, génie logiciel ou systèmes d’information est un plus. Expérience Expérience de 5 à 7 ans minimum en développement full stack. Expérience dans la réalisation d’applications web ou plateformes métiers. Une expérience en environnement Agile / Scrum est appréciée. 5. Compétences requisesCompétences techniques Bonne maîtrise des technologies front-end : HTML, CSS, JavaScript / TypeScript. Bonne maîtrise d’au moins un framework front-end : React, Angular, Vue.js ou équivalent. Bonne maîtrise des technologies back-end : Node.js, Java, .NET, PHP, Python ou équivalent. Expérience avec les API REST / GraphQL. Bonne connaissance des bases de données relationnelles et/ou NoSQL : PostgreSQL, MySQL, MongoDB, etc. Maîtrise des outils de versioning, notamment Git. Connaissance des environnements CI/CD, Docker, cloud ou DevOps appréciée. Sensibilité aux enjeux de cybersécurité, performance et scalabilité. Compétences comportementales Esprit d’analyse et de résolution de problèmes. Rigueur, autonomie et sens de l’organisation. Capacité à travailler en équipe et à communiquer efficacement. Curiosité technique et veille technologique active. Force de proposition et orientation qualité. 6. Objectifs du poste Développer des applications fiables, performantes et évolutives. Répondre aux besoins fonctionnels dans le respect des délais. Garantir un haut niveau de qualité technique et de sécurité. Participer à l’amélioration continue des outils, méthodes et architectures.
Offre d'emploi
ALTERNANCE - Data Scientist (H/F)
█ █ █ █ █ █ █
Publiée le
Laravel
Python
SQL
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
IA Ready Lead
ESENCA
Publiée le
Agent IA
GenAI
Pilotage
1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Head of IA Position dans l’organisation Le/la IA Ready Lead pilote la préparation et la structuration des données et connaissances nécessaires aux systèmes d’intelligence artificielle. Il/elle encadre une équipe dédiée à la mise en qualité des contenus et à leur exploitation optimale pour les solutions IA (copilots, agents, RAG). Encadrement Management d’une équipe spécialisée pouvant inclure : Knowledge Manager IA Ready Data / IA Ready Analyst Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Équipes en charge de la conformité et de l’adoption Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets spécialisés Mission Le/la IA Ready Lead est responsable de la préparation fonctionnelle, sémantique et organisationnelle des données utilisées par les solutions d’intelligence artificielle. Il/elle garantit la disponibilité, la qualité, la cohérence et la traçabilité des bases de connaissances, et définit les standards permettant d’optimiser la performance des systèmes IA. Responsabilités principales 1. Définition de la stratégie IA Ready Définir la stratégie de préparation des données pour l’IA Identifier et cartographier les sources de connaissances Prioriser les sources en fonction des cas d’usage Définir l’architecture fonctionnelle des bases de connaissances 2. Standards de structuration et performance RAG Définir les standards de structuration des contenus (taxonomie, tagging, hiérarchie) Définir les règles de segmentation (chunking) adaptées aux usages IA Fixer les niveaux de granularité optimaux pour la recherche par similarité Définir les critères de qualité permettant d’améliorer la pertinence des réponses 3. Pilotage de la préparation des contenus Qualifier les besoins de contenus avec les équipes IA Delivery Superviser la structuration, le nettoyage et l’enrichissement des données Définir les critères d’acceptation IA Ready (qualité, complétude, fraîcheur) Garantir la cohérence sémantique et métier des bases de connaissances 4. Coordination transverse Collaborer avec les équipes IT pour l’ingestion et la mise à disposition des données Travailler avec les équipes Data pour l’alignement avec les référentiels Coordonner avec les équipes IA Delivery pour assurer l’adéquation avec les cas d’usage Organiser les boucles de feedback entre usage et amélioration des contenus 5. Gouvernance et documentation Définir les standards de documentation des bases de connaissances Mettre en place les règles de gouvernance (ownership, validation, versioning) Structurer les processus de mise à jour et de maintenance Garantir la traçabilité des sources et des transformations 6. Qualité et fiabilité des données Définir les règles de qualité des données IA Mettre en place des contrôles et indicateurs de qualité Suivre les écarts et piloter les plans d’amélioration Garantir la fiabilité et la lisibilité des contenus 7. Industrialisation et réutilisation Concevoir des modèles de connaissances réutilisables Standardiser les pratiques IA Ready Capitaliser sur les retours d’expérience Diffuser les bonnes pratiques au sein de l’organisation 8. Contribution à la conformité Assurer la traçabilité des sources utilisées Veiller au respect des règles de protection des données Contribuer aux exigences des équipes en charge de la conformité
Mission freelance
Ingénieur Poste de Travail – Build MECM (H/F)
Les Kraks
Publiée le
MECM
Microsoft Windows
Powershell
1 an
400-500 €
Paris, France
Nous recherchons pour notre client une grande banque française, un Ingénieur Poste de Travail orienté Build MECM. Vous intégrerez une équipe d’environ une vingtaine d’ingénieurs dans un environnement full Microsoft on-premise, structuré et techniquement exigeant. Ce poste est orienté Build et ingénierie uniquement. Ce que vous ferez : Concevoir et faire évoluer des Task Sequences MECM Maintenir et optimiser les images Windows Développer et intégrer des scripts PowerShell Gérer les drivers dans un contexte multi-modèles Réaliser du packaging applicatif Industrialiser et fiabiliser les processus de déploiement Analyser et corriger les échecs de build
Offre d'emploi
Data Engineer GCP H/F
JEMS
Publiée le
45k-55k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) data Engineer GCP capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : prw1pbyy5v
Mission freelance
POT9115 - Un Data Engineer Airflow Confirmé sur Tours
Almatek
Publiée le
Python
6 mois
Tours, Centre-Val de Loire
Almatek recherche pour l'un de ses clients un Un Data Engineer Airflow Confirmé sur Tours. Objectif : Analyser l’usage, l’organisation et/ou la performance d’Airflow dans le service, afin d’identifier des axes d’amélioration, risques ou optimisations. Compétences requises: Airflow - Confirmé - Impératif Python - Confirmé - Impératif Power BI - Confirmé - Appréciable Mission possible en Full Distanciel avec quelques déplacement à Tours au démarrage Almatek recherche pour l'un de ses clients un Un Data Engineer Airflow Confirmé sur Tours. Objectif : Analyser l’usage, l’organisation et/ou la performance d’Airflow dans le service, afin d’identifier des axes d’amélioration, risques ou optimisations. Compétences requises: Airflow - Confirmé - Impératif Python - Confirmé - Impératif Power BI - Confirmé - Appréciable Mission possible en Full Distanciel avec quelques déplacement à Tours au démarrage
Offre d'emploi
Data Engineer Apache NiFi/SQL/JSON/XML/API
OBJECTWARE
Publiée le
Apache NiFi
API
JSON
3 ans
40k-68k €
400-550 €
Île-de-France, France
Objectif de la mission Dans le cadre du déploiement d’une plateforme Data destinée à centraliser, fiabiliser et gouverner l’ensemble des données des domaines banque et assurance, vous intégrez la squad Data Flux. Cette équipe, composée de trois développeurs Data, d’un architecte technique, d’un Business Analyst et d’un Product Owner, est responsable des missions suivantes : la conception et l’implémentation des flux de données, l’intégration et la transformation de données provenant de sources multiples, la sécurisation et l’industrialisation des flux, en conformité avec les standards attendus en matière de qualité et de traçabilité. Une expérience dans les secteurs de l’assurance, de la banque ou de la finance est vivement recommandée, notamment sur des développements de flux conformes à la norme Penelop, ainsi que sur des flux de données liés aux domaines assurantiels ou aux données clients. - Conception et développement de pipelines de données : Concevoir des flux robustes et évolutifs pour l’ingestion, la transformation et la diffusion des données dans le cadre du modèle Bronze / Silver / Gold. - Développement et intégration sur Apache NiFi : Implémenter et paramétrer des workflows NiFi pour collecter et normaliser les données issues de différentes sources (fichiers XML/CSV, API REST). - Transformation et modélisation des données : Participer à la modélisation du socle de données structurées et au développement des transformations afin de constituer les vues consolidées du MDM. - Contrôles de qualité et traçabilité : Mettre en place des mécanismes d’audit, de logs et de contrôle (complétude, unicité, cohérence, versioning des données). - Optimisation et performance : Surveiller les performances des pipelines, identifier les goulots d’étranglement et proposer des améliorations continues. - Sécurité et conformité : Veiller à la sécurité des données (authentification, chiffrement, gestion des accès) dans le cadre des standards du groupe. - Documentation et partage de connaissances : Documenter les processus, les schémas et les bonnes pratiques afin d’assurer la maintenabilité et la transmission des savoirs au sein de la squad. PREREQUIS TECHNIQUES : - Maîtrise d’Apache NiFi (ingestion, orchestration, monitoring) - Solides connaissances en SQL et modélisation de données relationnelles (PostgreSQL) - Connaissance des modèles de stockage objet (S3, Blob) - Connaissance des formats et protocoles : JSON, XML, CSV, REST API - Compétences en scripting (Python, Bash) appréciées - Sensibilité aux enjeux de qualité, sécurité et gouvernance des données Compétences Techniques : SQL, Python, Bash, Gitlab
Offre d'emploi
Data Scientist / Machine Learning Engineer Confirmé H/F
DAVRICOURT
Publiée le
40k-45k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Scientist / Machine Learning Engineer Confirmé pour l'un de nos clients du secteur bancaire. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes : - Concevoir, développer et évaluer des modèles de machine learning (supervisés, XAI) ; - Mettre en production les modèles via des pipelines MLOps (CI/CD, APIs, monitoring) ; - Développer des solutions basées sur les LLM et la GenAI (RAG, fine-tuning, LangChain) ; - Assurer le suivi des performances et l'amélioration continue des modèles en production.
Offre d'emploi
Administrateur DBA H/F
CONSORT GROUP
Publiée le
PL/SQL
93100, Montreuil, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de Consortis, sont au cœur des enjeux actuels de Cybersécurité, Virtualisation & Cloud, Systèmes, Réseaux et Télécom, ainsi que sur les environnements Digital Workplace. Les compétences RPA et DevOps viennent renforcer ces offres pour accélérer l’agilité et l’efficacité opérationnelle des services délivrés. Administrateur DBA H/F C’est votre mission En tant qu’ Administrateur DBA Oracle , vous êtes responsable du maintien en conditions opérationnelles et de l’évolution de notre écosystème bases de données Côté build : [Installation, configuration et mise à niveau des environnements Oracle (19c+) Déploiement et intégration de nouvelles bases sur des infrastructures Exadata / ExaCC Mise en place et optimisation des architectures haute disponibilité (Data Guard, RAC) Participation aux projets d’évolution et de transformation des plateformes data Industrialisation des processus via scripting (Shell) et automatisation Contribution à l’intégration d’Oracle GoldenGate pour les besoins de réplication Collaboration avec les équipes infra pour garantir la cohérence des environnements Côté run : Administration quotidienne des bases Oracle en production et hors production Supervision et exploitation via OEM 13c+ Gestion des incidents critiques et non critiques (diagnostic, résolution, RCA) Optimisation des performances (requêtes SQL, tuning, capacity planning) Suivi du bon fonctionnement et maintien de la disponibilité des bases Gestion des sauvegardes, restaurations et plans de reprise d’activité Support aux équipes applicatives et accompagnement des mises en production C’est votre parcours Vous avez au moins 5 ans d’expérience dans des environnements DevOps exigeants. Vous aimez résoudre des problématiques complexes et améliorer en continu la performance des systèmes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Oracle Database (19c+), Exadata / ExaCC, OEM 13c+ SQL, PL/SQL, scripting Shell Oracle GoldenGate (réplication) Environnements Linux / Unix Bonnes bases en infrastructure (stockage, réseau) Connaissance de PostgreSQL et MySQL (un plus) Travail en environnement Agile / DevOps C’est votre manière de faire équipe : Esprit d’analyse et sens de la résolution de problèmes Communication claire et efficace (français / anglais) Esprit collaboratif et sens du service Capacité à gérer les priorités et les situations critiques Proactivité et autonomie C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Montreuil Contrat : CDI Télétravail : Hybride Salaire : De 45 K€ à 50 K€ (selon expérience) brut annuel Famille métier : Systèmes / Data / DevOps Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Mission freelance
Expert Elasticsearch (NF)
SKILL EXPERT
Publiée le
Ansible
API REST
CI/CD
8 mois
550-600 €
Paris, France
Contexte Dans une logique de renforcement de nos systèmes de supervision, nous souhaitons intégrer un expert Elasticsearch à forte sensibilité architecte afin d’accompagner nos équipes sur les volets infrastructure, observabilité et documentation technique. Objectifs de la mission Optimiser et faire évoluer l’architecture Elasticsearch Mettre en place des solutions avancées d’observabilité (APM, RUM, Synthetics, ML) Rédiger la documentation technique pour les équipes projet et infogérants MCO & MCS , traitement des incidents et opération HNO possibles
Mission freelance
Product Owner IA
Axysse
Publiée le
KPI
Large Language Model (LLM)
RAG
6 mois
500-650 €
Île-de-France, France
Dans le cadre de l’évolution d’un assistant conversationnel déjà déployé au sein d’une application mobile à forte audience, nous recherchons un Product Owner IA expérimenté pour piloter l’extension de ses usages vers de nouveaux périmètres métiers (assurance vie, leasing, etc.). Depuis son lancement, cet assistant a déjà généré plus d’un million de conversations, confirmant son rôle structurant dans l’amélioration de l’expérience utilisateur. 🎯 Votre rôle Vous intervenez sur une phase clé de structuration et d’extension produit, en lien étroit avec les équipes IT, Data/IA et Métiers. À ce titre, vous serez amené à : • Cadrer les évolutions du produit à partir des travaux d’idéation existants • Définir la vision produit et piloter la roadmap associée • Concevoir l’architecture de gestion des données et la base documentaire • Rédiger les user stories et suivre les développements • Mettre en place la gouvernance projet et les dispositifs de pilotage • Définir et suivre les KPI (usage, performance, impact) • Animer les ateliers et coordonner les parties prenantes Le produit repose sur une plateforme RAG + LLM interne, intégrant différents modèles (OpenAI, Mistral, Google…). 📍 Informations pratiques • Mode de travail : Hybride • Démarrage : ASAP • Durée : 6 mois renouvelables ✨ Pourquoi cette mission ? • Produit déjà déployé et utilisé à grande échelle • Enjeux stratégiques autour de l’IA générative • Forte exposition et impact métier • Périmètre fonctionnel riche et évolutif
Offre d'emploi
Expert NiFi (H/F)
OMICRONE
Publiée le
Apache NiFi
Big Data
DevOps
2 ans
40k-45k €
400-500 €
Île-de-France, France
Expert NiFi (H/F) Dans le cadre d’un projet data, nous recherchons un Expert Apache NiFi pour intervenir chez l’un de nos clients. 🔍 Profil recherché : Expérience confirmée sur Apache NiFi Mise en place et optimisation de flux de données Bonne maîtrise des concepts ETL / ingestion / transformation Expérience sur des environnements data (Big Data / Data Platform) Connaissances en SQL et scripting (Python, Shell…) 🤝 Qualités attendues : Autonomie et proactivité Capacité à travailler en équipe Esprit d’analyse 📍 Mission longue – démarrage ASAP
Offre premium
Mission freelance
Ingénieur Netdevops
SKILL EXPERT
Publiée le
Agile Scrum
Ansible
API
3 ans
550-600 €
Guyancourt, Île-de-France
Missions Pour l’un de nos clients, vous intervenez sur des missions à forte valeur ajoutée en tant qu’Ingénieur NetDevOps. En étroite collaboration avec vos interlocuteurs, vous accompagnez et conseillez notre client dans le cadre de la gestion du cycle de vie de ses infrastructures actuelles et participez au projet d’évolution et au maintien en condition opérationnelle. Vos tâches seront les suivantes : Automatisation : Contribuer activement aux actions d’automatisation et de fiabilisation des infrastructures. Qualité & Revues : Opérer les revues de code et garantir l'application des bonnes pratiques d'intégration. Expertise technique : Réaliser des présentations techniques et assurer une veille technologique constante. Exploitation & Projets : Intervenir sur l'ensemble des environnements (de l’intégration à la production) en traitant les aspects techniques et fonctionnels. Agilité : Évoluer et collaborer au sein d'un environnement en mode Agile (Scrum). Compétences Techniques : Infrastructure & Cloud : Maîtrise d'Openshift et des concepts d'Infrastructure-as-Code. Réseau & Sécurité : Expertise CNI (Cilium de préférence), Load balancing, DNS, Firewalls et Active Directory. Développement & Automatisation : Solides connaissances en Python, Ansible (AAPv2), Framework Django et modélisation dans Nautobot. DevOps : Maîtrise de Git, des pratiques CI/CD et de la conception d'API. Supervision : Connaissance des solutions type Icinga, Zabbix ou IMC.
Offre d'emploi
Master Data Manager SAP
SARIEL
Publiée le
ERP
Master Data Management (MDM)
SAP
12 mois
Villepinte, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne un SAP MDM Intitulé du poste Responsable Master Data (Master Data Manager) Localisation : Siège – Villepinte Rattachement hiérarchique : Architecte Informatique Environnement : Systèmes d’information – Data, Intégration & Middleware Encadrement Management direct d’une équipe de Data Stewards __________ Contexte et enjeux du poste Dans un environnement multi-ERP et multi-applicatif, le Responsable Master Data est garant de la qualité, de la cohérence et de la gouvernance des données de référence. Il définit, maintient et fait évoluer le dictionnaire de données, pilote les logiques de migration et sécurise les flux d’échanges de données entre les différents ERP (dont SAP) et briques applicatives. Ce rôle est clé dans les projets de transformation digitale, de migration ERP et d’urbanisation du SI. __________ Missions principales Gouvernance et qualité des Master Data • Définir, maintenir et faire évoluer le dictionnaire de données (modèles, attributs, règles de gestion) • Garantir l’application des standards et règles de gouvernance des données • Assurer la qualité, la cohérence et l’unicité des données de référence • Mettre en place des indicateurs de qualité de données (DQ) Flux de données & interopérabilité • Définir et piloter les logiques d’interaction et de synchronisation des données o Entre ERP (SAP, autres ERP) o Entre ERP et briques applicatives (CRM, WMS, BI, outils métiers…) • Travailler avec les équipes techniques sur les flux ETL / ELT • Participer à l’urbanisation du SI Data Migration de données • Piloter et sécuriser les projets de migration de données • Définir les règles de mapping, de transformation et de reprise des données • Participer aux phases de tests, de validation et de mise en production • Capitaliser sur les retours d’expérience pour améliorer les processus Management de l’équipe Data Steward • Encadrer, animer et faire monter en compétence l’équipe de Data Stewards • Définir les rôles, responsabilités et priorités • Assurer l’alignement entre les métiers, l’IT et la gouvernance data • Être le point de référence sur les sujets Master Data Collaboration transverse • Travailler étroitement avec : o Les équipes métiers o Les équipes IT / ERP / BI o Les chefs de projet data et ERP • Participer aux comités de gouvernance Data __________ Objectifs clés du poste • Sécuriser la fiabilité et la cohérence des données de référence • Réussir les projets de migration et de transformation ERP Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passer de freelance à CDI dans une ESN
- Je galère à trouver une mission… alors j’ai créé une app pour survivre 😅
- [RUST] Aegis Omni-Core : Moteur de cyber-défense souverain (9.4 GB/s, Post-Quantique)
- Facturation electronique 2026
- PER/EURL - Obligation d'en créer un nouveau ?
- Notaire VS Expert Comptable, qui a raison ? Dutreil/EI/EURL
4640 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois