Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 686 résultats.
CDI

Offre d'emploi
Data Engineer H/F

JEMS
Publiée le

45k-55k €
Nantes, Pays de la Loire
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : a10nad07cd
Freelance

Mission freelance
Directeur de Projet DATA F/H

SMARTPOINT
Publiée le
AWS Cloud
Big Data
Hortonworks Data Platform (HDP)

12 mois
600-700 €
Paris, France
Mission principale Le Directeur de Projet Data a pour mission de piloter des projets Data & IA structurants, en assurant la coordination des équipes internes et des centres de services (CDS). Il garantit la tenue des engagements en termes de qualité, de budget et de délais, tout en assurant l’alignement avec les objectifs métiers et IT. Tâches & activités Piloter l’activité projet : planification, suivi des charges, gestion des budgets et des ressources Animer et coordonner les équipes projets (internes et CDS) Organiser et conduire les instances de gouvernance (COPIL, COPROJ) Cadrer les besoins métiers et techniques en lien avec les parties prenantes Assurer le suivi global des projets et le reporting auprès de la direction Identifier et gérer les risques, dépendances et points de blocage Garantir la bonne exécution des engagements projets dans le respect des délais et des coûts Livrables & résultats attendus Suivi hebdomadaire de l’avancement des projets (planning, risques, actions) Suivi financier mensuel des projets (budget, consommation, forecast) Préparation et animation des comités de pilotage et comités projet Production de reportings de synthèse à destination des directions métiers et IT Respect des engagements qualité, délais et budget Compétences techniques Maîtrise des outils de gestion de projet (Jira) Connaissance de l’environnement Cloud AWS Utilisation des outils ITSM (ServiceNow) Vision globale des écosystèmes Data et outils décisionnels (BI, Data Platform, IA) Bonne compréhension des architectures Data et des enjeux de transformation digitale Compétences comportementales (recommandées) Leadership et capacité à coordonner des équipes multi-acteurs Excellente communication et sens du reporting Rigueur, organisation et gestion des priorités Capacité d’analyse et de synthèse Esprit de pilotage orienté résultats
Freelance

Mission freelance
Data Analyst Tibco / MDM (Niort)

Cherry Pick
Publiée le
Atlassian
Confluence
Data analysis

12 mois
470-500 €
Niort, Nouvelle-Aquitaine
Au sein de la direction Data Solutions & Intelligence Artificielle de notre Client à Niort : Data Solutions : collecte, structuration, traitement et diffusion des données pour les métiers Intelligence Artificielle : développement d’usages responsables et performants au service des clients et collaborateurs Dans le cadre du projet (référentiel unique Personne), l’équipe souhaite renforcer son pôle études / cadrage / maturation en amont des développements. 🚀 Objectifs de la mission Analyser les évolutions à venir sur le référentiel Réaliser les études d’impact sur les composants du SI Participer au cadrage fonctionnel et technique Préparer les sujets avant transmission à l’équipe de réalisation 🛠️ Activités principales Étudier les besoins métiers et les traduire en exigences data Réaliser les analyses d’impact multi-systèmes Produire les livrables de cadrage : Spécifications fonctionnelles et techniques Schémas d’architecture et de flux Supports de présentation Collaborer avec les équipes : Data IT Métiers Participer aux échanges et suivi via les outils Agile ⚙️ Environnement technique APIs & middleware : TIBCO MDM : Informatica MDM Data Quality : Informatica Data Quality Base de données : MongoDB Traitements : Java Outils collaboratifs : Jira / Confluence (Atlassian) 📦 Livrables attendus Dossiers d’étude d’impact Spécifications détaillées Schémas d’architecture et flux Présentations de cadrage pour validation
CDI
Freelance

Offre d'emploi
Chef de projet Data

OBJECTWARE
Publiée le
Data analysis
Gestion de projet

2 ans
40k-75k €
400-600 €
Île-de-France, France
Dans le cadre du développement de ses activités Data et de la valorisation des données métiers, notre client souhaite renforcer ses équipes avec un Chef de Projet Data . La mission consiste à piloter des projets de transformation et d’exploitation de la donnée, en lien étroit avec les équipes métiers, Data et IT, afin de produire des indicateurs décisionnels et des outils de visualisation. Pilotage de projets Data Recueillir et analyser les besoins métiers liés à la valorisation de la donnée Piloter les projets Data de la phase de cadrage jusqu’à la mise en production Organiser et animer les ateliers avec les équipes métiers et techniques Suivre l’avancement des projets (planning, risques, dépendances) Analyse et valorisation des données Contribuer à la structuration et à la qualité des données exploitées Participer à la modélisation et à la préparation des datasets Exploiter Dataiku pour l’analyse des données et la production d’indicateurs Datavisualisation et reporting Concevoir des tableaux de bord et indicateurs de performance Mettre en place des visualisations de données permettant le pilotage métier Garantir la cohérence et la fiabilité des indicateurs produits Coordination des équipes Assurer l’interface entre métiers, data analysts, data engineers et IT Suivre les développements et la livraison des solutions Data Participer à l’amélioration continue des processus Data
Freelance

Mission freelance
Data Governance Manager (Stewardship & Adoption)(H/F)

Freelance.com
Publiée le
Big Data

5 mois
360-440 €
Bordeaux, Nouvelle-Aquitaine
Objectif de la mission Structurer, déployer et faire adopter la gouvernance data au niveau opérationnel, en mettant en place une communauté de Data Stewards et en rapprochant les équipes data des métiers. 🧩 Ce que vous allez faire concrètement Vous intervenez dans un rôle transverse , orienté cadre, adoption et animation , et non comme Data Steward opérationnel. 🔹 Structuration de la gouvernance Définir et déployer le modèle de Data Stewardship (rôles, responsabilités, rituels) Clarifier les interactions entre Data Owners, Data Stewards, équipes data et techniques 🔹 Animation & adoption Créer et animer une communauté de Data Stewards Accompagner la conduite du changement Développer l’usage des outils de gouvernance (catalogue, documentation…) 🔹 Onboarding & outils Construire les kits, standards et supports pour les Data Stewards Accélérer la documentation des assets data 🔹 Alignement métier & data Organiser des ateliers avec les équipes métiers Identifier les irritants et besoins Structurer et prioriser un backlog transverse 🔹 Intégration dans les projets Intégrer la gouvernance dès les phases de cadrage (“governance by design”) Étendre la couverture du data catalog (y compris sur des sujets IA) ⚙️ En résumé C’est une mission de pilotage et d’animation de la gouvernance data , avec un fort enjeu d’ adoption, de structuration et d’impact métier , dans un environnement déjà outillé.
CDI

Offre d'emploi
Data Scientist - (H/F)

DAVRICOURT
Publiée le

40k-45k €
Bolbec, Normandie
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Scientist pour l'un de nos clients du secteur pharmaceutique. Vous interviendrez sur le site client situé dans le département Seine-Maritime. À ce titre, vos missions quotidiennes seront les suivantes : - Développer en Python des algorithmes et scripts modulaires intégrables sur GCP, basés sur les modèles statistiques métiers ; - Automatiser les tâches répétitives et proposer des solutions simples, robustes et à forte valeur ajoutée ; - Mettre en place des scripts de collecte, structuration et ingestion des données issues des équipements industriels vers GCP ; - Assurer le rôle de relais technique entre les équipes métiers, l'IT et la Data Factory, tout en développant des outils de visualisation et en contribuant à l'acculturation Data des équipes locales.
Freelance

Mission freelance
Data Quality Analyst – VBA & Reconciliation

PARTECK INGENIERIE
Publiée le
Data quality
VBA

12 mois
400-500 €
Paris, France
Dans le cadre d’un programme de transformation KYC d’un grand groupe bancaire, intervention au sein d’une équipe Data Quality en charge de la fiabilité, réconciliation et migration des données entre systèmes legacy et plateforme cible. Rôle hybride 50% développement / 50% production : maintenance et évolution de scripts VBA pilotage des réconciliations de données et des traitements de remédiation (bulk) garantie de la continuité des flux vers des équipes internationales administration et migration SharePoint Online Intervention dans un environnement critique nécessitant rigueur, organisation et réactivité , avec respect des SLA et gestion de flux en continu. Stack principale : VBA, SQL, PowerShell, SharePoint (+ outils de ticketing et reporting). Objectif : assurer la continuité opérationnelle , sécuriser les flux de données et accompagner la migration vers les systèmes cibles jusqu’au décommissionnement des legacy. Profil : expérience confirmée en VBA / data processing , bonne capacité d’analyse, gestion multi-sujets et anglais professionnel.
Freelance

Mission freelance
Tech Lead Data (H/F)

Freelance.com
Publiée le
Agent IA
Apache Kafka
Business Object

3 mois
400-580 €
Maisons-Alfort, Île-de-France
Dans le cadre d’un programme stratégique au sein d’une direction informatique, nous recherchons un Tech Lead Data expérimenté pour intervenir sur un périmètre lié à la gestion de solutions data critiques. Intégré à une équipe Agile organisée en train SAFe, vous participerez à la conception, au développement et à la maintenance d’applications du système d’information. Vous interviendrez en tant que référent technique de l’équipe data, avec un rôle clé dans l’accompagnement des développeurs et l’amélioration continue des pratiques. Vos principales responsabilités : Assurer le leadership technique de l’équipe data Promouvoir et mettre en œuvre de nouvelles pratiques (architecture événementielle, APIsation, modernisation technologique) Participer activement aux choix d’architecture et aux décisions techniques Collaborer avec les autres équipes data pour assurer la cohérence globale Être force de proposition sur les outils et innovations du marché, notamment autour de la data et de l’IA
Freelance
CDI
CDD

Offre d'emploi
DataOps & Administrateur Hadoop TJM MAX 580

Craftman data
Publiée le
Ansible
Apache Hive
Apache Spark

1 an
40k-45k €
400-580 €
Paris, France
Missions et responsabilités principales1. Déploiement et industrialisation des clusters Big Data Déploiement automatisé de clusters via des pipelines CI/CD Utilisation d’outils d’automatisation pour l’installation et la configuration des composants Adaptation des architectures selon les besoins projets (dimensionnement, sécurité, performance) Contribution à l’industrialisation des processus (CI/CD, Infrastructure as Code) Déploiement et configuration d’outils de gestion de plateforme Installation et configuration d’interfaces utilisateurs pour les environnements analytiques 2. Stack Big Data administrée Administration et intégration des composants suivants : Service d’annuaire : gestion des identités Service d’authentification : sécurisation des accès Système de fichiers distribué : gestion du stockage Framework de traitement distribué : gestion des ressources et exécution Outil de gestion des accès : politiques de sécurité Moteur de calcul distribué Moteur SQL pour l’accès aux données Base de données relationnelle associée aux services Service de coordination distribué Responsabilités associées : Installation, configuration et paramétrage avancé Gestion des dépendances inter-services Maintien de la cohérence des versions Optimisation des performances et de la stabilité 3. Provisionnement et préparation des environnements Provisionnement des machines virtuelles Préparation des prérequis systèmes (OS, stockage, réseau) Automatisation des installations via scripts et outils d’orchestration Gestion des environnements (développement, test, production) 4. Observabilité et supervision Mise en place et maintien de la supervision : Collecte des métriques Gestion et routage des alertes Centralisation et exploitation des logs Visualisation via tableaux de bord Définition et amélioration des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des plateformes Big Data Support technique aux équipes projets et utilisateurs Gestion des incidents et demandes d’évolution Montées de version et correctifs Suivi de la capacité (CPU, RAM, stockage) Documentation technique et mise à jour des procédures Rituels et interactions Participation aux rituels d’équipe Coordination avec : Équipes infrastructure et exploitation Équipes projets data / métiers Référents sécurité Accompagnement des équipes dans l’usage de la plateforme Environnement technique global CI/CD & DevOps : outils d’intégration et de déploiement continus, gestion de code, qualité Automatisation : outils d’orchestration et scripting Infrastructure : virtualisation, conteneurisation Big Data : écosystème de traitement distribué Observabilité : outils de monitoring, logs et visualisation Points de vigilance Forte interdépendance des composants de la plateforme Sensibilité aux problématiques de capacité et de performance Importance de l’anticipation via la supervision Respect strict des standards de sécurité et des procédures internes Coordination transverse nécessaire pour les déploiements et évolutions majeures Charge estimative Déploiement d’un cluster complet : variable selon dimensionnement et spécificités projet MCO : charge récurrente hebdomadaire Incidents critiques : charge ponctuelle selon criticité
Freelance
CDI

Offre d'emploi
Data Quality Analyst h/f

Ela Technology
Publiée le
Alteryx
Batch
ETL (Extract-transform-load)

6 mois
Seine-Saint-Denis, France
🎯 Contexte & Enjeux Dans le cadre d’un programme de transformation d’envergure autour des processus KYC , une équipe dédiée à la qualité des données intervient au cœur du dispositif pour sécuriser la migration vers un outil cible commun et garantir l’intégrité des données entre plusieurs systèmes historiques. L’enjeu est double : accompagner les déploiements tout en assurant une continuité opérationnelle sans rupture , dans un environnement international et fortement industrialisé. Suite à un départ à la retraite programmé en milieu d’année , une mission clé est ouverte afin d’assurer la reprise, la stabilisation et l’évolution des processus existants. 🚀 Mission Au sein de l’équipe Data Quality, vous êtes garant(e) de la fiabilité des données , du bon déroulement des réconciliations et de la continuité de la chaîne de valeur , depuis les systèmes legacy jusqu’à la solution cible. Votre mission s’articule autour de deux piliers équilibrés : 🧩 50 % Développement | ⚙️ 50 % Production & Pilotage opérationnel Vos responsabilités principales Qualité & Migration des données Piloter les réconciliations quotidiennes , en mode run the business , pour assurer un flux de données continu. Piloter les réconciliations hebdomadaires , préparer et suivre les indicateurs de performance (KPI) . Superviser les processus de bulk permettant la remédiation des données dans l’outil cible. Garantir la conformité des données migrées tout au long du programme. Développement & Maintenance Maintenir, faire évoluer et sécuriser un socle VBA existant (lecture, débogage, amélioration, mises en production). Assurer la stabilité et la traçabilité des évolutions de code. Environnement collaboratif Assurer l’ administration et la migration de SharePoint vers la version Online : Organisation documentaire Gestion des accès et permissions Migration des environnements et livrables. Gouvernance & Continuité opérationnelle Être le/la garant(e) de la rigueur opérationnelle , du respect des SLA et des processus. Veiller à ne jamais interrompre l’activité des Task Forces internationales (Inde & Portugal). Documenter les procédures et accompagner la structuration des processus pérennes vers l’architecture cible.
Freelance

Mission freelance
Expert en Migration de Données H/F

SPIE ICS
Publiée le
Data analysis
Data Engineering
Migration

3 mois
400-580 €
Hauts-de-Seine, France
Nous recherchons pour notre client basé dans les Hauts-de-Seine (92) un Consultant en Migration de Données qui pilotera l’ensemble du processus de migration, de la préparation à la mise en production, afin de garantir la qualité et la cohérence des données. Missions principales : Accompagner les équipes locales de la définition de la stratégie à la validation métier des données. Gérer les phases MOCK1, MOCK UAT et chargement en production. Analyser en première ligne les anomalies détectées. Soutenir les responsables applicatifs pour la propagation des données. Être garant de la méthodologie DTM, définir la stratégie de nettoyage des données et suivre les KPIs. Maintenir les modèles de migration, outils, rapports et la bibliothèque de connaissances. Arbitrer les écarts méthodologiques et gérer les demandes de déviation. Former et animer la communauté des experts en migration (DME).
Freelance

Mission freelance
Data Analyst – Data Quality / Gouvernance / Dataflows

CHOURAK CONSULTING
Publiée le
Apache Kafka
Dremio
ETL (Extract-transform-load)

3 mois
400-500 €
Île-de-France, France
Nous recherchons un Data Analyst pour intervenir sur un projet de rationalisation et optimisation des flux de données au sein d’un environnement Data structuré. 🎯 Contexte de la mission La mission vise à améliorer la qualité, la cohérence et la gouvernance des données , en simplifiant les structures existantes et en réduisant les redondances. Vous interviendrez sur l’analyse des dataflows transactionnels , des objets de données et de leur utilisation afin d’optimiser les échanges entre systèmes IT et métiers. ⚙️ Missions principales Analyser les flux de données , leur structure et leur utilisation. Identifier les données redondantes, incohérentes ou inutilisées . Proposer des optimisations et simplifications des dataflows. Mettre en place des indicateurs de qualité des données . Contribuer à la définition du cadre de gouvernance Data (règles, rôles, usages). Documenter les modèles de données, règles métiers et cas d’usage. Accompagner les équipes métiers dans l’exploitation des données. Participer aux routines de gouvernance et qualité Data . 📦 Livrables attendus Analyses détaillées des jeux de données transactionnels Identification des anomalies et recommandations d’optimisation Documentation des modèles de données et dataflows Mise en place de contrôles de qualité des données Support aux équipes métiers pour la mise en œuvre des améliorations 🛠 Compétences techniques Python (obligatoire) SQL (excellent niveau) Outils Data : Dremio, Strategy, Kafka (apprécié) Concepts ETL / traitement de données Modélisation de données (entités, attributs, UML) Expérience en migration / validation de données (plus)
Freelance

Mission freelance
INGÉNIEUR(E) RÉSEAU & SÉCURITÉ CONFIRMÉ(E)

Craftman data
Publiée le
Ansible
Azure
Check Point

3 mois
320-710 €
Le Havre, Normandie
MISSIONS PRINCIPALES 1. Audit et consolidation de l'existant (prioritaire) Réaliser un audit complet de l'architecture réseau et sécurité : cartographie des flux, segmentation réseau, politique de sécurité, configuration F5 et Check Point Valider et mettre à jour les documentations techniques, schémas de flux applicatifs et matrices de filtrage Réviser et proposer des amélioriations des configurations load balancing F5 (LTM, GTM, ASM/WAF) : VIPs, pools, health checks, SSL o]loading, iRules Réviser et proposer des amélioriations des configurations firewalls Check Point : règles de filtrage, NAT/PAT, VPN site-to-site et remote access, haute disponibilité ClusterXL Analyser les configurations BGP (annonces, policies, route-maps, geo-clusters DRP) et connectivités Azure ExpressRoute Identifier les vulnérabilités, points de fragilité et non-conformités, formuler des recommandations correctives priorisées 2. Transfert de compétences et accompagnement des équipes (prioritaire) Travailler en étroite collaboration avec les responsables d'infrastructure et l'équipe sécurité pour le transfert de connaissances Standardiser et documenter les configurations réseau/sécurité : runbooks MCO (Maintien en Condition Opérationnelle) / MCS (Maintien en Condition de Sécurité), procédures d'exploitation, guides de dépannage Former les équipes internes sur les bonnes pratiques d'exploitation F5 et Check Point 3. Accompagnement transformation microservices Contribuer à la définition de l'architecture réseau et sécurité pour la plateforme microservices cible Concevoir les patterns de sécurisation : segmentation réseau (East-West), service mesh (mTLS), ingress/egress, micro-segmentation Définir les politiques de filtrage, stratégies de load balancing applicatif, WAF et protection DDoS pour les services conteneurisés Accompagner les architectes sur les choix technologiques (ingress controllers, service mesh, network policies Kubernetes) Intégrer les principes de sécurité Zero Trust et defense-in-depth dans l'architecture microservices COMPÉTENCES TECHNIQUES REQUISES Obligatoires F5 BIG-IP : maîtrise confirmée LTM (load balancing), GTM (GSLB), ASM/Advanced WAF, configuration avancée VIPs/pools/nodes, SSL o]loading, iRules/iApps, haute disponibilité et monitoring Check Point : expertise firewalls (R80.x/R81.x), SmartConsole, règles de filtrage avancées, NAT/PAT, VPN (site-to-site, remote access), ClusterXL, logs et troubleshooting Routage et switching : LAN/WAN, protocoles BGP, OSPF, MPLS, segmentation VLAN/VRF, notions de SD-WAN, Azure networking : ExpressRoute, VNet, NSG, Azure Firewall, Application Gateway, Tra]ic Manager, Azure Monitor Architecture DRP : geo-clusters, réplication Appréciées Firewalls Fortinet, Palo Alto Network Load balancers alternatifs : Nginx, HAProxy, cloud-native ingress controllers Sécurité microservices : service mesh (Istio, Linkerd), mTLS, network policies Kubernetes, Zero Trust Outils d'automatisation réseau : Ansible, Terraform pour configurations réseau/sécurité CERTIFICATIONS SOUHAITÉES F5 Certified BIG-IP Administrator ou F5 Certified Technology Specialist Check Point Certified Security Administrator (CCSA) ou Check Point Certified Security Expert (CCSE) Cisco CCNP Enterprise ou équivalent Microsoft Certified : Azure Network Engineer Associate (AZ-700) ITIL Foundation
Freelance
CDI

Offre d'emploi
Architecte Data / Stratégie Plateforme Data Européenne

OBJECTWARE
Publiée le
Apache Kafka
BI
Data Lake

3 ans
40k-73k €
400-550 €
Île-de-France, France
🎯 Objectif de la mission Dans un contexte de transformation data à l’échelle européenne, vous intervenez en tant qu’ Architecte / Consultant Senior Data pour structurer, rationaliser et industrialiser la plateforme data du groupe. Vous accompagnez la définition de la stratégie cible, la gouvernance et la trajectoire de migration vers une plateforme data unifiée, scalable et conforme aux contraintes réglementaires (RGPD, localisation des données, sécurité). 🧩 Missions principales🔎 1. Diagnostic des plateformes data existantes Réaliser une cartographie complète des plateformes data existantes Analyser les architectures de bout en bout (de l’ingestion à l’usage métier) Étudier l’organisation, les rôles et responsabilités Identifier les dépendances techniques et fonctionnelles Recenser et prioriser les cas d’usage Data, BI et IA Intégrer les contraintes réglementaires (RGPD, souveraineté des données) 🏗️ 2. Définition de la stratégie data cible Concevoir une architecture cible de plateforme data pan-européenne Travailler avec les équipes d’architecture groupe Recommander les choix technologiques (cloud, data platforms, outils) Définir un modèle de gouvernance data transverse (business lines) Fixer les principes de scalabilité, industrialisation et performance 🔁 3. Stratégie de migration & roadmap Construire une roadmap de transformation et migration vers la cible Définir les étapes de migration des données et des usages Organiser et animer les ateliers avec les équipes IT et métiers Préparer et suivre les comités de pilotage IT Coordonner les phases de tests, recette et non-régression 🚀 4. Accompagnement des premières phases de delivery Accompagner le démarrage des premières implémentations Garantir la cohérence entre architecture cible et réalisation Assurer un rôle de référent auprès des équipes de delivery
Freelance
CDI

Offre d'emploi
Data Analyst – Data Référentiels & Gouvernance (MDM / Data Platform)

AVA2I
Publiée le
MySQL

1 an
Île-de-France, France
🏢 Contexte Dans le cadre d’une stratégie de transformation Data, une grande organisation met en place un système de gestion des données de référence afin de centraliser et fiabiliser les données critiques utilisées par les métiers (finance, reporting, opérations, outils décisionnels). Le Data Analyst interviendra au sein de l’équipe Data pour concevoir, améliorer et maintenir des datasets exposés via une Data Platform. 🎯 Objectifs du poste Garantir la qualité, cohérence et disponibilité des données Concevoir des datasets fiables et exploitables Assurer le lien entre besoins métier et implémentation technique Contribuer à la gouvernance et documentation des données
Freelance
CDI

Offre d'emploi
Consultant SAP Data Migration (H/F)

Scalesys
Publiée le

1 mois
Île-de-France, France
📋 RÉSUMÉ Au sein d’un programme SAP (S/4HANA ou ECC), vous pilotez et réalisez les activités de migration de données de bout en bout. Vous sécurisez la qualité, la traçabilité et les cutovers, en coordination avec les équipes métiers, fonctionnelles et techniques. 🎯 MISSIONS Cadrer la stratégie de migration (périmètre, objets, sources, approche Big Bang / waves) et définir le plan de migration Analyser et qualifier les données sources (ERP legacy, fichiers, bases de données) et identifier les écarts et anomalies Concevoir les règles de mapping (source → cible) et les transformations associées, avec validation métier Mettre en place les cycles de migration (mock loads, dress rehearsal, cutover) et piloter le runbook de cutover Réaliser les chargements via outils standards (SAP Migration Cockpit / LTMC-LTMOM, LSMW, BAPIs/IDocs, ETL) et automatiser lorsque pertinent Mettre en œuvre la gouvernance data (référentiels, responsabilités, RACI) et assurer la traçabilité/auditabilité Définir et exécuter les contrôles de réconciliation (quantitatif/qualitatif) et assurer la résolution des defects Produire les KPI de migration (taux de complétude, rejets, qualité) et animer les comités de suivi Accompagner les équipes (métier, key users, IT) sur la préparation et le nettoyage des données (data cleansing) Contribuer à la documentation et au transfert de connaissances post go-live 📦 LIVRABLES Stratégie et plan de migration (planning, cycles, waves) Cartographie des données et inventaire des objets migrés Dossiers de mapping (source→cible) validés métier + règles de transformation Plan de data cleansing et gouvernance (RACI, responsabilités) Scripts/paramétrages de chargement (LTMC/LTMOM/LSMW/ETL) et procédures associées Plan de tests de migration + résultats des mock loads (journal des rejets/defects) Réconciliations (quantitatives/qualitatives) + preuves de contrôle Runbook de cutover (séquencement, timings, rollback, points de contrôle) Reporting/KPI de migration et compte-rendus de comités Documentation de transfert de compétences (post go-live)
686 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous