Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 879 résultats.
Freelance

Mission freelance
Data engineer (aws / talend / power bi)

Signe +
Publiée le
Microsoft Power BI

12 mois
400-440 €
Grenoble, Auvergne-Rhône-Alpes
contexte de la mission intervention chez un client grenoblois sur des sujets data environnement orienté cloud aws avec exploitation d’un datalake besoin d’un profil capable de couvrir à la fois la data ingénierie et une partie data visualisation missions principales conception, développement et maintenance de pipelines data exploitation et optimisation d’un datalake sur aws traitement, transformation et intégration des données via talend mise à disposition des données pour les équipes métiers création de dashboards et reporting sous power bi participation aux choix techniques et à l’amélioration continue des architectures data environnement technique cloud / data : aws (lambda, athena, glue, step functions, rds, s3) etl : talend data visualisation : microsoft power bi profil recherché expérience significative en data engineering bonne maîtrise de l’écosystème aws data (datalake) solide expérience sur talend (obligatoire) capacité à produire des dashboards power bi autonomie et capacité à intervenir en environnement projet
Freelance

Mission freelance
Data analyst monetique

Deodis
Publiée le
MySQL

1 an
450-550 €
Île-de-France, France
Au sein d’une Datafactory dédiée aux moyens de paiement, le Business Analyst Data contribue à la collecte, à la transformation et à la gestion des données de paiement et des données clients afin d’en garantir la qualité, la sécurité et l’intégrité. Il participe à la mise à disposition de ces données pour les équipes métiers et les différentes équipes data, notamment à travers la production de reportings et de tableaux de bord (Power BI) ainsi que l’alimentation de systèmes opérationnels. En collaboration avec les data engineers, data visualization specialists et le Product Owner, il anime des ateliers avec les parties prenantes, rédige les spécifications fonctionnelles et techniques, développe les user stories, réalise les phases de recette des traitements de données et accompagne les utilisateurs dans l’exploitation des données. Il intervient dans un environnement agile et contribue à l’amélioration continue des produits et services data.
Freelance
CDI

Offre d'emploi
Architecte DATA CMDB SERVICE NOW

OBJECTWARE
Publiée le
ServiceNow

2 ans
Île-de-France, France
Dans le cadre de la mise en conformité avec les recommandations de la Banque Centrale Européenne (BCE) sur la fiabilité des référentiels IT, notre client engage un programme d’amélioration et de gouvernance de sa CMDB Groupe et de ses référentiels techniques . L’objectif de cette mission est de concevoir et mettre en œuvre une architecture de données robuste et gouvernée , permettant d’assurer la qualité, la cohérence et l’exploitabilité des informations relatives aux actifs IT. Le consultant interviendra au cœur du dispositif pour structurer et améliorer le modèle de données CMDB , industrialiser l’intégration des sources d’inventaire et renforcer la gouvernance des données techniques. Architecture et modélisation des données CMDB Concevoir et optimiser le modèle de données des référentiels IT techniques (Configuration Items, relations et métadonnées). Simplifier et rationaliser les structures existantes afin d’améliorer la lisibilité et la maintenabilité du modèle. Garantir l’évolutivité de l’architecture des données pour intégrer de nouvelles sources d’inventaire et répondre aux besoins futurs. Identification et réconciliation des données Définir et implémenter les règles d’identification et de réconciliation (IRE) au sein de ServiceNow CMDB . Déterminer les clés d’identification des Configuration Items afin d’assurer l’unicité et la cohérence des données. Mettre en place des mécanismes de consolidation des informations issues de multiples sources d’inventaire. Gestion des sources d’inventaire Identifier et qualifier les sources de données techniques alimentant les référentiels IT . Définir les sources de vérité pour chaque type d’information. Cartographier et structurer les flux d’alimentation des référentiels IT . Qualité des données et gouvernance Définir et mettre en œuvre une stratégie de Data Quality pour la CMDB : déduplication fiabilité des données complétude fraîcheur des informations gestion de l’obsolescence. Mettre en place des indicateurs de qualité et des tableaux de bord de suivi . Gouvernance des référentiels IT Appliquer les principes de Master Data Management (MDM) au contexte des référentiels IT. Définir les rôles et responsabilités autour des données (Data Owner, Data Steward). Structurer un cadre de gouvernance des référentiels IT documenté et partagé. Collaboration transverse Travailler en étroite collaboration avec les équipes : ITSM / CMDB ServiceNow Discovery équipes MDM sécurité IT infrastructures et exploitation. Accompagner les équipes responsables des inventaires techniques et outils de découverte . Reporting et produits de données Développer des produits de données exploitant les référentiels IT pour répondre aux besoins de reporting et d’audit. Contribuer à la production d’indicateurs et de tableaux de bord permettant de piloter la qualité et la fiabilité des données.
Freelance
CDI

Offre d'emploi
Data analyst: Systrack - Poste de travail

Deodis
Publiée le
Data analysis
Microsoft Windows

12 mois
58k-65k €
500-600 €
Montpellier, Occitanie
La Mission principale Référent analytique central du programme d’observabilité et de l’expérience digitale collaborateur. Votre rôle : transformer les flux de données de télémétrie des postes Windows 11 en informations claires, exploitables et orientées clients. Vous construisez une vision en temps réel de la qualité d’expérience vécue par les utilisateurs, et chaque analyse produite doit permettre d’identifier, de mesurer et d’améliorer concrètement leur confort et leur performance au quotidien. Activités et Responsabilités au Quotidien 1. Conception et Création des Tableaux de Bord Le Data Analyst est le maître d'œuvre des interfaces de pilotage. Il doit concevoir des vues adaptées pour chaque typologie d'acteur : Quelques exemples : Pour le Comité de Direction (CoDir) - Vue Stratégique : Création d'un Score de Santé Global (DEX Score) de l'entreprise. Mise en évidence de l'impact financier et de la perte de productivité liés aux lenteurs informatiques. Suivi du ROI des actions d'amélioration menées sur le parc. Pour le Support aux Utilisateurs - Vue Tactique & Temps Réel : Tableaux de bord d'aide à la résolution (réduction drastique du MTTR - Mean Time To Resolve ). Visualisation immédiate de l'état du poste appelant (temps de démarrage, crashs d'applications, qualité du signal Wi-Fi, latence réseau). Pour les Équipes d'Exploitation (Run) - Vue Proactive : Suivi des déploiements massifs (ex: comportement du parc suite à une mise à jour Windows 11). Monitoring des ressources matérielles (saturation CPU, RAM, IOPS Disque) pour détecter les anomalies de masse. Pour la Gestion de la Demande - Vue Prédictive : Analyse de l'usage réel des applications (Shadow IT, licences inutilisées). Identification précise des matériels nécessitant un renouvellement basé sur la performance réelle et non sur l'âge de la machine. 2. Analyse Proactive et Investigation Traque des signaux faibles : Identifier les dégradations silencieuses (une application métier qui commence à fuir en mémoire) avant même que les utilisateurs ne s'en plaignent. Analyse de causes racines (Root Cause Analysis) : Croiser les métriques de l'observabilité avec les tickets d'incidents de l'ITSM pour trouver les dénominateurs communs (ex: un modèle précis d'ordinateur sous Windows 11 qui plante systématiquement avec un outil spécifique). Modélisation d'alertes : Configurer des seuils d'alerte intelligents pour prévenir les équipes d'exploitation lors de crises naissantes. 3. Synergie et Interactions Clés Ce rôle est en interaction permanente avec les acteurs clés : Avec le Directeur de Programme & le Chef de Projet : Fournir les analyses, démontrer l'avancement par les chiffres, et valider les jalons du projet d'observabilité. Avec les Clients Internes (Métiers) : Animer des ateliers de recueil de besoins pour comprendre leurs besoins quotidiens et traduire leurs ressentis (ex: "mon PC rame") en KPIs techniques mesurables. Avec l'Exploitation & le Support : Coconstruire avec eux les outils qui vont transformer et simplifier leur quotidien. Les Livrables concrets attendus Pour assurer un impact maximal, le Data Analyst produira en continu les éléments suivants : 1. Le Dictionnaire des KPIs : Un document de référence cartographiant et définissant de manière exhaustive toutes les métriques de l'expérience utilisateur sous Windows 11 notamment. 2. La Suite de Dashboards "Core" : L'ensemble des tableaux de bord opérationnels et exécutifs, interconnectés avec la solution d'observabilité IT choisie par l'entreprise. 3. Les Rapports de "Santé IT" (Mensuels/Hebdomadaires) : Des synthèses automatisées mettant en lumière les victoires (ce qui s'est amélioré) et les axes d'effort (ce qui reste à corriger). 4. La Matrice d'Alerte : Le catalogue documenté des scénarios déclenchant des notifications proactives vers le support ou l'exploitation.
Freelance

Mission freelance
Lead Developer Java / Tech Lead (Niort 79)

AKERWISE
Publiée le
Java

1 an
Niort, Nouvelle-Aquitaine
Dans le cadre de la modernisation et de la résilience de son système d’information, un grand acteur de l’assurance recherche plusieurs Lead Developers Java / Tech Leads afin de renforcer ses équipes de développement au sein de différentes squads. Les missions s’inscrivent dans des programmes structurants visant notamment : la modernisation des applications métiers et des socles techniques , l’ industrialisation des services API et des plateformes d’échanges , le développement de produits data et d’API métier , l’ évolution des services de gestion documentaire et de traitement automatisé de documents , ainsi que la rénovation d’applications cœur de métier dans le domaine assurantiel . Les équipes travaillent en mode agile (squads) au sein d’un environnement technique moderne et fortement orienté microservices. Missions principales En tant que Lead Developer , vous interviendrez à la fois sur des activités de conception, de développement et de pilotage technique. Vos responsabilités incluent notamment : Leadership technique Définir la ligne directrice technique et les choix d’architecture. Encadrer et accompagner les développeurs dans la montée en compétence . Mettre en place et faire respecter les bonnes pratiques de développement . Garantir la qualité du code et la maintenabilité du patrimoine applicatif . Conception et développement Concevoir et développer des applications et APIs Java . Participer à la définition et à l’évolution des architectures applicatives . Implémenter des fonctionnalités complexes et des composants techniques critiques. Contribuer aux évolutions des plateformes techniques et applicatives . Qualité et industrialisation Mettre en œuvre les stratégies de tests et de validation . Assurer le suivi de la qualité via les outils d’analyse de code. Participer à la gestion de la dette technique et aux chantiers d’obsolescence . Contribuer au maintien en conditions opérationnelles des services . Collaboration produit Interagir avec les Product Owners, architectes et équipes opérationnelles . Participer à l’estimation des charges et à la planification des travaux. Accompagner les équipes métiers dans la mise en œuvre des solutions.
CDI

Offre d'emploi
Data Scientist F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Deep Learning
Numpy
Python

Aix-en-Provence, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Proxy Product Owner Data – Corporate Finance Transformation

Freelance.com
Publiée le
Data management
ERP
P2P

1 an
540-600 €
Île-de-France, France
Dans le cadre d’un ambitieux programme de Finance Transformation au sein d’un grand groupe international, la Direction Data recherche un Proxy Product Owner Data pour piloter les initiatives Finance à forte composante data. Le périmètre couvre notamment les processus P2P (Procure-to-Pay) , O2C (Order-to-Cash) ainsi que les projets d’ automatisation des processus Finance dans un environnement structuré et exigeant. Description du poste Rattaché(e) au Data Office Groupe, vous intervenez en véritable interface stratégique entre les équipes Finance, IT et Data . À ce titre, vous : Identifiez et priorisez les initiatives Finance à fort impact data Traduisez les besoins métiers en exigences fonctionnelles et techniques Garantissez l’alignement avec les standards data et l’architecture groupe Validez les modèles de données et les choix d’architecture Contribuez aux cas d’usage d’automatisation (ex : Dataiku ou outil équivalent) Coordonnez les équipes Finance, IT et Data dans une logique transverse Assurez le suivi projet (jalons, risques, dépendances, reporting) Veillez au respect des exigences de gouvernance, qualité et sécurité des données Vous jouez un rôle clé dans la réussite de la transformation en garantissant que la donnée soit pleinement intégrée, exploitée et conforme aux standards du groupe.
Freelance

Mission freelance
Data Model Architect

Phaidon London- Glocomms
Publiée le
Architecture
Data governance
Data quality

6 mois
400-550 €
Arcueil, Île-de-France
Concevoir le modèle de données Salesforce (objets, champs, relations) pour l'ensemble des flux de travail du projet. Définir et appliquer les conventions de nommage et les normes de modélisation. Examiner et valider toutes les demandes de nouveaux objets ou champs personnalisés. Gérer l'évolution du modèle pour l'ensemble des flux de travail, en garantissant la rétrocompatibilité. Concevoir la stratégie de migration et de chargement des données pour les jeux de données existants. Garantir la pleine compatibilité du modèle de données avec Agentforce. Documenter et maintenir le dictionnaire de données du projet. Accompagner les équipes concernant la gestion des hiérarchies, les objets à volume élevé et les structures de comptes complexes.
Freelance
CDI

Offre d'emploi
IT Data & Integration Manager

Taimpel
Publiée le
API
Architecture
Pilotage

1 an
59k-70k €
570-660 €
Paris, France
Contexte de la mission MH IS&T a lancé la mise en œuvre d’un outil d’ Integrated Business Planning (IBP) : Kinaxis Maestro . Il s’agit d’un programme de transformation , et non d’un simple projet d’implémentation IT. Une équipe Core Solution et une équipe Data & Integration travaillent en parallèle, en collaboration avec les équipes métiers et l’intégrateur, afin de construire la solution. Dans ce contexte, recherche un IT Data & Integration Manager pour renforcer l’équipe en place. Cette personne sera responsable de : piloter et gérer la mise en œuvre de l’ensemble des flux de données, assurer la coordination avec les équipes internes (IT et métiers), travailler avec l’intégrateur, superviser les différentes tâches et équipes pour garantir le respect : du périmètre, de la qualité, des délais, intervenir également en exécution opérationnelle (pas uniquement en pilotage). Rôle côté intégration Pour l’équipe d’intégration, cette personne devra : fournir les spécifications nécessaires : APIs transferts de fichiers L’équipe Data & Integration est responsable de la mise en place des flux entre : les systèmes et la solution Kinaxis Maestro Ces flux doivent être construits : selon l’architecture définie selon les spécifications produites par cette personne Rôle côté Data (mode Agile) Cette personne agira également comme Product Owner des produits data , avec les responsabilités suivantes : Faire le lien entre besoins métiers et données Prioriser les sujets Définir les règles de transformation des données Activités principales : Recueillir les besoins et spécifications (outil : Jira) Prioriser et suivre les sprints Participer aux cérémonies Agile Contexte SI Plusieurs systèmes doivent être connectés à Kinaxis Maestro : SAP ECC SAP Business One Anaplan Outil de budget etc. La connexion se fait via la Kinaxis Integration Layer , où l’intégrateur implémente les règles de transformation. Objectifs et livrables Responsabilités clés Piloter les spécifications fonctionnelles du stream Data & Integration Garantir le respect de l’architecture cible Garantir le respect des bonnes pratiques et standards S’assurer que la solution d’intégration : est optimisée est stable couvre les besoins Produire et maintenir la documentation fonctionnelle et technique Adopter une approche design-to-run pour faciliter le passage en RUN Missions principales Pilotage du stream Data & Integration Définition de la stratégie de sourcing des données Choix de la stratégie d’ingestion : utilisation ou non de la plateforme data arbitrage entre attentes métiers et contraintes techniques Alignement fonctionnel / technique sur les référentiels transverses : Produits Clients Pilotage de la delivery du stream Participation aux réunions projet Reporting d’avancement et gestion des risques Point de contact principal pour l’intégrateur sur les sujets data Coordination & cadrage Identifier les besoins data avec les équipes métiers Traduire ces besoins en spécifications Collaborer avec les équipes IT internes et l’intégrateur Stratégie technique Définition des environnements : dev staging production Définition de la stratégie de test : données nécessaires planning organisation des tests Mise en œuvre des flux Organisation des extractions et intégrations depuis les systèmes Travail avec l’intégrateur sur les règles de transformation Construction de la couche d’intégration Pilotage des phases projet Mise en place des flux Conversion des données Tests unitaires Tests de masse UAT Mise en production Passage en RUN Automatisation des interfaces Qualité & amélioration Capitalisation documentaire : scripts de test schémas d’architecture règles data Challenge des choix techniques Recommandations d’amélioration Collaboration avec l’Enterprise Architect Mise en place du monitoring des interfaces Définition de KPI Compétences demandées Compétences techniques Connaissance Supply Chain → Avancé GCP BigQuery → Expert Anglais courant (oral et écrit) → Expert Expérience Product Owner data → Expert Gestion de systèmes complexes → Expert Capacité à vulgariser des sujets complexes → Expert Expérience API / fichiers / retry / delta → Expert Connaissance ERP (SAP ECC, SAP B1, S/4 Hana) → Expert Architectures distribuées / ELT / ETL → Expert Expérience secteurs FMCG / Retail / Luxe → Expert MS Office 365 → Expert Expérience architecte data fonctionnel / lead stream data → Expert Communication & organisation → Expert Axway, GCP, design patterns → Avancé Design d’API & protocoles d’intégration → Expert Français → Expert Méthodologie Agile → Expert 🎯Ce besoin est : senior hybride : Architecte + PO + Delivery Lead orienté : intégration SI complexe data flows coordination multi-équipes 👉 Ce n'est pas juste un besoin de Data Engineer. 👉 Il faut quelqu’un qui a déjà : piloté un stream data Travaillé avec intégrateur Déjà fait du SAP + data + API
CDI

Offre d'emploi
Scrum Master / Product Owner Data F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Git
JIRA
Python

Nantes, Pays de la Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer Confirmé / Senior – Snowflake / dbt / Data Vault

CHOURAK CONSULTING
Publiée le
AWS Cloud
Azure
CI/CD

3 mois
400-670 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé ou senior pour intervenir sur une plateforme data moderne reposant sur Snowflake et dbt , avec une forte exigence en modélisation Data Vault . Contexte de la mission : Vous rejoindrez une équipe Data en charge de structurer et faire évoluer une architecture analytique robuste et scalable. La mission s’inscrit dans une logique d’industrialisation, de qualité et de standardisation des flux. Missions principales Concevoir et implémenter des modèles Data Vault (obligatoire) . Développer et optimiser les transformations via dbt . Modéliser et structurer les données dans Snowflake . Participer à la définition des standards d’architecture et des bonnes pratiques. Assurer la qualité, la performance et la traçabilité des données. Collaborer avec les équipes BI (notamment Power BI ) et métiers.
Freelance

Mission freelance
Lead Data (DBT / Databricks / Power BI)

HOXTON PARTNERS
Publiée le
Databricks
DBT
PowerBI

9 mois
650-700 €
Suisse
Dans le cadre du renforcement de ses équipes data, nous recherchons un Lead Data pour accompagner un client basé en Suisse sur des enjeux stratégiques autour de la data platform et de la valorisation des données. Vos missions : Prendre le lead d’une équipe de 4 développeurs data Piloter les développements et garantir la qualité des livrables Concevoir et faire évoluer l’architecture data Mettre en place et optimiser les flux de transformation avec dbt Exploiter la plateforme Databricks pour le traitement et la gestion des données Accompagner les équipes métiers sur la visualisation via Power BI
Freelance
CDI

Offre d'emploi
Data Analytics Engineer – SQL & BigQuery

Clostera
Publiée le
BigQuery
Google Cloud Platform (GCP)
Looker Studio

6 mois
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez-nous ! Nous recherchons un Data Analytics Engineer F/H capable de concevoir, structurer et exploiter des pipelines de données dans un environnement cloud moderne. Ce que vous ferez : Le rôle consiste à fiabiliser la donnée, construire les pipelines analytiques et produire des analyses exploitables pour les équipes métiers , en collaboration avec les équipes techniques et data. Le poste se situe à l’intersection entre : data engineering data analytics data visualisation Vos missions principales : Data Engineering Concevoir et optimiser des pipelines de données dans BigQuery Gérer la modélisation et la structuration des données Garantir la qualité, cohérence et fiabilité des datasets Data Analytics Rédiger et optimiser des requêtes SQL complexes Extraire et analyser des volumes importants de données Produire des analyses exploitables pour les équipes métier Data Processing & scripting Utiliser Python et ses bibliothèques analytiques Pandas NumPy PySpark Data Visualisation Concevoir des dashboards interactifs Identifier et suivre les KPIs métier Utiliser : Looker Looker Studio Data architecture Exploiter différents types de bases de données PostgreSQL MongoDB autres bases relationnelles ou NoSQL Comprendre et appliquer les architectures modernes : Data Lake Data Warehouse Cloud & DevOps Travailler dans des environnements cloud Google Cloud Platform Azure Mettre en place : CI/CD avec GitLab CI gestion du versionning avec Git Appliquer les principes DevOps pour améliorer les traitements data Collaboration & méthodes Travailler en méthodologie agile Scrum Sprint planning backlog refinement Collaborer avec : équipes métiers équipes data équipes techniques
CDI

Offre d'emploi
Data Steward / Référent Qualité et Gouvernance des Données

Enterprise Digital Resources Ltd
Publiée le
Data governance
Data Lake
PL/SQL

Paris, France
Data Steward / Référent Qualité et Gouvernance des Données. Rattaché(e) au Responsable équipe Data, vos missions s'articuleront autour des volets suivants : Gouvernance et gestion de la donnée Définir et maintenir les règles de gouvernance de données (standards, nomenclatures, référentiels). Assurer la gestion du data catalog et la documentation des jeux de données. Identifier les propriétaires de données ( data owners ) et coordonner les processus de validation. Qualité des données Mettre en place et suivre les indicateurs de qualité (complétude, exactitude, unicité, fraîcheur…). Gérer et suivre les incidents et anomalies de qualité. Proposer des plans d’amélioration et suivre leur mise en œuvre avec les équipes techniques et métiers. Sécurité et conformité Veiller au respect des règles RGPD, sécurité et conformité interne liées aux données. Participer aux analyses d’impacts (DPIA) et aux audits de conformité. Support et coordination métier Comprendre les besoins métiers et garantir l’adéquation entre les données disponibles et leur usage. Former et accompagner les utilisateurs sur les bonnes pratiques de gestion des données. Servir de point de contact entre l’équipe Data et les équipes métier.
Freelance

Mission freelance
Business Analyst Market Data

LeHibou
Publiée le
Bloomberg

6 mois
500-650 €
Paris, France
Notre client dans le secteur Banque et finance recherche un Business Analyst Market Data au sein du département Achats H/F Descriptif de la mission: Consultation Assistance Technique – Business Analyst Market Data au sein du département Achats Contexte et environnement de la prestation Le consultant sera rattaché à la Responsable du département Achats d’une société de gestion d’actifs. Description de la prestation Au sein de la direction Achats, la mission couvre les activités suivantes : • Apporter une expertise fonctionnelle et technique pour répondre aux besoins des métiers (gestion, private markets européens, recherche, risques…) • Analyser les solutions des fournisseurs et présenter les solutions market data • Préparer des comptes rendus et des synthèses • Challenger les besoins des métiers et comprendre les usages data des utilisateurs afin de s’assurer de la conformité aux contrats • Assurer la gestion des fournisseurs et des négociations • Être force de proposition sur des optimisations en anticipant les risques et les tendances du marché • Piloter les contrats et le budget avec l’appui du département • Prendre en charge les comités market data avec la Direction générale
Freelance

Mission freelance
Data migration - SAP PP/QM

EBMC
Publiée le
SAP PP
SAP QM

6 mois
400-750 €
Essonne, France
Dans le cadre d’un projet SAP à forts enjeux industriels, nous recherchons un consultant spécialisé en migration de données afin d’intervenir sur un périmètre centré sur les modules PP et QM. La mission consiste à piloter les activités de migration, depuis l’identification et l’analyse des données (matériaux, nomenclatures, gammes, données qualité) jusqu’au chargement dans le système cible. Le consultant prendra en charge le mapping, la définition des règles de transformation et la préparation des données via des outils tels que LSMW ou Migration Cockpit. Il participera également aux contrôles qualité, à la gestion des anomalies et aux différentes phases de tests (SIT, UAT), ainsi qu’aux répétitions de migration en vue du cutover. Le rôle implique une forte exigence en matière de fiabilité et de cohérence des données.
2879 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous