L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 286 résultats.
Mission freelance
Data Migration Expert H/F
Comet
Publiée le
SAP ECC6
SAP FICO
SAP S/4HANA
182 jours
400-700 €
Saint-Ouen, Hauts-de-France
Dans le cadre d’un nouveau programme de transformation SAP (NEO AFI) , nous recherchons un(e) Data Migration Expert pour piloter et sécuriser les activités de migration de données liées à une transition vers SAP S/4 HANA . Le consultant interviendra au cœur du programme et accompagnera les entités locales depuis la définition de l’approche de migration jusqu’à la validation métier des données en production. 🎯 Objectifs de la mission : Accompagner les équipes locales de la définition de la stratégie de migration jusqu’à la validation métier des données Piloter le planning d’exécution des objets de migration Gérer les cycles : MOCK1 MOCK UAT Production Load Assurer le rôle de premier niveau d’analyse des défauts Supporter les application owners sur les problématiques de propagation de données
Offre d'emploi
Data Developer
TECOS
Publiée le
Bitbucket
Git
Oracle
40k-48k €
Île-de-France, France
Contexte : Le département informatique CEFS NFR a été créé en 2025. Ce département a pour objectif de répondre à tous les besoins informatiques de CIB en matière de risques non financiers : applications informatiques, services et assistance pour gérer le contrôle opérationnel, les risques informatiques et la résilience opérationnelle (à venir). Une nouvelle application mondiale destinée à gérer le contrôle opérationnel au sein de CIB a été confirmée en 2025. Cette nouvelle application doit automatiser les contrôles et être entièrement alignée sur les autres applications du groupe afin de garantir la production de rapports harmonisés. Cette nouvelle application s'inscrit dans le cadre d'un programme d'industrialisation, qui implique également que tous les contrôles existants soient revus, puis rejetés, confirmés ou remaniés. Une autre application qui sert de référentiel de référence pour toutes les procédures applicables au sein de CIB fonctionne en mode BAU et nécessite des améliorations afin de se conformer aux nouvelles exigences réglementaires et de se connecter à la nouvelle application de cadre de contrôle décrite ci-dessus.
Mission freelance
SAP Master data
RED Commerce - The Global SAP Solutions Provider
Publiée le
Master Data Management (MDM)
Migration
SAP
3 mois
400-720 €
Auvergne-Rhône-Alpes, France
Nous recherchons pour l’un de nos clients à Lyon un(e) Consultant(e) SAP MM/SD – Master Data / MDM Expert , pour intervenir sur un projet stratégique de conversion ECC → S/4HANA , avec un fort accent sur les tests de non-régression et la validation des Master Data (BP & Articles) . 🔍 Responsabilités principales : ✅ Réaliser les tests de non-régression sur les Business Partners (clients/fournisseurs) ✅ Vérifier la fusion des partenaires , l’intégrité des données et le respect des tranches de numéros ✅ Tester la visualisation, modification et création des BP , en s’assurant que toutes les classifications, pièces jointes, autorisations et contrôles (doublons SIRET/SIREN/TVA) fonctionnent correctement ✅ Réaliser les tests sur les articles (création, modification, visualisation) et valider la continuité des classifications, pièces jointes et contrôles spécifiques ✅ Participer à la validation des interfaces entrantes et sortantes ✅ Contribuer à l’élaboration et au fonctionnement des outils de reprise en masse pour BP et articles ✅ S’assurer que les reportings et requêtes spécifiques fonctionnent correctement après migration ✅ Documenter tous les tests dans un cahier de tests et suivre les anomalies dans ITop jusqu’à leur résolution
Mission freelance
Développeur confirmé DATABRICKS (Lyon)
SQLI
Publiée le
Azure Data Factory
Java
1 an
450-500 €
Lyon, Auvergne-Rhône-Alpes
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un développeur confirmé Databricks. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
Mission freelance
Master Data Management Specialist
Codezys
Publiée le
CRM
Gouvernance
Migration
12 mois
Grand Londres, Royaume-Uni
Objet de l'appel d'offres : Ce projet vise à soutenir la consolidation, le nettoyage et la standardisation des données relatives aux comptes clients provenant de sources legacy multiples. L'objectif ultime est de créer un ensemble de données maître précis et uni, destiné à être migré vers une nouvelle plateforme CRM Salesforce. Cette initiative s'inscrit dans la stratégie du groupe Veolia, alignée sur la vision de devenir une organization largement prête pour l'intelligence artificielle d'ici 2027, dans le cadre du plan GreenUp. Objectifs et livrables Analyse et Profilage des Données : Examiner l'ensemble des données clients existantes, identifier les problématiques de qualité de données, duplications, incohérences et lacunes. Stratégie de Nettoyage des Données : Mettre en œuvre une méthodologie exhaustive de nettoyage, incluant la déduplication, la standardisation, et la validation selon des règles métier prédéfinies. Consolidation des Données : Assister à la fusion des enregistrements clients issus de diverses sources à l'aide d'algorithmes de correspondance et de règles métier pour générer des enregistrements "golden". Préparation à la Migration Salesforce : Structurer les données nettoyées conformément au modèle de données Salesforce et préparer des jeux de données prêts pour la migration. Assurance Qualité : Mettre en place des contrôles de validation, réaliser des audits de qualité de données, et garantir leur exactitude avant la migration. Documentation : Élaborer, suivre et ajuster une documentation détaillée incluant des dictionnaires de données, des règles de transformation, des systèmes de gestion de la qualité et des manuels de migration. Collaboration avec les Parties Prenantes : Collaborer étroitement avec les équipes internes pour résoudre les conflits de données, valider les règles métier, et assurer l'alignement avec les besoins opérationnels. Formation et Transfert de Connaissances : Accompagner les ressources internes concernant les bonnes pratiques de gouvernance de données et la maintenance continue des données. Profil des candidats Les soumissionnaires doivent présenter une expertise avérée dans la gestion de projets de consolidation et de migration de données, avec une expérience significative en environnement CRM, notamment Salesforce, ainsi qu'une forte compréhension des enjeux de gouvernance des données. La capacité à travailler en équipe, à documenter avec précision les processus, et à transférer ses connaissances est également essentielle.
Offre premium
Mission freelance
Ingénieur Cloud AWS - Data & IA
TEOLIA CONSULTING
Publiée le
AWS Cloud
Large Language Model (LLM)
Pandas
36 mois
410-590 €
La Défense, Île-de-France
Nous recherchons pour l'un de nos clients un Ingénieur Fullstack Data & IA pour intervenir sur la conception et le développement de solutions innovantes autour de la data, du cloud AWS et de l’intelligence artificielle. Missions Contribuer aux phases d’idéation et à l’évaluation de la faisabilité technique de concepts innovants Concevoir et développer des POC et prototypes orientés data / IA Participer aux choix d’architectures et de technologies Évaluer des solutions technologiques externes (open innovation, startups) Assurer l’industrialisation des prototypes et leur transfert vers les équipes DSI Garantir le respect des standards techniques et sécurité du SI Produire la documentation technique et animer les ateliers de passation Réaliser une veille technologique sur les solutions data, cloud et IA Contribuer à l’amélioration des méthodes et processus du Lab Compétences techniques Développement backend Python et APIs REST Environnements cloud AWS (S3, Lambda, API Gateway, IAM…) Infrastructure as Code (Terraform) Data processing / data engineering (Pandas, PySpark, traitements batch) Bases de données SQL et NoSQL Environnements Linux Gestion de versions Git Architectures data / microservices Connaissances ML / NLP / LLM (type AWS Bedrock) appréciées
Mission freelance
Expert Data Privacy (RGPD)
Codezys
Publiée le
Audit
Data privacy
RGPD
12 mois
Lyon, Auvergne-Rhône-Alpes
Objet de la recherche Recrutement d’un expert (+15 ans d’expérience) pour un audit interne sur la gestion des données dans le traitement des réclamations techniques (niveaux 2 & 3). Contextes et enjeux Problème identifié : Perte de contrôle sur les données entre les applications, due à l’absence d’un processus cohérent de suppression et gestion des données personnelles (VILINK, SAP, CRM 360, Coltshare, etc.). Objectifs : Améliorer la gouvernance Data Privacy, la sécurité, la traçabilité, et assurer la conformité réglementaire (ex. HDS, C5). Rôle et responsabilités du prestataire Diagnostic & consolidation des flux de données : cartographie, identification des zones de superflu, stockage et réplication non souhaités. Définition et déploiement des mesures correctives : création d’un SOP pour la suppression cohérente, nettoyage des données existantes, définition des rétentions conformes. Coordination interéquipes : liaison avec IT, Data Privacy, opérations commerciales, BDR, GCS, suivi du plan de remédiation, cohérence dans les contributions. Contribution transversale : supervision du DPIA, déploiement de mesures de sécurité, gestion des risques, support méthodologique en Data Privacy. Livrables attendus Procédure de “Data Deletion Consistent Process Across Applications”. Cartographie validée des flux de données patient. Plan de remédiation consolidé, mis à jour et exécuté. Reporting hebdomadaire et suivi pour les managers GCS. Documents pour révision DPIA et gouvernance post-projet. Tous les livrables mentionnés dans le rapport d’audit partagé au démarrage.
Offre d'alternance
Data Engineer (Databricks /Azure)
█ █ █ █ █ █ █
Publiée le
Apache Spark
Big Data
CI/CD
Châtillon, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer H/F
HN SERVICES
Publiée le
BigQuery
Google Cloud Platform (GCP)
Microsoft Power BI
45k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
HN Services recrute un.e Data Engineer expérimenté à sénior pour intervenir sur un projet Data pour l’un de nos clients situé à Aix-en-Provence. Contexte et mission : Dans le cadre du renforcement de l’équipe Data, vous serez intégré.e à une squad dédiée à la création d’une infrastructure robuste pour le produit DATA. Vous participerez à la conception et au développement de processus d’ingestion, de transformation et d’exposition des données sur la plateforme Google Cloud Platform (GCP). Vous collaborerez étroitement avec d’autres équipes pour : Mettre en place les jobs d’ingestion et de préparation des données. Développer des pipelines de données performants et maintenables. Exploiter les outils de l’écosystème cloud : Composer, dbt, BigQuery. Contribuer à l’amélioration continue des capacités de livraison du produit DATA. Environnement technique : GCP BigQuery, Linux, Python, SQL, dbt, Composer.
Mission freelance
Chef de projet / Lead Sécurité Data & Cloud (GCP)
Inventiv IT
Publiée le
BigQuery
Data governance
DBT
6 mois
600-700 €
Niort, Nouvelle-Aquitaine
Suite à un audit interne (septembre 2024), le Data Office doit : • Structurer une roadmap sécurité Data • Renforcer la protection des données • Améliorer le maintien en condition opérationnelle (PRA/PRI) • Sécuriser la trajectoire de migration Cloud (GCP) • Aligner les pratiques avec les exigences RSSI / PSSI / RGPD Environnement hybride : On Prem + GCP. Objectifs de la mission 1. Structurer et piloter la sécurisation du patrimoine Data 2. Mettre en œuvre les exigences PCI / PRI Data 3. Revoir et fiabiliser les habilitations On Prem & Cloud 4. Renforcer la gouvernance des données sensibles 5. Sécuriser les outils Data / BI / Data Science 6. Contribuer aux exigences RSSI (vulnérabilités, audits, recommandations) Expérience • 8 à 15+ ans en sécurité SI / sécurité Data • Expérience environnement Cloud GCP impérative • Expérience PRA/PCA Data • Expérience gouvernance Data / RGPD • Capacité de pilotage transverse Compétences clés • Architecture sécurité Cloud (GCP) • BigQuery security & Data masking • IAM avancé • PRA / PRI • Data Governance • Sécurité applicative Data • Environnements Hadoop / Oracle Soft skills • Leadership transverse • Capacité à dialoguer avec RSSI & CoDir • Structuration roadmap • Vision stratégique + opérationnelle
Mission freelance
Product Owner CRM – Data Client BtoB & Prospection
SKILLWISE
Publiée le
CRM
Salesforce
1 mois
400-550 €
Paris, France
Notre client, un acteur majeur du secteur des médias et de la publicité, recherche un(e) Product Owner CRM – Data Client BtoB & Prospection pour rejoindre sa Direction des Technologies. Cette direction opère et transforme les systèmes IT et techniques du groupe, en interface avec l’ensemble des métiers (commercial, production, diffusion, etc.). Au sein du Pôle Produits Publicitaires, vous contribuerez à la conception, au développement et à la maintenance d’outils stratégiques, notamment autour de la gestion de la relation client (CRM), de la data BtoB et des processus de prospection. Votre mission : piloter la transformation digitale du référentiel client et des outils de prospection dans un environnement Salesforce. En tant que Product Owner, vous serez responsable de : Définir et piloter la roadmap produit : Construire la vision, prioriser le backlog et garantir la cohérence du système d’information. Recueillir et formaliser les besoins métier : Rédiger les spécifications fonctionnelles et accompagner les équipes commerciales dans l’adoption des solutions. Coordonner les équipes techniques : Assurer le delivery et la qualité des livrables en mode agile. Garantir l’adoption des nouvelles fonctionnalités : Former et mobiliser les utilisateurs pour maximiser l’impact business.
Offre d'emploi
Expert Data Gouvernance
KEONI CONSULTING
Publiée le
Hadoop
IBM DataStage
PostgreSQL
18 mois
20k-60k €
100-550 €
Paris, France
"Contexte du besoin Dans le cadre de ses missions de définition des politiques de gestion des données et du suivi de leur mise en œuvre, l'activité Gouvernance de la Donnée souhaite renforcer son équipe d'un profil confirmé en la matière. Un accompagnement assorti d'un regard éclairé dans l'exécution des différents pans des missions est demandé MISSIONS · définition des politiques de gestion des données (rôles et responsabilités; · mise en place/alimentation d'un Glossaire métier et d'un Dictionnaire des données; · modalités de suivi de la qualité des données; · modalités permettant d'assurer la sécurité et la conformité réglementaire de l'accès aux données; · articulation avec les capacités de la plate-forme Data choisie par l'entreprise); · mise en oeuvre et suivi de ces politiques, en lien avec les contributeurs nécessaires; acculturation des différentes populations de l'entreprise aux exigences et apports en lien avec la gouvernance des données; · etc.... • Participation le cas échéant au choix des outils de gouvernance des données (rencontres fournisseurs initiées; échanges en cours) • Catalogage / connaissance des données : Définir les standards et bonnes pratiques et en vérifier la bonne application en mobilisant les acteurs requis (SI, métier), assurer l’acculturation nécessaire; • Cartographie des Données : Approfondir la cartographie des données qui aura été initiée (avec les acteurs métier, SI, urbanistes) et être capable de la présenter, la faire adopter et de l’utiliser à des fins de gouvernance des données… • Conformité règlementaire : Garantir que toutes les données respectent les normes internes et externes, en particulier en matière de RGPD et de conformité légale. • Gestion des rôles et animation de la communauté Data : Identifier les relais de la gouvernance dans un contexte de responsabilités fédérées. Mobiliser les acteurs (animation de séminaires, communication…). • Gestion des habilitations : Définir la granularité des habilitations des rôles et utilisateurs identifiés. • Accompagnement de la montée en compétence des autres membres de l'équipe sur des sujets structurants devant être maîtrisés pour mener à bien les missions de l'activité" Livrables attendus "Chapitres thématiques de la politique de Gouvernance des données (rôles et responsabilités; gestion Glossaire/Dictionnaire ; gestion du Data Lineage; sécurité et droits d'accès, dont conformité juridique; Suivi de la qualité des données; process permettant l'évolution de la plate-forme Data" Environnement technique - technologique • couche stockage : TERADATA; HADOOP Cloudera; Postgre • Transformation : DataStage / Spark • BI : Power BI; SAS"
Offre d'emploi
Architecte Master Data Management F/H
COEXYA
Publiée le
50k-60k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
CONTEXTE Dans le cadre de nos activités, nous développons pour nos clients des solutions dédiées à la gestion de la donnée cliente : améliorer la qualité de la donnée client à travers sa fiabilisation, son dédoublonnage et sa diffusion à travers un référentiel unifié. Pour accompagner la croissance de notre entité spécialisée dans la transformation digitale, nous recherchons notre futur Architecte MDM (Master Data Management) F/H. CE QUE L'ON VOUS PROPOSE Vous participez à la construction de l'offre MDM, en particulier sur les aspects techniques et technologiques. Vous intervenez sur les phases clés associées à la construction d'un projet de MDM, depuis l'avant-vente jusqu'à l'accompagnement des équipes de réalisation (4 à 6 consultants en moyenne selon projet) : - Vous concevez et préconisez les solutions techniques, - Vous menez des ateliers techniques avec les clients, - Vous intervenez sur différentes phases du projet depuis l'avant-vente jusqu'à leur utilisation en production - Vous encadrez les équipes techniques (accompagnement, transfert de compétences, audit des réalisations).
Mission freelance
Expert Marketplace / Product Data
Okara
Publiée le
Audit
E-commerce
Gestion des risques
3 mois
400-850 €
Lille, Hauts-de-France
Le contexte : Notre client, acteur de référence de l’équipement de la maison, transforme sa Marketplace en un environnement nativement sécurisé. L'enjeu est de taille : passer d'une vigilance artisanale à une conformité industrielle. Nous recherchons un consultant senior pour piloter ce passage au "Safety by Design" . Les enjeux opérationnels : Face à la volumétrie des inventaires, la modération manuelle a atteint ses limites. Vous intervenez pour structurer des mécanismes de blocage natifs dès le référencement. Le projet s’articule autour de la cohérence des catalogues (Modèle Commun) et l’intégrité des données réglementaires avant toute mise en ligne. Votre périmètre d'intervention : Directement rattaché à la direction Marketplace, vous agissez comme un véritable partenaire stratégique pour : Audit & Challenge : Analyser la robustesse des processus actuels et arbitrer le curseur entre fluidité business et "Business Stoppers". Feuille de route : Challenger les choix de blocage (gel des offres vs blocage catalogue) au regard des réalités du marché. Sourcing technologique : Identifier et recommander les solutions de filtrage automatisé (IA, reconnaissance d’images, API de conformité) les plus pertinentes.
Mission freelance
Expertise DataViz et DataScience
Codezys
Publiée le
Azure
CI/CD
Data science
12 mois
Paris, France
La Data & IA Factory (DIAF) de la Direction Data & IA a pour mission : Opérationnaliser les offres de services Servir de centre d’expertise pour outils, méthodes et technologies Concevoir et maintenir (Build & Run) des solutions Data & IA (ex : OneDataLake, InfoCentres, Polaris) Optimiser le cycle de vie des données, processus et outils Définir l’architecture Data Administrer l’environnement technique BGPN sur site et cloud Objectif principal : concevoir, industrialiser et exploiter des solutions Data & IA performantes, sécurisées et résilientes, adaptées aux usages et à la migration vers le cloud. Expertises opérationnelles : Gestion technique des livrables logiciels Leadership, suivi d’activités, satisfaction client Respect des standards de maintenabilité, exploitabilité et sécurité Communication claire sur l’avancement, risques et difficultés Expertises techniques : Architecture Data : Médaillon, Data Mesh Outils de dashboarding : Tableau, PowerBI Plateformes : Dataiku, Azure, DataBricks, Microsoft Fabric Gestion de la QoS : disponibilité, scalabilité, SLA, monitoring Architecture orientée services, automatisation via CI/CD Méthodologies Agile, SAFe, SCRUM Objectifs et livrables Industrialisation des solutions Data & IA Concevoir, construire et exploiter des solutions robustes et performantes sur le long terme. Opérationnalisation de l’offre Data & IA Transformer en services et produits facilement déployables, réutilisables par différents métiers. Expertise technologique : Encadrer en définissant standards, outils et méthodes Data & IA. Architecture et socles Data : Définir une architecture cohérente, évolutive et pérenne pour plateformes et flux de données. Gestion du cycle de vie des données : Assurer ingestion, qualité, traçabilité et exploitation optimale des données. Exploitation technique : Administrer et faire évoluer les environnements Data & IA, garantissant disponibilité, sécurité et performance. La DIAF souhaite renforcer ses compétences en data visualisation et data science, notamment avec PowerBI, Tableau, Dataiku, DataBricks et Azure, pour définir et industrialiser l’offre Self Service et soutenir le déploiement de la Plateforme DataCloud, tout en améliorant la qualité en environnement on-premise. Une expérience minimale de 10 ans dans des missions similaires est requise pour accompagner l’équipe dans la conception, le développement, le test, la documentation, le support et la communication liés à cette offre Self Service.
Offre d'emploi
CHEF DE PROJET DATA
UCASE CONSULTING
Publiée le
Git
3 ans
40k-60k €
400-560 €
Paris, France
Fiche de poste – Chef de Projet Data Senior Contexte Dans le cadre du renforcement consultant, nous recherchons un Chef de Projet Data Senior pour piloter des portefeuilles projets à forte visibilité stratégique. L’équipe intervient sur des projets de traitements data complexes, réalisés par des équipes pluridisciplinaires composées de Data Engineers, Data Scientists, architectes et équipes d’exploitation. La mission s’inscrit dans un environnement structuré, avec une forte culture projet et des enjeux qualité/coûts/délais. Objectifs de la mission Piloter des projets Data de bout en bout (étude, chiffrage, réalisation, exploitation) Garantir la livraison des projets dans le respect des engagements (qualité, coûts, délais) Assurer la coordination entre les différentes parties prenantes Intervenir potentiellement sur plusieurs projets en parallèle Missions principales Pilotage projet Construire et piloter le planning projet Participer et animer les instances de gouvernance (COPROJ hebdomadaire, COPIL trimestriel) Assurer le pilotage financier et le suivi budgétaire Garantir la qualité des livrables (pertinence et exhaustivité des tests) Valider les spécifications fonctionnelles avant présentation aux équipes de développement Organisation & Méthodologie Environnement majoritairement Agile (Scrum) Gestion des sprints (2 semaines) basés sur des User Stories Description des spécifications fonctionnelles sous Confluence Suivi et pilotage du backlog sous JIRA Coordination des backlog refinements Coordination & Exploitation Pilotage opérationnel des équipes projet Supervision des déploiements et mise en place des flux Gestion des habilitations et environnements Interlocuteur principal du support applicatif niveau 3 Contribution aux activités d’exploitation Compétences requises Compétences techniques Conteneurisation : Kubernetes Développement : Python Base de données : PostgreSQL Outils CI/CD : GitLab, Jenkins Outils de gestion : JIRA, Confluence Compétences appréciées Outils de supervision : Datadog, Connaissance d’un progiciel de détection fraude / data Bonnes pratiques ITIL Certification Professional Scrum Master I
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3286 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois