Trouvez votre prochaine mission ou futur job IT.
Offre d'emploi
Business Analyst – MDM / Finance (F/H)
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 📑 CDI (42-45K€) OU Freelance OU Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Lyon - 🛠 Expérience de 3 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! 🚀 Aujourd’hui, nous recherchons un.e Business Analyst – Master Data Management (MDM) / Finance pour rejoindre l’un de nos clients. Votre mission : au sein d’une équipe composée de 3 développeurs logiciels, 3 développeurs data, un architecte technique, 2 business analysts et un PO, votre mission est de transformer les besoins métiers en solutions fonctionnelles claires et fiables. Concrètement, vous allez : - Recueillir et challenger les besoins métiers pour la mise en place du référentiel Valeurs (MDM), - Rédiger les spécifications fonctionnelles (User Stories, règles de gestion, diagrammes de flux), - Modéliser les processus et les flux de données entre le MDM et les systèmes externes, - Piloter le backlog avec le PO et assurer la cohérence des livrables, - Préparer et exécuter la recette fonctionnelle : scénarios de test, validation, suivi des écarts, - Documenter et maintenir la traçabilité dans Confluence et Jira. En résumé : vous êtes le lien entre la donnée, les métiers et la technique. Vous donnez du sens aux chiffres, de la structure à la donnée et de la clarté à la complexité.
Mission freelance
Data Engineer Databricks Confirmé – Projet de Migration
Nous recherchons un Data Engineer confirmé pour accompagner un programme stratégique de migration vers Databricks sur Azure. ✅ 4 jours de TT, 1 jour de présentiel à paris ✅ Conseiller le client sur les meilleurs pratiques à adopter ✅ Participer à la migration d’une plateforme legacy vers Databricks ✅ Développer et optimiser des pipelines Spark sur Azure ✅ Collaborer avec les Data Architects et Data Scientists dans un contexte à fort enjeu métier ✅ Améliorer la performance, la robustesse et l’automatisation des flux de données
Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
Mission freelance
Data Migration Lead (SAP S/4HANA Greenfield)
Contexte : Nous recherchons un Data Architect / Data Migration Lead pour rejoindre l’équipe Data & AI d’un acteur majeur de l’industrie des boissons, reconnu pour la qualité de ses produits et sa présence internationale. Missions principales : Piloter et coordonner le stream Data Migration dans le cadre d’un projet SAP S/4HANA Greenfield. Définir la stratégie de migration de données et assurer son alignement avec les autres streams du programme. Planifier, suivre et assurer le reporting des activités de migration. Coordonner les différentes parties prenantes (équipes techniques, fonctionnelles, métiers) sur les phases d’extraction, transformation et chargement des données. Superviser la conception et le développement des programmes de migration. Organiser et suivre les mocks de migration (planning, exécution, reporting). Compétences recherchées : Expertise en migration de données SAP (S/4HANA, Greenfield) . Solides connaissances en Data Architecture, Data Access, Data Taxonomy . Expérience en pilotage transverse avec équipes techniques et métiers. Très bon niveau d’anglais. Modalités : Mission longue durée (21 mois). Localisation : Paris, avec 2 jours de télétravail par semaine. 📩 Si vous êtes intéressé(e), merci de me contacter en partageant votre CV actualisé et vos disponibilités. 📍 Lieu : Paris (2 jours de télétravail par semaine) 🗓 Durée : 25/09/2025 – 30/06/2027 🌐 Langue : Anglais (obligatoire)
Mission freelance
Consultant (H/F) Senior Big Data & Cloud Architect Telecom
Dans le cadre d’un diagnostic Data Lake et Cloud pour un grand opérateur télécom, nous recherchons un Data Architect Senior Big Data & Cloud. La mission consiste à évaluer l’architecture data existante, analyser la résilience et la performance des pipelines, identifier les points de friction, et proposer des recommandations pragmatiques. Le consultant interviendra sur l’écosystème Big Data (Hadoop, Spark, MapR, ClickHouse) et sur l’évaluation des workloads cloud (AWS, Azure, GCP). Compétences clés : Hadoop / Spark / MapR / ClickHouse (écosystèmes Big Data open source). Orchestration de pipelines : Airflow, Dagster… Logs, monitoring, optimisation de la performance. Expérience on-premise & cloud (AWS, Azure, GCP). Capacité à évaluer workloads cloud et produire une matrice de risques . Connaissances sécurité data (contrôles d’accès, RGPD, loi marocaine 09-08 un plus).
Mission freelance
Consultant BI Talend
Organiser, préparer et animer les ateliers de cadrage avec les équipes métiers afin de comprendre et formaliser leurs besoins en matière de données et de reporting. Identifier les enjeux, contraintes et priorités métiers pour les traduire en solutions techniques pertinentes. Rédiger les spécifications fonctionnelles et techniques en accord avec le métier et les référents techniques. Garantir la cohérence, la qualité et la traçabilité des données traitées au sein du SI. Concevoir les modèles de données, les flux d’intégration et les processus de transformation nécessaires pour répondre aux besoins identifiés en collaboration avec le data architecte. Développer et maintenir les flux d’intégration de données principalement avec Talend, en respectant les bonnes pratiques de performance et de qualité. Ceci dans les différents systèmes d’informations Système POS (Cegid Y2), E-commerce (Shopifyplus), ERP (SAP), PIM (Quable), CRM (Salesforce Service Cloud), BI (Cognos/Power BI)…etc. Réaliser les paramétrages et tests unitaires dans le respect des processus de développement (projets ou demandes des utilisateurs) Assurer le support opérationnel : analyser et résoudre les incidents liés aux flux de données, aux restitutions BI ou aux intégrations applicatives. (BI, Salesforce, flux….) Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mise en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation
Mission freelance
Systeme Architect Mise en conformité Data Client GCP
Client : Luxe Site : Paris, 3 jours par semaine sur site. Prix achat max : 670 HT € Date de démarrage : ASAP Date de fin : 31/05/2026 Profil : System Architect - Spécialiste des Données Clients et de la Mise en Conformité Réglementaire dans un environnement Data Platform (GCP) Mission : En tant que System Architect, vous serez principalement responsable de la conception et de la supervision des évolutions architecturales de notre plateforme de données sur GCP, en vous concentrant sur les aspects liés aux informations clients. Cela inclue l'anonymisation des données pour la conformité RGPD, la séparation des données issues de profils client suite à PIPL, la régénération des identifiants techniques des clients et l'inventaire des données client dans l'ensemble de la plateforme. Ces tâches s'inscrivent dans le cadre d'un programme complet visant à assurer la conformité et l'optimisation de notre gestion des données clients. Nombre d’années d’expérience : au moins 8-10 ans d'expérience en tant que System Architect Data ou Data Architect , avec une spécialisation dans la gestion des données clients et la conformité réglementaire dans un contexte de plateforme de données. Habitude des environnements complexes : Expérience professionnelle avérée dans des environnements complexes incluant une data platform, un MDM client, Salesforce Core Platform et Salesforce Marketing Cloud. Attendu : Évolutions architecturales de la plateforme de données : Concevoir, spécifier et superviser les évolutions architecturales de notre plateforme de données client sur GCP (Google Cloud Platform), en mettant l'accent sur les aspects liés à la conformité et la protection des données. Gestion du cycle de vie des données client : Définir et mettre en oeuvre les procédures de gestion du cycle de vie des données clients, de la collecte à l'archivage, en passant par l'anonymisation et la résilience de la plateforme à la régénération des identifiants techniques suite à anonymisation. Conformité réglementaire (RGPD, PIPL, voire PIPA) : Assurer la conformité de notre plateforme aux réglementations RGPD, PIPL voire PIPA, en mettant en oeuvre les mécanismes d'anonymisation, de séparation des données et de gestion du consentement nécessaires, s'inscrivant dans un processus global à tout le SI. Inventaire et cartographie des données client : Réaliser un inventaire complet des données clients présentes dans l'ensemble de la plateforme et cartographier leur flux et leur utilisation, incluant un MDM client, Salesforce Core Platform, Salesforce Marketing Cloud. Collaboration et communication : Collaborer étroitement avec les équipes de gestion de projet, sécurité, conformité et technique pour comprendre les besoins et traduire les exigences réglementaires en solutions techniques concrètes, en prenant aussi en n'oubliant pas les exigences non fonctionnelles. Communiquer efficacement les enjeux liés à la gestion des données clients et à la conformité réglementaire. Intégration et automatisation : Superviser l'intégration ainsi que le traitement des données client provenant de différentes sources et automatiser les processus de gestion des données pour garantir leur qualité, leur disponibilité et leur conformité.
Offre d'emploi
Responsable Recrutement & RH
🎯 Contexte Inventiv-IT, ESN en forte croissance, recherche un Responsable Recrutement & RH pour piloter la stratégie RH et recrutement en France et au Maroc. Véritable relais entre la direction, les équipes commerciales et techniques, le poste combine management, organisation, recrutement et accompagnement RH . 🚀 Missions principales1. Organisation & structuration Définir les rôles, responsabilités et avancements des équipes. Mettre en place une organisation plus agile, transparente et collaborative (Lean Organisation). Déployer la démarche auprès des fonctions support (Commerce, RH, Marketing), puis l’étendre aux autres équipes. 2. Sourcing & recrutement Développer et adapter la stratégie de recrutement en fonction de la croissance. Manager l’équipe recrutement au Maroc (+2 personnes) et animer les recrutements en lien avec l’équipe commerciale (+8 personnes). Centraliser les KPI recrutement et les présenter au CODIR. Recruter les profils stratégiques : Développeurs Fullstack, Tech Lead, Data Architect/Engineer, DevOps/DevSecOps, Directeur de programme, etc. Mettre en place un processus structuré et efficace de sourcing et d’onboarding. Collaborer avec le Marketing pour renforcer la marque employeur. Assurer une veille marché et introduire des pratiques innovantes. 3. Gestion RH & suivi Définir le modèle RH (fiches de poste, mécanismes de rémunération, pyramide RH). Instaurer une culture de la performance et du résultat, pilotée par objectifs. Suivre régulièrement les collaborateurs, recueillir les feedbacks et gérer les entretiens annuels & professionnels. Développer un modèle de rémunération attractif et motivant. 4. Formation & développement Définir un plan de financement des formations. Construire un plan de formation structuré par grade (GPEC). Identifier et mettre en place les plateformes de formation adaptées. Accompagner les managers dans le déploiement du plan de formation. ✅ Profil recherché Minimum 4 ans d’expérience, dont une première en ESN (impératif) . Excellentes compétences en communication et leadership. Capacité à animer et fédérer plusieurs équipes (France & Maroc). Proactif, structurant et force de proposition. Bonne connaissance des métiers IT (Data, DevOps, Développement, Architecture…).
Mission freelance
Développeur AWS (Data Lake / Python / Terraform)
Nous recherchons un Développeur AWS confirmé pour renforcer sa squad Data Platform . L’objectif est de concevoir, développer et administrer un Data Lake AWS à grande échelle, en créant des microservices robustes et sécurisés, tout en automatisant les déploiements et la gestion de l’infrastructure via Terraform. Missions principales Concevoir et développer des microservices en Python pour l’administration du Data Lake (gestion des accès aux dossiers, gouvernance des données, automatisation des flux). Créer et maintenir des solutions de Data Lake sur AWS S3 . Définir et mettre en œuvre l’ Infrastructure as Code via Terraform . Participer aux activités de RUN & Build : monitoring, support, optimisation des performances. Contribuer à l’ automatisation et à l’amélioration continue de la plateforme (SRE, observabilité, sécurité, FinOps). Collaborer avec les parties prenantes (Data Engineers, Data Architects, Data Officers) dans un contexte Agile . Documenter les développements, process et bonnes pratiques. Compétences techniques attendues Excellente maîtrise du développement Python (microservices, APIs). Solide expérience sur AWS S3 et les concepts Data Lake. Expertise en Terraform (IaC) . Bonne compréhension des mécanismes d’ alimentation ETL . Expérience en observabilité et monitoring (Grafana, App Insights ou équivalents). Pratique des méthodologies Agile . Plus (nice-to-have) : expérience avec Databricks .
Offre d'emploi
Consultant MSBI / T-SQL (H/F)
Missions : Le consultant data Engineer SQL au sein du pôle « Data Architect & Engineer », sera en charge principalement de : - Concevoir, développer et maintenir des flux de données (XLM, JSON, WS, xslt, ..) - Concevoir, développer et maintenir des modèles de données (Sqlserver / Sybase IQ) - Maintenir/Optimiser des cubes SSAS Multi-dimensionnels & Tabular - Mettre en place/maintenir des chaines de batchs (CTRL-M) - Assurer des tâches de support - Contribuer aux projet devops - Rédiger des documentations techniques et des procédures - Participer au dispositif d’astreintes.
Mission freelance
Data Engineer confirmé(e) – Projet Référentiel Valeurs / MDM (H/F)
Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer Vos principales missions : Dans le cadre du projet Référentiel Valeurs, visant à centraliser, fiabiliser et gouverner l’ensemble des données relatives aux instruments financiers, vous intégrerez une squad Data composée d’un Architecte technique, d’un Product Owner, d’un Business Analyst et de développeurs. Vos principales missions seront : - Concevoir et implémenter le socle data du Référentiel Valeurs - Développer et industrialiser les pipelines de données (ETL / Datalake) - Intégrer et exposer les données de référence (MDM) - Mettre en œuvre et suivre la qualité et la cohérence des données - Contribuer aux pratiques DevOps / CI-CD et au déploiement des flux - Collaborer avec les équipes métier et data governance TJM : 450€ - 500€
Mission freelance
Data Engineer AWS
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Energie Description 🎯 Contexte & Objectifs Intégré(e) à la squad Data Platform, vous interviendrez sur les activités de build, run et automatisation d’une plateforme de données Cloud (AWS / Azure). Votre rôle sera clé pour : Participer à la réalisation du workplan et aux user stories du backlog. Contribuer aux activités de support N2/N3 (RUN) et de Build. Livrer et suivre les artefacts de mise en production. Proposer et mettre en œuvre des optimisations FinOps, sécurité et observabilité. Développer des microservices et automatiser les pipelines & déploiements. 🛠️ Missions principales Participer au développement et maintien de la Data Platform Cloud. Créer et maintenir des processus de déploiement automatisés avec Terraform. Développer des microservices en Python et maîtriser l’intégration (CI/CD). Assurer le monitoring et l’exploitation via Grafana, App Insights. Contribuer aux flux ETL/ELT et à l’alimentation du Data Lake (AWS S3, ADLS Gen2). Gérer les activités RUN/SRE : supervision, support, automatisation. Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et FinOps. Collaborer en mode Agile/Scrum avec les parties prenantes (Data Officers, Data Architects, Engineers). Maintenir la documentation et promouvoir une approche User-Centric (recueil feedbacks, amélioration UX).
Mission freelance
Manager Platform Data & Analytics
Bonjour, Pour le compte de l'un de mes clients dans le secteur du luxe, je suis à la recherche d'un manager Platform Data et Analytics. Cette mission concerne la gestion transitoire d’un poste de manager Platform Data et Analytics chez le client, en attendant le recrutement d’un successeur. Elle inclut la prise en main, le pilotage des missions ainsi que le transfert des responsabilités : · Handover pour prendre la main sur les missions · Pilotage des missions · Handover pour transférer la mission vers le successeur. Les deux missions principales sont : 1. Assistance au pilotage de la Federated Data Platform 2. Pilotage IT du projet SSOT (Single Source of Truth) En tant que Data Product Manager au sein des équipes Corporate IT, votre mission principale est de piloter les évolutions (via les quaterly releases) via la joint design autorithy & d'être en support eux entités. En travaillant & en étant aligné avec les directeurs Data et travaillant de concert avec le data / solution architect et le Cloud Architect la mission couvre : · Définition et pilotage de la roadmap produit : Élaborer et maintenir la feuille de route stratégique de la plateforme et des services data partagés, en tenant compte des besoins métiers, des priorités et des évolutions des éditeurs (par exemple roadmap MS Fabric). · Identification et valorisation des synergies : Collaborer avec les divisions, les régions et les fonctions Corporate pour détecter les opportunités de mutualisation et maximiser la valeur ajoutée des initiatives data à l’échelle mondiale. · Gestion des évolutions et arbitrages : Piloter les demandes d’évolutions de la plateforme avec les divisions et les régions, coordonner les arbitrages et veiller à l’alignement avec la stratégie data globale. · Garant du Delivery et du Run : Superviser le développement et le bon fonctionnement des produits data (Federated Data Platform), suivre les indicateurs de performance (KPI) et assurer un support continu aux utilisateurs. · Gouvernance des services data : Animer la gouvernance data autour de thèmes clés tels que le Federated Data Platform (avec la joint design authority) en impliquant les parties prenantes des divisions et régions. · Support à la réussite des Use Case : S’assurer que la plateforme répond aux besoins des programmes stratégiques (Programme Hero, ORION, ESG, …) et accompagne efficacement la réalisation des use cases data (des divisions, régions, corporate). · Accompagnement au changement et formation : Être le point de contact privilégié pour le déploiement et l’adoption des solutions, organiser la montée en compétence des équipes et recueillir les feedbacks pour améliorer les services. Remarque: le partenaire de la Federated Data Platform est la société ONEPOINT (En France)
Offre d'emploi
Développeur SPARK/ SCALA
Contexte du poste: Dans le cadre du développement de sa plateforme Data & Analytics, l'entreprise recherche un Développeur Spark/Scala expérimenté pour rejoindre une équipe agile en pleine croissance. Vous interviendrez sur des projets stratégiques de traitement de données massives et d’industrialisation de pipelines analytiques dans un environnement Cloud et DevOps. Missions principales: Conception et développement de pipelines Big Data avec Spark & Scala Traitement de données batch et temps réel Optimisation de performances et tuning Spark Implémentation de scripts d’industrialisation et automatisation via CI/CD Participation aux cérémonies Agile et collaboration avec les Data Engineers et Architectes Contribution à la mise en production et au MCO des solutions développées Environnement technique: Langages & Frameworks Scala & Spark (obligatoire) Python (confirmé) Java (optionnel, un plus) CI/CD & Automatisation Jenkins (maîtrise impérative) XLR / XLD (XL Release & XL Deploy) Git, Maven Data & Cloud (bonus) Kafka, Hadoop, HDFS Cloud GCP ou Azure (apprécié)
Offre d'emploi
Consultant Snowflake - Secteur Maritime H/F
Contexte de la mission : Viveris accompagne ses clients dans la sécurisation de leurs infrastructures, tant pour l'informatique de gestion que pour l'informatique industrielle. Dans ce cadre, nous recherchons un Consultant Snowflake. Dans ce rôle, vous serez responsable de la conception, du développement et de la gestion de l'entrepôt de données Snowflake, ainsi que de la création et de la maintenance des pipelines de données pour répondre aux besoins métier complexes de nos clients dans le domaine maritime. Intégré au sein de l'équipe Data, vous collaborerez avec l'architecte data et le responsable de la plateforme vous contribuerez à la mise en place ou l'amélioration de la partie Snowflake ainsi qu'à l'accompagnement des équipes off-shore. Responsabilités : - Concevoir et mettre en oeuvre des solutions de data warehousing basées sur Snowflake pour répondre aux besoins métier spécifiques du secteur maritime ; - Contribuer à l'amélioration à la gestion et aux résultats FinOps ; - Développer et maintenir les pipelines de données pour l'extraction, la transformation et le chargement (ETL) des données dans Snowflake.
Offre d'emploi
Data Engineer / Big Data (F/H)
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 📑 CDI (42-48K€) OU Freelance OU Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Lyon - 🛠 Expérience de 5 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer / Big Data pour intervenir chez un de nos clients. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Concevoir, développer et optimiser des data pipelines Spark - Travailler sur des traitements batch & streaming - Garantir la qualité des données - Assurer la supervision, le MCO, la résilience et la reprise automatique des traitements - Appliquer une approche FinOps pour maîtriser les coûts d’exécution dans le cloud - Intervenir en polyvalence sur plusieurs produits - Contribuer activement à la compréhension métier (réseau électrique) - Coopérer avec les architectes, Data PM, équipes supervision et plateformes
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.