Trouvez votre prochaine mission ou futur job IT.

Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Offre d'emploi
Business Analyst Data
1. Contexte de la mission Au sein de la Direction Informatique, nous cherchons à renforcer le département Data & Analytics avec un Business Analyst spécialisé dans la modélisation et l'analyse des données. L’équipe Data & Analytics gère le DataHub qui centralise les données des différents référentiels et applications et alimente l'ensemble des métiers pour des besoins de reporting réglementaires ou clients, des analyses via des outils analytiques type Power BI ou Power Query , ou des développements internes via APIs ou SQL . Un projet stratégique de refonte de l'infrastructure Data a été mené, reposant désormais sur la technologie Data Lake Azure Cloud . L’entreprise s’engage dans un chantier de migration des outils FtoB vers la plateforme intégrée d’un éditeur de renommée mondiale disposant de son propre modèle de données. 2. Description de la mission Vous intervenez dans l’équipe Data & Analytics pour poursuivre la transformation de l'entreprise en tant qu’ expert Data management au sein d’une équipe de 10 personnes. En tant qu’expert, vous serez force de proposition pour définir le modèle cible qui devra préserver le modèle historique afin de limiter les impacts métiers, sans renoncer aux bénéfices du modèle proposé par l’éditeur de la solution cible, consolidé sur l’expertise d’un très grand nombre d’asset managers. Les options retenues devront répondre : aux contraintes court terme (facilité d'intégration, délais, coûts, …) et long terme (évolutivité, coût de maintenance, risque de désynchronisation des modèles, …). Vous collaborerez avec les membres de l'équipe (Dev et Business Analyst) dans un environnement Agile , et à l’échelle, avec les autres équipes impliquées dans le projet de transformation.

Offre d'emploi
Analyste d'exploitation / Domain Data - MLOps - Data Platform
Analyste d'exploitation / Domain Data - MLOps - Data Platform Un leader dans le domaine des solutions de leasing est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Projet à mener pour une application de ciblage commercial permettant aux commerciaux une approche de vente proactive du crédit-bail pour des clients déjà équipés de contrats cadres. Responsabilités Mise en œuvre des Pipelines Machine Learning : • Concevoir, déployer et maintenir des pipelines de machine learning automatisés, intégrant l'ensemble des étapes du cycle de vie des modèles, de l'entraînement à la mise en production. • Assurer l'intégration des modèles de machine learning dans les environnements de production, en s'assurant de la scalabilité, des performances et de la fiabilité des solutions mises en œuvre. • Collaborer étroitement avec les data scientists et ingénieurs data pour faciliter la transition des modèles depuis les phases d'expérimentation jusqu'à l'industrialisation, tout en optimisant les pipelines de bout en bout. Automatisation et industrialisation des modèles : • Mettre en place des processus d'industrialisation des modèles de machine learning pour garantir une gestion continue et fiable des modèles en production, avec des mécanismes de surveillance automatique. • Automatiser les tâches critiques, telles que l'entraînement, le déploiement, la gestion des versions, et la surveillance des performances des modèles. • Intégrer des solutions de monitoring pour garantir que les modèles en production respectent les critères de performance, de dérive et de précision définis. Adaptation de l'infrastructure et des environnements de production : • Participer à la mise en place d'une infrastructure (Cloud / DMZR) robuste et évolutive qui soutient l'entraînement et l'inférence des modèles à grande échelle. • Optimiser l'utilisation des ressources (GPU, CPU) pour l'entraînement et la mise en production des modèles, en fonction des besoins spécifiques du projet. Surveillance, maintenance et gestion du cycle de vie des modèles : • Mettre en œuvre des systèmes de monitoring pour suivre les performances des modèles en production, détecter les dérives, et initier les actions correctives automatisées. • Assurer une maintenance continue des modèles en production pour garantir leur conformité avec les objectifs métiers, en supervisant la mise à jour des modèles et la gestion de leurs versions. • Gérer le cycle de vie complet des modèles, de la phase d'entraînement initiale à la mise à jour et dépréciation des modèles obsolètes. Collaboration et documentation des processus : • Collaborer étroitement avec les data scientists, les ingénieurs data et les DevOps pour assurer l'intégration fluide des pipelines de machine learning dans l'infrastructure IT existante. • Documenter de manière exhaustive les processus et les pipelines mis en place, incluant les workflows automatisés, les architectures, et les pratiques de surveillance des modèles. • Assurer une communication continue avec les équipes métiers et techniques pour garantir l'alignement sur les besoins et objectifs du programme.

Mission freelance
Responsable données & intelligence artificielle -(h/f)
Résumé Le Responsable Données & Intelligence Artificielle pilote la stratégie de gouvernance, de valorisation et de sécurisation des données au sein de la DSI, en alignant les équipes Data et IA avec les objectifs métiers pour optimiser la performance des processus de l’entreprise. Responsabilités : Mise en œuvre du Schéma Directeur DATA & IA. Coordination des projets de valorisation de la donnée et déploiement des cas d’usage IA. Reporting régulier et communication auprès des parties prenantes internes. Pilotage des budgets alloués aux projets Data/IA. Définition et évolution de la stratégie de gouvernance des données. Mise en place des politiques, standards et processus de gestion des données. Supervision du data catalog et du dictionnaire de données. Identification et piloting des cas d’usage IA avec les directions métiers. Intégration des solutions IA dans les processus métier. Déploiement des processus de gestion de la qualité des données (DQM). Conformité réglementaire, notamment RGPD. Collaboration pour la sécurisation des données et modèles IA avec le RSSI. Encadrement d’une équipe pluridisciplinaire. Animation des communautés Data. Suivi des indicateurs de performance liés à la gouvernance des données et aux projets IA. Assurer une veille technologique sur les outils IA et pratiques de data governance. Promouvoir les innovations pour améliorer la performance des solutions IA. Compétences clés : Maîtrise des outils de Data Management (Data Catalogs, Data Quality). Connaissances solides des solutions Cloud (Azure, AWS, GCP). Expertise en IA (ML, NLP) et des frameworks associés. Expérience dans la gestion de projets complexes en mode agile. Bac +5 en ingénierie ou spécialisation data/IA. 8 à 10 ans d’expérience en gouvernance des données et IA. Bon à avoir : Expérience dans un environnement DSI structuré. Expérience en cabinet de conseil. Capacité à vulgariser des concepts techniques. Esprit analytique et rigueur. Autres Détails : Localisation : Ile de France 92, déplacements nationaux à prévoir. Encadrement : 8 à 12 collaborateurs (internes et prestataires). Rattachement hiérarchique : Responsable du Socle Technique IT. 2 jours de TT après la période d’intégration

Mission freelance
Ingénieur Data and Analytics Platform/ Kubernetes/ Python / AWS CLOUD INFRA Anglais 500 e/ j
Ingénieur Data and Analytics Platform/ Kubernetes/ Python / AWS CLOUD Infrastructure Anglais 500 e/ j Ci-dessous le détail de la mission En tant que membre de notre squad Data and Analytics Platform, vous participerez aux activités suivantes : Conception de la Data & Analytics Platform Évolution des infrastructures cloud via l’Infrastructure as Code Gestion d’un cluster kubernetes Développement de micro-services en Python Conception et maintenance de chaînes de déploiement automatisé Assurer le bon fonctionnement opérationnel de la Data & Analytics Platform Enrichissement de la documentation à l’attention des utilisateurs Expérience significative sur le cloud AWS, notamment sur les services de données (S3). Développement d’application web. Connaissance des pratiques du software craftsmanship. Bonne connaissance de la méthodologie Agile. Familiarité avec les mécanismes de traitement et de valorisation des données. À l’aise dans les interactions avec les parties prenantes. Force de proposition et désireux(se) d’apprendre en continu. Technologies utilisées Python, Terraform, Dotnet GitHub, GitHub Action AWS : EKS, S3, ECS, VPC, NSG, Lambda, … Databricks : Unity Catalog, Policy, Cluster, PySpark Pratiques : Scrum Notions : DevSecOps, Data Engineering, Data Management Langues : Anglais et Français 500 e

Mission freelance
Data Analyst expert BI ETL
CONTEXTE Experience : 8 ans et plus Métiers Fonctions : Data Management, Data Analyst Spécialités technologiques : BI,ETL MISSIONS Le Data Analyst aura pour mission de structurer les fondations méthodologiques et techniques nécessaires à la diffusion d’indicateurs fiables et exploitables pour le département « Recherche Candidature et Rapprochement ». Il aura pour mission de centraliser les données issues de multiples sources, d’en assurer la transformation, puis d’industrialiser leur traitement au travers de pipelines performants, pour les visualiser dans Power BI, Qlik Sense, etc. Le Data Analyst aura potentiellement la charge de plusieurs domaines de données au sein du département RCR. En lien étroit avec l’architecte/expert data et les métiers, il sera responsable de la chaîne complète de traitement et de valorisation des données, depuis la compréhension du besoin jusqu’à la mise en production et la maintenance des applications décisionnelles. Il jouera un rôle clé dans cette dynamique, en prenant en charge la structuration des flux, l’optimisation des performances. Il devra allier expertise technique et compréhension des enjeux métiers pour garantir la qualité, la cohérence et la disponibilité des données. Appuyé par les standards et les outils mis à disposition par les équipes data transverses, il travaillera en forte autonomie sur les projets qui lui seront confiés. Expertise souhaitée - Recueil et formalisation des besoins métier - Animer des ateliers avec les utilisateurs métiers pour comprendre leurs enjeux et besoins en reporting, datavisualisation et indicateurs. - Rédiger des spécifications fonctionnelles et techniques (cahiers des charges, dictionnaires de données, définitions d’indicateurs). - Identifier et challenger les sources de données disponibles. - Prototypage et maquettes - Concevoir des maquettes d’écrans (wireframes, prototypes Power BI ou Qlik Sense) pour validation métier. - Proposer des choix de visualisation pertinents en fonction des usages (tableaux de bord stratégiques, opérationnels, analytiques). - Conception et modélisation des données - Définir et mettre en oeuvre la modélisation back-end : datamarts, hubs data, modèles dimensionnels (étoile,flocon) ou data vault. - Écrire et optimiser les requêtes SQL ou pipelines (via Dataiku ou autres outils ETL/ELT) pour alimenter les modèles. - Mettre en place des pré-calculs ou agrégations pour optimiser les performances. - Développement des applications décisionnelles - Développer les dashboards et rapports dans Power BI et/ou Qlik Sense en respectant les standards UX/UI et les bonnes pratiques data. - Paramétrer la sécurité des données : ségrégation de données (row-level security), restrictions d.accès en conformité avec la politique RGPD. - Garantir la performance et la fiabilité des restitutions. - Tests et recette - Concevoir et exécuter les tests unitaires et d’intégration. - Préparer et accompagner la recette métier. - Corriger les anomalies détectées. - Maintenance évolutive et corrective - Faire évoluer les applications existantes selon les nouveaux besoins ou changements réglementaires. - Surveiller la qualité des données et les performances. - Rédiger et maintenir la documentation technique et fonctionnelle. - Collaboration et amélioration continue - Travailler en étroite collaboration avec l’architecte data, les autres data analysts et l.équipe métier. - Participer aux rituels d’équipe.

Mission freelance
Project Manager SAP S/4 HANA
Dans le cadre d’un projet stratégique de déploiement SAP S/4 HANA, nous recherchons un Project Manager SAP en freelance. La mission consiste à assurer le pilotage global du projet, la coordination des parties prenantes internes et externes, ainsi que le suivi opérationnel des activités critiques (data migration, change management, hypercare). Conditions de mission : 📅 Démarrage : idéalement dès mi-octobre 2025 (au plus tard 1er novembre 2025) ⏳ Durée : 5 mois (jusqu’à fin mars 2026, extension possible) 🏙️ Lieu : Paris 🖥️ Télétravail : 1 jour par semaine
Mission freelance
Coordinateur(trice) Données & Intégration – Facturation Électronique (H/F)
Coordinateur(trice) Données & Intégration Data Migration– Facturation Électronique 📍 Localisation : Issy-les-Moulineaux (92) 🗓 Disponibilité : Dès que possible 🌍 Contexte international – Projet stratégique de transformation digitale Nous recherchons un(e) Coordinateur(trice) Données & Intégration pour accompagner le déploiement d’un modèle groupe unifié, en assurant la bonne gestion des flux de données et des interfaces entre les systèmes internes et les plateformes externes. Vos responsabilités Piloter les flux de données entre les applications internes et les plateformes tierces (API, ETL, fichiers plats, etc.) Collaborer avec les équipes IT, les prestataires et les parties prenantes métiers pour définir et mettre en œuvre les protocoles d’échange Surveiller et résoudre les incidents d’intégration Garantir la qualité, la cohérence et la conformité des données échangées dans le cadre des réformes e-invoicing / e-reporting Identifier et corriger les problèmes de qualité de données (data quality) Participer à la mise en place des bonnes pratiques de MDM (Master Data Management) Documenter les flux, mappings et interfaces de manière claire et structurée Traduire les besoins métiers en spécifications techniques Contribuer aux projets transverses et assurer un reporting régulier Anticiper et gérer les risques liés aux processus de gestion de données Assurer la communication fonctionnelle avec les parties prenantes
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.