Trouvez votre prochaine offre d’emploi ou de mission freelance Data management à Paris
Mission freelance
Machine Learning Engineer Lead Expert
CONTEXTE EXPERIENCE : 5 ans et plus Métiers Fonctions : Data Management, Machine Learning Engineer Spécialités technologiques: Cloud, Machine learning, Big Data, Simulation Deep learning Description et livrables de la prestation Notre client, dans le secteur de l’assurance, est à la recherche d’un Machine Learning Engineer Lead Expert pour un projet de recherche appliquée sur les événements climatiques extrêmes à l’aide de modèles d’IA. Les équipes travaillent sur des simulations météo afin d’identifier les risques de catastrophes, avec pour objectif de développer et d’entraîner des modèles de Machine Learning dédiés. Il s’agit de gestion de big data sur de très gros modèles, avec un code intégralement en Python. La maîtrise du cloud AWS et des environnements on-premise est indispensable. - Permettre à l’équipe R&D de développer et d’évaluer des modèles en fournissant et en gérant du code et des données de qualité. - Refactoriser, structurer et documenter la bibliothèque existante en Python pour les simulations, l’inférence de modèles et l’analyse. - Développer des pipelines robustes pour la simulation, la détection d’événements extrêmes, l’entraînement et l’évaluation des modèles (y compris sur GPU). L’accent sera mis sur le développement logiciel (les modèles seront fournis par l’équipe). - Mettre en œuvre et appliquer les meilleures pratiques de développement logiciel scientifique (tests, CI/CD, conception modulaire, reproductibilité). - Optimiser l’utilisation d’un serveur (multi-)GPU pour les simulations et entraînements IA à grande échelle (I/O, planification, parallélisme). - Former et accompagner l’équipe sur les bonnes pratiques de développement scientifique et d’utilisation des GPU. Expertise souhaitée Obligatoires : - Python avancé et meilleures pratiques de développement logiciel - Pipelines scientifiques : orchestration, traitement en lots, suivi d’expérimentations - Outils : Git, Docker - Cloud AWS et environnements on-premise Souhaitées : - Gestion de données climatiques ou géospatiales : xarray, Zarr, S3 - Deep learning sur GPU : PyTorch, entraînement multi-GPU, optimisation des performances - Ingénierie logicielle scientifique, MLOps ou infrastructures de données en environnement R&D - Expérience avérée en collaboration sur des bases de code robustes, performantes et scalables - Familiarité ou fort intérêt pour les sciences du climat, la simulation ou la modélisation physique est un plus - Solides compétences en transmission de connaissances et en communication - Exigence élevée en termes de qualité et de clarté du code
Mission freelance
Data Analyst Azure Data Factory
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Data Management, Data Analyst Spécialités technologiques ERP, SI Financier, Progiciels Dans le cadre du renforcement de l’équipe Data Factory de notre client, au service des équipes Finance & Procurement, la mission vise à transformer les données issues de l’ERP Oracle Cloud en indicateurs fiables et tableaux de bord Power BI permettant le pilotage opérationnel et financier. Les travaux s’inscrivent dans l’environnement Azure (Azure Data Factory, Azure Databricks, Power BI) et suivent les bonnes pratiques de qualité, de performance et de gouvernance des données. MISSIONS Objectifs de la mission : - Analyse des besoins Finance / Procurement et formalisation des exigences fonctionnelles (KPI, règles de gestion, périmètres analytiques). - Mapping des données depuis la source Oracle vers les modèles analytiques Power BI (modèle en étoile, dictionnaire de données, règles de transformation). - Développement et industrialisation des data pipelines dans Azure . - Conception et développement des tableaux de bord Power BI (datasets, DAX, RLS, UX) prêts à être déployés et adoptés par les métiers. Responsabilités principales : 1) Analyse de besoins et cadrage - Conduire des ateliers avec les key users Finance (Comptabilité générale, Fournisseurs/AP, Clients/AR, Contrôle de gestion) et Achats. - Produire les spécifications fonctionnelles et le backlog associé. 2) Cartographie & modélisation des données (Oracle → Power BI) - Identifier tables, vues et colonnes Oracle pertinentes ; définir la granularité et les jointures. - Rédiger le document de mapping et le dictionnaire de données (définitions, sources, règles de calcul). - Concevoir le modèle sémantique (étoile) pour Power BI, avec dimensions conformes et mesures DAX documentées. 3) Développement des pipelines (Azure Databricks / ADF) - Développer notebooks et jobs (PySpark/SQL) pour ingestion, nettoyage, transformations et calculs d’indicateurs. - Mettre en place des contrôles qualité (règles, reconciliations, gestion des écarts) et optimiser coûts/performance. 4) Développement des dashboards Power BI - Créer les datasets (mesures DAX, hiérarchies, rôles RLS) et les rapports (navigation, filtres, drill, bookmarks). - Réaliser la recette avec les utilisateurs, intégrer les retours, publier et organiser le partage (Apps, workspaces). 5) Documentation, gouvernance & transfert - Tenir à jour la documentation (spécifications, mapping, checklist de qualité). - Contribuer aux bonnes pratiques (naming, versioning Git/Azure DevOps, sécurité & conformité). Domaines de données concernés : - Finance : Comptabilité générale (GL), Comptabilité fournisseurs (AP), Comptabilité clients (AR), Contrôle de gestion (actuals, budget, forecast). - Achats / Procurement : données fournisseurs, familles d’achat, contrats, engagements, réceptions, paiements. Expertise souhaitée - Expérience avérée d’au moins une mission de reporting financier incluant : Comptabilité générale, AP, AR, Contrôle de gestion, Achats. - Maîtrise d’Azure Data Factory, Azure Databricks et Power BI (datasets, DAX, RLS, publication). - Compétences en modélisation décisionnelle (modèle en étoile, granularité, dimensions conformes) et qualité des données. - Capacité à animer des ateliers, rédiger des spécifications claires et collaborer avec des profils métiers et techniques. - Anglais courant indispensable (ateliers, documentation, échanges avec parties prenantes).
Offre d'emploi
Consultant Reporting et Analyse de performance en Asset Management
Depuis plus de 20 ans, nous accompagnons les institutions financières dans leurs grandes transformations métier, technologiques et réglementaires. Grâce à notre expertise de la chaîne Front to Back to Reporting , nous intervenons sur des projets complexes à forte valeur ajoutée, dans les univers Asset Management, Banque d’investissement et Services financiers . Notre positionnement unique nous permet de conjuguer vision stratégique, maîtrise opérationnelle et compréhension technologique des écosystèmes financiers. C’est ce qui fait de nous un acteur de référence auprès des directions métiers, opérationnelles et transformation de nos clients. Vos missions Au sein d’une équipe en charge du reporting commercial, réglementaire et client , vous interviendrez sur des projets stratégiques et opérationnels, mêlant expertise MOA et production. Vos missions principales seront : Apporter un support fonctionnel et technique à l’équipe reporting. Gérer les incidents liés à la production en lien avec le partenaire externe et les équipes internes (Data Management, Middle Office, Front Office…). Rédiger les spécifications fonctionnelles et techniques pour les besoins de reporting. Réaliser des développements dans divers outils ( SQL, Coric Layout Builder, Birt ). Contribuer à des projets de transformation (migration d’outils, refonte de la gamme reporting, reprise de fonds). Collaborer avec la DSI et les éditeurs ( Simcorp, StatPro Revolution ) pour l’ automatisation des flux et processus . Documenter et optimiser les processus de reporting (procédures, délais, outils). Profil recherché Diplômé(e) d’une grande école de commerce, d’ingénieur ou d’un master universitaire de haut niveau. Vous justifiez de 3 à 6 ans d’expérience en MOA et reporting dans le secteur financier, idéalement en Asset Management. Vous disposez de solides compétences en SQL et avez déjà travaillé avec des outils de reporting (Coric, Birt ou équivalent). Vous comprenez les environnements financiers liés au reporting réglementaire, contrôle de données, middle/back office . Vous êtes rigoureux(se), analytique et orienté(e) solutions, avec une réelle capacité à travailler en équipe et à coordonner différents interlocuteurs. La maîtrise de l’ anglais professionnel est un plus dans un contexte international. Ce que nous vous offrons Des missions visibles et stratégiques au sein de grands acteurs de l’Asset Management. Un rôle complet mêlant expertise MOA et opérationnelle . Un environnement stimulant où votre initiative et votre esprit d’équipe seront valorisés. Des opportunités de développement professionnel et de montée en compétences rapides. Une structure à taille humaine, favorisant la proximité, l’évolution et la contribution active aux projets du cabinet. 👉 Vous avez une vision. Nous vous donnons les moyens de la concrétiser. Rejoignez un cabinet à impact, où expertise rime avec exigence et sens. Postulez dès maintenant.
Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.