Trouvez votre prochaine offre d’emploi ou de mission freelance Data management

Mission freelance
Data Analyste référentiel H/F
Lieu : Brest (29) TJM : 400 à 450 € / jour HT Rythme : 1 jour de télétravail à l’issue d’une période d’intégration Nous recherchons pour notre client, acteur industriel, un Data Analyste Référentiel H/F pour une mission Freelance de 6 mois. Cette mission s'inscrit dans le cadre d’un renforcement des équipes SI sur des sujets stratégiques de gestion et de fiabilisation des données statiques et dynamiques de la base article (+10 000 articles référencés). VOS MISSIONS : Au sein d’une équipe à taille humaine et rattaché au pôle Systèmes d’Information et à l’équipe projet ERP (pour la partie Build) , et dans le cadre d’un projet de déploiement d’un ERP sur 8 sociétés et de l’intégration de 8 bases articles hétérogènes dans le référentiel core model, vos missions consistent à : - Compiler et consolider les données articles (statiques et dynamiques) dans un objectif de qualité et de fiabilité. - Contrôler la qualité des données et assurer leur cohérence dans les outils de gestion avant intégration dans le référentiel Core Model. - Transmettre les données consolidées à la Responsable Applicatif du référentiel Core Model pour intégration et contrôle (travail en binôme). - Gérer et enrichir les référentiels de données articles via des requêtes SQL : création ; mise en gamme ; référencement. . - Réaliser des extractions, traitements et manipulations de bases de données via SQL et Excel . - Proposer des axes d’amélioration dans les méthodes de collecte, de traitement, de contrôle et d’intégration de la donnée. - Run – Dans le cadre de l’interopérabilité du référentiel Article Core Model avec différents ERP - Travailler en interaction avec les équipes métiers et IT pour optimiser l’exploitation et la robustesse de la donnée statique et dynamique. - En lien avec les équipes Exploitation et Talend, mettre en place des contrôles pour s’assurer des mises à jour et de la fiabilité des données Environnement Technique : SQL, Excel (niveau avancé), outils MDM, SI internes.
Offre d'emploi
Consultant Data Semarchy/Talend/MdM
Contexte Un acteur majeur du secteur agroalimentaire recherche un·e consultant·e spécialisé·e en solutions de Master Data Management (MDM) afin d’accompagner la mise en œuvre, l’intégration et la valorisation d’une plateforme de gestion unifiée des données. Missions principales Analyse et cadrage : Recueillir les besoins auprès des métiers et de la DSI, animer des ateliers et traduire les enjeux business en exigences data. Conception et modélisation : Définir les modèles de données, les règles de gestion (qualité, consolidation, validation, transcodification) et la gouvernance associée. Intégration et déploiement : Développer et configurer les flux de données, paramétrer la plateforme MDM, assurer les phases de tests et accompagner les mises en production. Qualité et conformité : Mettre en place des contrôles de qualité, garantir la traçabilité (data lineage) et contribuer au respect des exigences réglementaires. Valorisation des données : Concevoir des tableaux de bord et indicateurs de pilotage pour faciliter la prise de décision. Support et formation : Accompagner les utilisateurs, assurer la montée en compétences des équipes métiers et techniques, proposer des bonnes pratiques.

Mission freelance
Consultant fonctionnel PIM - Chef de projet avec Stibo Product MDM Experience - Anglais
Au sein de l'équipe centrale de gestion des informations produits (PIM). Nous gérons une plateforme PIM mondiale pour le secteur des produits de construction, actuellement en déploiement dans plus de 30 pays. Au sein de cette équipe, vous gérerez des projets de déploiement et d'amélioration d'un point de vue fonctionnel, assurerez la gestion de projet et créerez le lien vers le site web qui utilise les données PIM. Vous interagirez avec les utilisateurs clés de l'entreprise (en anglais), notre équipe indienne, les autres membres de l'équipe PIM et les autres équipes centrales. • Animer et animer des ateliers avec les parties prenantes métier afin de recueillir et de clarifier les exigences. • Analyser les processus et les besoins métier afin de concevoir des solutions pratiques et évolutives. • Présenter et formaliser les solutions aux parties prenantes métier et projet pour validation. • Gérer le modèle de données Stibo Step : guider l'entreprise dans la préparation du modèle de données (hiérarchie, attributs, classification) et vérifier le résultat du chargement. • Piloter et exécuter les tests de bout en bout, garantissant la qualité de la solution et l'absence de régression dans les flux existants. • Piloter et gérer les flux de travail du projet (conception détaillée, build, interfaces, etc.) et fournir des mises à jour régulières au chef de projet métier. • Appliquer et promouvoir les meilleures pratiques MDM Stibo Step tout au long du projet. • Agir en tant que point de contact principal pour les parties prenantes du projet, en garantissant une communication claire et cohérente du lancement du projet à sa mise en service. Qualifications de base • Licence ou équivalent en systèmes d'information, informatique ou dans un domaine connexe, ou expérience professionnelle pertinente équivalente. • 4 à 6 ans d'expérience pratique de Stibo Step MDM dans des environnements internationaux. • Expérience avérée en gestion de projets ou de flux de travail majeurs en autonomie

Mission freelance
Développeur Big Data
La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad CCO qui aujourd'hui gére l'Entrepôt des données client de la CIB à travers l'application INDIXIS utilisée par les équipes IT et métiers. L'objectif de la mission est de renforcer l'équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein de la Squad : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python ) Expertises spécifiques : - Spark / PySpark /Python / Java / SpringBoot / .net - Hadoop sur infra on premise - Hive / SQL/HQL - Unix/Bash - Pipeline CI/CD jenkins - XLDeploy/XLRelease - Control-M - API
Offre d'emploi
Consultant MDM - Paris - 6 mois
Consultant MDM - Paris - 6 mois Un de nos importants clients recherche un Consultant MDM pour une mission de 6 mois sur Paris. Descriptif de la mission ci-dessous: 📢 Consultant MDM – Programme de Transformation SI 📍 Localisation : Paris | 🌎 Déplacements à prévoir aux États-Unis 🏢 Division : Industrie – Direction Industry Business Excellence 🕒 Contrat : CDI ou mission longue durée 📅 Disponibilité : Dès que possible Rejoignez un projet stratégique à l’international Dans le cadre d’un programme de transformation des systèmes d'information couvrant les opérations industrielles et commerciales aux États-Unis, nous recherchons un(e) Consultant(e) MDM (Master Data Management) pour soutenir le déploiement de la stratégie globale de gestion des données de référence. Rattaché(e) à la Direction Industry Business Excellence et au Data & Digital Officer, vous serez un acteur clé dans l’alignement entre les besoins spécifiques du périmètre US et le core model MDM global, tout en accompagnant les équipes locales dans l’adoption des processus standards. 🎯 Vos missions Participer à la mise en œuvre du volet MDM dans le cadre du programme Fusion et du déploiement de l’Advanced Planning System (APS) sur le périmètre US Assister le MDM Lead Global dans l’exécution des travaux MDM liés aux activités commerciales, R&D back-office et sous-traitance industrielle aux États-Unis Comprendre en profondeur les processus de planification Demand/Supply, de sous-traitance industrielle, et les exigences liées aux Master Data Participer aux ateliers métiers, collecter et documenter les besoins, analyser les écarts avec le modèle global, et challenger les demandes de déviation Travailler en coordination avec les équipes IT, les intégrateurs de solution, et les métiers pour garantir la cohérence des flux et outils MDM Contribuer à la définition des cas de tests fonctionnels et à la migration des données (préparation, nettoyage, mapping, validation) pour les entités US Appuyer la création des supports de formation et de communication, en lien avec les équipes de Change Management 🧩 Profil recherché Formation Bac+5 (école d’ingénieur ou université) 3 à 5 ans d’expérience dans la supply chain, la production industrielle ou la gestion des données, idéalement en industrie pharmaceutique ou secteur industriel équivalent Connaissance des processus de sous-traitance industrielle appréciée Maîtrise des outils MDM (EBX idéalement) et ERP (SAP) Expérience dans des projets de transformation ou déploiement d’envergure Excellentes capacités d’analyse, rigueur, sens du relationnel À l’aise dans un environnement multiculturel et matriciel Anglais courant impératif 🌍 Conditions Mission basée à Paris (France) Déplacements réguliers aux États-Unis à prévoir dans le cadre du programme Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.

Offre d'emploi
Consultant Reporting et Analyse de performance en Asset Management
Depuis plus de 20 ans, nous accompagnons les institutions financières dans leurs grandes transformations métier, technologiques et réglementaires. Grâce à notre expertise de la chaîne Front to Back to Reporting , nous intervenons sur des projets complexes à forte valeur ajoutée, dans les univers Asset Management, Banque d’investissement et Services financiers . Notre positionnement unique nous permet de conjuguer vision stratégique, maîtrise opérationnelle et compréhension technologique des écosystèmes financiers. C’est ce qui fait de nous un acteur de référence auprès des directions métiers, opérationnelles et transformation de nos clients. Vos missions Au sein d’une équipe en charge du reporting commercial, réglementaire et client , vous interviendrez sur des projets stratégiques et opérationnels, mêlant expertise MOA et production. Vos missions principales seront : Apporter un support fonctionnel et technique à l’équipe reporting. Gérer les incidents liés à la production en lien avec le partenaire externe et les équipes internes (Data Management, Middle Office, Front Office…). Rédiger les spécifications fonctionnelles et techniques pour les besoins de reporting. Réaliser des développements dans divers outils ( SQL, Coric Layout Builder, Birt ). Contribuer à des projets de transformation (migration d’outils, refonte de la gamme reporting, reprise de fonds). Collaborer avec la DSI et les éditeurs ( Simcorp, StatPro Revolution ) pour l’ automatisation des flux et processus . Documenter et optimiser les processus de reporting (procédures, délais, outils). Profil recherché Diplômé(e) d’une grande école de commerce, d’ingénieur ou d’un master universitaire de haut niveau. Vous justifiez de 3 à 6 ans d’expérience en MOA et reporting dans le secteur financier, idéalement en Asset Management. Vous disposez de solides compétences en SQL et avez déjà travaillé avec des outils de reporting (Coric, Birt ou équivalent). Vous comprenez les environnements financiers liés au reporting réglementaire, contrôle de données, middle/back office . Vous êtes rigoureux(se), analytique et orienté(e) solutions, avec une réelle capacité à travailler en équipe et à coordonner différents interlocuteurs. La maîtrise de l’ anglais professionnel est un plus dans un contexte international. Ce que nous vous offrons Des missions visibles et stratégiques au sein de grands acteurs de l’Asset Management. Un rôle complet mêlant expertise MOA et opérationnelle . Un environnement stimulant où votre initiative et votre esprit d’équipe seront valorisés. Des opportunités de développement professionnel et de montée en compétences rapides. Une structure à taille humaine, favorisant la proximité, l’évolution et la contribution active aux projets du cabinet. 👉 Vous avez une vision. Nous vous donnons les moyens de la concrétiser. Rejoignez un cabinet à impact, où expertise rime avec exigence et sens. Postulez dès maintenant.
Offre d'emploi
Tech Manager Data Engineering Devops Finops (PMS, OPERA Cloud)
Nous recherchons pour l'un de nos clients un Tech Manager Data Engineering Devops Finops dans le secteur du loisirs : Vos missions principales : Encadrement d’équipes Data (tech leads, delivery manager) et pilotage de leurs activités : suivi opérationnel, organisation agile, reporting aux responsables de domaine. Déploiement et optimisation de connecteurs Data, intégration des données dans l’écosystème interne et alimentation des systèmes aval (finance, vente, fidélisation, etc.). Participation au delivery et au run : suivi des incidents, plan de rattrapage, monitoring et amélioration continue de la performance (DevOps, FinOps). Contribution à la roadmap Data : cadrage, ajustement organisationnel, définition des priorités, validation des choix techniques et de modélisation (Snowflake, patterns, qualité). Animation de la relation avec les parties prenantes internes et externes : suivi des chantiers, coordination transverse et communication claire sur l’avancement et les incidents.

Mission freelance
Dynasys (QAD DSCP) Application Specialist (h/f)
Vous êtes un spécialiste expérimenté des applications Dynasys (QAD DSCP) avec une solide expérience dans la gestion des données et le support système? emagine a une opportunité pour vous de soutenir le bon fonctionnement et l'amélioration continue de la plateforme logicielle Dynasys au sein d'une équipe internationale. Are you an experienced Dynasys (QAD DSCP) Application Specialist with a strong background in data management and system support? emagine has an opportunity for you to support the smooth operation and continuous improvement of the Dynasys software platform with a global team. Key Tasks & Deliverables: User Access Management (10%) : Handle user access requests and permissions, ensuring timely and appropriate access. Interface Issue Resolution (20%) : Collaborate with SAP teams to troubleshoot and resolve interfacing issues. Scope Adjustments (30%) : Implement scope changes to reflect organizational shifts and maintain accurate data visibility. Mass Data Uploads (40%) : Execute large-scale data uploads and updates to support forecasting, budgeting, and data clean-up initiatives. You’ll play a pivotal role in maintaining and enhancing a critical business platform, working remotely with collaborative and enabling teams. Your contributions will directly support business continuity and decision-making processes. Key Skills & Experience: Proven experience with Dynasys (QAD DSCP). Strong attention to detail and troubleshooting capabilities. Effective communication with both technical and business stakeholders. Autonomous and comfortable working in remote environments. Nice to Have: Experience with SAP systems. Background in business process management. Familiarity with forecasting and budgeting workflows. Remote role for consultants based in Europe, ideally France. Teams are collaborative and enabling, with a need for autonomous/self-starting candidates. Apply with your latest CV or reach out to Brendan to find out more.
Mission freelance
Consultant Fonctionnel PIM ( Expérience Stibo Step MDM)
Nous sommes à la recherche d'un Consultant PIM pour intégrer une équipe dédiée à la gestion d'une plateforme globale de gestion de l’information produit (PIM) Missions : Animer des ateliers avec les parties prenantes métier afin de recueillir et clarifier les besoins. Analyser les processus métier et concevoir des solutions pragmatiques et évolutives. Présenter les solutions aux parties prenantes et obtenir leur validation. Gérer le modèle de données Stibo Step : accompagner les métiers dans la préparation du modèle (hiérarchies, attributs, classifications), et contrôler les résultats de chargement. Piloter et exécuter les phases de tests de bout en bout, en garantissant la qualité des livrables et l’absence de régressions. Coordonner les différents chantiers projet (conception, réalisation, interfaces, etc.) et assurer le reporting auprès du chef de projet métier. Promouvoir et appliquer les bonnes pratiques Stibo Step MDM tout au long du projet. Assurer un rôle de point de contact principal auprès des parties prenantes, avec une communication claire et continue jusqu’au passage en production.

Mission freelance
PIM Functionnal Consultant & project lead
Au sein de l’équipe centrale dédiée à la gestion des informations produits (PIM), vous intervenez en tant que Chef de Projet Fonctionnel sur une plateforme PIM déployée dans plus de 30 pays, dans le secteur de la construction. Vous serez impliqué dans : Le pilotage de projets de déploiement et de montée de version de la plateforme, La conception fonctionnelle , La gestion de l’intégration des données PIM vers les sites e-commerce , La coordination des parties prenantes métier et IT à l’international. Responsabilités clés Animer des ateliers fonctionnels avec les équipes métiers internationales pour cadrer les besoins. Analyser les processus existants et proposer des solutions PIM scalables. Modéliser et faire évoluer le data model Stibo STEP (hiérarchie, classification, attributs, etc.). Effectuer les tests fonctionnels bout-en-bout (non régression, validation des flux). Piloter les projets et suivre les différents chantiers (conception, interfaces, livraison). Assurer la communication avec les stakeholders projet (équipes techniques, métiers, offshore). Appliquer les bonnes pratiques de gestion MDM (Stibo STEP). Rendre compte de l’avancement auprès des responsables métiers et des sponsors.

Offre d'emploi
Business Analyst Data
1. Contexte de la mission Au sein de la Direction Informatique, nous cherchons à renforcer le département Data & Analytics avec un Business Analyst spécialisé dans la modélisation et l'analyse des données. L’équipe Data & Analytics gère le DataHub qui centralise les données des différents référentiels et applications et alimente l'ensemble des métiers pour des besoins de reporting réglementaires ou clients, des analyses via des outils analytiques type Power BI ou Power Query , ou des développements internes via APIs ou SQL . Un projet stratégique de refonte de l'infrastructure Data a été mené, reposant désormais sur la technologie Data Lake Azure Cloud . L’entreprise s’engage dans un chantier de migration des outils FtoB vers la plateforme intégrée d’un éditeur de renommée mondiale disposant de son propre modèle de données. 2. Description de la mission Vous intervenez dans l’équipe Data & Analytics pour poursuivre la transformation de l'entreprise en tant qu’ expert Data management au sein d’une équipe de 10 personnes. En tant qu’expert, vous serez force de proposition pour définir le modèle cible qui devra préserver le modèle historique afin de limiter les impacts métiers, sans renoncer aux bénéfices du modèle proposé par l’éditeur de la solution cible, consolidé sur l’expertise d’un très grand nombre d’asset managers. Les options retenues devront répondre : aux contraintes court terme (facilité d'intégration, délais, coûts, …) et long terme (évolutivité, coût de maintenance, risque de désynchronisation des modèles, …). Vous collaborerez avec les membres de l'équipe (Dev et Business Analyst) dans un environnement Agile , et à l’échelle, avec les autres équipes impliquées dans le projet de transformation.

Offre d'emploi
Analyste d'exploitation / Domain Data - MLOps - Data Platform
Analyste d'exploitation / Domain Data - MLOps - Data Platform Un leader dans le domaine des solutions de leasing est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Projet à mener pour une application de ciblage commercial permettant aux commerciaux une approche de vente proactive du crédit-bail pour des clients déjà équipés de contrats cadres. Responsabilités Mise en œuvre des Pipelines Machine Learning : • Concevoir, déployer et maintenir des pipelines de machine learning automatisés, intégrant l'ensemble des étapes du cycle de vie des modèles, de l'entraînement à la mise en production. • Assurer l'intégration des modèles de machine learning dans les environnements de production, en s'assurant de la scalabilité, des performances et de la fiabilité des solutions mises en œuvre. • Collaborer étroitement avec les data scientists et ingénieurs data pour faciliter la transition des modèles depuis les phases d'expérimentation jusqu'à l'industrialisation, tout en optimisant les pipelines de bout en bout. Automatisation et industrialisation des modèles : • Mettre en place des processus d'industrialisation des modèles de machine learning pour garantir une gestion continue et fiable des modèles en production, avec des mécanismes de surveillance automatique. • Automatiser les tâches critiques, telles que l'entraînement, le déploiement, la gestion des versions, et la surveillance des performances des modèles. • Intégrer des solutions de monitoring pour garantir que les modèles en production respectent les critères de performance, de dérive et de précision définis. Adaptation de l'infrastructure et des environnements de production : • Participer à la mise en place d'une infrastructure (Cloud / DMZR) robuste et évolutive qui soutient l'entraînement et l'inférence des modèles à grande échelle. • Optimiser l'utilisation des ressources (GPU, CPU) pour l'entraînement et la mise en production des modèles, en fonction des besoins spécifiques du projet. Surveillance, maintenance et gestion du cycle de vie des modèles : • Mettre en œuvre des systèmes de monitoring pour suivre les performances des modèles en production, détecter les dérives, et initier les actions correctives automatisées. • Assurer une maintenance continue des modèles en production pour garantir leur conformité avec les objectifs métiers, en supervisant la mise à jour des modèles et la gestion de leurs versions. • Gérer le cycle de vie complet des modèles, de la phase d'entraînement initiale à la mise à jour et dépréciation des modèles obsolètes. Collaboration et documentation des processus : • Collaborer étroitement avec les data scientists, les ingénieurs data et les DevOps pour assurer l'intégration fluide des pipelines de machine learning dans l'infrastructure IT existante. • Documenter de manière exhaustive les processus et les pipelines mis en place, incluant les workflows automatisés, les architectures, et les pratiques de surveillance des modèles. • Assurer une communication continue avec les équipes métiers et techniques pour garantir l'alignement sur les besoins et objectifs du programme.

Offre d'emploi
Consultant PIM - Stibo Step MDM
Contexte de la mission Vous interviendrez pour notre client, au sein de l’équipe centrale dédiée à la gestion de l’information produit (PIM) . Ils gérent une plateforme PIM mondiale dédiée aux produits de construction, actuellement en cours de déploiement dans plus de 30 pays. Au sein de cette équipe, vous piloterez des projets de déploiement ainsi que des projets d’amélioration fonctionnelle. Vous assurerez la gestion de projet , le suivi fonctionnel, et la connexion avec les sites web consommateurs des données PIM . Vous interagirez avec les utilisateurs clés métiers (en anglais), l’équipe indienne, les autres membres de l’équipe PIM, ainsi que d’autres équipes centrales. Objectifs et livrables Responsabilités principales Dans ce rôle, vous serez amené à : Animer et faciliter des ateliers avec les parties prenantes métier afin de collecter et clarifier les besoins. Analyser les processus métiers et les besoins afin de concevoir des solutions pratiques et évolutives. Présenter et formaliser les solutions aux parties prenantes pour validation. Gérer le modèle de données Stibo Step : accompagner le métier dans la préparation du modèle (hiérarchie, attributs, classifications) et valider les résultats après chargement. Assurer les tests de bout en bout, garantissant la qualité des solutions et l’absence de régression. Piloter les différents volets du projet (conception détaillée, construction, interfaces, etc.) et fournir des mises à jour régulières au chef de projet métier. Appliquer et promouvoir les bonnes pratiques Stibo Step MDM tout au long du projet. Être l’interlocuteur principal des parties prenantes projet, en assurant une communication claire et continue, de l’initiation jusqu’au déploiement. Profil recherché Qualifications de base Diplôme universitaire (Bac+3 minimum) en systèmes d'information, informatique ou domaine connexe, ou expérience professionnelle équivalente. 4 à 6 ans d'expérience fonctionnelle pratique sur Stibo Step MDM dans des environnements internationaux. Expérience avérée dans la gestion de projets ou de lots fonctionnels en autonomie. Compétences attendues Capacité à piloter un projet de bout en bout, de la collecte des besoins jusqu’à la livraison. Aisance dans l’animation d’ateliers avec les parties prenantes métier. Autonomie, capacité à travailler avec peu de supervision et à prendre des initiatives. Excellentes capacités d’analyse et de résolution de problèmes. Excellente communication orale et écrite en anglais, avec une capacité à animer des ateliers et présenter à des interlocuteurs seniors. Esprit d’équipe, collaboratif et orienté solution. Compétences demandées Compétence **PIM (Product Information Management)**Confirmé Gestion de projet Confirmé Stibo Product MDM Avancé

Mission freelance
Responsable données & intelligence artificielle -(h/f)
Résumé Le Responsable Données & Intelligence Artificielle pilote la stratégie de gouvernance, de valorisation et de sécurisation des données au sein de la DSI, en alignant les équipes Data et IA avec les objectifs métiers pour optimiser la performance des processus de l’entreprise. Responsabilités : Mise en œuvre du Schéma Directeur DATA & IA. Coordination des projets de valorisation de la donnée et déploiement des cas d’usage IA. Reporting régulier et communication auprès des parties prenantes internes. Pilotage des budgets alloués aux projets Data/IA. Définition et évolution de la stratégie de gouvernance des données. Mise en place des politiques, standards et processus de gestion des données. Supervision du data catalog et du dictionnaire de données. Identification et piloting des cas d’usage IA avec les directions métiers. Intégration des solutions IA dans les processus métier. Déploiement des processus de gestion de la qualité des données (DQM). Conformité réglementaire, notamment RGPD. Collaboration pour la sécurisation des données et modèles IA avec le RSSI. Encadrement d’une équipe pluridisciplinaire. Animation des communautés Data. Suivi des indicateurs de performance liés à la gouvernance des données et aux projets IA. Assurer une veille technologique sur les outils IA et pratiques de data governance. Promouvoir les innovations pour améliorer la performance des solutions IA. Compétences clés : Maîtrise des outils de Data Management (Data Catalogs, Data Quality). Connaissances solides des solutions Cloud (Azure, AWS, GCP). Expertise en IA (ML, NLP) et des frameworks associés. Expérience dans la gestion de projets complexes en mode agile. Bac +5 en ingénierie ou spécialisation data/IA. 8 à 10 ans d’expérience en gouvernance des données et IA. Bon à avoir : Expérience dans un environnement DSI structuré. Expérience en cabinet de conseil. Capacité à vulgariser des concepts techniques. Esprit analytique et rigueur. Autres Détails : Localisation : Ile de France 92, déplacements nationaux à prévoir. Encadrement : 8 à 12 collaborateurs (internes et prestataires). Rattachement hiérarchique : Responsable du Socle Technique IT. 2 jours de TT après la période d’intégration

Mission freelance
Ingénieur Data and Analytics Platform/ Kubernetes/ Python / AWS CLOUD INFRA Anglais 500 e/ j
Ingénieur Data and Analytics Platform/ Kubernetes/ Python / AWS CLOUD Infrastructure Anglais 500 e/ j Ci-dessous le détail de la mission En tant que membre de notre squad Data and Analytics Platform, vous participerez aux activités suivantes : Conception de la Data & Analytics Platform Évolution des infrastructures cloud via l’Infrastructure as Code Gestion d’un cluster kubernetes Développement de micro-services en Python Conception et maintenance de chaînes de déploiement automatisé Assurer le bon fonctionnement opérationnel de la Data & Analytics Platform Enrichissement de la documentation à l’attention des utilisateurs Expérience significative sur le cloud AWS, notamment sur les services de données (S3). Développement d’application web. Connaissance des pratiques du software craftsmanship. Bonne connaissance de la méthodologie Agile. Familiarité avec les mécanismes de traitement et de valorisation des données. À l’aise dans les interactions avec les parties prenantes. Force de proposition et désireux(se) d’apprendre en continu. Technologies utilisées Python, Terraform, Dotnet GitHub, GitHub Action AWS : EKS, S3, ECS, VPC, NSG, Lambda, … Databricks : Unity Catalog, Policy, Cluster, PySpark Pratiques : Scrum Notions : DevSecOps, Data Engineering, Data Management Langues : Anglais et Français 500 e

Mission freelance
Data Analyst expert BI ETL
CONTEXTE Experience : 8 ans et plus Métiers Fonctions : Data Management, Data Analyst Spécialités technologiques : BI,ETL MISSIONS Le Data Analyst aura pour mission de structurer les fondations méthodologiques et techniques nécessaires à la diffusion d’indicateurs fiables et exploitables pour le département « Recherche Candidature et Rapprochement ». Il aura pour mission de centraliser les données issues de multiples sources, d’en assurer la transformation, puis d’industrialiser leur traitement au travers de pipelines performants, pour les visualiser dans Power BI, Qlik Sense, etc. Le Data Analyst aura potentiellement la charge de plusieurs domaines de données au sein du département RCR. En lien étroit avec l’architecte/expert data et les métiers, il sera responsable de la chaîne complète de traitement et de valorisation des données, depuis la compréhension du besoin jusqu’à la mise en production et la maintenance des applications décisionnelles. Il jouera un rôle clé dans cette dynamique, en prenant en charge la structuration des flux, l’optimisation des performances. Il devra allier expertise technique et compréhension des enjeux métiers pour garantir la qualité, la cohérence et la disponibilité des données. Appuyé par les standards et les outils mis à disposition par les équipes data transverses, il travaillera en forte autonomie sur les projets qui lui seront confiés. Expertise souhaitée - Recueil et formalisation des besoins métier - Animer des ateliers avec les utilisateurs métiers pour comprendre leurs enjeux et besoins en reporting, datavisualisation et indicateurs. - Rédiger des spécifications fonctionnelles et techniques (cahiers des charges, dictionnaires de données, définitions d’indicateurs). - Identifier et challenger les sources de données disponibles. - Prototypage et maquettes - Concevoir des maquettes d’écrans (wireframes, prototypes Power BI ou Qlik Sense) pour validation métier. - Proposer des choix de visualisation pertinents en fonction des usages (tableaux de bord stratégiques, opérationnels, analytiques). - Conception et modélisation des données - Définir et mettre en oeuvre la modélisation back-end : datamarts, hubs data, modèles dimensionnels (étoile,flocon) ou data vault. - Écrire et optimiser les requêtes SQL ou pipelines (via Dataiku ou autres outils ETL/ELT) pour alimenter les modèles. - Mettre en place des pré-calculs ou agrégations pour optimiser les performances. - Développement des applications décisionnelles - Développer les dashboards et rapports dans Power BI et/ou Qlik Sense en respectant les standards UX/UI et les bonnes pratiques data. - Paramétrer la sécurité des données : ségrégation de données (row-level security), restrictions d.accès en conformité avec la politique RGPD. - Garantir la performance et la fiabilité des restitutions. - Tests et recette - Concevoir et exécuter les tests unitaires et d’intégration. - Préparer et accompagner la recette métier. - Corriger les anomalies détectées. - Maintenance évolutive et corrective - Faire évoluer les applications existantes selon les nouveaux besoins ou changements réglementaires. - Surveiller la qualité des données et les performances. - Rédiger et maintenir la documentation technique et fonctionnelle. - Collaboration et amélioration continue - Travailler en étroite collaboration avec l’architecte data, les autres data analysts et l.équipe métier. - Participer aux rituels d’équipe.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.