Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 732 résultats.
Mission freelance
Data ingénieur spécialiste DBT / Data Build Tool (H/F)
ALLEGIS GROUP
Publiée le
DBT
12 mois
Yvelines, France
TEKsystems recherche pour l'un de ses clients grand compte un(e) Data ingénieur spécialiste DBT / Data Build Tool (H/F) Vos missions : Concevoir et mettre en œuvre des plateformes de données modernes Industrialiser et optimiser des solutions techniques Développer et maintenir des pipelines de données efficaces, du sourcing à la visualisation (ingestion, traitement, exposition) Assurer la qualité et la sécurité des données tout au long de leur cycle de vie Collaborer avec les équipes métier pour comprendre les besoins et fournir des solutions data adaptées Évaluer et recommander des technologies émergentes pour améliorer les capacités de la plateforme data Dans l’environnement technique suivant (cette liste n’est pas exhaustive et surtout, elle indique les technos qui nous intéressent !) :
Mission freelance
ACHETEUR Domaine Market Data/s
WorldWide People
Publiée le
Pilotage
12 mois
Paris, France
ACHETEUR Domaine Market Data . Acheteur senior spécialisé dans les données de marché, avec une solide expérience auprès des fournisseurs de données financières et une excellente compréhension des cas d'utilisation en salle des marchés. Localisation Paris / Télétravail Durée de la mission : 3 ans Mission : · Développer et entretenir des relations de proximité avec les lignes métier pour s’assurer de comprendre leur besoin en market data et négocier suivant leurs contraintes. · Apporter une expertise fonctionnelle et une connaissance approfondie de l'industrie des données de marché (Market Data) et de ses spécificités pour répondre aux besoins métiers. · Entretenir des relations avec les fournisseurs afin de comprendre leurs offres très spécifiques et très techniques, pour identifier des sources alternatives. · Analyser et challenger les besoins des clients internes et leur apporter votre expertise achats tout en garantissant la conformité avec les règles de conduite du Groupe applicables aux relations avec les fournisseurs. · Analyser les contrats des fournisseurs pour s’assurer de l’adéquation du contrat aux besoins métiers exprimés · Comprendre les usages des Data des utilisateurs pour s’assurer de la conformité des usages aux contrats fournisseurs associés · Négocier des contrats dans le cadre des renouvellements ou révisions des contrats de Market Data avec les fournisseurs externes pour le compte et au mieux des intérêts des lignes métier. · Suivre la conformité des contrats avec le service EI Juridique et EI Achats (Analyses de risques fournisseurs) · Etre force de proposition d’optimisation en anticipant les risques, les tendances et les opportunités. · Pour chaque contrat : · Réaliser une synthèse présentant le besoin, la réponde au besoin avec un support contractuel et une synthèse contrat sur les demandes de market data formulées par les lignes métiers. · S’assurer de bien comprendre, de challenger et de documenter l’utilisation faite des données souscrites par les lignes métiers notamment s’il s’agit d’alimenter des applications et des référentiels. · Assurer un reporting auprès des équipes de facturation et s’assurer d’une bonne coordination avec les équipes techniques si besoin. · Intégration des contrats dans les applications internes et mise à jour des informations régulières.
Offre d'emploi
Product Owner - Data H/F
CONSORT GROUP
Publiée le
JIRA
40k-46k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Product Owner - Data H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la data et la gestion de produit en environnement Agile ? Ce poste est fait pour vous. En tant que Product Owner Data , vous êtes responsable du pilotage des besoins métiers et de la coordination des équipes techniques de notre écosystème : Côté build : Analyser et comprendre les besoins métiers liés aux solutions data Formaliser les besoins fonctionnels et rédiger les user stories Co-construire les solutions avec les équipes du train SAFe Perso Reco Participer à la modélisation et à la structuration des solutions data Piloter le développement, l’intégration et le déploiement des solutions Animer les échanges entre équipes métiers et techniques Côté run : Suivre la performance des solutions data en production Garantir la cohérence entre développement, tests et production Vérifier le respect des standards techniques et des règles de sécurité Assurer la conformité fonctionnelle des solutions livrées Identifier les risques et proposer des actions correctives Assurer le reporting d’avancement et le suivi des objectifs délais / budgets Collaborer avec les partenaires techniques et gérer les intégrations C’est votre parcours Vous avez au moins 4 ans d’expérience dans des environnements exigeants. Vous aimez traduire les besoins métiers en solutions concrètes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Gestion de projet en mode Agile SAFe JIRA C’est votre manière de faire équipe : Esprit d’analyse et sens de la communication Collaboration et capacité à fédérer les équipes C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Mougins Contrat : CDI Télétravail : 2j Salaire : De 40 000€ à 46 000€ (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
Data Engineer Azure
KLETA
Publiée le
Azure
Databricks
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Azure pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur Microsoft Azure. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec Azure Data Factory, Azure Databricks, Azure Synapse, Azure Data Lake et Event Hubs. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’Azure. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
Data Quality Analyst senior
FIRST CONSEIL
Publiée le
BigQuery
Data quality
Google Cloud Platform (GCP)
6 mois
40k-45k €
400-550 €
Île-de-France, France
Au sein d'une équipe composée de data analysts intégrée aux rituels Product, vous participez à l'évolution fonctionnelle et technique de nos produits data en environnement Agile. Vous aurez l’opportunité de collaborer avec l’ensemble des équipes product, tech et métiers autour des missions suivantes : Explorer, analyser et documenter les données du data warehouse du groupe; Contribuer à l’amélioration de la qualité du data warehouse : mettre en place le plan d’action défini sur 2026 : contrôles, monitoring et alerting Réaliser des travaux d’automatisation afin de gagner en productivité et efficacité. Notre stack data : GCP, BigQuery, Python, Looker Studio Profil recherché Formation : Diplôme de niveau BAC +4 à 5, en école d’ingénieurs ou université spécialisé en statistiques, data science, informatique décisionnelle ou data management ; Langues : Français et Anglais courant exigés ;
Mission freelance
DATA ANALYST SNOWFLAKE (BANQUE)
HAYS France
Publiée le
Databricks
Snowflake
3 ans
100-400 £GB
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du renforcement de la Direction des Risques chez notre client , nous recherchons un Data Analyst spécialisé Risk / Crédit , avec une forte capacité d’analyse de données, une bonne connaissance des produits et mécanismes bancaires, ainsi qu’une appétence pour les sujets réglementaires (risque crédit, risque climatique, cartographies des risques, roadmap S1/S2). Le poste n’est pas rattaché à l’IT , mais bien au métier Risk , avec un fort niveau d’exigence, un suivi rapproché du Directeur des Risques, et une contribution directe aux travaux réglementaires. Missions principales Analyse de données & contrôle qualité Les missions correspondent aux pratiques observées pour les Data Analysts spécialisés crédit/risk dans la banque : Explorer des bases de données, analyser la qualité de la data (cohérence, complétude, format, anomalies, reprises de données si nécessaire). Réaliser des analyses exploratoires (EDA) pour identifier tendances, risques, ruptures et impacts potentiels. Contrôler la fiabilité des données utilisées pour les modèles et reportings réglementaires. Production de modèles / datamining Contribuer à la production ou l’amélioration d’analyses et modèles simples liés au risk crédit et risk climatique . Produire ou enrichir certaines bases de données dédiées au risque. Réaliser des analyses quantitatives permettant d’éclairer les comités de risques. Technologies & environnement data Les outils alignés au marché bancaire pour les fonctions Risk & Data Analyst sont Snowflake, outils SQL, ETL, Databricks : Exploitation de Snowflake (idéal). Compétence souhaitée en Databricks pour certaines transformations ou analyses avancées. Capacité à travailler sur un ETL type Alteryx appréciée. Adaptation aux workflows data métier (pas d’équipes IT en support direct). Support métier & risk management Les équipes Risk Analyst collaborent étroitement avec les métiers et les comités de décision : Support analytique au métier Risk dans le traitement des données et la compréhension des indicateurs. Participation aux comités risques : présentation, documentation, justification des analyses. Contribution à la cartographie du risque climatique et au suivi des obligations réglementaires Risk Crédit . Documentation, reporting & conformité La création de rapports et de documentation est un élément clé du rôle Risk/Data Analyst en banque : Rédiger les documents explicatifs : analyses, méthodologies, transformations, décisions de traitement de données. Produire des notes, comptes rendus et supports pour les comités. Assurer la conformité des travaux avec les exigences réglementaires (S1/S2, risk crédit, risk climat).
Offre d'emploi
Ingénieur Data / Data Scientist - Secteur Aéronautique (H/F)
█ █ █ █ █ █ █
Publiée le
Apache Spark
Python
SQL
37k-43k €
Marignane, Provence-Alpes-Côte d'Azur
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
CP Data Migration SAP - MDM
Atlas Connect
Publiée le
Coupa
CRM
Data governance
12 mois
580-690 €
Paris, France
🎯 Contexte de la mission Dans le cadre d’un vaste programme de transformation finance et digitalisation, notre client renforce son dispositif autour des sujets Data Model & Data Migration sur les périmètres : Performance Opérationnelle Finance Run des applications Finance (P2P et CRM) Programme Source-to-Pay Déploiement de Sirion (France & USA) Harmonisation des outils Migration et transformation des modèles de données Intégration future dans un référentiel MDM Projet S/4HANA Environnement international avec fort enjeu de coordination. 🚀 Missions principales Le Chef de Projet Data Migration sera responsable de la coordination et du pilotage des sujets liés au modèle de données et à la migration dans un environnement multi-outils. 📌 Pilotage Data Migration Définir et piloter la stratégie de migration des données Superviser la qualité, la transformation et la cohérence des données Garantir l’alignement avec les modèles cibles Anticiper l’intégration future dans le MDM 📌 Coordination transverse Mettre autour de la table les équipes métiers, IT et intégrateurs Animer les comités projets Arbitrer et prioriser les chantiers Assurer la cohérence entre P2P, CRM, Sirion et S/4HANA 📌 Programme & Outils Contribution au programme Nexus Pilotage data sur le périmètre Source-to-Pay Harmonisation des outils finance et procurement Compréhension des enjeux autour des outils de type StoS ⚠️ Le poste n’est pas orienté technique d’implémentation : → Pas de mise en place d’interfaces → Pas de déclenchement technique d’outils → Rôle orienté pilotage, coordination, gouvernance data 🧠 Profil recherché🎓 Expérience Minimum 8 ans d’expérience en gestion de projet data / transformation Expérience confirmée en migration de données dans des environnements complexes Expérience sur des programmes internationaux fortement structurants 💻 Compétences techniques Bonne connaissance de : SAP (idéalement S/4HANA) Coupa Environnements P2P / Source-to-Pay Connaissance de Tibco : un plus Compréhension des problématiques MDM Vision data model & gouvernance 🌍 Langues Anglais obligatoire
Mission freelance
Data Engineer Semarchy (H/F)
CELAD
Publiée le
1 an
370-400 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL
Offre d'emploi
Data Engineer Semarchy (H/F)
CELAD
Publiée le
36k-42k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL
Mission freelance
Data Architect - Lyon
Sapiens Group
Publiée le
Hadoop
Microsoft Power BI
MySQL
1 an
500-530 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du choix et de la mise en place de la nouvelle plateforme Data régime, le profil interviendra pour définir, concevoir et accompagner la construction de l'architecture cible Data de la fédération. Ses missions principales seront de : Définir l'architecture cible Data : concevoir l'architecture Data cible de la fédération, alignée avec la stratégie globale Data et les principes Data-Centric et définir les patterns d'intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). Concevoir l'architecture de la nouvelle plateforme Data : concevoir l'architecture technique globale de la plateforme, en intégrant l'écosystème existant (Teradata, Hadoop) et la stratégie d'évolution (cloud ou on-prem, gouvernance, scalabilité). Proposer la trajectoire d'évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d'intégration et l'architecture cible. Définition et formalisation des standards Data : définir les standards d'intégration, de transformation, de stockage et d'exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l'écosystème (outils d'ingestion, qualité, orchestrateurs, catalogage, gouvernance).
Offre d'emploi
Consultant Data Snowflake
AGH CONSULTING
Publiée le
Qlik
Snowflake
6 mois
38k-45k €
280-400 €
Île-de-France, France
Dans le cadre de projets Data chez l’un de nos clients grands comptes, nous recherchons des consultants Data orientés Qlik disposant d’un vernis sur Snowflake, pour renforcer des équipes BI/Data existantes. Missions principales ▪ Concevoir, développer et maintenir des tableaux de bord sous Qlik Sense / QlikView ▪ Analyser les besoins métiers et les traduire en solutions BI pertinentes ▪ Exploiter des données issues de Snowflake (requêtes, compréhension du modèle, optimisation basique) ▪ Participer à l’amélioration des modèles de données et des performances des reportings ▪ Collaborer avec les équipes Data (BI, Data Engineers, métiers) Environnement technique ▪ BI / Data Viz : Qlik Sense / QlikView ▪ Data Warehouse : Snowflake (niveau compréhension / usage) ▪ Langages & outils : SQL, notions ETL, environnements Data modernes ▪ Méthodologie : projets BI, travail en équipe agile ou hybride
Offre d'emploi
DATA ANALYST- Trade Finance
AVA2I
Publiée le
SQL
Xray
1 an
Île-de-France, France
Compétences fonctionnelles • Expérience en banque d'investissement et Trade finance indispensable • Capacité à appréhender les principes d'architecture et problématiques IT • Expérience en implémentation Agile • Connaissance des tests automatiques • Connaissances des portails Trade Finance (Swiftnet, Vialink, Konsole, etc.) Compétences comportementales • Travail en équipe et sens du service • Communication aisée à l'oral comme à l'écrit en environnement multiculturel • Capacité d'analyse et de synthèse • Organisation, dynamisme et rigueur Langues • Anglais opérationnel (usage régulier avec des équipes anglophones) • Français courant IT : SQL, si outils d'automatisation de tests comme selenium ou xray ou autre serait un plus
Offre d'emploi
Consultant Data (H/F)
HOXTON PARTNERS
Publiée le
Qlik
Snowflake
Talend
4 mois
40k-45k €
400-500 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un programme de structuration et d’optimisation des flux de données au sein d’un environnement international, nous recherchons un Consultant Data technico-fonctionnel confirmé afin d’accompagner les équipes dans la fiabilisation et l’exploitation des données. Missions Concevoir et maintenir les flux d’acquisition et de transformation de données Développer et optimiser les traitements ETL sous Talend Studio Structurer et exploiter les données au sein de l’environnement Snowflake Contribuer à la restitution et au pilotage des indicateurs via la BI Qlik Collaborer avec les équipes techniques et métiers pour assurer la cohérence des modèles de données
Mission freelance
Un Data Analyst Confirmé Sur Boulogne Billancourt
Almatek
Publiée le
Data analysis
4 mois
400-500 €
Boulogne-Billancourt, Île-de-France
Almatek recherche pour l'un de ses clients, Un Data Analyst Confirmé Sur Boulogne Billancourt. Profil recherché : Data Analyst > à 5 ans 5+ years in log analytics, observability, or web platform monitoring • Experience with enterprise-scale websites • Strong analytical mindset and ability to translate data into actionable recommendations • Able to work autonomously and advise at both technical and strategic levels Contexte : We seek a consultant to design and implement a monitoring and analytics framework that enables proactive detection, analysis, and mitigation of traffic spikes, anomalies, and performance or cost risks across our web platform. Environnement The platform includes: • Adobe Experience Manager (AEM) as a Cloud Service • Cloudflare (edge protection & bot management) • CDN layer (Fastly) • Google Analytics 4 • Log analysis via Splunk (or Microsoft Fabric in the future) Scope of Work : Dashboard & Monitoring • Analyse the needs for the case at hand • Build unified dashboards correlating AEM, CDN, Cloudflare, and analytics data • Visualize traffic trends, cache performance, request types, and error patterns Alerting • Configure proactive alerts for spikes, anomalies, bot surges, and abnormal API usage • Implement threshold-based and anomaly-based detection Analysis & Optimization • Interpret log data and traffic events • Identify causes of spikes or anomalies • Recommend improvements (caching, rate limiting, WAF rules, log enrichment, etc.) Knowledge Transfer • Provide documentation and walkthroughs to ensure internal teams can operate and extend the solution Required Expertise : • Strong experience with AEM logs and request flows • Experience analysing Cloudflare logs and CDN behaviour • Solid knowledge of Google Analytics 4 data structures • Advanced skills in Splunk SPL and dashboarding (or equivalent experience with Microsoft Fabric/KQL) • Deep understanding of: o HTTP, caching, and CDN architectures o Bot detection and traffic segmentation o Large-scale web traffic analysis
Mission freelance
Data analyst / Support analyst
UCASE CONSULTING
Publiée le
Microsoft Excel
3 ans
450-500 €
Paris, France
Bonjour, Pour le compte de notre client, nous recherchons un data anayst / support analyst. 1 – CONTEXTE ET PÉRIMÈTRE Le Data Analyst est responsable de la qualité, de la cohérence et de l’exhaustivité des données utilisateurs et des souscriptions aux services dans HERO, ainsi que de leur synchronisation et alignement avec les outils tiers (Docebo, SmartRecruiter, ServiceNow et Microsoft Entra ID). L’objectif est de renforcer la fiabilité des données de référence (master data), de réduire les écarts et d’assurer un processus de gouvernance régulier (suivi hebdomadaire + activités RUN). Ce rôle garantit que le référentiel utilisateurs HERO reste propre, dédupliqué, à jour et cohérent avec les services souscrits et les rôles attribués, tout en pilotant proactivement les actions correctives en coordination avec les équipes concernées (PS, L3, etc.). 2 – PRINCIPALES ACTIVITÉS ET RESPONSABILITÉS 1. Gouvernance du cycle de vie des utilisateurs (RUN) Identifier les utilisateurs actifs à désactiver sur la base d’analyses (date de dernière connexion et/ou date de fin de contrat) et intégrer ce contrôle dans le suivi régulier. Gérer les demandes de chargement en cours ou en attente : VPO, GM manquants, manquants et utilisateurs manquants. Intégrer dans HERO les utilisateurs résiduels mis de côté lors de la migration initiale : préparer la liste, soumettre à arbitrage (à inclure / déjà ajoutés / à exclure), exécuter le chargement et réaliser les contrôles/validations. 2. Qualité des données & complétude des identifiants S’assurer que tous les utilisateurs appartenant à des entités abonnées à Docebo ou SmartRecruiter disposent d’un ID Docebo / SmartRecruiter. En cas d’absence : collecter les identifiants et mettre à jour HERO (avec le support des équipes PS). 3. Déduplication & fiabilité des données de référence Identifier les doublons dans HERO via des investigations (nom, prénom, code, correspondances approximatives/fuzzy matching). Déterminer le compte à conserver et celui à supprimer. Effectuer la suppression après mise à jour préalable des ID Docebo / SmartRecruiter, identifiants, emails et rôles dans HERO. Suivre et valider les mises à jour dans les outils tiers (Docebo / SmartRecruiter) avec le support L3. 4. Cohérence abonnements / services / rôles Identifier les écarts entre les services souscrits au niveau entité et ceux souscrits au niveau utilisateur, puis ouvrir et suivre les demandes de correction si nécessaire. Identifier les incohérences entre rôles et abonnements, par exemple : un rôle existe alors que le service est positionné sur “Non” un rôle “power user” sans niveau spécifié un nombre de rôles attribués supérieur au maximum autorisé par le package un service souscrit dans HERO mais absent dans ServiceNow (ou inversement) 5. Complétude fonctionnelle des données Identifier les champs de données fonctionnellement obligatoires selon les services souscrits. Extraire la liste des utilisateurs pour lesquels ces champs obligatoires sont manquants. 6. Suivi & reporting de la qualité des données Produire chaque semaine les principaux KPI de qualité des données, notamment : ID Docebo / SmartRecruiter manquants incohérences services / rôles champs obligatoires manquants par service 7. Alignement Identité / Annuaire (Entra ID) Identifier les comptes nominatifs présents dans HERO mais absents du groupe Entra ID. Mettre à jour et maintenir le groupe Entra ID. 8. Contrôles globaux de cohérence HERO Détecter les incohérences structurelles, par exemple : un sans rôle GM attribué mais avec des utilisateurs rattachés un décalage entre l’email de connexion et le groupe " Nominatif / deskless” 3 – COMPÉTENCES REQUISES Hard Skills Analyse de données, qualité des données, détection d’anomalies et déduplication Forte capacité à réaliser des extractions, contrôles et réconciliations multi-systèmes (référentiels + outils tiers) Maîtrise avancée SQL / Excel (ou équivalent) et capacité à industrialiser les contrôles (scripts / requêtes / règles) Compréhension des concepts IAM (identités, groupes, annuaires) appréciée Soft Skills Grande rigueur, sens du détail et esprit d’investigation / résolution de problèmes Capacité à piloter la résolution d’incidents (collecte d’informations, relances, coordination) Communication claire (reporting, synthèse, priorisation)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1732 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois