L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 282 résultats.
Offre d'emploi
Data Quality Analyst
Publiée le
Data governance
Data quality
1 an
40k-45k €
400-610 €
Paris, France
Télétravail partiel
Mission La mission du Data Office s'est fortement enrichie avec la promotion de l'utilisation de la DATA par l'ensemble des projets des Métiers / Fonctions (Risque/Finance/ IT) de l'organisation et du Groupe. L'objectif est de développer l'activité commerciale, de diminuer les couts, d'améliorer l'efficacité opérationnelle et de répondre à la dimension règlementaire. La mission est au sein de l'équipe Data Office Data Quality. L'activité de cette équipe porte sur le développement, l'amélioration et le déploiement du Dispositif Data Quality (contrôle, dimension, labélisation, coordination des remédiations) dans l'écosystème de l'organisation et sur l'accompagnement Data sur les projets réglementaires (définition, cadrage, flowcharts, règle de gestion..)
Mission freelance
Senior Data Scientist
Publiée le
ADFS
Analyse financière
Azure
6 mois
550-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre du remplacement d’un consultant senior sortant, tu rejoindras l’équipe Pricing & Revenue Management afin d’assurer la continuité, l’évolution et la fiabilisation des modèles algorithmiques stratégiques. Ton rôle sera clé pour concevoir, développer et optimiser des modèles avancés de pricing et de revenue management, permettant de prévoir, indexer et optimiser les contrats clients dans un contexte business à forts enjeux. 🧠 Missions principales 1. Développement & optimisation de modèles Concevoir et développer des modèles avancés de pricing (indexation, forecasting, optimisation des revenus). Améliorer la performance des algorithmes existants (précision, vitesse, robustesse, explicabilité). Construire de nouveaux modèles data-driven liés au revenue management (élasticité, stratégie tarifaire, scénarios). 2. Engineering & Data Pipeline Développer, maintenir et optimiser des pipelines dans Azure Data Factory & Azure Databricks . Manipuler, transformer et structurer des données dans un environnement big data. Intégrer et orchestrer les données via Azure Lakehouse / ADLS . (Bonus) Utiliser PySpark pour gérer des volumes de données importants. 3. Collaboration & Interaction Business Travailler en étroite collaboration avec les équipes Pricing, Finance et Opérations. Comprendre les besoins business et les traduire en modèles statistiques exploitables. Documenter, présenter et vulgariser les résultats auprès des équipes métier. Garantir une forte réactivité et la fiabilité des livrables compte tenu des enjeux stratégiques. 🛠️ Stack technique Python : indispensable (modélisation, data processing, industrialisation). Azure Cloud : Databricks, ADF, ADLS / Lakehouse. PySpark : apprécié. Méthodes & domain expertise : Pricing algorithmique Revenue management Forecasting (séries temporelles, modèles ML) Optimisation (linéaire, stochastique, contraintes)
Mission freelance
Data Scientist Senior
Publiée le
Google Cloud Platform (GCP)
Python
SQL
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Une grande organisation publique du secteur numérique renforce sa Direction Data, rattachée à la Direction du Numérique. Cette direction a pour objectif de faire de la donnée un levier majeur de croissance et d’optimisation des usages numériques. Le pôle Data Intelligence, composé de 4 Data Scientists et 2 Data Analysts, recherche un Data Scientist senior afin de soutenir l’exploitation des données utilisateurs, la mise en place de modèles avancés et la structuration du socle analytique. Une expérience minimale de 8 ans en data science est requise. Prestations attendues Le consultant interviendra au sein de l’équipe Data Science pour : Analyse et structuration de données • Auditer les nouvelles données disponibles dans le datalake pour enrichir le socle analytique. • Explorer, analyser et comprendre les profils et comportements utilisateurs. • Réaliser des analyses avancées : profils de vidéonautes, comportements par canal, consommation de contenus, impact de la pression publicitaire. Développement de modèles de Data Science • Comprendre les besoins métier, proposer une approche adaptée et vulgariser les résultats. • Développer et industrialiser des modèles tels que : Prévision des audiences. Enrichissement du catalogue via IA générative. Analyse sémantique des commentaires utilisateurs. Prédiction d’inactivité, d’appétence, anti-churn. Segmentation utilisateurs. Contribution au produit Data • Participer à l'amélioration continue des outils et pipelines. • Travailler avec les équipes data, produit et métier dans un contexte agile. Expertises requises Techniques • Expériences concrètes en modèles IA : prévision, recommandation, scoring, analyse sémantique, détection d’anomalies. • Expérience significative sur des sujets d’IA générative (IAG). • Maîtrise impérative de Python et SQL . • Bonne connaissance d’un cloud, idéalement Google Cloud Platform . • Connaissance des données issues d’écosystèmes digitaux (Piano Analytics, Google Analytics…). • Connaissance d’un outil de dataviz. • Un plus : architectures API, Git/GitHub, méthodes agiles. Fonctionnelles • Capacité à comprendre un besoin métier, synthétiser et restituer clairement. • Capacité à gérer plusieurs projets simultanément. • Rigueur, autonomie, esprit d’équipe.
Mission freelance
Data Scientist GenAI & Business Analyst
Publiée le
Business Analysis
IA Générative
RAG
3 ans
250 €
Porto, Portugal
🔍 Nous recherchons un(e) Data Scientist spécialisé(e) en GenAI / RAG prêt(e) à vivre une nouvelle aventure au PORTUGAL ! ☀️ Vous interviendrez en tant que Business Analyst GenAI sur le traitement de cas d'usages (RAG / Agents conversationnels) et la gestion d'une plateforme Low Code 🎯 Vos missions principales : ✅ Comprendre les besoins métiers & techniques et les traduire en spécifications ✅ Gérer et enrichir la base documentaire alimentant les agents conversationnels ✅ Faire évoluer la plateforme Low Code : corrections, évolutions, nouvelles features ✅ Collaborer au quotidien avec les développeurs Java & équipes techniques ✅ Intégrer des chatbots et accompagner la mise en production ✅ Challenger les usages métiers, cadrer les besoins, créer la vision produit ✅ Participer aux travaux autour du RAG, embeddings et base vectorielle interne
Mission freelance
Ingénieur de production
Publiée le
Intégration
Production
Support informatique
12 mois
400-550 €
Niort, Nouvelle-Aquitaine
Ingénieur de production / intégrateur d’exploitation, Freelance, 12 mois de contrat initial, Niort, Attractive opportunité pour un(e) Consultant(e) DevOps & Oracle de rejoindre notre client final basé à Niort et qui accompagne quotidiennement des millions de particuliers et de professionnels. Dans le cadre du maintien en conditions opérationnelles (MCO) et de l’ amélioration continue de son système d’information, le client souhaite renforcer son équipe Production / Exploitation par une prestation d'ingénierie/ Ops. La prestation consistera à une intervention en support du centre de service (N1/N2 ) afin d’assurer la prise en charge du niveau 3, la résolution des incidents complexes, et la fiabilisation des environnements de production. Missions : o Assurer le support niveau 2 sur le périmètre production (plan d’exploitation, infrastructures, applicatif, bases de données) o Garantir la résolution des incidents critiques et la prévention de leur récurrence ; o Participer à la fiabilisation, à l’automatisation et à l’industrialisation des processus de production o Accompagner le centre de service Exploitation (N1/N2) dans la montée en compétence et la formalisation des procédures o Traiter en autonomie les incidents et demandes de services autour des bases de données (compétence manquante au sein de l’équipe) o Objectifs et livrables o Description des activités principales o Gestion opérationnelle : o Prendre en charge les incidents techniques 3 et coordonner leur résolution o Effectuer les analyses post-incidents et proposer des actions correctives et préventives o Suivre et piloter les actions de fiabilisation et d’amélioration continue o Gérer les changements en production selon les bonnes pratiques ITIL o Mettre à jour la documentation technique et les procédures d’exploitation o Amélioration continue / Automatisation : o Identifier les points de fragilité du SI et proposer des quick win o Industrialiser les opérations récurrentes à fort ROI o Contribuer à l’amélioration continue des chaînes d’exploitation et du monitoring
Offre premium
Mission freelance
CUSTOMER DATA MODELER H/F
Publiée le
Data governance
Gouvernance
Master Data Management (MDM)
6 mois
Paris, France
Télétravail 100%
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un Customer Data Modeler dans le cadre du programme MDM Voyager phase 2 . La mission vise à renforcer la structuration, la modélisation et la gouvernance des données Clients au sein de l’écosystème Master Data Management. Le consultant travaillera avec les équipes IT, les métiers et les équipes Data Governance afin de documenter, améliorer et aligner durablement les modèles et processus MDM liés au domaine Client. Objectif et livrable: Conception et documentation du Customer Master Data Model . Définition des processus de gouvernance, règles de qualité, rôles et responsabilités. Alignement avec les équipes métier et IT pour assurer cohérence et intégration dans le programme MDM Voyager. Livrables attendus : modèles de données, dictionnaires, règles de qualité, schémas de gouvernance, rapports de validation. Compétences attendues : Expertise forte en Master Data Management (Customer) : modélisation, qualité, gouvernance. Très bonne compréhension des processus du domaine Client (Customer lifecycle, segmentation, identification…). Maîtrise de la documentation de modèles conceptuels/logiques/physiques. Connaissance de SAP S/4HANA et SAP MDG (atout majeur). Capacité à collaborer avec plusieurs parties prenantes IT / Business. Excellente aptitude à formaliser règles, processus et dictionnaires de données.
Mission freelance
Architecte SI
Publiée le
Data analysis
IA
1 an
400-650 €
Paris, France
L’Architecte SI intervient en amont et tout au long des projets pour aider les équipes à penser les architectures cibles, assurer l’alignement avec le SI existant et garantir la cohérence globale des solutions déployées. Il travaille en étroite collaboration avec les équipes projet et s’inscrit dans un cadre de gouvernance nécessitant une validation, notamment sur les sujets structurants. Le périmètre principal porte sur l’architecture SI applicative. Des compétences complémentaires en architecture infrastructure, réseau, data ou IA sont appréciées, mais la data et l’IA restent prioritairement pilotées par l’équipe interne. Le profil recherché dispose d’une solide expérience en architecture des systèmes d’information, d’une capacité à dialoguer avec des interlocuteurs variés et à apporter une vision claire, pragmatique et structurante aux projets.
Mission freelance
Experts IA ML/LLM/Devops/Cloud/CI/CD Lyon (3 jours TT)
Publiée le
IA
6 mois
500-700 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Experts IA ML/LLM/Devops/Cloud/CI/CD Lyon Compétences attendues sur les profils : Compétences en programmation Architecture et technologies IA (modèles IA/IA génératives, outils, frameworks) Modèles de Machine Learning / Deep Learning / LLM. Outils de DevOps et de Cloud Computing Processus CI/CD Traduction des enjeux métiers en solutions opérationnelles Communication et vulgarisation : capacité à expliquer des concepts complexes au sein d’une équipe pluridisciplinaire Collaboration interdisciplinaire : capacité à travailler étroitement avec différentes parties prenantes (métiers et IT) Méthodologies agiles Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Séniorité : Minimum 7 ans d’expérience Missions : Détection d’opportunités IA (Analyser les besoins métiers, identifier et prioriser les opportunités IA, estimer leur ROI et évaluer les risques pour garantir la pertinence et la conformité des solutions.) Etude de faisabilité technique (Concevoir des prototypes et réaliser des PoC en environnement contrôlé afin de valider les hypothèses et évaluer leurs performances sur des métriques clés.) Définition de la solution technique (Évaluer la pertinence des technologies IA, identifier les contraintes techniques, et collaborer avec la DivNum pour définir l’infrastructure et les outils nécessaires à l’intégration.)
Mission freelance
Data Manager / Data Quality Lead H/F
Publiée le
Data governance
6 mois
450-580 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Notre client dans le secteur Santé et pharma recherche un/une Data Manager / Data Quality Lead H/F Description de la mission: Contexte & Mission L’entreprise renforce son organisation Data afin de délivrer des produits data fiables et de confiance à l’échelle du Groupe. Au sein de la Data Product Squad , l’entreprise recherche un(e) Data Manager / Data Quality Lead expérimenté(e) pour lancer et structurer le chantier Data Quality , identifié comme un point de douleur majeur et une priorité stratégique . L’objectif principal de cette mission est de construire, piloter et opérationnaliser la Data Quality , en étroite collaboration avec les Business Data Owners et la Data Engineering Squad . Objectifs clés La mission s’articule autour de quatre objectifs principaux : Identifier et structurer les Data Domains , et animer la communauté des Data Owners Définir et piloter la roadmap Data Quality , en priorisant les jeux de données et domaines à corriger en premier Mettre en place le pilotage et les outils de Data Quality , incluant les indicateurs de qualité et le reporting sur le data drift Coordonner les Data Owners et la Data Engineering Squad afin d’assurer des corrections de données efficaces et durables Responsabilités principales Identifier les Data Domains et formaliser les responsabilités (Data Owners, Data Custodians) Animer, fédérer et structurer la communauté des Data Owners Évaluer les problématiques actuelles de qualité des données et leurs impacts métiers Définir, maintenir et prioriser la roadmap Data Quality Définir les règles de Data Quality , KPI et indicateurs Déployer ou paramétrer les outils de Data Quality (monitoring, alertes, reporting, détection de dérive) Reporter l’état de la Data Quality , les risques et l’avancement auprès des parties prenantes Compétences & Expérience requises Expérience confirmée en tant que Data Manager / Data Quality Lead dans des organisations complexes Expérience de travail étroite avec des Data Owners métiers Expérience avec des outils de Data Quality (monitoring, contrôles, métriques, détection de dérive) Excellentes capacités de facilitation , de coordination et de communication Capacité à conduire le changement sans autorité hiérarchique Profil senior requis (autonome, structuré, pragmatique) Modalités de la mission Démarrage : janvier 2026 Langues : français & anglais
Mission freelance
Expert Cybersécurité – GenAI / Azure
Publiée le
AI
Azure
Cybersécurité
3 ans
400-800 €
Fontenay-sous-Bois, Île-de-France
Télétravail partiel
Nous recherchons un Expert Cybersécurité spécialisé GenAI afin d’accompagner une direction sécurité sur les sujets IA, Cloud et protection des données. Assurer la cybersécurité des projets et plateformes GenAI Définir les règles de sécurité autour des technologies : Microsoft 365, Azure, Copilot, Power Platform, Azure ML Produire les dossiers de sécurité : risques, contre-mesures, blueprints, recommandations Accompagner les équipes projets et centres de compétences (architecture, normes, standards) Réaliser des revues de sécurité du code et des livrables techniques Définir des KPI de gouvernance AI et des tableaux de pilotage des risques
Mission freelance
Expert DATA IA Sénior (SAS, Powershell, Batch, Shell) minimum de 7 ans d’exp/fa
Publiée le
IA
SAS
12 mois
Paris, France
Télétravail partiel
Expert DATA IA Sénior (SAS, Powershell, Batch, Shell) minimum de 7 ans d’exp/ Expert DATA IA Sénior avec un minimum de 7 ans d’expériences sur des projets similaires. Programmation SAS niveau avancé Scripting : Powershell, Batch, Shell Connaissance de méthodologies de parsing Communications, bon relationnel Organisation et rigueur Sens du travail en équipe Autonomie Localisation Paris 12e/ Télétravail Durée de la mission : 2 ans Projet : Dans le cadre des projets transformants sous l'angle d'Agent IA supra, recherche à se renforcer pour piloter/cadrer certains travaux prioritaires avec un forte dominante Marketing. Ce travail nécessite une forte autonomie et une capacité à coordonner des acteurs multiples tout en arrivant à un consensus stratégique et technique. Le candidat devra pouvoir s'appuyer sur son expertise ainsi que celle de son cabinet sur la vertical Data IA : Benchmark, bonnes pratiques sur les besoins en Data pour une IA, modèles IA (création/réutilisation, entrainement, évaluation métier, finops et projection, contraintes bancaires et cyber sur l'IA, interconnexions de produits IA majeurs pour structurer les bons travaux à lancer en priorité pour des livraisons fréquentes et cohérentes)... Avant fin 2025, l'ensemble du chantier doit être pré-cadré (toutes les réunions organisées et cordonnées ; notes de réunions à envoyer le jour J/J+1 et livrables de cadrage complets à fournir) avec une feuille de route à plusieurs niveaux sur 2026 tout en préparant si besoin en 2025 des travaux nécessaires à la bonne tenue des jalons temporels de 2026. Principaux livrables : Construire la feuille de route du stream Data IA avant fin 2025 pour certains projets transformants notamment dans la thématique Marketing en collaboration avec les bon acteurs. Compétences requises : Programmation SAS niveau avancé Scripting : Powershell, Batch, Shell Connaissance de méthodologies de parsing Communications, bon relationnel Organisation et rigueur Sens du travail en équipe Autonomie
Mission freelance
Data Engineer Hadoop – Secteur Assurance
Publiée le
Big Data
Hadoop
SQL
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Dans un environnement IT Data du secteur de l’assurance , le client exploite une plateforme Hadoop pour le traitement de données volumineuses issues des systèmes historiques. La mission vise à maintenir, faire évoluer et structurer les flux data existants, tout en assurant leur intégration avec les usages analytiques et cloud. Missions principales Développer et maintenir des traitements de données sur environnement Hadoop Gérer des volumes importants de données métiers assurance Participer à la conception et à l’optimisation des flux data Assurer la fiabilité, la performance et la qualité des traitements Collaborer avec les équipes cloud, BI et Data Science Contribuer aux phases d’analyse technique et de conception des solutions data Stack technique obligatoire Hadoop Écosystème Big Data SQL Environnements data distribués Profil recherché Data Engineer confirmé spécialisé Hadoop Expérience en contexte de forte volumétrie et SI complexe Capacité à faire de la conception de flux , pas uniquement de l’exécution Sensibilité aux enjeux métiers et réglementaires du secteur assurance
Mission freelance
Tech Lead Data Engineer - IoT / Java & Cloud
Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)
12 mois
720-730 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Tech Lead Data IoT – Java & Cloud" pour un client dans le secteur du retail. Description⚡ Le Contexte Au sein d'une plateforme IoT gérant des millions d'objets connectés (Smart Devices, vélos, équipements sportifs), nous recherchons le Référent Technique Data . Il ne s'agit pas d'un poste de Data Engineer classique qui ne fait que des pipelines, mais d'un rôle de Software Engineer / Tech Lead spécialisé dans le traitement de la donnée. Vous êtes le "Tech Lead Data" unique de la plateforme : vous portez la responsabilité technique et architecturale de tout ce qui touche à la donnée au sein de l'écosystème IoT. 🎯 Votre Mission : Architecturer et Construire le Backend Data Votre rôle est central : vous construisez le moteur qui ingère, traite et structure les événements remontés par les objets connectés. Vous êtes garant de la cohérence de la donnée, du capteur jusqu'au stockage. 1. Développement Backend & Traitement IoT (80-90% du poste) Développement Java : Concevoir et développer les briques Backend chargées du traitement des flux (Temps Réel & Événementiel). Gestion de la complexité IoT : Gérer les problématiques de connectivité instable. Exemple concret : Reconstituer une session de sport ("Ride") complète même en cas de perte de réseau, gérer les règles de début/fin de session automatiquement. Privacy by Design : Intégrer les contraintes RGPD et le respect des consentements utilisateurs directement dans l'architecture de collecte (filtrage à la source, anonymisation). 2. Architecture & Lead Data Référent Technique : Vous êtes le point de contact unique pour toutes les décisions impactant la data sur la plateforme. Conseil & Gouvernance : Vous auditez et conseillez les autres équipes Backend. Si une feature touche à la structure de la donnée, vous intervenez pour valider le modèle. Modélisation : Définir les modèles de données pour garantir leur exploitabilité future. 3. Analytics & Maintenance (10% du poste) Maintenir les flux ETL existants et les jobs d'analytics. Intervenir ponctuellement sur du Spark / Scala pour des besoins de BI ou de Data Science. 🛠 La Stack Technique Un environnement Multi-Cloud et moderne : Cloud Principal : GCP (Google Cloud Platform). IoT : AWS IoT Core (gestion de la flotte et connectivité). Langage Principal : Java (Expertise demandée). Analytics/Data : Databricks , Spark, Scala.
Offre d'emploi
Chef de projet sénior Assurance - projet IA
Publiée le
IA
12 mois
40k-63k €
100-540 €
Nanterre, Île-de-France
Télétravail 100%
Lieu ; Nanterre 92000 Secteur : Assurance Durée : 3 ans Poste : Je recherche un chef de projet MOA ayant déjà mis en place un projet utilisant les technologies d’IA en matière de reconnaissance vocale, de compréhension du langage et de génération de contenu, à des fins d’amélioration des interactions clients et d’augmentation de l’efficacité opérationnelle. Les besoins s’articulent autour de 3 piliers : Pilier 1 : Automatisation du traitement de l’appel : qualification et résumé Pilier 2 : Assistant virtuel du collaborateur pendant l’appel Pilier 3 : Analyse des causes profondes des appels pour baisser structurellement leur volume Le projet Traitement IA de la Voix vise à adresser en priorité le 1er pilier d’automatisation et comporte les besoins suivants : Automatiser la qualification: identifier le motif et le sous-motif et les injecter automatiquement dans les champs de qualification du CRM Flaguer l’appel en « réclamation » dès lors qu’il s’agit d’un appel réclamatif Générer de manière automatique un compte rendu d’appel court, clair et structuré en quasi-temps réel Le CP devra apporter une expertise et du conseil au métier de par son expérience d’un tel projet aussi bien sur le volet technique que fonctionnel.
Offre d'emploi
Expert Genesys & IA – Transformation des Centres de Contacts (H/F)
Publiée le
Genesys
IA
3 ans
Île-de-France, France
Contexte Dans le cadre de programmes de transformation digitale à l’échelle internationale , nous recherchons un Expert Genesys & Intelligence Artificielle pour accompagner l’évolution de centres de contacts omnicanaux. La mission s’inscrit dans un contexte multi-pays, multi-entités, avec un fort enjeu d’innovation autour de l’ IA et de la GenAI appliquées à l’expérience client. Objectif de la mission Concevoir, déployer et optimiser des solutions Genesys (Cloud / PureConnect / Enterprise) enrichies par des technologies d’ IA afin d’améliorer : la qualité des interactions clients, la performance opérationnelle, l’automatisation et le self-service intelligent. Activités principales Concevoir des architectures de centres de contacts intelligents basées sur Genesys. Définir et mettre en œuvre des solutions de : routage avancé et prédictif, IVR intelligents, workflows d’automatisation intégrant l’IA. Piloter l’intégration de chatbots, assistants virtuels et moteurs NLP dans les parcours clients. Assurer l’intégration de Genesys avec : les systèmes de téléphonie, les CRM, les plateformes d’IA cloud (Google, Azure, IBM Watson, etc.). Contribuer à l’innovation continue via l’introduction de nouvelles fonctionnalités IA/GenAI. Analyser les KPIs , mesurer la performance des solutions et proposer des optimisations. Garantir la conformité aux exigences de sécurité, confidentialité et standards sectoriels . Former et accompagner les équipes locales dans différents pays. Assurer un rôle de référent technique et fonctionnel sur les solutions Genesys & IA. Livrables attendus Solutions Genesys opérationnelles et optimisées intégrant des briques IA. Parcours clients omnicanaux intelligents et automatisés. Documentation technique et fonctionnelle. Rapports de performance et recommandations d’amélioration continue. Supports de formation et transfert de compétences aux équipes locales
Offre premium
Mission freelance
Référent Data
Publiée le
Architecture
Data governance
3 mois
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
1. Contexte Le Système d’Information regroupe près de 70 applications couvrant la recherche d’itinéraires, l’information voyageurs, la vente (digitale & physique), la billettique, les contrôles, le reporting et les interconnexions avec les partenaires de transport. Ce système est exploité dans un environnement complexe multi-acteurs avec des obligations contractuelles fortes vis-à-vis des instances publics. La gouvernance des données devient un enjeu clé pour garantir cohérence, sécurité, qualité de service et conformité réglementaire. 2. Rôle du Référent Data Ce poste opérationnel vise à structurer et piloter la stratégie Data , en mode RUN, en complément des développements BUILD. Il s’agit de définir les règles d’utilisation des données, d’assurer leur conformité, leur disponibilité, leur cohérence fonctionnelle, et de produire l’ensemble des reportings exigés. 3. Missions principales A. Gouvernance & Stratégie Data Définir une démarche Data Driven pour le RUN. Cadrer les besoins Data : brutes, personnelles, reporting, listings opérationnels. Être l’interlocuteur privilégié de la Région pour l’expression et la priorisation des besoins. Proposer les évolutions contractuelles nécessaires. Définir les guidelines Data : consommation, protection, nommage, droits d’accès. Évaluer l’évolution de l’architecture Data (MDM, outils, flux, organisation). B. Analyse et cadrage Réaliser le cadrage global : périmètre, responsabilités, planning, livrables. Lister et qualifier les cas d’usage Data. Construire la cartographie des données : thèmes, typologies métiers, systèmes, structures détaillées. Définir les processus de gestion de la donnée : cycle de vie, responsabilités, sécurité. Recenser les exigences légales et contractuelles (RGPD, archivage, purge, sécurité). C. Pilotage & Production Produire les documents de gouvernance Data : dictionnaires, cartographies, politiques. Établir les reportings contractuels et non contractuels, dont : Financier : prévisionnel, réalisé, écarts, dépenses par phase. Recettes : ventes par canal, recettes par gamme, reversements, régularisations. Maintenance : interventions, disponibilité, stock pièces, préventif/curatif. SI : disponibilité plateformes, temps de réponse, SLA, MTBF, intégration des données. Usagers : tickets CRC, satisfaction, fréquentation, usage titres. Distribution : CA & commissions par canal (Région et partenaires). D. Coordination Faire le lien entre : métiers, DSI, architectes SIBR, sous-traitants, et instances publics. Conduire et animer les ateliers Data. Garantir la cohérence et la fiabilité des flux data inter-outils et inter-équipes. E. Études de faisabilité pour nouveaux besoins Aider la Région à exprimer un besoin (et non une solution). Étudier impacts contractuels, sécurité, architecture, outillage et coûts. Proposer des arbitrages et une priorisation. 4. Compétences requises Techniques Gouvernance data (MDM, métadonnées, data lineage, qualité, sécurité). Connaissance des architectures data modernes (Cloud, API, flux). Capacité à structurer un dictionnaire de données et une cartographie. Compréhension des enjeux réglementaires (RGPD). Expérience des environnements complexes multi-SI. Fonctionnelles & personnelles Forte capacité de synthèse, communication et pédagogie. Orientation opérationnelle (« doer »). Capacité à anticiper les risques et sécuriser les engagements. Aisance dans les échanges institutionnels et le pilotage multi-parties. 5. Livrables attendus Note de cadrage Data Cartographie des sources et flux Dictionnaire des données Politique de cycle de vie, archivage et sécurité Plan de contrôle qualité Reporting financier, opérationnel, SI, marketing, maintenance, distribution Tableaux de bord contractuels Études de faisabilité détaillées pour les nouveaux besoins 6. Profil recherché +5 ans d’expérience en gouvernance Data ou architecture de données. Bac+5 en informatique ou équivalent. Expérience dans un contexte de création ou transformation d’un SI. Profil pragmatique, opérationnel et autonome. 7. Conditions de mission Lieu : Paris ou Marseille Déplacements ponctuels sur sites Durée : 6 à 12 mois minimum Temps plein
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4282 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois