L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 209 résultats.
Mission freelance
Data Product Owner
SKILLWISE
Publiée le
Azure
MySQL
Python
3 mois
400-550 €
La Défense, Île-de-France
Nous recherchons pour un de nos clients un Data Product Owner qui sera le responsable de la vision analytique d’un domaine métier. Son rôle est de comprendre en profondeur les besoins des utilisateurs, de transformer ces besoins en produits data concrets et de garantir que les équipes techniques livrent des solutions fiables, utiles et alignées sur les priorités de l’entreprise. Il travaillera au quotidien avec les métiers, les Data Engineers, les Data Analysts et les équipes IT pour créer de la valeur grâce aux données.
Mission freelance
Architecte DATA - Paris
SKILL EXPERT
Publiée le
Azure
Big Data
CI/CD
1 an
520-540 €
Paris, France
Mission : Analyser les besoins et usages en données des différents métiers de l’entreprise. Recommander des solutions de stockage et gestion de Big Data. Contribuer à la conception de l’architecture de la plateforme, Contribuer à l’observabilité de la plateforme, Implémenter la plateforme et les outillages associés, Assurer le maintien en condition opérationnelle de la plateforme, Assurer la sécurité des accès et de la plateforme, Mettre en place une stratégie de monitoring des coûts et d'optimisation des ressources Azure
Mission freelance
Service Owner Data Platforms (Braincube / Dataiku)
Signe +
Publiée le
Dataiku
12 mois
500-550 €
Malakoff, Île-de-France
Objectif de la mission Garantir le niveau de service, la gouvernance et le pilotage opérationnel (run) des plateformes Braincube et Dataiku, en assurant la performance, la conformité et l’amélioration continue du service. Responsabilités principales Maintenir les standards de service, assurer la conformité licences et suivre les usages via des KPIs Gérer incidents, demandes et changements, assurer la communication interne et utilisateurs Définir et suivre les SLA, piloter la performance du service et les indicateurs associés Structurer la roadmap, identifier les améliorations continues et piloter le plan de charge Garantir la résilience des plateformes (évolutions, obsolescences) et la sécurité des données Piloter les activités opérationnelles multi-sites (France / Inde / éditeurs / prestataires) Assurer l’interface avec les équipes IT et data pour faciliter l’exploitation du service Produire la documentation de service (guides, onboarding, bonnes pratiques) Environnement technique Braincube, Dataiku AWS (S3, EC2, EKS), déploiements sécurisés Connaissances ML Ops / Data Science / IA / IA générative Architecture SI / data, gouvernance data, exploitation et performance Sécurité et conformité (RBAC, chiffrement, logging, RGPD) Livrables attendus Reporting KPI et suivi des SLA Guides de bonnes pratiques et supports de formation Documentation de service et onboarding Plan de montée en compétences et roadmap d’amélioration Profil recherché Service Owner / Service Manager senior (8+ ans) Expérience pilotage run et gouvernance de plateformes data / analytics Solide compréhension des environnements cloud AWS et des enjeux data
Mission freelance
Consultant en Data Gouvernance pour une société de gestion de portefeuille
Mon Consultant Indépendant
Publiée le
Direction de projet
5 mois
760-780 €
Paris, France
MERCI DE LIRE ATTENTIVEMENT L'ANNONCE ET DE POSTULER UNIQUEMENT SI VOTRE PROFIL CORRESPOND AUX CRITERES EXIGES Une société de gestion de portefeuilles (fonds d'investissement et mandats) souhaite définir et déployer une gouvernance de la donnée. Les travaux consistent à rédiger la charte de gouvernance, faire adhérer les parties prenantes, notamment les métiers, à cette gouvernance, définir le dictionnaire de données de l'entreprise et le propriétaire de chaque point de donnée, documenter la criticité des données et les contrôles de qualité réalisés. La modélisation de processus fera aussi partie de la mission. Les familles de données qui seront concernées par la mission sont : Instruments financiers, Emetteurs, Prix et données de marchés, ESG, Indices et Benchmark, Portefeuilles, données d'inventaires, opérations financières, calcul de performance, calcul de risques... Expérience indispensable en déploiement d'une Data Gouvernance dans un environnement proche (société de gestion, banque d'investissement, capital market, banque privée).
Offre d'emploi
Dev react native / Data Engineer
IT CONSULTANTS
Publiée le
Méthode Agile
6 mois
Châtillon, Île-de-France
Nous recherchons un profil hybride, combinant une expertise en développement mobile React Native et une compétence solide en Data Engineering sur Databricks/Azure. Votre mission principale portera sur la maintenance évolutive et corrective d’une application mobile développée en React Native. En fonction de la charge de travail côté front, vous pourrez également intervenir sur la partie back/data du produit afin de contribuer aux traitements et pipelines de données sur Azure/ Databricks. Vos missions Vous interviendrez au cœur d’une squad produit sur les sujets suivants : 1) Développement mobile • Assurer la maintenance évolutive et corrective d’une application mobile en React Native • Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité) • Implémenter de nouvelles fonctionnalités ainsi que les tests associés, dans une démarche clean code (sécurité, maintenabilité) 2) Data Engineering • Concevoir, développer et implémenter des solutions Big Data Analytics • Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake • Développer des notebooks avancés sous Databricks (langage SQL, Framework SPARK) • Rédiger la documentation technique (DAT, release notes, etc.) • Réaliser des tests unitaires et assurer la qualité des livrables • Contribuer à la maintenance évolutive et corrective des traitements • Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés Profil recherché • Expérience confirmée en développement d’applications React Native en production (5 ans min.) • Expérience en Data Engineering sur Azure / Databricks / Spark / SQL (3 ans min.) • Maîtrise des APIs REST • Bonne connaissance de Git et première expérience en CI/CD / DevOps Soft Skills • Proactivité et force de proposition • Capacité à évoluer dans un environnement métier complexe • Forte appétence pour la qualité du code et les bonnes pratiques Stack technique • React Native : ++++ • Databricks : +++ • Spark : +++ • Azure : ++ Un test technique sera réalisé lors de l’entretien.
Mission freelance
Product Leader Data Looker et GCP
ODHCOM - FREELANCEREPUBLIK
Publiée le
Looker Studio
12 mois
400-550 €
Boulogne-Billancourt, Île-de-France
Contexte Projet/Produit Présentation générale Le Sales & Marketing Data Hub (SMDH) est un écosystème de données transverse conçu pour centraliser, harmoniser et exposer l’ensemble des données Sales & Marketing du Groupe Renault. Il constitue l’un des piliers de l’entité métier Data Power Unit (DPU) et joue un rôle clé dans la stratégie data du groupe. Créé pour maximiser la valeur business issue de la donnée, il vise à unifier des données dispersées dans divers silos, les rendre cohérentes, fiables, documentées et activables pour un large périmètre d’usages. Objectifs du SMDH : • Centraliser, unifier et standardiser les données issues de multiples sources (CRM, distribution, digital, après‑vente, données tierces…) • Offrir des datasets "gold" dans le datalake (DLK) prêts à l’emploi pour répondre à des cas d’usage analytiques, opérationnels ou marketing • Améliorer l’efficacité commerciale en permettant segmentation, scoring, dashboarding, analyses multicanaux, etc. Prestation attendue : L’objectif de la prestation au sein de la direction informatique Sales & Distribution est de : - assurer le pilotage de l’outil sur le périmètre existant ainsi que sur les nouveaux périmètres en contribuant à l’intégration de nouvelles sources de données ou à l’extension vers de nouveaux uses cases métier dans le respect des standards de qualité existants et de la réglementation RGPD. - contribuer au pilotage de la mise en place du semantic layer sur le périmètre « Sales & Marketing » via la technologie LookML. Ce semantic layer étant la cible de l’entreprise pour faciliter l’accès à la donnée via un langage métier unifié et documenté pour accélérer la production et l’industrialisation des cas d’usage analytiques et marketing. La prestation devra assurer les tâches suivantes : - Pilotage du Produit o Contribuer à la définition, au challenge et à l’évolution de la vision produit et de la roadmap, en lien étroit avec le Product Owner o Garantir la maximisation de la valeur générée par le produit et son alignement avec les besoins utilisateurs et métiers - Gouvernance et coordination o La coordination des équipes offshore IT (Centre RNTBCI en Inde), métiers et partenaires, en anticipant les risques, obstacles et dépendances o L’animation des instances de pilotage et la consolidation du reporting d’avancement, de coûts et de qualité - Leadership Agile o L’application des pratiques agiles Scrum et la facilitation des rituels o La promotion des valeurs Agiles et d’une dynamique d’amélioration continue au sein de l’équipe - Suivi opérationnel et qualité de service o Le pilotage de la qualité opérationnelle du produit (disponibilité, incidents, obsolescence, continuité) et des données o La supervision du cycle de vie complet du produit, de la conception à la mise en production et au maintien en conditions opérationnelles - Expertise technique et alignement SI o Appuyer les équipes dans les choix techniques, l’architecture et la cohérence du SI o Mettre en place les nouvelles solutions (LookML) dans le respect des guidelines définies par la direction architecture & data Livrables Les livrables suivants sont attendus : - Roadmap détaillée et mise à jour régulière. - Reporting d’avancement et de performance. - Plan d’amélioration continue et gestion des risques. - Documentation produit (fonctionnelle, technique, opérationnelle) - S’assurer du respect des engagements retenus lors des portfolios synch
Mission freelance
Chef de projet data migration (H/F)
Cherry Pick
Publiée le
Coupa
Gestion de projet
Migration
9 mois
600-650 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Chef de projet data migration(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine pharmaceutique. Description 🏢 Le Contexte : Programme de Transformation "Nexus" Vous rejoignez le programme international, au sein de l'équipe Performance Opérationnelle Finance . Ce programme vise à harmoniser les outils et processus sur l'ensemble du cycle Source-to-Pay (S2P) et Source-to-Settle à l'échelle mondiale. Après le déploiement en France, le projet s'attaque à un morceau d'envergure : le déploiement aux États-Unis , incluant une transition vers SAP S/4HANA et l'harmonisation des outils de CLM ( Sirion ) et d'e-Procurement ( Coupa ). 🎯 Vos Missions : Pilotage et Coordination de la Migration Sous la responsabilité du responsable Data Model et Data Migration, vous portez une stratégie de migration spécifique basée sur l'agilité et l'ajustement tardif des données. Définition du Scope : Mettre autour de la table des acteurs internes ultra-challengeants pour arrêter le périmètre de reprise (attributs, historique, périmètres géographiques). Stratégie de Migration par "Templates" : Contrairement à une migration technique classique, vous pilotez une approche par gabarits permettant d'ajuster et de transformer la donnée manuellement jusqu'au dernier moment pour garantir une fiabilité maximale au Go-Live. Intégration MDM : Assurer la mise en conformité et l'entrée des données dispersées dans le référentiel maître ( Master Data Management ) du groupe. Coordination Internationale : Aligner les besoins de la France et les spécificités du déploiement américain. Gouvernance et Documentation : Documenter les processus de transition pour assurer la continuité du "Run" après la migration.
Mission freelance
Consultant Support CRM Salesforce N2
COEXYA
Publiée le
Salesforce
8 mois
450-500 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Consultant Support CRM Salesforce N2 afin d’assurer la continuité et la qualité de service des applications CRM Marketing. Vous intervenez au sein du périmètre SI Commercial / Client dans un environnement structuré et exigeant, reposant principalement sur Salesforce (Sales, Service, Community, Marketing Cloud). Rôle attendu : Prendre en charge les incidents CRM Marketing de niveau 2 et en assurer le diagnostic complet Résoudre les incidents lorsque cela relève du périmètre N2 ou escalader vers les équipes N3 appropriées Rédiger les tickets correctifs (JIRA) à destination des équipes de développement lorsque nécessaire Assurer le suivi rigoureux des incidents dans l’outil de ticketing (Easyvista), dans le respect des délais et des SLA Documenter les procédures de résolution et enrichir la base de connaissances Produire un reporting régulier et fiable sur l’activité (incidents, correctifs, indicateurs de service) Participer aux instances liées à la gestion des incidents et des changements (MCO, CAB – contribution opérationnelle) La mission est majoritairement orientée run. Il ne s’agit pas d’un rôle projet ou d’implémentation, mais bien d’un rôle de support applicatif confirmé, nécessitant une excellente compréhension fonctionnelle des environnements CRM et une forte rigueur opérationnelle. Le contexte implique des interactions régulières avec les équipes DSI, les équipes techniques et les métiers. Une communication claire, structurée et professionnelle est attendue.
Offre d'emploi
Data ingénieur
Gentis Recruitment SAS
Publiée le
ETL (Extract-transform-load)
microsoft
Nosql
6 mois
Luxembourg
Dans le cadre de la création de l’équipe data, nous recherchons un(e) Data Engineer orienté gestion de la donnée , capable de prendre en charge la donnée de bout en bout : de son arrivée jusqu’à son exploitation, en garantissant sa qualité, sa cohérence et sa performance. Le poste s’inscrit dans un environnement majoritairement Microsoft , avec des enjeux forts autour de la structuration, de l’analyse et de la modélisation des données . Missions principales Gérer la donnée tout au long de son cycle de vie (ingestion, transformation, stockage, exploitation). Concevoir, maintenir et optimiser des data pipelines fiables et performants. Organiser et structurer les données via des modèles de données clairs et adaptés aux usages métier. Participer à des activités de data analysis pour assurer la qualité et la cohérence des données. Automatiser les traitements et flux de données via du scripting Python . Collaborer étroitement avec les équipes techniques et métiers , dans une logique transverse, afin de comprendre et répondre aux besoins liés à la donnée. Veiller aux bonnes pratiques de gouvernance, de sécurité et de performance des données. Environnement technique Écosystème Microsoft (bases de données, outils data, cloud) Python (scripting, automatisation, traitement de données) Data pipelines / ETL – ELT Modélisation de données SQL Profil recherché Formation en informatique, data ou équivalent Expérience confirmée en tant que Data Engineer / DBA orienté data Solide compréhension de la gestion et de l’organisation des données Capacité à travailler en toute autonomie , tout en sachant évoluer efficacement dans un environnement transverse et collaboratif À l’aise dans des environnements techniques complexes Autonome, rigoureux(se), avec un bon esprit d’analyse Anglais professionnel obligatoire Une connaissance de l’industrie des fonds / de la gestion d’actifs constitue un réel avantage.
Offre d'emploi
Tech Lead Data Engineer Big Data (H/F)
Lùkla
Publiée le
PySpark
6 mois
Lille, Hauts-de-France
Nous recherchons un Tech Lead Data Engineer expérimenté pour intervenir sur une plate-forme Big Data au cœur d’un projet critique à fort enjeu métier . Vous intégrerez une équipe Data dédiée et interviendrez en tant que référent technique , avec un rôle clé dans l’accélération de la mise à disposition des données et la montée en compétence des équipes. Vos principales activités : Réaliser les développements Data afin d’accélérer l’ingestion, le traitement et la mise à disposition des données sur la plate-forme Intervenir sur l’ensemble de la stack Big Data : Spark / PySpark, Kafka, Hadoop, Python Encadrer techniquement l’équipe de développement (revues de code, bonnes pratiques, standards) Assurer le suivi technique des développements et garantir la qualité, la performance et la robustesse des solutions Accompagner et faire monter en compétence l’équipe technique Être force de proposition dans un contexte industriel structuré
Offre d'emploi
Data Engineer Databricks
KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks
45k-60k €
Paris, France
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Mission freelance
Data Engineer Azure
Cherry Pick
Publiée le
Azure
Azure Data Factory
Python
12 mois
500-550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'assurance Description 📊 Le Contexte : La Data au service de l'Investissement Vous rejoignez le Datahub d'un acteur majeur de l'épargne, une plateforme critique au cœur du système d'information. Ce hub centralise et normalise l'ensemble des données du groupe pour alimenter des processus business à fort impact : calcul des commissions , génération de documents réglementaires, marketing prédictif et pilotage financier. L'enjeu est de transformer une masse de données brutes en informations fiables et exploitables pour l'ensemble de l'écosystème (partenaires, clients, directions métiers). 🎯 Vos Missions : Ingénierie & Industrialisation Intégré(e) à l'équipe Data, vous êtes le garant de la robustesse des flux de données. Design & Delivery : Concevoir, développer et maintenir des pipelines d’intégration complexes via Azure Data Factory (ADF) . Cycle de vie de la donnée : Assurer l'ingestion, la transformation, la normalisation et la mise à disposition des données pour les services consommateurs. Expertise SQL : Réaliser des agrégations et des transformations avancées, avec un souci constant de performance et de qualité. Infrastructure as Code (IaC) : Participer au déploiement et à la gestion des infrastructures via Terraform . Collaboration Métier : Agir en tant que partenaire des équipes finance et marketing pour traduire leurs besoins en solutions techniques robustes. Qualité & CI/CD : Contribuer à l'automatisation des tests et des déploiements (Azure DevOps, SonarCloud).
Offre d'emploi
Data Architect ERP Oracle
Enterprise Digital Resources Ltd
Publiée le
Oracle BI Publisher
Oracle Fusion
Paris, France
Data Architect ERP Oracle A ce titre, vous serez chargé(e) de concevoir, gouverner et sécuriser l’architecture des données. Il/Elle garantit la qualité, l’intégration des données, la disponibilité et la gouvernance des données afin de soutenir l’analyse décisionnelle, la performance opérationnelle et les besoins métiers. Rattaché(e) au Responsable équipe Data, vos missions s'articuleront autour des volets suivants : Architecture & modélisation des données Concevoir et maintenir l’architecture des données autour d’Oracle Fusion Définir les modèles de données (conceptuels, logiques et physiques) Garantir la cohérence entre les données ERP et les systèmes satellites (CRM, BI, Data Lake, applications métiers) Intégration & flux de données Concevoir les flux d’intégration (ETL/ELT, API, FBDI, OIC) Superviser les échanges de données entre Oracle Fusion et les systèmes tiers Optimiser les performances et la fiabilité des flux Gouvernance & qualité des données Mettre en place des règles de gouvernance des données (référentiels, MDM) Définir et suivre les indicateurs de qualité des données Garantir la conformité réglementaire (RGPD, audit, traçabilité) Sécurité & conformité Définir les règles d’accès aux données (rôles, profils, sécurité Oracle Fusion) Collaborer avec les équipes sécurité et conformité Assurer la protection et la confidentialité des données sensibles Support & collaboration Travailler avec le prestataire en charge de la TMA, les équipes fonctionnelles, techniques et métiers Accompagner les équipes projet (déploiement, migration, montée de version) Fournir expertise et support sur les problématiques data ERP
Mission freelance
Data Migration SAP CO S/4HANA
DUONEXT
Publiée le
SAP
SAP CO
SAP S/4HANA
12 mois
Paris, France
Rattaché(e) à la Direction des Systèmes d’Information, Pôle Finance, vous êtes garant(e) des activités de migration de données liées au Contrôle de Gestion, menées par vous-même et avec les différentes équipes projets et contributeurs métiers. Extraction de données Mise en œuvre d’extractions selon des critères adaptés aux systèmes source (ex : SAP ECC, applications spécifiques). Transformation et qualité des données Actions de transcodification, de dédoublonnage, de filtrage et d’enrichissement des données. Interventions manuelles ou automatiques selon les besoins et les outils. Import dans SAP S/4HANA Chargement des données issues de plusieurs sources vers SAP S/4HANA, Respect des modèles de données cibles et des conditions d’import (ex : SAP Migration Cockpit). Analyse des risques et arbitrages Identification et analyse des risques Métier / IT / Projet, Proposition de solutions et contribution aux arbitrages. Suivi et pilotage Mise à jour des indicateurs et des alertes associées, Reporting d’avancement des migrations de données auprès des équipes Métiers et IT.
Offre d'emploi
DevOps streaming Data - (H/F)
SWING-ONE
Publiée le
Ansible
Apache Kafka
DevOps
1 an
Île-de-France, France
CONTEXTE DU POSTE : Nous recherchons pour notre client Grand-Compte un DevOps streaming Data. Vous intégrerez le pôle technologique en charge de concevoir et d’opérer des plateformes « as a service » permettant le déploiement d’architectures modernes, distribuées et hautement résilientes pour l’ensemble des entités du Groupe. MISSIONS PRINCIPALES : Industrialiser et automatiser les déploiements (Ansible) Mettre en production de nouveaux clusters Kafka et faire évoluer les clusters existants (scale horizontal & vertical) Participer à la définition des architectures des futures briques de la plateforme Streaming Apporter une expertise technique aux utilisateurs de la plateforme Développer des prototypes en lien avec les cas d’usage métiers Documenter les offres et démontrer la valeur des solutions Data
Mission freelance
Business Analyst - expérience Data sur des données Clinique - Anglais courant exigé
WorldWide People
Publiée le
Business Analyst
6 mois
400-550 €
France
Business Analyst données cliniques/de santé client dans la pharmaceutique parler couramment anglais nous recherchons un Business Analyst expérimenté (au moins 5 ans d'expérience). Compétences requises : Solide expérience des normes en matière de données cliniques/de santé (HL7, FHIR, CIM-10, LOINC, etc.). Bonne compréhension des plateformes et des pipelines de données (Snowflake, dbt, IICS est un plus). Capacité à rédiger des documents fonctionnels clairs, des récits d'utilisateurs et des critères d'acceptation. Solides compétences en communication et expérience de travail dans des environnements Agile. 3 à 6 ans ou plus en tant que Business Analyst dans les domaines des données, de la santé et de la réglementation. Prérequis obligatoire , il faut absolument une expérience réelle dans le domaine de la Data sur des données cliniques et parler couramment anglais. Durée : 1 an Démarrage : ASAP Localisation : France Nous recherchons un Business Analyst pour soutenir les initiatives liées aux données opérationnelles cliniques (MDM, SSU, CTMS, Site connect, CRM, chaîne d'approvisionnement, finances, ERP). Le consultant servira de pont entre les parties prenantes commerciales, les équipes cliniques et l'ingénierie des données afin de traduire les besoins en exigences de données exploitables. Responsabilités principales : Recueillir, analyser et documenter les exigences commerciales pour les cas d'utilisation des données cliniques et opérationnelles. Traduire les besoins fonctionnels en spécifications claires pour les équipes d'ingénierie et d'analyse des données. Soutenir les activités liées à la qualité, à la traçabilité et à la gouvernance des données (définitions, dictionnaires de données, règles de validation). Animer des ateliers avec les parties prenantes cliniques/opérationnelles et assurer la coordination entre les équipes. Contribuer à la gestion du backlog et à la planification des sprints à l'aide de Jira ; documenter les processus dans Confluence. Compétences requises : Solide expérience des normes en matière de données cliniques/de santé (HL7, FHIR, CIM-10, LOINC, etc.). Bonne compréhension des plateformes et des pipelines de données (Snowflake, dbt, IICS est un plus). Capacité à rédiger des documents fonctionnels clairs, des récits d'utilisateurs et des critères d'acceptation. Solides compétences en communication et expérience de travail dans des environnements Agile. 3 à 6 ans ou plus en tant que Business Analyst dans les domaines des données, de la santé et de la réglementation.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3209 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois