Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 722 résultats.
Mission freelance
Data Engineer Confirmé / Senior – GCP / BigQuery / dbt
CHOURAK CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD
3 mois
400-650 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé / senior pour intervenir sur une plateforme data moderne au sein d’un acteur du secteur de la santé , avec des enjeux forts de fiabilité, performance et conformité des données. 🎯 Contexte de la mission Vous rejoindrez une équipe Data en charge de la conception, de l’industrialisation et de l’optimisation d’une architecture data moderne sur GCP , orientée qualité, scalabilité et gouvernance. La plateforme repose notamment sur : GCP · BigQuery · dbt · Airflow · CI/CD ⚙️ Missions principales Concevoir et maintenir des pipelines de données robustes et scalables . Modéliser les données dans BigQuery (architecture analytique performante). Développer et maintenir les transformations via dbt (modélisation, tests, documentation). Orchestrer les flux avec Airflow (DAGs, monitoring, gestion des dépendances). Participer à l’industrialisation via des pratiques CI/CD . Garantir la qualité, la performance et la traçabilité des données . Contribuer aux choix d’architecture et aux bonnes pratiques Data Engineering.
Mission freelance
PM / PMO Data & Digital Transformation
Gentis Recruitment SAS
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)
12 mois
Paris, France
Contexte La Direction Data et Digital d'un grand groupe du luxe, travaille à structurer ses plateformes et ses projets data dans un contexte international et omnicanal. Les initiatives couvrent : développement e-commerce et omnicanal structuration de données métiers et analytique industrialisation des flux data adoption de bonnes pratiques de pilotage, qualité de données et gouvernance Ils disposent d’équipes data, digitales et technologiques intégrées, alliant innovation, qualité de service et excellence opérationnelle . Mission principale : Supporter le Programme Data et Digital dans : la coordination des initiatives transverses le suivi de la roadmap data & digital la production des reportings projets le pilotage des dépendances entre streams le suivi des risques, des jalons, des budgets l’animation des comités de pilotage l’optimisation des process PMO Ce rôle implique d’être l’interface entre : DSI / Data Office / métier / product owners / équipes techniques . La dimension technique est un atout (compréhension des flux data, reporting, plateformes cloud, outils de gouvernance) mais ce rôle n’est pas axé développement ou ingénierie. Le PMO travaille avec des data engineers, BI, devops, architectes et responsables métier. Technologies & Environnement (contextuel) Un environnement technologique moderne comprenant : outils de gestion de projet : Jira, Confluence, Slack technologies de développement backend : Node.js, PHP/Symfony (hors data) devops / cloud : Docker, Kubernetes, Terraform, AWS compétences data : Python, SQL, outils de data science Pour un PM / PMO, la compréhension de ces environnements permet d’être pertinent dans les arbitrages et le pilotage des initiatives, notamment lorsque les équipes data travaillent avec des technologies cloud ou des plateformes analytiques.
Mission freelance
DATA ANALYST - Expert (>10 ans) F/H
SMARTPOINT
Publiée le
Apache Spark
Databricks
DataGalaxy
24 mois
550-580 €
Île-de-France, France
Dans le cadre du renforcement du DataLab, nous recherchons un Data Analyst Lead en prestation, rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution, multienseignes et multimétiers, avec de forts enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. La connaissance du domaine de la Grande Distribution est un critère essentiel. Objectifs de la mission Apporter une expertise en data analyse et en conception de solutions informatiques orientées données. Contribuer à la montée en compétence des Data Analysts du DataLab. Accompagner les équipes produits et projets sur des sujets analytiques et techniques avancés. Animer la communauté des Data Analystes. Coanimer la Data Authority et les ateliers associés, en lien avec l’équipe Gouvernance des données. Principales missions Expertise en data analyse et conception de solutions data. Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions). Contribution à la structuration et à l’alignement des KPI métiers. Animation de la communauté des data analystes (ateliers, bonnes pratiques, retours d’expérience). Contribution à la modélisation des données, notamment en faisant vivre le modèle de données communes. Coanimation de la Data Authority et des ateliers associés. Compétences clés attendues Expertise confirmée en data analyse. Capacité à concevoir et challenger des solutions data. Pratique avérée de la modélisation des données. Connaissance significative et opérationnelle de la Grande Distribution (critère indispensable) : enjeux business, indicateurs clés (vente, marge, stock, approvisionnement, performance magasin), compréhension des usages métiers de la donnée. Capacité à accompagner et faire monter en compétence des Data Analysts. Aisance dans l’animation de communautés et d’ateliers transverses. Contexte technique Technologies Big Data : SQL, Databricks, Scala, Python BI / Reporting : Power BI, MicroStrategy Modélisation des données : PowerDesigner Gouvernance des données : DataGalaxy Qualité des données / Data Observability : SODA Méthodologie projet : SAFE (Agilité à l’échelle) Outils Agile : Jira Environnements Big Data : Microsoft Azure & DataBricks Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes
Offre d'emploi
Data Engineer / Développeur PostgreSQL – Full Remote
STHREE SAS pour COMPUTER FUTURES
Publiée le
PostgreSQL
6 mois
Paris, France
Nous recherchons un Data Engineer / Développeur PostgreSQL confirmé pour intervenir sur un projet stratégique au sein d’une équipe technique dynamique. Missions : Développement et optimisation de procédures stockées Rédaction et amélioration de requêtes complexes PostgreSQL Participation à la structuration et au maintien de l’architecture data Contribution aux bonnes pratiques de développement et à l’amélioration continue Ce que nous offrons : Mission 100 % télétravail Projet long terme possible Contexte technique stimulant à forte valeur ajoutée Intégration au sein d’une équipe experte
Offre d'emploi
Data scientist / Ingénieur IA & Produits - Prompt Engineering & Evaluation
PARTENOR
Publiée le
Agent IA
Deep Learning
IA Générative
1 an
65k-70k €
560-660 €
Puteaux, Île-de-France
Les missions du poste Dans le cadre d'un projet international stratégique, nous recherchons un(e) Ingénieur IA & Produits pour contribuer au développement de solutions d'IA avancées dédiées à l'enrichissement de contenus et de produits à forte valeur ajoutée. L'architecture technique et les problématiques seront alignées avec celles déjà déployées par l'équipe française, avec une forte dimension Prompt Engineering avancé et évaluation des performances. Vous interviendrez au croisement de la recherche appliquée, de l'ingénierie IA et de la logique produit. Vos missions - Prompt Engineering avancé - Concevoir et optimiser des stratégies de prompting complexes - Développer des chaînes de prompts robustes et industrialisables - Adapter les prompts selon les cas d'usage métier - Gérer la variabilité et la stabilité des outputs - Evaluation & métriques - Concevoir des pipelines d'évaluation des prompts - Définir des métriques de qualité (pertinence, factualité, robustesse) - Mettre en place des benchmarks comparatifs - Optimiser les performances selon précision / latence / coûts - Développement & mise en production - Concevoir des solutions intégrant LLM, Deep Learning et architectures agentiques - Développer des workflows multi-agents - Implémenter des modèles NLP (classification, extraction, enrichissement) - Industrialiser les solutions en environnement produit
Mission freelance
Data Engineer Snowflake (Migration SAP / BW)
VISIAN
Publiée le
Snowflake
3 ans
400-550 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre d’un programme stratégique de modernisation du système décisionnel, une organisation internationale engage la migration de ses données depuis un environnement SAP BW vers une plateforme Cloud Data moderne basée sur Snowflake. Vous intégrerez une équipe Data d’une dizaine de personnes dédiée à la migration, à l’industrialisation des flux et à la mise en place d’une architecture data scalable, performante et sécurisée. Missions Concevoir et développer des pipelines d’ingestion et de transformation de données depuis SAP et SAP BW vers Snowflake Garantir la qualité, la cohérence et la sécurité des données durant tout le processus de migration Collaborer avec les équipes métiers et IT afin de comprendre les besoins fonctionnels et adapter les solutions data Optimiser les performances des flux et assurer leur scalabilité dans l’environnement Snowflake Participer à la documentation technique et à la mise en place des bonnes pratiques Data Engineering Contribuer à la résolution des incidents et à l’amélioration continue des processus de migration Participer aux échanges techniques au sein de l’équipe projet Livrables attendus Pipelines de données fiables et industrialisés Modèles de transformation optimisés Documentation technique des flux et architectures Recommandations d’optimisation et d’amélioration continue Environnement technique Obligatoire : Snowflake dbt Apache Airflow SQL Python SMP Apprécié : SAP SAP BW
Mission freelance
100352/Coach Agile / Scrum (50%)/Data Analyst (50%) Nantes
WorldWide People
Publiée le
Agile Scrum
Data visualisation
Python
10 mois
400 €
Nantes, Pays de la Loire
Coach Agile / Scrum (50%)/Data Analyst (50%) Nantes : Coach Agile - Animer les cérémonies agiles (daily, sprint planning, review, rétrospectives). - Structurer le backlog et prioriser les tâches. - Former et sensibiliser l’équipe aux pratiques Scrum, Kanban et Lean. - Aider à lever les obstacles, améliorer le fonctionnement interne et le delivery. - Mettre en place des outils simples de suivi (tableaux, indicateurs, rituels). - Faciliter la communication entre les équipes techniques, métiers et exploitation Data Analyst (50%) : - Collecter, nettoyer et analyser les données liées aux flux, usages, équipements et services en gare. - Réaliser des tableaux de bord (Power BI ou équivalent) pour les équipes métiers. - Contribuer aux études statistiques (tendances, performances, incidents, utilisation des outils…). - Proposer des indicateurs pour orienter les décisions opérationnelles. - Travailler avec les équipes terrain pour comprendre les besoins utilisateurs et améliorer les visualisations. Compétences Agile : - Bonne maîtrise de Scrum et/ou Kanban. - Savoir animer une équipe, faciliter, cadrer, apaiser les tensions. - Approche pragmatique (pas dogmatique). Compétences Data : - Maîtrise d’un outil de data visualisation (Power BI, Tableau…). - Développement en Python. - Bon niveau en SQL et manipulation de données. - Capacité à vulgariser les analyses.
Offre d'emploi
Responsable d'application RUN - DATA
OBJECTWARE
Publiée le
Control-M
Oracle
PL/SQL
12 mois
40k-60k €
100-520 €
Nanterre, Île-de-France
La Squad Core Data (équipe opérationnelle ~20 personnes) de la Tribe Data France est composée de 5 applications de type "batch" Cette Squad dont l'organisation est full agile (sprints, daily, jira …) et avec l'aide de notre TMA a vocation à : Maintenir et sécuriser au quotidien ces applications Mettre en œuvre sur ce périmètre les évolutions (réglementaire, métier, technique …) ~20-30 projets/an Domaine / Environnement technique : Culture "bach" : perf/volumétrie, gestion de différent type de fichiers (séparateurs, formats fixes, xml …), rejets, manipulation des données … Détails de la prestation : La mission consiste à assurer le suivi et le maintien en condition opérationnelle des applications de la squad Core Data (Bases Commerciales, Interfaces Délégataires ...) - Suivi des traitements batch en production - Support de niveau 2 en cas d'incident en production - Assistance auprès des utilisateurs - Analyse des dysfonctionnements et collaboration avec la TMA qui assure les corrections - Pilotage des plans d'actions pour la résolution des problèmes de fond (incidents récurrents, incidents critiques) - Pilotage opérationnel des trains de maintenance - Application des processus TDI (Traitement des Demandes et Incidents) en vigueur chez BNP Paribas Cardif - Production des indicateurs de performance (taux de disponibilité des applications, suivi du stock de fiches d'assistance) - Gestion/Renouvèlement des certificats Compétences fonctionnelles : Aucune Compétences techniques : - Oracle, SQL, PL-SQL (très présent) - Informatica Powercenter - Linux - Ordonnanceur Control-M - CFT - GIT (Toolchain) Une forte appétence technique est nécessaire afin de pouvoir discuter, être en support et challenger nos différents acteurs : développeurs, experts, centre de test, exploitant …
Offre d'emploi
Data Engineer (DBT / Snowflake / Airflow / Python)
bdevit
Publiée le
Apache Airflow
AWS Cloud
CI/CD
36 mois
40k-50k €
450-500 €
Issy-les-Moulineaux, Île-de-France
Contexte : Dans un environnement data à forts enjeux de performance, de fiabilité et de conformité, vous intégrerez une équipe data encadrée par un Tech Lead Data. Vous interviendrez sur la conception, l’industrialisation et l’exploitation de pipelines de données au sein d’une plateforme cloud moderne. Missions Principales : En tant que Data Engineer , vous serez en charge de : Concevoir et développer des pipelines de données robustes et scalables (ELT) ; Intégrer les données issues de sources multiples dans Snowflake ; Développer et maintenir les modèles de données analytiques avec DBT (datamarts métiers, tests, documentation) ; Orchestrer les traitements data via Apache Airflow (DAGs, scheduling, dépendances) ; Optimiser les performances, la qualité et les coûts du Data Warehouse ; Industrialiser les flux data (automatisation, CI/CD, monitoring, reprise sur incident) ; Participer à l’amélioration continue de la plateforme data et être force de proposition sur les choix techniques.
Offre d'emploi
Data Analyst Dataiku/SAS/Tableau/SQL
OBJECTWARE
Publiée le
Dataiku
SAS
3 ans
40k-80k €
400-580 €
Île-de-France, France
Prestations demandées La mission consiste à fournir aux équipes Finance les moyens de contrôler / analyser / piloter leurs activités, via une exploitation qualitative de la donnée. Les tâches principales consisteront à : - Accompagner les différentes équipes dans l’expression de leurs besoins - Définir et modéliser les processus data - Concevoir les solutions - Implémenter et automatiser les processus dans les outils les mieux adaptés (extraction et préparation des données ; production des outputs ; historisation et stockage ; tableaux de bord,…) - Accompagner les Métiers dans la prise en main des solutions mises en place - Assurer la maintenance corrective et évolutive des solutions livrées - Identifier, partager et mettre en œuvre les bonnes pratiques sur le traitement des données, dans une démarche d’amélioration continue. Le périmètre recouvre l’ensemble des données de l’activité d’Arval France (systèmes de gestion des contrats, de l’assurance, des frais généraux ; systèmes comptables,…), nécessaires aux travaux de la Finance. Les principaux outils utilisés dans l’existant sont : Excel, SAS, OBIEE Analytics, SQL Dev. Les principaux outils à privilégier en cible sont – conformément aux recommandations internes : Dataiku, Python, Vertica, Tableau. La mission se déroule au sein l’équipe de Data Analysts dédiée au projet Data Finance, celle-ci travaille de manière quotidienne avec l’ensemble des parties prenantes au projet – de la Finance et des autres Directions : - Experts Métier - Architectes et référents IT - Data Engineers - Data Management Officers Exemples de besoins automatisation pouvant être mis en œuvre durant la mission : - Réaliser la migration SAS vers Dataiku du dashboard de pilotage de l’encours stock de commandes - Industrialiser les contrôles et les rapprochements entre les systèmes de gestion et les systèmes comptables - Industrialiser le pilotage des paiements clients / fournisseurs
Mission freelance
Service Owner Data Platforms (Braincube / Dataiku)
Signe +
Publiée le
Dataiku
12 mois
500-550 €
Malakoff, Île-de-France
Objectif de la mission Garantir le niveau de service, la gouvernance et le pilotage opérationnel (run) des plateformes Braincube et Dataiku, en assurant la performance, la conformité et l’amélioration continue du service. Responsabilités principales Maintenir les standards de service, assurer la conformité licences et suivre les usages via des KPIs Gérer incidents, demandes et changements, assurer la communication interne et utilisateurs Définir et suivre les SLA, piloter la performance du service et les indicateurs associés Structurer la roadmap, identifier les améliorations continues et piloter le plan de charge Garantir la résilience des plateformes (évolutions, obsolescences) et la sécurité des données Piloter les activités opérationnelles multi-sites (France / Inde / éditeurs / prestataires) Assurer l’interface avec les équipes IT et data pour faciliter l’exploitation du service Produire la documentation de service (guides, onboarding, bonnes pratiques) Environnement technique Braincube, Dataiku AWS (S3, EC2, EKS), déploiements sécurisés Connaissances ML Ops / Data Science / IA / IA générative Architecture SI / data, gouvernance data, exploitation et performance Sécurité et conformité (RBAC, chiffrement, logging, RGPD) Livrables attendus Reporting KPI et suivi des SLA Guides de bonnes pratiques et supports de formation Documentation de service et onboarding Plan de montée en compétences et roadmap d’amélioration Profil recherché Service Owner / Service Manager senior (8+ ans) Expérience pilotage run et gouvernance de plateformes data / analytics Solide compréhension des environnements cloud AWS et des enjeux data
Mission freelance
Chef de projet data migration (H/F)
Cherry Pick
Publiée le
Coupa
Gestion de projet
Migration
9 mois
600-650 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Chef de projet data migration(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine pharmaceutique. Description 🏢 Le Contexte : Programme de Transformation "Nexus" Vous rejoignez le programme international, au sein de l'équipe Performance Opérationnelle Finance . Ce programme vise à harmoniser les outils et processus sur l'ensemble du cycle Source-to-Pay (S2P) et Source-to-Settle à l'échelle mondiale. Après le déploiement en France, le projet s'attaque à un morceau d'envergure : le déploiement aux États-Unis , incluant une transition vers SAP S/4HANA et l'harmonisation des outils de CLM ( Sirion ) et d'e-Procurement ( Coupa ). 🎯 Vos Missions : Pilotage et Coordination de la Migration Sous la responsabilité du responsable Data Model et Data Migration, vous portez une stratégie de migration spécifique basée sur l'agilité et l'ajustement tardif des données. Définition du Scope : Mettre autour de la table des acteurs internes ultra-challengeants pour arrêter le périmètre de reprise (attributs, historique, périmètres géographiques). Stratégie de Migration par "Templates" : Contrairement à une migration technique classique, vous pilotez une approche par gabarits permettant d'ajuster et de transformer la donnée manuellement jusqu'au dernier moment pour garantir une fiabilité maximale au Go-Live. Intégration MDM : Assurer la mise en conformité et l'entrée des données dispersées dans le référentiel maître ( Master Data Management ) du groupe. Coordination Internationale : Aligner les besoins de la France et les spécificités du déploiement américain. Gouvernance et Documentation : Documenter les processus de transition pour assurer la continuité du "Run" après la migration.
Offre d'emploi
Pilote de la Feuille de Route Sécurité Data
CAT-AMANIA
Publiée le
Agile Scrum
12 mois
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un Pilote de la Feuille de Route Sécurité Data pour le compte de notre client, acteur majeur dans le secteur des assurances. Au sein du Data Office , vous intervenez sur une mission stratégique visant à renforcer durablement la sécurité du patrimoine data, aussi bien sur les environnements On-Premise que Cloud . Dans un contexte de transformation et de forte exigence réglementaire, vous êtes garant(e) du pilotage global de la feuille de route Sécurité Data Office 2025–2026 . Vos principales responsabilités portent sur la coordination, le pilotage et l’amélioration continue de la posture de sécurité data, avec une approche à la fois opérationnelle, structurante et proactive. À ce titre, vous assurez notamment : Le pilotage opérationnel de la feuille de route sécurité (jalons, budgets, qualité des livrables) L’animation de la gouvernance sécurité data (comités, coordination RSSI, DDSI, Data Managers) La production de reportings et tableaux de bord de suivi (KPIs sécurité, avancement des recommandations d’audit) L’identification des risques, points de blocage et la proposition de plans de remédiation Vous pilotez également les chantiers structurants issus de la roadmap, notamment : Les stratégies de sauvegarde et de résilience des données La gestion des accès et des habilitations L’application des règles de sécurité et de conformité (PSSI, RGPD) sur les domaines Data Au-delà de l’exécution, vous jouez un rôle de conseil en évaluant la pertinence de la feuille de route existante face aux nouveaux enjeux (IA générative, nouveaux usages data, data virtualisation) et en proposant des actions complémentaires. Enfin, vous contribuez à la mise en place d’un processus d’amélioration continue de la sécurité data, en sortant d’une logique purement réactive post-audit : Standardisation des pratiques “Security by Design” Sensibilisation et montée en compétence des équipes data Mise en place de dispositifs d’auto-évaluation et d’audits flasht personnel.
Mission freelance
Analytics Engineer – Migration DataBoost (SAP BO → Power BI)
SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks
3 mois
230-680 €
Paris, France
Dans le cadre du projet DataBoost , nous recherchons un Analytics Engineer pour participer à la migration des rapports SAP Business Objects vers Power BI . Ce projet vise à décommissionner SAP BO en industrialisant l’intégration des données dans une architecture lakehouse moderne (Bronze → Silver → Gold), et à construire un référentiel analytics centralisé pour l’ensemble des datamarts. Vos missions consisteront à : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory (POC avec Airflow). Développer des pipelines d’intégration de données en PySpark (Spark Declarative Pipeline). Transformer et optimiser les flux de données en SQL avec le framework DBT . Développer de nouveaux indicateurs de qualité de données sur DBT. Garantir la qualité du code et le respect des normes de développement. Implémenter des tests unitaires pour assurer la fiabilité des solutions. Maintenir les outils de monitoring pour suivre les performances. Ce poste est idéal pour un professionnel souhaitant contribuer à une transformation majeure des outils BI et travailler sur une architecture data moderne .
Mission freelance
Business Analyst - expérience Data sur des données Clinique - Anglais courant exigé
WorldWide People
Publiée le
Business Analyst
6 mois
400-550 €
France
Business Analyst données cliniques/de santé client dans la pharmaceutique parler couramment anglais nous recherchons un Business Analyst expérimenté (au moins 5 ans d'expérience). Compétences requises : Solide expérience des normes en matière de données cliniques/de santé (HL7, FHIR, CIM-10, LOINC, etc.). Bonne compréhension des plateformes et des pipelines de données (Snowflake, dbt, IICS est un plus). Capacité à rédiger des documents fonctionnels clairs, des récits d'utilisateurs et des critères d'acceptation. Solides compétences en communication et expérience de travail dans des environnements Agile. 3 à 6 ans ou plus en tant que Business Analyst dans les domaines des données, de la santé et de la réglementation. Prérequis obligatoire , il faut absolument une expérience réelle dans le domaine de la Data sur des données cliniques et parler couramment anglais. Durée : 1 an Démarrage : ASAP Localisation : France Nous recherchons un Business Analyst pour soutenir les initiatives liées aux données opérationnelles cliniques (MDM, SSU, CTMS, Site connect, CRM, chaîne d'approvisionnement, finances, ERP). Le consultant servira de pont entre les parties prenantes commerciales, les équipes cliniques et l'ingénierie des données afin de traduire les besoins en exigences de données exploitables. Responsabilités principales : Recueillir, analyser et documenter les exigences commerciales pour les cas d'utilisation des données cliniques et opérationnelles. Traduire les besoins fonctionnels en spécifications claires pour les équipes d'ingénierie et d'analyse des données. Soutenir les activités liées à la qualité, à la traçabilité et à la gouvernance des données (définitions, dictionnaires de données, règles de validation). Animer des ateliers avec les parties prenantes cliniques/opérationnelles et assurer la coordination entre les équipes. Contribuer à la gestion du backlog et à la planification des sprints à l'aide de Jira ; documenter les processus dans Confluence. Compétences requises : Solide expérience des normes en matière de données cliniques/de santé (HL7, FHIR, CIM-10, LOINC, etc.). Bonne compréhension des plateformes et des pipelines de données (Snowflake, dbt, IICS est un plus). Capacité à rédiger des documents fonctionnels clairs, des récits d'utilisateurs et des critères d'acceptation. Solides compétences en communication et expérience de travail dans des environnements Agile. 3 à 6 ans ou plus en tant que Business Analyst dans les domaines des données, de la santé et de la réglementation.
Mission freelance
Data Engineer Talend (habilitation requise)
Signe +
Publiée le
Talend
12 mois
400-610 €
Paris, France
Contexte Dans le cadre du développement du DataLab, le Data Office souhaite renforcer ses équipes afin d’accélérer les projets BI, Data Analytics et Data Management et soutenir les initiatives de valorisation des données métiers. Besoin consultant Talend pour T… Objectifs de la mission Concevoir et développer des pipelines de données performants et évolutifs Participer à l’industrialisation et à l’optimisation des flux data Contribuer à la qualité, la fiabilité et la valorisation des données Responsabilités principales Concevoir, développer et optimiser des flux de données sous Talend Collaborer avec les équipes métiers, Data Analysts et Data Architects pour traduire les besoins fonctionnels en solutions techniques Garantir la qualité et la performance des traitements de données Mettre en place des processus de validation, nettoyage et fiabilisation des données Participer aux revues de code et au partage de compétences avec l’équipe Data Engineering Proposer des améliorations continues des outils, méthodes et processus Compétences requises Maîtrise de Talend (développement de pipelines, intégration de données) Bonne compréhension des architectures Data et des bonnes pratiques de traitement des données Expérience en collaboration avec équipes data et métiers Sens de la qualité de données, performance et industrialisation des flux Contraintes spécifiques Mission basée à Vélizy avec déplacements ponctuels Nationalité française requise (accès site)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1722 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois