Trouvez votre prochaine offre d’emploi ou de mission freelance Dash à Paris
Votre recherche renvoie 315 résultats.
Mission freelance
Directeur de Projet DATA F/H
SMARTPOINT
Publiée le
AWS Cloud
Big Data
Hortonworks Data Platform (HDP)
12 mois
600-700 €
Paris, France
Mission principale Le Directeur de Projet Data a pour mission de piloter des projets Data & IA structurants, en assurant la coordination des équipes internes et des centres de services (CDS). Il garantit la tenue des engagements en termes de qualité, de budget et de délais, tout en assurant l’alignement avec les objectifs métiers et IT. Tâches & activités Piloter l’activité projet : planification, suivi des charges, gestion des budgets et des ressources Animer et coordonner les équipes projets (internes et CDS) Organiser et conduire les instances de gouvernance (COPIL, COPROJ) Cadrer les besoins métiers et techniques en lien avec les parties prenantes Assurer le suivi global des projets et le reporting auprès de la direction Identifier et gérer les risques, dépendances et points de blocage Garantir la bonne exécution des engagements projets dans le respect des délais et des coûts Livrables & résultats attendus Suivi hebdomadaire de l’avancement des projets (planning, risques, actions) Suivi financier mensuel des projets (budget, consommation, forecast) Préparation et animation des comités de pilotage et comités projet Production de reportings de synthèse à destination des directions métiers et IT Respect des engagements qualité, délais et budget Compétences techniques Maîtrise des outils de gestion de projet (Jira) Connaissance de l’environnement Cloud AWS Utilisation des outils ITSM (ServiceNow) Vision globale des écosystèmes Data et outils décisionnels (BI, Data Platform, IA) Bonne compréhension des architectures Data et des enjeux de transformation digitale Compétences comportementales (recommandées) Leadership et capacité à coordonner des équipes multi-acteurs Excellente communication et sens du reporting Rigueur, organisation et gestion des priorités Capacité d’analyse et de synthèse Esprit de pilotage orienté résultats
Mission freelance
250762/Data Engineer TERADATA ET DATAVIZ
WorldWide People
Publiée le
Data visualisation
Teradata
1 mois
400 €
Paris, France
Data Engineer TERADATA ET DATAVIZ Project context Modélisation de données • Mode de chargement dans l’entrepôt (ETL) : BTEQ • Teradata, développements sous Teradata • Dataviz : Power BI et MSBI • CONTROL-M • Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) • SQL sur SGBD relationel, Shell • TPT – réalisation de scripts • Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea • Création de chaînes de déploiement DEVOPS • Mise en production de composants applicatifs avec livrables documentaires associés (DTA, feuille de route, ...) Goals and deliverables Sofskills : Sens du service. Bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie.
Offre d'emploi
AI ENGINEER - DATA SCIENTIST
SMILE
Publiée le
Data science
Pilotage
Python
6 mois
Paris, France
Au sein de la DSI Corporate d’un grand groupe bancaire, le département Développements Tactiques de la direction Fast Delivery Solutions recrute un Expert Leader Data & IA . Cette direction a pour but de mettre en place des solutions rapides au service de l'ensemble des directions métiers et des fonctions supports, en réponse à des besoins ponctuels ou pérennes. En lien avec les DSI métiers, elle en assure la maintenance et participe à leur éventuelle intégration dans le SI. Pour ce faire, elle met au service des filières métiers une équipe de proximité multi solutions afin de les aider dans leurs travaux ponctuels, la réalisation de POC (Proof Of Concept), de reportings ou bien encore l’automatisation de tâches récurrentes. La mission se situe au sein du département Développements Tactiques qui a pour mission de : Développer des outils en mode commando et en proximité directe avec le métier. Mettre en œuvre des solutions faisant appel à de l’IA générative pour répondre à des besoins métier. Accompagner l’industrialisation de ces solutions dans le parc applicatif des DSI filières. Étudier la possibilité de mise en œuvre de solutions innovantes, au travers d’une veille technologique et d’études d’opportunités. Participer à des évènements et animations de démo ou d’ateliers autour de l’IA ou de la data. L’équipe, actuellement constituée de 19 membres (Data Engineers, Data Scientists et Développeurs FullStack), fonctionne entièrement en mode agile et en proximité avec les métiers. Jeune, dynamique, motivée et très proactive, l’équipe valorise l’entraide et la bonne ambiance. Le candidat devra donc avoir la personnalité permettant de conserver cette dynamique intacte. Les soft skills sont donc autant essentielles que les compétences techniques : bon communiquant, motivé, force de proposition et sociable. Compétences techniques déjà présentes dans l’équipe : Développement autour de l’IA Générative. Développement Python / Pycharm. Développement Front Angular. Développement de cas d’usage IA générative à destination du business. Développement PySpark / Spark / Scala. Connaissance des plateformes Cloud. Mise en œuvre de workflows sous Alteryx. La mission : L’équipe se voit confier un nouveau programme visant à mettre en œuvre un ensemble de Use Cases faisant appel à de l’IA générative ou consistant à automatiser des traitements. Pour faire face à ce nouveau programme, nous souhaitons renforcer nos compétences avec un AI Engineer confirmé Data & IA . Principales missions : Innovation et réalisation de POCs : assurer la faisabilité technique des cas d’usage, développer des POCs autour de projets IA générative, proposer des solutions innovantes (LLM, prompts, RAG, traitement de données complexes). Industrialisation : en collaboration avec la production applicative et les contributeurs DSI, industrialiser les sujets dont les POCs s’avèrent concluants. Expertise Data & IA Générative : leader techniquement les projets, en s’appuyant sur les technologies internes (plateforme cloud, outils IA, modèles de langage type Gemini). Force de proposition : identifier des axes d’amélioration et proposer des solutions innovantes. Partage de connaissances : contribuer à la montée en compétences collective au sein de l’équipe. Suivi des sujets : assurer une communication claire et synthétique au responsable de l’équipe et aux Product Owners.
Mission freelance
Senior Data Engineer Palantir
Orcan Intelligence
Publiée le
Big Data
Databricks
9 mois
600-800 €
Paris, France
Orcan Intelligence recherche pour l'un de ses clients dans le secteur de la Finance un consultant Data Engineer senior sur les sujets Palantir . Voici les livrables attendus : Développer des pipelines de données pour nos fondations dans Palantir Foundry Construire, maintenir et documenter des pipelines, notamment pour l'intégration de données dans notre modèle analytique (architecture medallion). Etablir des Contrôles de qualité, tests,........ etc
Mission freelance
Senior Business Analyst – Cash Management - Paris
Net technologie
Publiée le
Business Analyst
Cash Management
SWIFT
1 an
Paris, France
💳 Senior Business Analyst – Payments Transformation Dans le cadre du remplacement d’un système de paiement (Payment Engine) , nous recherchons un profil senior pour piloter un projet stratégique mêlant déploiement international, analyse fonctionnelle et testing . 🎯 Enjeu : moderniser l’écosystème de paiement et améliorer les services clients au-delà d’un simple remplacement du legacy. 🌍 Contexte international (MEA & APAC) – anglais indispensable 🚀 Missions Analyse des solutions existantes et cadrage des évolutions Pilotage du plan de déploiement et suivi des interfaces Coordination des environnements (qualification, recette) Organisation et supervision des tests (intégration, UAT, non-régression) Analyse des incidents et suivi des corrections Coordination avec les équipes métiers, IT et les sites internationaux Animation des comités de suivi et reporting Rédaction de la documentation (guides utilisateurs, paramétrage) Rôle de point de contact central (SPOC) sur le projet
Offre d'emploi
Expert Architecture / DevSecOps Azure (H/F)
ONSPARK
Publiée le
Azure
Azure Kubernetes Service (AKS)
Bash
48 mois
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers le renforcement d'équipes DSI, OnSpark intervient auprès d'un organisme de protection sociale parisien sur un programme de modernisation SI cloud-native de grande envergure. Nous recherchons un Expert Architecture / DevSecOps pour intervenir au plus haut niveau technique sur une plateforme microservices Azure. Missions Référent technique de haut niveau, vous intervenez en support des équipes de développement et de la direction DSI : Conception et évolution de l' architecture microservices sur Azure (DDD, CQRS, event-driven, Contract-First/OpenAPI) Définition des standards techniques et des bonnes pratiques DevSecOps TMA de niveau Expert : résolution d'incidents complexes, refactoring, optimisation des performances Sécurisation des pipelines CI/CD, gestion des secrets, scan de vulnérabilités (OWASP) Administration Kubernetes (AKS), Azure Container Apps, Azure API Management Réalisation d'audits techniques et de plans d'amélioration Transfert de compétences vers les équipes internes Veille technologique et contribution à la stratégie technique de la DSI
Mission freelance
ARCHITECTE DATA EXPERT
Groupe Ayli
Publiée le
.NET
.NET Framework
Apache Kafka
3 mois
Paris, France
Étude de refonte du backbone data & modernisation des plateformes décisionnelles 🏢 Contexte Dans un environnement data à forte volumétrie, comparable à des secteurs comme les télécoms, banques, assurance ou l’e-commerce, notre Client souhaite engager une réflexion stratégique sur l’évolution de son architecture data . L’architecture actuelle, conçue en 2018, repose sur des technologies éprouvées mais nécessite aujourd’hui une évolution pour répondre aux enjeux de performance, de scalabilité et de nouveaux usages . 🏗️ Stack technique actuelle ETL : IBM InfoSphere DataStage Base de données : Oracle Exadata Restitution : IBM Cognos Analytics + applications .NET Architecture globale : mise en place en 2018 🎯 Enjeux business Définir une trajectoire d’évolution du backbone data Structurer une roadmap de transformation autour de l’évolution des outils ETL Accompagner le développement de nouveaux usages data (API, microservices, etc.) Moderniser l’écosystème décisionnel et analytique 🎯 Objectifs de la mission Piloter et réaliser, en autonomie, une étude d’architecture complète sur une durée inférieure à 3 mois, visant à : Diagnostiquer les limites de l’architecture actuelle et identifier les besoins de performance Concevoir une architecture cible moderne, scalable et performante Définir une stratégie de transformation technologique Identifier et structurer les nouveaux usages autour de la donnée (API, microservices…) Élaborer une roadmap de transformation avec estimation des impacts (coûts, risques, organisation) 📦 Livrables attendus Diagnostic technique Audit complet de l’architecture existante, identification des limites, des forces et des axes d’amélioration Cahier des charges cible Recommandations argumentées, définition de l’architecture cible et des choix technologiques Roadmap de transformation Planning de transformation, estimation budgétaire et analyse des risques Présentation exécutive Synthèse stratégique et recommandations à destination de la direction 📌 Livrables détaillés Cartographie applicative et technique actualisée Analyse comparative des solutions alternatives ETL Architecture cible (logique et physique) documentée Estimation budgétaire et planning de transformation Matrice des risques et plans de mitigation
Mission freelance
Architecte Data
PROPULSE IT
Publiée le
24 mois
350-700 €
Paris, France
PROPULSE IT recherche un Architecte DATA. Pour soutenir la sélection et la mise en œuvre d'un nouveau système CRM et d'une plateforme d'automatisation marketing, le client recherche un expert capable de préparer l'avenir et de développer davantage le modèle de données client et consommateur, et d'établir un plan d'intégration et une feuille de route. - Conception de bases de données Traduire le modèle consommateur canonique existant en une base de données concrète. Définir et documenter les entités, attributs et relations dans un dictionnaire de données. Assurer de la qualité des données et de la cohérence sémantique. Intégration et cartographie fonctionnelle Cartographier fonctionnellement les données des consommateurs à travers les différents systèmes B2C. Développer des cartographies et des transformations à partir des CRM, e-commerce, POS (physique), fidélisation et automatisation marketing vers la base de données consommateurs. Définir les approches de transformation et de standardisation. - Architecture et feuille de route Finaliser l'architecture de l'application autour des données des consommateurs : systèmes, processus et dépendances. Ajuster le modèle de données lorsque cela est nécessaire, en tenant compte des limites des systèmes existants. Élaborer une feuille de route pour relier les différents systèmes par phases.
Mission freelance
Expert Infrastructure IT - Supervision Broadcast (Prometheus / Grafana / Centreon)
INSYCO
Publiée le
Bash
Centreon
Cisco
36 mois
500-600 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Expert Infrastructure IT – Supervision Broadcast (Prometheus / Grafana / Centreon) Nous étudions - prioritairement - les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/ISB/5255 dans l'objet de votre message La prestation se déroulera au sein de la direction technique d'un grand groupe audiovisuel public, dans l'entité en charge des systèmes permettant l'alimentation en médias et la diffusion de plusieurs chaînes nationales et régionales. Ces systèmes sont opérés par deux centres de diffusion : un centre en activité et un centre en construction. Le client recherche un expert en infrastructure IT pour mettre en place la supervision d'une infrastructure broadcast de supply chain et de diffusion, dont les outils principaux sont Prometheus et Grafana. Architecture et administration de la supervision Conception, déploiement, administration et optimisation des plateformes de supervision : Centreon (supervision infrastructure, métier et historique) Prometheus (collecte métrique temps réel, environnements distribués) Mise en haute disponibilité des briques de supervision critiques Mise en place de sondes et d'indicateurs spécifiques pour la surveillance des flux ST 2110 (latence, perte de paquets, synchronisation PTP) Monitoring des équipements réseau dédiés à la diffusion IP (switchs broadcast, équipements spine/leaf, gateways médias) supportant les flux ST 2110 Développement de sondes personnalisées pour la collecte de métriques spécifiques aux environnements de diffusion IP temps réel Supervision des infrastructures des centres de diffusion (salles serveurs broadcast) Mise en œuvre d'une observabilité complète des chaînes de diffusion, de l'infrastructure jusqu'aux flux médias Supervision orientée service de diffusion, intégrant systèmes, stockage, réseau et applications métiers Collecte métrique et sondes avancées Déploiement, configuration et maintien des exporters Prometheus : node_exporter, windows_exporter, blackbox_exporter exporters applicatifs et exporters personnalisés Développement de sondes spécifiques aux environnements broadcast et salles serveurs : Supervision des salles informatiques (température, alimentation, climatisation, équipements critiques) Supervision des flux TCP/UDP de diffusion Supervision des services médias Mise en place de sondes avancées pour le stockage haute performance : NetApp (baies, volumes, snapshots, quotas, performances IOPS/latence) Isilon / PowerScale (capacité, charge, disponibilité, throughput) Visualisation et pilotage de la performance Intégration avancée de Prometheus avec Grafana Création de dashboards temps réel et historiques pour : Diffusion Stockage média Infrastructures systèmes Flux réseau ST 2110 Performances applicatives Alerting Conception des règles d'alerting via Alertmanager (seuils dynamiques, alertes sur dérives de performance, capacités et risques de saturation) Mise en place de scénarios d'escalade adaptés aux contraintes 24/7 Définition d'alertes critiques sur les anomalies du réseau ST 2110 (pertes de flux, dérives de latence, désynchronisation PTP) Supervision des environnements critiques Systèmes : Linux (RedHat, CentOS, Debian, Ubuntu, Rocky Linux), Windows Server Virtualisation : VMware vSphere / ESXi, vCenter — supervision des clusters, hôtes, VM, performances Stockage et sauvegarde : NetApp, Isilon — suivi des sauvegardes Veeam Réseaux : équipements Cisco, HP, Palo Alto — SAN Brocade — flux IP de diffusion et réseau ST 2110 Services d'infrastructure : Active Directory, DNS, DHCP, PKI et certificats Applications critiques et bases de données Capacity Planning Mise en œuvre du capacity planning basé sur les métriques : Analyse de tendances CPU, RAM, stockage, réseau Prévision des saturations Aide à la décision pour l'évolution des infrastructures de diffusion Sécurité et conformité Durcissement des plateformes de supervision Application contrôlée des correctifs de sécurité Suivi des vulnérabilités et impacts sur les environnements critiques Respect des exigences d'homologation du client Industrialisation et automatisation Standardisation des templates Centreon Industrialisation des sondes et exporters Automatisation via scripts Bash, Python, PowerShell Intégration API (REST/XML/JSON) Support N2/N3 supervision Documentation d'ingénierie Rédaction et maintien : Procédures d'exploitation Schémas d'architecture DAT (Dossiers d'Architecture Technique) Dashboard et référentiels d'alerting Cartographie des flux (IPAM, diffusion) Formalisation des processus de supervision adaptés aux environnements broadcast Rédaction de procédures spécifiques aux opérations de diffusion critique
Offre d'emploi
Data Engineer / DevOps
OCTOGONE
Publiée le
AWS Cloud
Databricks
DevOps
6 mois
Paris, France
Contexte Le rôle vise à apporter l’expertise nécessaire pour soutenir les projets data et l’écosystème Databricks au sein du Groupe. L’équipe met à disposition des environnements d’évaluation et de test, définit les standards et bonnes pratiques d’usage, et accompagne les entités ayant des besoins spécifiques sur des périodes dédiées. Les interlocuteurs sont principalement des Data Specialists et Data Citizens. Les environnements techniques s’appuient sur Databricks AWS et Azure. Les activités se structurent autour de trois axes : • Data Engineering : développement et opérations data • DevOps / DataOps : déploiement, automatisation, Infrastructure-as-Code, administration des plateformes • Expertise : veille technologique, anticipation des évolutions, test et validation des nouvelles fonctionnalités. Description Dans ce contexte, les responsabilités confiées sont les suivantes : 1. Administrer, surveiller et maintenir les espaces de travail Databricks du COE. 2. Élaborer, documenter et faire évoluer les standards, bonnes pratiques et blueprints groupe. 3. Garantir la qualité et la conformité des services fournis aux entités. 4. Accompagner les équipes métiers et data dans l’adoption de l’écosystème Databricks et leur transition vers les normes groupe. 5. Tester, évaluer et recommander les nouvelles fonctionnalités de l’éditeur ou d’outils complémentaires pour améliorer l’expérience globale. 6. Veiller au respect des politiques groupe et accompagner leur mise en œuvre. 7. Contribuer à la conception et à la réalisation des use cases stratégiques portés par les entités. Livrables Dans ce contexte, les responsabilités confiées sont les suivantes : 1. Administrer, surveiller et maintenir les espaces de travail Databricks du COE. 2. Élaborer, documenter et faire évoluer les standards, bonnes pratiques et blueprints groupe. 3. Garantir la qualité et la conformité des services fournis aux entités. 4. Accompagner les équipes métiers et data dans l’adoption de l’écosystème Databricks et leur transition vers les normes groupe. 5. Tester, évaluer et recommander les nouvelles fonctionnalités de l’éditeur ou d’outils complémentaires pour améliorer l’expérience globale. 6. Veiller au respect des politiques groupe et accompagner leur mise en œuvre. 7. Contribuer à la conception et à la réalisation des use cases stratégiques portés par les entités.
Offre d'emploi
Data Scientist confirmé F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Python
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data Engineer Spark / Hadoop – Data & Analytics
Datapy
Publiée le
Apache Spark
Cloudera
Hadoop
12 mois
550-750 €
Paris, France
Nous recherchons un Data Engineer pour intervenir chez un acteur majeur du secteur public , dans le cadre du développement de sa plateforme Data & Analytics . Vous évoluerez sur des problématiques de traitement de données à grande échelle , avec des enjeux forts autour de la qualité, de la gouvernance et de la valorisation de la donnée . Missions Développer et maintenir des pipelines de données Big Data Mettre en place des traitements distribués avec Spark Structurer les données dans un DataLake / DataWarehouse Assurer la qualité, la fiabilité et la traçabilité des données Réaliser des analyses de données avancées Construire et suivre des KPI métiers Participer à la valorisation des données pour les équipes métier Contribuer à des cas d’usage type : analyse de parcours détection d’anomalies segmentation de données Optimiser les performances des traitements Environnement technique Spark / PySpark Hadoop (HDFS, Hive…) Airflow Python SQL Git / CI-CD Environnement DataLake
Mission freelance
Chef de projet SEPA Cash Management (F/H)
CELAD
Publiée le
API
Cash Management
Confluence
12 mois
450-510 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Business Analyst Cash Management / Paiements Internationaux pour intervenir chez un de nos clients dans le secteur bancaire . 💻💼 🧭 Contexte de la mission Refonte de l’offre de change liée aux paiements internationaux , avec pour objectif d’améliorer à la fois les aspects techniques et tarifaires. 🎯 Vos missions Dans ce contexte, vous jouerez un rôle central dans la définition et la structuration des besoins métiers : Analyser les besoins métiers liés au change dans le cadre des virements internationaux Rédiger des spécifications fonctionnelles détaillées et structurées Coordonner les échanges entre les équipes métiers, techniques (développeurs, architectes) et les équipes API Participer aux phases de tests et de recette (définition des cas de test, validation des livrables) Animer des ateliers et réunions avec les parties prenantes afin de challenger et affiner les besoins Accompagner les utilisateurs lors des mises en production et du déploiement des nouvelles fonctionnalités
Mission freelance
Data engineering senior
LeHibou
Publiée le
Azure
Databricks
Python
6 mois
600-650 €
Paris, France
Contexte de la mission Notre client est un grand groupe international du secteur de l’énergie, présent sur plusieurs activités : énergies conventionnelles, biocarburants, gaz, énergies renouvelables et électricité. Son entité digitale interne regroupe plusieurs centaines de collaborateurs, répartis en plusieurs squads pluridisciplinaires et implantés dans de nombreux pays. Elle a pour vocation d’accélérer la production interne de solutions digitales au service des différentes activités du groupe. Elle combine l’agilité et l’esprit pionnier d’une organisation technologique avec la robustesse et la rigueur d’une structure de production à grande échelle. Elle conçoit et déploie des solutions digitales sur l’ensemble des sites du groupe afin de contribuer à une énergie plus propre, fiable et accessible. Objectifs et livrables Contexte du produit Au sein de l’entité digitale du client (environ 30 squads), le prestataire intègre une équipe produit pluridisciplinaire pour apporter son expertise sur la conception et le déploiement de pipelines de données complexes. Il intervient dans un environnement Agile mature, soutenu par des experts (Coachs Craft, Chapter Leads, Architectes) pour se concentrer sur la qualité logicielle et la performance des flux. But principal Le prestataire a pour mission de concevoir, développer et industrialiser les solutions de données du produit, en garantissant une architecture scalable, maintenable et conforme aux standards de l’organisation. Missions & Responsabilités (Expertise) • Ingénierie & Développement : o Concevoir et développer des pipelines de données robustes et performantes o Participer à la conception et mettre en œuvre des architectures de données répondant aux besoins du produit o Garantir la qualité du code grâce aux principes de Clean Code, DDD et les peer-reviews o Contribuer à la documentation du produit sur les aspects liés à la data • Industrialisation : o Contribuer à l'observabilité des flux (monitoring, alerting, logs) o Optimiser les performances des traitements et les coûts d'infrastructure (FinOps Data) o Garantir la sécurité et la conformité des données manipulées • Support Technique & Expertise : o Communiquer efficacement avec le métier et traduire le besoin business en besoin technique o Apporter un éclairage technique sur la faisabilité des user stories lors des rituels agiles o Résoudre et prévenir les incidents en production o Participer vivement au travail collectif et interagir avec les rôles transverses o Contribuer activement à la communauté (Chapter) pour partager les retours d'expérience techniques, les bonnes pratiques, etc.
Mission freelance
Développeur BI / Data Alteryx
COEXYA
Publiée le
Alteryx
BI
12 mois
480-520 €
Paris, France
Nous recherchons un Développeur BI / Data confirmé pour renforcer une équipe IT internationale en charge d’un système de pilotage de la consommation de bilan et d’indicateurs de liquidité. La mission porte sur le développement de nouveaux modules, l’enrichissement d’un existant BI complexe et l’intégration de nouvelles fonctionnalités dans des workflows multi-sources. L’environnement de travail est international, anglophone et organisé en mode Agile, avec des interactions régulières avec des équipes métiers et data. Rôle attendu : Développer et faire évoluer des workflows BI complexes sous Alteryx Intégrer de nouveaux modules dans un existant structuré et maintenable Garantir la qualité technique, la documentation et la robustesse des développements Travailler avec des bases de données relationnelles dans un contexte BI / reporting Collaborer avec des interlocuteurs internationaux dans un cadre Agile
Offre d'emploi
Architecte Data Mesh
KLETA
Publiée le
Architecture
Data governance
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Mesh pour définir et piloter la mise en place d’une architecture data fédérée orientée domaines. Vous analyserez les organisations, les flux de données et les architectures existantes afin de proposer une trajectoire cible alignée avec les principes du Data Mesh (responsabilité par domaine, produits data, self-service, gouvernance fédérée). Vous guiderez la conception des plateformes de données par domaine en définissant des standards communs (contrats de données, qualité, observabilité, versioning, discoverabilité) et en structurant les mécanismes de partage et d’interopérabilité entre équipes. Vous serez responsable des choix structurants en matière de gouvernance, de sécurité, de catalogage et de propriété des données, tout en veillant à la scalabilité et à l’exploitabilité du modèle. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud, DevOps et métiers pour accompagner le changement organisationnel et technique. Vous aurez également un rôle clé dans l’animation d’ateliers, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des pratiques Data Mesh et de la culture produit autour de la donnée.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Mission à 600 km de chez moi - Frais de double résidence
- VRAI MEDIUM VOYANT PUISSANT GRATUIT +229 45723596
- Renégo TJM : de 600€ à 800€ après 3 mois réaliste ?
- VOYANT GRATUIT SÉRIEUX EN FRANCE +33 7 54 05 54 85
- Réforme de l’assiette sociale
- Nouveau volet social dans la déclaration d'impôts sur le revenu
315 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois