L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 7 142 résultats.
Mission freelance
Consultant Fonctionnel NetSuite Finance
Apps IT Limited
Publiée le
Finance
12 mois
France
Nous sommes à la recherche d’un Consultant Fonctionnel NetSuite Finance Senior, pour rejoindre un de nos partenaires, sous contrat Freelance. Il s’agit d’un rôle clé soutenant la mise en œuvre, l’optimisation et l’amélioration des modules de NetSuite Finance, dans l’ensemble de l’entreprise. Le consultant idéal aura une connaissance fonctionnelle approfondie de NetSuite Financials et une expérience pratique dans la réalisation de projets NetSuite Financials réussis. Le poste offre une flexibilité de 100% de télétravail!
Mission freelance
Consultant SAP Master Data
EBMC
Publiée le
SAP
6 mois
400-800 €
Paris, France
Dans le cadre d’un projet de transformation autour de la gestion du cycle de vie des produits et des activités de maintenance/réparation, nous recherchons un consultant SAP expérimenté afin de piloter les travaux de migration de données et d’intégration entre un système PLM et SAP. La mission porte dans un premier temps sur la migration d’un référentiel article important, représentant environ 600 000 références distinctes, avec un enjeu fort de qualité et de cohérence des données. Le consultant interviendra également sur la mise en place des interfaces nécessaires côté SAP afin d’assurer la communication entre les systèmes. Ce rôle s’inscrit dans la durée et comporte une dimension stratégique, avec une implication progressive dans le paramétrage et l’évolution du système SAP en fonction de l’avancement du projet.
Offre d'emploi
Consultant fonctionnel SAP FI/CO
Signe +
Publiée le
50k-80k €
Lille, Hauts-de-France
Vos principales missions : • Analyse des besoins • Conception fonctionnelle : • Rédiger des spécifications fonctionnelles détaillées en lien avec les processus de comptabilité financière (FI) et de contrôle de gestion (CO). • Définir les configurations SAP nécessaires pour répondre aux exigences métiers. • Concevoir l'architecture des flux financiers et de gestion des coûts au sein de l'outil SAP. • Paramétrage SAP FICO et customizing : • Configurer les modules SAP FICO en fonction des spécifications validées : paramétrage des comptes, des centres de coûts, des axes de rentabilité, des clés de répartition, etc. • Adapter les fonctionnalités SAP aux processus internes de l'entreprise. • Tests et validation : • Effectuer des tests de validation sur les configurations mises en place pour s'assurer que le système fonctionne correctement et respecte les exigences métier. • Corriger les erreurs et ajuster les configurations si nécessaire. • Formation des utilisateurs : • Former les utilisateurs finaux (comptables, contrôleurs de gestion, etc.) à l'utilisation de SAP FICO. • Créer des supports de formation adaptés aux différents profils d'utilisateurs. • Support et maintenance • Suivi de projet : • Suivre l'avancement du projet, s'assurer de la bonne qualité des livrables et respecter les délais. • Collaborer avec les autres équipes SAP (techniques, métiers, etc.) et participer aux réunions de suivi de projet. • Amélioration continue : • Proposer des améliorations continues des processus financiers et de gestion des coûts en exploitant les capacités de SAP FICO. • Analyser les données financières dans SAP pour identifier des axes d'amélioration. Référence de l'offre : eabexdb8uu
Mission freelance
Product Owner AI Chatbot & Copilot - Full remote
Net technologie
Publiée le
Copilot
IA Générative
Product management
6 mois
Paris, France
Dans le cadre d’une transformation majeure portée par l’IA Générative et le digital, nous recherchons un Product Owner senior pour piloter la stratégie, la roadmap et l’exploitation d’un écosystème de chatbots d’entreprise et de Copilot. 🎯 Enjeux : structurer un écosystème conversationnel cohérent, sécurisé, gouverné et largement adopté, autour de Microsoft 365 Copilot , ChatGPT Enterprise et autres chatbots internes. 🛠 Missions : Définir la stratégie et le positionnement des plateformes conversationnelles Piloter la vision produit, la roadmap et le backlog Travailler en étroite collaboration avec IT, sécurité, architecture et métiers Suivre la gouvernance, la compliance, les coûts, l’adoption et les KPIs Veiller au respect des principes de Responsible AI
Mission freelance
Machine Learning Engineer – IA & MLOps
ESENCA
Publiée le
Github
LangChain
Python
1 an
Lille, Hauts-de-France
Contexte du poste Dans un environnement technologique en forte croissance, vous intervenez sur le développement et l’industrialisation de solutions d’Intelligence Artificielle. Les produits évoluent rapidement et nécessitent une forte capacité d’adaptation, de structuration et d’industrialisation des modèles. Objectif Concevoir, développer et déployer des solutions AI/ML robustes et scalables, tout en assurant leur intégration dans une chaîne CI/CD moderne et une plateforme MLOps structurée. Missions principalesDéveloppement & Industrialisation IA Concevoir et développer des modèles de Machine Learning et solutions basées sur les LLM Implémenter des composants AI/ML (fonctions, classes, tests automatisés) Participer à la conception d’architectures orientées Data & IA Assurer le passage du prototype à la production MLOps & Data Engineering Construire et maintenir les pipelines d’entraînement, d’évaluation et de déploiement Automatiser les workflows via Github Actions Mettre en œuvre les bonnes pratiques CI/CD et DevOps Assurer le monitoring, la performance et la scalabilité des modèles Qualité & Documentation Garantir la qualité du code (tests unitaires, intégration) Réaliser des revues de code Documenter les développements et configurations (Github / Gitbook) Assurer le suivi du cycle de vie complet des modèles (build & run) Environnement technique Python (impératif), Github Actions (impératif), LangChain (souhaitable), GCP, Kubernetes, Kafka, Terraform, bases SQL/NoSQL.
Offre d'emploi
DevOps Engineer IA
TS-CONSULT
Publiée le
Azure
Terraform
1 an
Île-de-France, France
Bonjour a tous , actuellement je suis a la recherche d'un profil Compétences requises DevOps Engineer IA Profil recherché : DevOps Engineer avec expertise en MLOps et maîtrise du vibe coding, capable de construire et maintenir des infrastructures robustes pour l'IA tout en automatisant les déploiements et en garantissant la performance des solutions en production. Hard Skills : • 5 ans d'expérience minimum en DevOps/SRE • Expérience démontrée en vibe coding avec utilisation d'outils IA pour générer scripts, configs et diagnostiquer incidents • Expertise en MLOps et déploiement de modèles IA en production • Maîtrise des plateformes Cloud (AWS, Azure, GCP) et services IA Cloud • Expertise en Infrastructure as Code (Terraform, CloudFormation, ARM Templates) • Maîtrise de la conteneurisation et orchestration (Docker, Kubernetes, Helm) • Expertise CI/CD (GitLab CI, GitHub Actions, Jenkins, Azure DevOps) • Connaissance des outils MLOps (MLflow, Kubeflow, Weights & Biases, SageMaker Pipelines) • Maîtrise du scripting (Bash, Python) et automatisation • Expérience en monitoring et observabilité (Prometheus, Grafana, ELK, DataDog) • Connaissance des pratiques de sécurité DevSecOps • Gestion des secrets et configuration (Vault, AWS Secrets Manager) • Un plus : Expérience avec GPUs et optimisation des ressources IA Soft Skills : • Capacité à utiliser l'IA pour diagnostiquer et résoudre rapidement les incidents • Pragmatisme : équilibre entre automatisation et délais de livraison • Rigueur dans la conception et la sécurisation des infrastructures • Esprit d'innovation et veille technologique continue • Autonomie et proactivité dans l'identification des problèmes • Excellent sens du service et support aux équipes de développement • Esprit collaboratif et pédagogue • Réactivité face aux incidents de production Résultats attendus (Livrables) • Conception et mise en place d'architectures Cloud pour solutions IA (scalables, sécurisées, optimisées) • Déploiement et gestion d'infrastructures as Code (Terraform, CloudFormation) • Mise en place de pipelines CI/CD pour applications et modèles IA • Utilisation experte du vibe coding pour générer scripts, configs et automatisations • Automatisation des déploiements et rollbacks (blue/green, canary) • Configuration du monitoring, alerting et observabilité des modèles IA en production • Gestion des environnements (dev, staging, production) et des accès • Optimisation des coûts Cloud et des performances (GPU, compute, stockage) • Support aux développeurs sur l'outillage et les best practices DevOps • Documentation technique des infrastructures et procédures • Mise en place de pratiques DevSecOps et conformité sécurité • Partage des best practices MLOps et vibe coding avec l'équipe Anglais courant
Mission freelance
Data Ingineer Databriks
Nicholson SAS
Publiée le
Databricks
PySpark
Python
9 mois
Paris, France
Bonjour, Dans le cadre d’un programme stratégique autour de la data, nous recherchons plusieurs Data Engineers Databricks pour intervenir sur une plateforme à fort enjeu. 📍 Localisation : France – 100% Remote 📅 Démarrage : ASAP 📆 Fin de mission : 31/12/2026 💰 TJM (selon séniorité et localisation) Paris : Séniorité 3 : 580 € Séniorité 4 : 660 € Séniorité 5 : 740 € Province : Séniorité 3 : 520 € Séniorité 4 : 590 € Séniorité 5 : 670 € 🚀 Contexte & Missions Dans le cadre du développement d’une usine data (plateforme Databricks) , vous interviendrez pour accélérer la mise en œuvre de cas d’usage data à forte valeur ajoutée. L’objectif est de renforcer les équipes avec 6 Data Engineers (confirmés à seniors). À ce titre, vos missions seront : Développer et industrialiser des pipelines de données sur Databricks Participer à la mise en œuvre de cas d’usage data Optimiser les traitements et la performance des workflows data Contribuer à l’architecture et à l’évolution de la plateforme data Garantir la qualité, la fiabilité et la traçabilité des données 🛠️ Environnement technique Databricks (Data Intelligence Platform) Azure Databricks Apache Spark Python SQL 🎯 Profil recherché Data Engineer Databricks Expérience : à partir de 3 ans (profils confirmés à seniors) Bonne maîtrise des environnements data modernes et distribués Capacité à travailler en autonomie dans un contexte agile ✅ Compétences clés Développement de pipelines data sur Databricks Maîtrise de Spark (PySpark) Solide niveau en Python & SQL Bonne compréhension des architectures data (batch / streaming) 💡 Mission long terme avec forte visibilité.
Offre d'emploi
Business Analyst - recherche financière
FIRST CONSEIL
Publiée le
Bloomberg
ESG
IA
6 mois
40k-45k €
400-550 €
Île-de-France, France
Dans le cadre du renforcement de l'équipe de recherche financière de notre client, nous recherchons un Business Analyst spécialisé en Recherche Financière. Le candidat interviendra à l’interface entre les équipes métiers (analystes, Editing, sales), l’IT et les fournisseurs de données financières (FactSet, Bloomberg, Reuters…). Il contribuera à l’amélioration continue des outils d’analyse, des bases de données et des process de production. Expérience confirmée dans l’analyse et la manipulation de données financières Capacité à comprendre les besoins métiers en analyse equity ou ESG Excellentes capacités d’analyse fonctionnelle, de synthèse et de formalisation. Contribution à des projets transverses : migration de systèmes, intégration de nouvelles sources, automatisation, optimisation de workflows Travailler en interface avec les équipes métiers, IT et Data Recueillir, analyser et formaliser les besoins des équipes de recherche financière. Assurer un rôle de référent data et outils auprès des utilisateurs finaux Gérer, contrôler et optimiser les flux de données provenant de plateformes (FactSet, Bloomberg, Refinitiv...). Fournir un support de niveau 2 sur les outils et plateformes de recherche Définir, suivre et mettre en œuvre les correctifs ou évolutions. Participer aux projets de migration, mise à niveau ou intégration de nouvelles solutions. Rédiger les cahiers des charges et spécifications fonctionnelles. Interagir avec les équipes IT, Infrastructure et Data Science.
Mission freelance
POT8930 - Un Développeur Data & IA (Python & Dataviz) Sur Auvergne-Rhône-Alpes
Almatek
Publiée le
JIRA
6 mois
340-400 €
Auvergne-Rhône-Alpes, France
Almatek recherche pour l'un de ses clients, Un Développeur Data & IA (Python & Dataviz) Sur Auvergne-Rhône-Alpes . Description Mission générale : Renforcer le groupe en assurant la conception, le développement et l’industrialisation de solutions Data, IA et Dataviz, au service des équipes de développement et DevSecOps. Le consultant contribue également à l’intégration d’usages IA dans les outils du développeur augmenté, ainsi qu’à l’accompagnement des équipes internes. Responsabilités principales 1. Développement & industrialisation Data / IA (activité dominante) Concevoir et développer des composants logiciels Python : scripts, services, APIs, traitements batch. Mettre en œuvre des chaînes de traitement de données (ingestion, qualité, traçabilité, performance). Développer et industrialiser des solutions Data et IA destinées aux équipes de développement Enedis. Contribuer à l’intégration des usages IA dans l’outillage du développeur augmenté (assistants de code, automatisation, analyse, observabilité). 2. Dataviz & reporting décisionnel Concevoir des tableaux de bord Power BI et autres outils de visualisation. Produire des visualisations utiles au pilotage, à l’observabilité et à l’aide à la décision. 3. Documentation, capitalisation et qualité Structurer et maintenir la documentation technique. Contribuer aux référentiels de connaissances (Confluence). Participer à la capitalisation des bonnes pratiques Data/IA. 4. Accompagnement et formation des équipes internes Appuyer les équipes dans la prise en main des solutions. Animer des sessions de formation ou démonstrations (ex : GitHub Copilot). Participer au transfert de compétences et à la montée en maturité des équipes 5. Pilotage et coordination opérationnelle Suivre le backlog, collaborer avec les équipes projets / produits / outillage. Produire un reporting régulier d’avancement et d’activité. Compétences requises Techniques (obligatoires) Développement Python avancé. Connaissance des modèles et usages IA (machine learning, IA générative, observabilité IA). Traitement et préparation de données (ETL/ELT). Maîtrise Power BI et outils de dataviz. Usage outillé des chaînes DevOps / CI-CD (GitLab, pipelines). Environnement et outils attendus GitLab CI / Placide Confluence / JIRA Plateformes Data & IA GitHub Copilot (usage expert)
Mission freelance
Référent Master Data Produit (SAP S/4HANA Cloud Public) (H/F)
PREREQUIS
Publiée le
SAP
1 an
Paris, France
Nous recherchons pour l'un de nos clients un Référent Master Data Produit (SAP S/4HANA Cloud Public) (H/F) Vos missions seront : Dans le cadre de son programme de transformation ERP Groupe, le client déploie un Core Model SAP S/4HANA Cloud Public visant à harmoniser ses processus et ses données à l’échelle internationale. Le groupe, en forte croissance par acquisitions, opère aujourd’hui avec plusieurs ERP hétérogènes, qui doivent être migrés vers un modèle unifié. Le programme est mené avec un intégrateur (demarrage du projet en Sept / Phase Realize en cours). Le poste est positionné côté client, avec un rôle clé sur la structuration et la gouvernance des données produit. Objectif du poste Prendre la responsabilité fonctionnelle et transverse de la Master Data Produit, afin de : Structurer et fiabiliser le modèle de données produit Garantir la qualité et la cohérence des données dans SAP Piloter le cycle de vie des produits dans le système Assurer la bonne intégration avec les outils amont (notamment PIM) Faire le lien entre les équipes métiers, data et techniques Responsabilités 1. Gouvernance de la Master Data Produit Définir et maintenir le modèle de données produit (data model) Structurer les référentiels (articles, variantes, attributs, hiérarchies…) Mettre en place les règles de gestion et de qualité des données Assurer la cohérence entre les différents systèmes 2. Gestion du cycle de vie produit Piloter le cycle de vie produit dans SAP (création, modification, obsolescence) Définir les workflows de gestion des données Assurer la traçabilité et la conformité des données produit 3. Intégration avec le PIM et les systèmes amont Gérer les flux entre le PIM (Product Information Management) et SAP Assurer la bonne transmission et transformation des données produit Garantir la synchronisation entre systèmes 4. Migration des données & outils SAP Participer aux activités de migration des données produit Utiliser et piloter les outils SAP : - Migration Cockpit - Outils d’intégration (CPI / SCPI + Boomi) - Contribuer aux phases de data cleansing et mapping 5. Collaboration avec l’intégrateur Challenger les propositions de l’intégrateur sur la data produit Traduire les besoins métiers en spécifications fonctionnelles Participer aux ateliers de conception (Build) Suivre les développements et intégrations 6. Coordination transverse Travailler avec les équipes : Métiers (marketing, supply, finance) IT / Data Équipes locales (international) Accompagner la montée en maturité sur la gestion des données
Offre d'emploi
Consultant Data Visualization – Qlik Sense (H/F)
ADDIXWARE
Publiée le
Qlik Sense
1 an
40k-60k €
380-500 €
Signes, Provence-Alpes-Côte d'Azur
Dans le cadre du renforcement de son pôle Data, notre client structuré autour d’une organisation data en deux volets (Data Engineering / Data Visualization) recherche un Consultant Data Visualization spécialisé sur Qlik Sense . L’équipe Data Engineering (notamment via Talend) est déjà en place et produit les flux et référentiels de données. La mission s’inscrit donc côté restitution et valorisation de la donnée , avec un enjeu fort sur la qualité des dashboards et l’adoption métier. Intégré au sein de l’équipe Data / BI, vous intervenez sur la conception, le développement et l’optimisation de dashboards sous Qlik Sense , en lien étroit avec les équipes métiers et data. À ce titre, vous serez en charge de : Recueillir et analyser les besoins métiers en matière de reporting et de pilotage Concevoir des dashboards interactifs et ergonomiques sous Qlik Sense Modéliser les données dans Qlik (data model, scripts de chargement) en lien avec les flux existants Assurer la qualité, la performance et la fiabilité des visualisations Participer à l’amélioration continue des reportings existants Accompagner les utilisateurs dans la prise en main des outils (pédagogie, support) Collaborer avec les équipes Data Engineering (Talend) pour garantir la cohérence des données Livrables : Tableaux de bord Qlik Sense (KPI, reportings métiers, dashboards interactifs) Modèles de données optimisés (scripts de chargement, structuration) Documentation technique et fonctionnelle Recommandations UX/DataViz pour améliorer la lisibilité et l’usage Support et accompagnement des utilisateurs
Offre d'emploi
Data Scientist Computer Vision
Codezys
Publiée le
Computer vision
Deep Learning
Machine Learning
12 mois
Grand Est, France
Objet : Appel d'offres pour un(e) Data Scientist spécialisé(e) en Computer Vision - Alsace Notre entreprise, leader dans l'accompagnement à l'aménagement intérieur, souhaite renforcer ses capacités en intégrant des solutions basées sur l'intelligence artificielle et la vision par ordinateur. Afin de soutenir notre croissance, nous lançons un appel d'offres pour le recrutement d’un(e) Data Scientist spécialisé(e) en Computer Vision, ayant une expérience minimale de 2 ans. Contexte de la mission : Nous exploitons la donnée et les technologies d’intelligence artificielle pour révolutionner la manière dont nos équipes commerciales identifient les besoins clients, ainsi que la représentation et la configuration en temps réel de scènes d’ameublement. La personne recrutée jouera un rôle clé dans le développement et la déploiement de modèles de vision par ordinateur destinés à analyser des images et en extraire des insights opérationnels pertinents. Localisation : Alsace Vos missions principales : Développement de modèles de Computer Vision : Concevoir et entraîner des modèles capables d’identifier les objets, leurs fonctions et contenus à partir d’images. Support aux équipes commerciales : Accompagner les équipes dans l’exploitation des outils d’analyse visuelle, y compris la classification et l’interprétation des images. Déploiement et maintenance : Implémenter et assurer la maintenance des solutions de traitement d’images en production, en utilisant notamment Google Cloud Platform (GCP) et Vertex AI. Conception de pipelines : Développer des pipelines et des algorithmes permettant la visualisation en temps réel des scènes d’ameublement, facilitant ainsi la prise de décisions commerciales. Collaboration métier : Travailler étroitement avec les équipes métier pour traduire les enjeux business en solutions techniques concrètes, assurer leur déploiement efficace et leur adoption opérationnelle. Veille technologique : Maintenir une expertise à jour en matière de vision par ordinateur afin d’intégrer les dernières innovations dans nos solutions.
Mission freelance
[LFR] Data Engineer TERADATA ET DATAVIZ, Sénior à Paris - 1456
ISUPPLIER
Publiée le
5 mois
300-405 €
Paris, France
Modélisation de données • Mode de chargement dans l’entrepôt (ETL) : BTEQ • Teradata, développements sous Teradata • Dataviz : Power BI et MSBI • CONTROL-M • Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) • SQL sur SGBD relationel, Shell • TPT – réalisation de scripts • Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea • Création de chaînes de déploiement DEVOPS • Mise en production de composants applicatifs avec livrables documentaires associés (DTA, feuille de route, ...) Sofskills : Sens du service. Bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie.
Offre d'emploi
Security Data Engineer - Structuration Logs Cybersecurite
PSSWRD
Publiée le
Cybersécurité
Data Lake
Logstash
1 an
40k-45k €
500-700 €
Issy-les-Moulineaux, Île-de-France
Au sein de la direction cybersécurité d'un grand groupe international du secteur hôtelier, vous interviendrez en tant que Security Data Engineer pour structurer et optimiser l'ensemble de l'écosystème de logs de sécurité. Aujourd'hui, les logs proviennent de multiples sources et outils avec des formats hétérogènes, rendant leur corrélation et leur exploitation difficile. Votre mission sera d'inventorier l'ensemble des sources de logs, de définir une nomenclature unifiée et des pipelines de normalisation, d'organiser le stockage en distinguant le temps réel (SIEM Splunk) du stockage économique pour la conformité, et de proposer une architecture data cible intégrée a la démarche data globale de l'entreprise. Vous serez la personne référente sur la partie data au sein de l'équipe cyber, avec une forte autonomie et un rôle de force de proposition. Vos missions principales : ● Cartographier l'écosystème existant (outils, sources, cas d'usage) et proposer une architecture cible avec roadmap ● Créer un référentiel complet des sources de logs (volume, format, fréquence, qualité, valeur cyber) ● Définir et implémenter une normalisation unifiée des logs (Common Information Model) et les pipelines de transformation ● Optimiser la collecte : réduire le bruit, filtrer, enrichir (CTI, Threat Intelligence) et améliorer la qualité des données ● Collaborer avec les équipes SOC (temps réel), GRC (conformité/reporting) et les équipes data métier de l'entreprise ● Assurer le transfert de compétences et la formation des équipes a l'exploitation des logs et des outils
Mission freelance
Consultant Data gouvernance Collibra (BCBS 239)
STHREE SAS pour COMPUTER FUTURES
Publiée le
Collibra
Data management
9 mois
Île-de-France, France
Contexte : Cadre réglementaire pour les banques : Exigences Bâle 2 renforcée, besoin de données fiables pour piloter les risques et pression sur qualité et traçabilité de données Objectifs : Implémentation de Collibra (choix du siège) comme levier RDARR : La plateforme de gouvernance des données ❖ Glossaire, dictionnaire, référentiels ❖ Rôles et responsabilités (ownership) // Documentation et workflows ❖ Data lineage ❖ Cohérence et transparence des données utilisées Missions Phase Data Owner Assignment : suivant la définition théorique que nous avons donné en interne sur les rôles et Responsabilités, 4 profils : Data Owner, Stewart, Producer et User ❖ Préparer et faire valider la matrice des R&R auprès des Data Owner à partir du scope CONNECT ❖ Faire valider les Rôles et Responsabilités auprès des Data Owner sur les IDP Connect (Local file, Mapping table, RDT, Scoring, Rating …) Phase Alimentation Collibra : ❖ « Ecosystème input CONNECT » Use case de l’implémentation dans Collibra) 1/ Préparer les différents templates (par entités CONNECT) pour Collibra avec les besoins fonctionnels demandés pour Collibra 2/ Identifier les sources de données (avec l’aide de spécifications techniques) 3/ Faire compléter le lineage de data par l’IT 4/ Tester les templates sur K dans l’import Collibra et valider les schémas (Vérifier que le lineage fonctionne correctement avec les données attendues en provenance des systèmes) 5/ Mettre en production les templates 6/ Effectuer et Organiser les correctifs nécessaires en partenariat avec l’IT. 7/ Participer au meetings bi-weekly avec le siège sur l’avancement des travaux – Fournir l’avancement nécessaire dans JIRA et/ou au Data Officer ❖ «Ecosysteme Autres » Selon le siège, « nous » livrons des spreadsheets pour le compte du regulatory reporting. Cadrage encore flou. Cependant l’idée serait d’auditer certains services pouvant « toucher » aux outils du siège (suivant liste pré définie) afin de vérifier que des données sont envoyées au siège et par quel biais. - Prendre les outils recensés par le siège (Check si ces outils génèrent des flux pour les besoins des reportings règlementaires au siège) - Sonder sur les User de ces outils et les flux existants - Organiser la description de ces flux en vue de l’intégration dans Collibra . - Vérifier que le flux soient déclarés en interne dans la cartographie des outils avec architecte IT
Offre d'emploi
Data Architect H/F
OBJECTWARE
Publiée le
Azure Data Factory
Microsoft Fabric
Microsoft Power BI
60k-65k €
Bordeaux, Nouvelle-Aquitaine
Résumé du poste Notre client recherche un Data Architect expérimenté pour rejoindre une équipe Data Fabric et contribuer à la conception et à la mise en œuvre de l’architecture data à l’échelle de l’entreprise. Le rôle se concentre sur la création de produits de données réutilisables pour les domaines métiers , en travaillant étroitement avec les équipes Master Data Management (MDM), Data Engineers, Data Analysts, Information Security ainsi que les parties prenantes métiers. Le poste combine leadership architectural et travail opérationnel , incluant la modélisation de données, la conception d’intégrations, la mise en œuvre de la gouvernance et la configuration de la plateforme . Principales responsabilitésArchitecture de données & gouvernance Identifier et formaliser les domaines de master data à l’échelle de l’entreprise (Customer, HR, Finance, etc.). Collaborer avec l’équipe MDM pour concevoir les structures de golden record, la logique de consolidation et les flux d’intégration . Concevoir et documenter des produits de master data réutilisables (schémas, contrats, modes d’accès, APIs). Contribuer à la modélisation des données aux niveaux conceptuel, logique et physique sur les différents domaines de données. Travailler avec les Data Engineers pour traduire l’architecture en medallion layers, zones curées et pipelines d’intégration . Définir des standards de gouvernance incluant ownership, stewardship, lineage, classification et gestion du cycle de vie des données . Configurer les standards de métadonnées et les structures du catalogue de données afin d’assurer la découvrabilité et la réutilisation . S’assurer que les décisions architecturales sont clairement documentées et exploitables . Évolution de la plateforme, qualité & gouvernance Concevoir et mettre en œuvre des modèles de sécurité des données (RBAC, classification, masquage, contrôles de confidentialité). Participer à la mise en œuvre et à l’exploitation des outils de gouvernance des données (ex : Microsoft Purview), incluant scans, validation du lineage et classification . Définir des standards pour la documentation, la découvrabilité et l’enregistrement des data products dans la plateforme . Examiner les implémentations des domaines de données afin d’éviter la duplication ou la fragmentation des master data . S’assurer que la gouvernance et les métadonnées sont intégrées dans les processus CI/CD et de déploiement . Identifier et réduire les risques liés à l’incohérence des données, aux shadow master data ou à la prolifération non contrôlée des données . Contribuer à l’évaluation de nouvelles technologies et analyser leurs impacts en matière de gouvernance et d’intégration . Support et accompagnement Fournir un accompagnement architectural aux Data Engineers et Data Analysts . Participer à des ateliers techniques et sessions de conception . Accompagner l’ intégration de nouveaux domaines de données via des templates architecturaux et des implémentations de référence . Promouvoir des pratiques cohérentes en matière de métadonnées, sécurité et qualité des données . Agir comme interface entre l’équipe Data Platform, l’équipe MDM et les parties prenantes gouvernance / sécurité .
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
7142 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois