Trouvez votre prochaine offre d’emploi ou de mission freelance PowerBI à Paris

Mission freelance
POT8629-Un expert transformation collaborative Microsoft 365/IA sur Paris
ALMATEK recherche pour l'un de ses clients, un expert transformation collaborative Microsoft 365/IA sur Paris. Mission: Accompagnement à transformation collaborative Notre client recherche un intervenant afin d’appuyer le pilotage stratégique et opérationnel de la transformation collaborative et de l’adoption de Microsoft 365/IA (Copilot) et Power Platform au sein d’un large réseau (référents, animateurs SharePoint, coachs, citizens développeurs). Le besoin couvre l’acculturation et la conduite du changement à l’échelle (communication innovante, webinaires, formations, roadshows, hackathon), l’animation et la professionnalisation des communautés, la mise en place et le suivi de la gouvernance et des KPIs, la capitalisation des bonnes pratiques (référentiels, documentation), ainsi que des activités de PMO/pilotage (organisation des comités, CR, reporting/Power BI, plan d’actions, plan de communication, gestion documentaire).

Mission freelance
Expert identité
Au sein de la Direction des Systèmes d'Information, rattaché à l’équipe Infrastructure & Sécurité, vous rejoindrez une équipe à taille humaine qui s'adresse à un périmètre international. L'anglais est indispensable, avec une aisance orale importante. En tant qu’ingénieur vous assisterez le manager Infrastructure & Sécurité dans la prise en charge du run, de la gestion des projets infrastructure ainsi que promouvoir les bonnes pratiques cybersécurité et sensibilisation à la sécurité. Technologies : Active Directory, scripting Powershell, PowerBi, EntraID, OKTA (administration, évolutions), migration de comptes pour supprimer une forêt de comptes d’externes, migration PKI, Azure IAAS, Hyper-V, VM-Ware L’équipe gère également des éléments de sécurité tels que du firewaling (PaloAlto), loadbalancing, ZTNA,… C’est donc du « nice to have » de connaitre ces technologies ou s’y intéresser.

Offre d'emploi
Data Engineer Databricks - Paris
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Offre d'emploi
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS
Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support.

Offre d'emploi
Systeme Architect Data GCP
Compétences : - Maîtrise technique de l'architecture GCP orientée data (notamment Big Query) et le processing de données via dbt, bonnes notions de finops pour proposer des solutions efficientes d'un point de vue coûts. - Connaissance approfondie des techniques d'anonymisation, de pseudonymisation et de gestion du cycle de vie des données client. - Connaissance des bonnes pratiques de sécurité (moindre privilège, chiffrement, data access management, gestion des accès). - Expérience en cartographie et inventaire des données. - Connaissance des problématiques de gestion des identifiants techniques notamment en cas d'anonymisation. - Connaissances des exigences non fonctionnelles pour les sujets Data. - La connaissance d'outils d'intégration de données et de PowerBI est un plus. - Connaissances réglementaires : Bonne connaissance des réglementations sur les données client (RGPD, PIPL), ainsi que des bonnes pratiques en matière de gestion des données clients. Vous guiderez les choix et serez responsable de la garantir la cohérence technologique et architecturale des solutions avec la plateforme existante. Soft Skills : Responsabilité, collaboration, pensée critique, pédagogie et capacité à vulgariser. Nombre d'années d'expérience : au moins 8-10 ans d'expérience en tant que System Architect Data ou Data Architect, avec une spécialisation dans la gestion des données clients et la conformité réglementaire dans un contexte de plateforme de données. Habitude des environnements complexes : Expérience professionnelle avérée dans des environnements complexes incluant une data platform, un MDM client, Salesforce Core Platform et Salesforce Marketing Cloud. Client : Secteur du luxe Site : Paris, 3 jours par semaine sur site. Date de démarrage : 18/09/2025 Date de fin : 31/05/2026 Profil : System Architect - Spécialiste des Données Clients et de la Mise en Conformité

Offre d'emploi
Data Engineer
Contexte Dans le cadre de nos projets de transformation digitale et d’optimisation des opérations ferroviaires, nous renforçons notre équipe Data. Nous recherchons un(e) Data Engineer Junior motivé(e) et curieux(se), avec 2 ans d’expérience, pour contribuer à la mise en place de pipelines de données robustes et scalables au sein d’un environnement technique stimulant. Missions Participer à la conception, au développement et à la maintenance de pipelines de données (batch & temps réel) Collecter, transformer et valoriser les données issues des systèmes ferroviaires (capteurs, maintenance, circulation, etc.) Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et modéliser les données Participer à la mise en place de bonnes pratiques (tests, CI/CD, documentation, data quality) Travailler dans un environnement cloud (AWS / GCP / Azure selon le contexte) Environnement technique : Power BI, Databricks, cloud AWS

Mission freelance
Chef de Projet Infrastructure/ CMDB
Contexte Au sein d’une entité IT dédiée à la gestion de projets stratégiques, le Chef de projet Infrastructure prendra en charge la coordination et le pilotage des projets liés au remplacement et à la modernisation des infrastructures obsolètes (serveurs, bases de données, systèmes d’exploitation, hyperviseurs, etc.). Le rôle implique une collaboration étroite avec les équipes techniques, applicatives et les fournisseurs. Missions principales Gestion de projet Définir et suivre le planning des projets d’upgrade et de migration d’infrastructures. Animer les comités de suivi (internes, avec les fournisseurs et CAB). Suivi des actions, escalade des problèmes et gestion des risques. Scoping et inventaire Analyser les données techniques provenant des outils IT pour IT et de la CMDB. Identifier les infrastructures obsolètes et définir les priorités. Migration et upgrade Définir les scénarios de migration avec les équipes techniques. Valider les scénarios avec les responsables applicatifs. Coordonner les fournisseurs pour la réalisation des upgrades. Reporting et gouvernance Maintenir le Masterplan des technologies suivies. Assurer un reporting régulier auprès des parties prenantes. Stack Technique / Connaissances attendues Infrastructure Serveurs physiques et virtuels (VMware, Hyper-V, KVM) Data Centers, stockage SAN/NAS Systèmes d’exploitation : Windows Server, Linux (RedHat, Ubuntu, CentOS…) Bases de données : SQL Server, Oracle, MySQL Gestion de l’obsolescence des infrastructures et lifecycle management Outils CMDB et outils IT for IT (ServiceNow, BMC, Remedy…) Outils de planification et de suivi projet (MS Project, Jira, Confluence…) Reporting et dashboards (Power BI, Excel avancé) Méthodologie Gestion de projet IT (Waterfall, Agile) Processus de changement (CAB, ITIL)

Offre d'emploi
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS
Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support.

Mission freelance
Chef de Projet IT (Cybersécurité, Production informatique, Support, Architecture SI & Data...etc)
CONTEXTE EXPERIENCE : 7 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Chef de projet IT Spécialités technologiques : Type de facturation, MISSIONS Les différentes directions de notre client expriment des besoins pour développer, optimiser ou normaliser leurs activités auprès de la Direction des Systèmes d’Information (DSI). Un Chef de projet IT pilote alors un projet pour répondre à certains de ces besoins, en s’appuyant sur lescompétences de la DSI (Cybersécurité, Production informatique, Support, Architecture SI & Data...etc) L’équipe Projets de la DSI pilote un portefeuille conséquent (environ 180 projets/an). Le Chef de projet IT renforcera l’équipe pour absorber une croissance d’activité et prendra en charge 4 à 8 projets en parallèle (selon taille/criticité). Prestations attendues : 1. Cadrage & préparation 2. Sélection des solutions & contractualisation 3. Réalisation & pilotage opérationnel 4. Recette, mise en production & bascule 5. Passage en run & amélioration continue Expertise souhaitée Profil recherché : - Bac+5 en Informatique/Ingénierie/Management de projet. - ≥ 5 ans d’expérience en gestion de projets IT complexes, idéalement événementiel / sport / billetterie / SI RH / SI Finances / outils Microsoft (SharePoint, power BI, VIVA etc..). - Maîtrise des méthodologies Agile (Scrum, Kanban) et Cycle en V ; outils MS Project, Jira, Confluence. - Connaissance des outils d’intégration & automatisation (Workato) et des systèmes billetterie, contrôle d’accès, accréditation. - Leadership affirmé, capacité à embarquer des équipes pluridisciplinaires. - Aptitude à gérer des situations critiques en contexte événementiel (temps réel, forte pression, coordination rapide). Compétences techniques requises : - Connaissances SQL et manipulation de bases de données. - Maîtrise d’outils d’automatisation & d’intégration : Workato, Power Apps. - Notions en programmation (Python) et frameworks IA (pour compréhension/coordination). - Expérience d’outils d’analyse & dataviz : Power BI, Tableau. - Maîtrise des outils collaboratifs : Microsoft 365, Notion, Confluence. Soft skills : - Esprit analytique, rigueur et capacité de synthèse. - Autonomie, force de proposition, proactivité. - Excellentes qualités relationnelles et capacité à fédérer autour des projets stratégiques. - Leadership et capacité à challenger équipes techniques et métiers. - Sens de la négociation et du pilotage fournisseur. - Résilience et gestion du stress en environnement événementiel sportif (match-day). Langues : - Anglais professionnel requis pour évoluer dans un environnement international. - Français courant.

Mission freelance
SDM Cybersécurité
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Architecture technique, Sécurité, Méthode, Service Delivery Manager Spécialités technologiques : Cybersécurité Secteurs d'activités Transport de courrier MISSIONS La DMRSO (Direction de la Maîtrise des Risques SI et de la Sécurité Opérationnelle) intervient dans un environnement marqué par une forte intensification des cyberattaques, en termes de volume, d’intensité et de sophistication. Elle s’appuie sur le Centre de Sécurité Opérationnelle (CSO) pour : Déployer et configurer les dispositifs de protection et prévention, Piloter un « cockpit sécurité » pour la surveillance continue des actifs, Réussir le transfert de la sécurité opérationnelle de la Banque vers la Branche Public La prestation vise à traduire les objectifs stratégiques de la feuille de route cyber en actions opérationnelles concrètes, mesurables et suivies. Dans ce cadre là, nous sommes actuellement à la recherche d'un Service Delivery Manager (SDM) chargé d'un framework de sécurité opérationnelle propre à la DMRSO, destiné à : Identifier et cartographier les menaces et risques par application Définir des niveaux de couverture sécurité cible Guider les Directions Techniques et projets vers la mise en conformité Vos missions seront les suivantes : 1. Études du framework de sécurité Identifier menaces et risques sur le périmètre applicatif BGPN. Établir une cartographie sécurité (état actuel, cible, écarts). Valider et mettre à jour cette cartographie avec les référents sécurité. Définir et suivre les plans d’actions correctifs. 2. Relation avec les Directions Techniques Traduire les recommandations techniques en actions opérationnelles. Porter l’offre de service sécurité opérationnelle auprès des Directions. Piloter les SLA, indicateurs et faits marquants liés au RUN. Assurer une communication claire et régulière. 3. Coordination avec le SOC Consolider et entériner les plans d’action de sécurité. Coordonner roadmaps et actions en mode Agile (Scrum/Kanban). Suivre l’efficacité des plans du framework et les ajuster. 4. Amélioration continue du framework Assurer une veille sur les menaces, tendances cyber et évolutions réglementaires (PSSI, NIS2, OWASP…). Mettre à jour en continu le framework 5. Support aux équipes SOC Conseiller sur l’outillage (gestion des vulnérabilités, SOAR…). Accompagner sur la méthodologie, documentation, reporting, etc. 6. Reporting et Pilotage Reporting régulier via SAFE, JIRA, PowerBI. Tableaux de bord : avancement, risques, alertes. Rapports mensuels : SLA, indicateurs, faits marquants. Pilotage des plans de progrès et RETEX. Livrables attendus : Études du framework et cartographies de sécurité applicative Framework maintenu à jour Plans d’action consolidés et suivis Tableaux de bord (PowerBI, JIRA Reportings mensuels et plans d’amélioration continue RETEX documentés Plannings et plans de charge consolidés Expertise souhaitée Compétences techniques : • Maitrise des méthodologie Agile et framework SAFe et des outils associés Klaxoon, JIRA, Confluence, etc (+ expériences pratiques) • Maitrise des méthodologies d’analyse de risque (EBIOS RM) • Compétences en gestion de projet et coordination multi-équipes : planning, risques, coûts • Connaissance des normes et standard de sécurité (ISO27001, NIST, MITRE ATTACK, Etc.) • Connaissances des principes d‘architecture sécurisée et de sécurité by design • Connaissance des cadres réglementaires RGPD et NIS2 • Connaissances approfondies des enjeux liés à la gestion des Incidents cybersécurité • Bonne connaissance des types de Vulnérabilités et de leurs traitements. • Bonne connaissance des différentes technologies utilisées dans le cadre de chaîne de liaisons applicatives (Firewalls, Proxy authentifiant) • Maîtrise des concepts de gestion des identités et des accès (RBAC) Compétences comportementales : • Excellente capacité d’analyse et de synthèse • Leadership et capacité à fédérer des équipes pluridisciplinaires • Excellente communication et diplomatie • Excellente capacité rédactionnelle • Autonomie et proactivité dans l’anticipation des risques et des opportunités • Souci de la précision, rigueur • Développement de l’esprit d’équipe • Sens de la confidentialité
Offre d'emploi
BUSINESS ANALYST DATA CONFIRME - 9 ans d'expérience dont 3min en tant que BA IT
Implémentation d'une Application ESG (Environnement, Social et Gouvernance). Contexte et Objectifs Nous recherchons un prestataire pour implémenter un nouveau composant technique, une application de collecte et de distribution des données ESG pour la Corporate and Investment Banking (CIB), ainsi que son interface graphique. En parallèle, il s'agira d'assurer la maintenance des applications de gestion du Green Weighting Factor. Le reporting ESG présente les données des entreprises sur les aspects environnementaux, sociaux et de gouvernance. L’objectif de ce reporting est d’assurer la transparence des entreprises sur ces aspects afin d'évaluer la gestion des risques et plus largement la responsabilité des entreprises vis-à-vis de l’environnement et de leurs parties prenantes (salariés, partenaires, sous-traitants, clients, investisseurs...). Pour ce faire, un référentiel comprenant l'ensemble des données ESG sera mis en place pour répondre aux besoins des différents métiers. Le premier cas d'usage de ce référentiel sera le Green Weighting Factor, un indicateur clé pour piloter la trajectoire climat de la CIB et un facteur différenciant par rapport à la concurrence. Descriptif du Poste :Missions : Intégré au sein de l'équipe ***** - Data Management & BI - ESG & GWF, vous travaillerez à la gestion des données ESG, notamment leur collecte, leur gestion et leur distribution afin de répondre aux besoins croissants de divers cas d'usage. Vos principales missions seront : Interagir avec une grande diversité d'interlocuteurs ITet préserver un climat serein Interview des métiers être capable de retranscrire leur besoins Comprendre le DATA Management Comprendre les sujets techniques DATA Etre en capacité de discuter avec des developpeurs Big Data et Business Analysts Power BI, Etre en capacité de récupérer de la donnée ou Comprendre et challenger les besoins actuels Anticiper les changements nécessaires et leurs conséquences ; Coordonner l'équipe de développement ; Respecter le cadre des projets (coût, délai, performance). Nous appliquons une méthodologie de travail agile, et vous serez intégré à notre communauté de business analysts. Profil et Compétences Requises De formation supérieure en informatique, vous justifiez d'au moins 9 ans d’expérience en tant que Business Analyst et d'une expérience significative en Corporate and Investment Banking (CIB). Compétences techniques requises : Excel ; Jira ; Confluence ; SQL ; Méthodologies agiles (Scrum, Kanban). Compétences comportementales : Proactif et force de proposition ; Excellent esprit de synthèse ; Aisance à l'écrit et à l'oral. Un niveau d’anglais C1 est requis. Conditions Poste basé à Paris ; 2 jours de télétravail par semaine ; Environnement de travail hybride, inclusif et collaboratif. Merci d’envoyer vos propositions en précisant votre méthodologie d’intervention et vos références sur des projets similaires.

Mission freelance
Data Engineer Senior (Spark,Java,Pyton,SQL)
Cherry Pick est à la recherche d'un Data Engineer Senior pour l'un de ses clients dans le secteur la mutuelle. En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data Compétences obligatoires : Maitrise Spark/Java, Maitrise Python Maitrise SQL, AWS : S3 / Glue / Redshift / Step Functions / Lambda, CICD : Git, Jenkins, … ETL XDI et/ou ODI Compétences souhaitables/optionnelles : Docker, Terraform, Power BI / BO

Mission freelance
Consultant BI: fonctionnelles et urbanisme data / flux de données/ko
Consultant BI : Localisation : Saint denis Expertise Expérimenté ou Senior dans l’expertise dans les outils BI et connaissances en architecture urbanisme de la data • Besoin d’expérience avérée dans le suivi projets orientés applications BI/fonctionnelles et urbanisme data / flux de données • Très bon niveau de compréhension des outils BI et de l’urbanisme (cloud – On promise – Dataware House …) • Très bon niveau de compréhension des enjeux fonctionnels • Très bon niveau de synthèse Environnements techniques : • Activité sur les environnements de recette et production • Environnements Cloud AWS et Microsoft • Applications décisionnel (Power BI, Cognos, Tableau Software … ) Description de la mission Objectifs Grâce à une bonne maîtrise des applications BI, l’intervenant devra : Définir des solutions répondant aux enjeux applicatifs d’intégration dans les architectures de traitement de la donnée. Répondre aux besoins métier en assurant des phases de transition sans rupture de service et de recette sur la chaîne de traitement de la donnée, tout en prenant en compte les évolutions des architectures techniques et applicatives. Tâches principales Suivi des expressions de besoins – Analyse des demandes internes : Consolider les besoins métier. Analyser en détail les solutions et scénarii possibles, incluant : Intégration dans l’urbanisme en lien avec les architectes et urbanistes. Intégration dans le SI global. Capacité et modalités de tests. Impacts fonctionnels sur la gestion de données bout en bout. Modalités de migration si nécessaire. Délais de construction et planification. Travailler avec les parties prenantes : équipes métier, urbanistes, équipes fonctionnelles, sous-traitants, etc. Suivi de la réalisation : Coordonner les travaux en appui du responsable de domaine. Produire et suivre les livrables (spécifications techniques, plans de tests, PV, reporting). Définir et superviser les plans de tests et leur déroulement. Assurer le respect du planning et le bon déroulement des phases de déploiement/migration en lien avec les acteurs concernés. Reporting : Suivi de l’avancement et communication des résultats auprès du responsable de domaine et des instances de gouvernance internes. Résultats attendus / Livrables Pour chaque projet : Besoins consolidés et validés par les représentants métier. Propositions et conseils sur les solutions et scénarii possibles. Mise en œuvre des solutions retenues (réalisation, tests, déploiement). Expertise Expérimenté ou Senior dans l’expertise dans les outils BI et connaissances en architecture urbanisme de la data • Besoin d’expérience avérée dans le suivi projets orientés applications BI/fonctionnelles et urbanisme data / flux de données • Très bon niveau de compréhension des outils BI et de l’urbanisme (cloud – On promise – Dataware House …) • Très bon niveau de compréhension des enjeux fonctionnels • Très bon niveau de synthèse Environnements techniques : • Activité sur les environnements de recette et production • Environnements Cloud AWS et Microsoft • Applications décisionnel (Power BI, Cognos, Tableau Software … )

Offre d'emploi
Data Engineer
Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).

Offre d'emploi
Data Engineer GCP
Nous recherchons un Data Engineer expérimenté pour rejoindre l'équipe Enterprise Management et Finance de notre client dans le secteur du luxe, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur d'une plateforme de données, responsable de l'ingestion et de la normalisation des données. Le rôle du data engineer sera de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Responsabilités : • Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management • Assurer la qualité et la conformité des données • Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues

Mission freelance
Data Management & AI Lead
CONTEXTE Experience: 8 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Expertise Spécialités technologiques : Gestion des données, Monitoring, AI,Data management Reporting MISSIONS Piloter la stratégie de gestion des données non structurées (UD) et l’adoption de l’IA au sein des différents métiers. Concevoir et mettre en œuvre le cadre méthodologique, industrialiser les outils associés, accompagner leur adoption par les utilisateurs, et assurer un suivi opérationnel continu pour garantir l’efficacité et la cohérence des pratiques. Responsabilités principales - Analyser les processus métiers et cas d’usage IA afin de proposer un plan de gestion des données non structurées. - Déployer le cadre UD dans plusieurs domaines métier et en assurer l’industrialisation. - Promouvoir et faciliter l’adoption des outils et pratiques auprès des utilisateurs. - Assurer le suivi opérationnel : monitoring, reporting et support aux utilisateurs. - Collaborer avec les équipes métiers et techniques pour garantir cohérence et efficacité. Expertise souhaitée Compétences et expertise attendues - Maîtrise des référentiels de gestion des données (DMBOK – DAMA). - Expérience en gouvernance de données, gestion des métadonnées et de la qualité, architecture & modélisation. - Expertise pratique sur le traitement des données non structurées (OCR, NLP, VLM, Vector Databases). - Compétences en data visualization (PowerBI) et gestion d’ontologies de métadonnées. - Compréhension des usages GenAI (prompting, grounding). - Maîtrise des outils d’automatisation et scripting (Python, Bash). - Connaissance des plateformes de gestion des données et des outils collaboratifs (Git, Jira). - Anglais courant obligatoire.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.