Trouvez votre prochaine offre d’emploi ou de mission freelance Directeur de la data (CDO) à Paris
Le directeur de la data, ou chief data officer ou encore CDO est en charge de la stratégie digitale sur la partie des données. Son rôle est de rassembler les données qu’il a à sa disposition pour en tirer les informations les plus pertinentes pour mener à bien sa stratégie d’un point de vue opérationnel et organisationnel de l'entreprise. Il est garant de la fiabilité des données recueillies en interne comme en externe et de leur cohérence entre elles. Pour mener à bien sa stratégie, le directeur de la data (CDO) suit une méthodologie bien précise et doit rester le plus clairvoyant possible pour exploiter les données de manière claire et objective. Concrètement, les données sont misent sous la forme d'algorithmes, graphiques, afin de pouvoir communiquer ces données aux autres services de l’entreprise pour laquelle il travaille qui en ont besoin. Le directeur de la data (CDO) est également le référent informatique d’un point de vue des data puisqu’il communique avec toutes les parties prenantes de l’entreprise. Il est généralement en collaboration étroite avec contrôleur de gestion, directeur informatique (DSI), responsables des activités opérationnelles et des fonctions supports et reste ainsi au cœur des sujets. Il travaille également avec les data scientist et les analystes Web puisqu’ils ont la data en commun. Pour mener à bien ses missions tout en comprenant les corps de métiers avec lesquels il travaille, le directeur de la data (CDO) doit avoir une grande qualité d’écoute, de pédagogie et de communication. C’est un métier très recherché par les entreprises actuelles. Le métier de directeur de la data (CDO) peut s’exercer dans un service informatique ou bien en Freelance.
Informations sur la rémunération de la fonction
Directeur de la data (CDO).
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data Engineer Informatica
Bonjour, VISIAN est une société de conseil spécialisée autour de l'innovation, la conception produit et la data. Dans un marché où les enjeux de recrutement sont clés et où le nombre de freelances est en constante augmentation, Visian a créé une entité dédiée au recrutement de freelances experts du digital et d’IT: VASKA. Dans le cadre de ses projets clients, VISIAN recherche un/e Data Engineer. Contexte : Le candidat intégrera un pôle Data à la DSI et une équipe projet qui sera responsable de migrer des flux d'intégration de données de POWER Center vers Databricks. Missions : Le candidat sera responsable de migrer des flux ETL développés sur Informatica vers Databricks. Une connaissance d'informatica et AWS est très appréciée. Le candidat doit maitriser le langage SQL et Python et avoir une bonne culture Data des best practices en terme de nettoyage, de transformation et modélisation de données Une certification sur Databricks est également fortement appréciée. Si vous êtes à l’écoute du marché en ce moment, je vous invite à postuler en m’envoyant votre candidature. Bien à vous, Justine
Offre d'emploi
Service Owner Applicative Plateforme Supply
L’applicative plateforme Supply chez notre client Grand-Compte du Luxe : - Est responsable de tous les changements, l’exploitation et la sécurité des services qu’elle porte - Porte la responsabilité de bout en bout concernant les services délivrés aux équipes Etudes HSI Supply - Doit disposer des ressources et compétences pour réaliser tous les changes et suivre l’activité de RUN des services fournis - Est en responsabilité de son budget en coordination avec l’équipe DSIO Control Tower pour couvrir les ressources dédiées à la plateforme. - Développe et opère des services spécifiques pour répondre aux besoins d’HSI Supply - Fournit des services cloud et des services on premise à HSI Supply - Assure le support des services fournis aux niveau 2 et 3. En tant que Service Owner votre mission consistera à : - Superviser le développement et la gestion des services d’infrastructure pertinents et être responsable de la qualité de livraison des services. - Comprendre les expressions de besoins et les attentes des équipes Etudes et développement pour les retranscrire sous forme de demandes de service infrastructure adressées aux équipes réalisatrices (réseau, système, dba…). - Superviser les travaux de développement depuis la conception fonctionnelle jusqu'aux tests au cours des processus de construction. - Définir la roadmap de livraison des services pour être aligné avec les attendus business. - Gérer l'exécution et les ajustements mineurs de l'ensemble cohérent de services d'infrastructure. - Animer une culture axée sur la satisfaction des clients. - Rendre compte de la performance du service / des principaux risques et problèmes à la direction. - Fournir des informations sur l'état, les plans et les journaux des problèmes aux parties prenantes pertinentes. - Solliciter des retours de performance des clients du DSIO et promouvoir les améliorations. - Planifier et allouer des ressources au sein des équipes des plateformes. - Fournir de solides compétences en leadership pour soutenir l'autonomisation de l'équipe, le mentorat, l'engagement des collaborateurs et la fixation d'objectifs. - Identifier et faire intervenir des experts en la matière lorsque cela est nécessaire. - Mettre en œuvre des process de supervision en mode 24/24 7/7 et le système de permanence des membres de l'équipe.
Mission freelance
Data Quality Analyst
En tant que Data Quality Analyst, vos responsabilités seront les suivantes : • Assister les Product Owners dans la mise en place du dispositif de qualité des données défini par les Data Owners (définition des exigences qualité, des contrôles, des KPIs et seuils d’alerte) • Animer le processus de gestion des incidents de qualité de données en faisant le lien entre les utilisateurs opérationnels et les équipes Data & IT • Aider les équipes opérationnelles à qualifier les incidents (impacts sur les usages, chiffrage, sévérité) • Analyser les root causes des incidents grâce à l’exploration des données des différentes bases • Proposer et instruire des plans de remédiations (identifier les solutions de contournement si besoin) • Prioriser les sujets en fonction de leur importance / urgence et de la difficulté à les développer • Collaborer avec les équipes de développement (Data Enginer, Dataviz Enginer) pour les analyses et la mise en place de solutions de correction • Collaborer avec les Data Owners afin de s’assurer de la cohérence et pertinence des solutions proposées • Proposer des outils / process / KPI afin de contribuer à l’amélioration continue de la qualité des données • Assister le Product Owner Master Data dans la conception de tableau de bord de pilotage de la qualité des données
Offre d'emploi
Tech Lead MLOPS (H/F)
• Mettre en place l’outillage Datascience et MLOPS et identifier les patterns et normes pour un usage par 40 caisses régionales • Évaluer et adopter de nouvelles technologies et méthodologies pour améliorer les processus MLOps et l'efficacité de l'équipe • Diriger l'élaboration et la mise en œuvre des pipelines / solutions MLOps pour l'entraînement, le déploiement et la surveillance des modèles ML • Superviser et encadrer une équipe technique, en fournissant une orientation technique, en fixant des objectifs et en assurant la montée en compétence des équipes internes • Participer à l'exploration continue (étude d'opportunité, cadrage) et aider à estimer l'effort et la valeur délivrée par les choix de designs éligibles pour favoriser la priorisation par le Product Owner et le Pôle Utilisateur (évolutivité, testabilité, déployabilité...) • Collaborer avec les parties prenantes internes pour comprendre les besoins métier et fournir des solutions ML efficaces et évolutives • Décliner le cadre d’Architecture d’Entreprise(processus, normes, patterns …) et contribuer à son évolution • Faciliter la prise de décision de manière collaborative sur la meilleure architecture (conformité, sécurité, risques...), avec un juste équilibre entre le respect de la cible d'entreprise et la réponse pragmatique au besoin • Maitrise les objectifs visés par le cadre d'Architecture d’Entreprise et décrit des solutions qui s'y conforment et sont implémentables sous forme incrémentale dans les sprints • Suivre et facilite la visibilité de la conformité des solutions de son périmètre par rapport à la stratégie d'entreprise • Responsable de la documentation produit(s) en veillant à sa pertinence, fiabilité et sa cohérence avec les cadres de référence de l'architecture (processus, guides, patterns...).
Mission freelance
Support Data Engineer H/F
Description du poste : En tant que Data Support analyste, vous serez responsable de fournir un soutien technique et opérationnel pour les systèmes et les processus liés aux données au sein du département de Data Technology. Vous travaillerez en étroite collaboration avec les équipes de développement et de data ingénierie pour résoudre les problèmes liés à la data, assurer la qualité des données et maintenir la disponibilité des systèmes. Responsabilités : 1. Soutien technique : Diagnostiquer et résoudre les problèmes liés aux données, tels que les erreurs de chargement, les incohérences de données et les performances dégradées. Collaborer avec les équipes Data pour résoudre les problèmes techniques et d'intégration liés aux données. 2. Gestion de la qualité des données : Surveiller et analyser la qualité des données, identifier les anomalies et les incohérences, et proposer des solutions pour améliorer la qualité des données. Mettre en place des contrôles de qualité des données pour garantir la précision, la cohérence et l'intégrité des données. Participer à la définition et à la mise en œuvre des normes et des bonnes pratiques de gestion de la qualité des données. 3. Maintenance et support opérationnel : Assurer la disponibilité des systèmes de données en surveillant les performances et en gérant les problèmes de capacité. Collaborer avec les équipes de développement pour effectuer des mises à jour logicielles, des correctifs de bugs et des améliorations des fonctionnalités des systèmes de données. Documenter les procédures opérationnelles et les problèmes rencontrés, ainsi que les solutions mises en œuvre, pour faciliter le support et la résolution de problèmes ultérieurs. Être proactif sur l’amélioration des process et outils. 4. Formation et communication : Collaborer avec les différentes équipes pour communiquer les changements, les mises à jour et les problèmes liés aux données de manière claire et concise. Participer à des réunions et à des projets interfonctionnels pour fournir un aperçu et un soutien relatif aux données.
Mission freelance
BA /BI expert en Datavisualisation
Orcan Intelligence recherche pour l’un de ses clients, un consultant senior BA/BI expert en data visualisation. Vos missions seront de : Soutenir l'analyse des besoins et produire des spécifications pour les systèmes concernés Contribuer à la conception et à l'essai de processus automatisés et numérisés Diagnostiquer et résoudre les problèmes techniques (fonctionnels ou liés aux performances). Collaborer avec les équipes techniques et de DATA et les responsables techniques des fournisseurs/développeurs afin d'améliorer la plateforme.
Offre d'emploi
Développement backend SQL/clickhouse
Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un développeur backend SQL/clikhouse. Périmètre fonctionnel : banque d'investissement Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, base de donées distribuée avec un systel de cache in memory, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins. Les principales tâches de la missions sont les suivantes : Le but est d'développer des nouvelles fonctionnalités demandées par le trading, et aussi techniquement améliorer la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions. Le candidat sera chargé de la partie back end ainsi que de la partie devops.
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Mission freelance
consultant SAP MDM (Retail/MM)
Hanson Regan recherche actuellement un consultant SAP MDM (Retail/MM) pour un contrat de 6 mois basé à Paris Périmètre fonctionnel : Supply Chain, Retail, Finance, Master Data Contexte technologique : SAP RISE (S/4 Retail & Fashion + CAR sur ECS, BTP pour Integration Suite et services de sécurité). Concevoir des processus métier, y compris des caractéristiques et des indicateurs de performance clés (KPI), pour répondre aux exigences de processus et fonctionnelles. Travailler en étroite collaboration avec l'architecte d'applications pour créer le plan de processus et établir les exigences des processus métier afin d'éliminer les exigences et les mesures des applications. Aider aux examens de gestion de la qualité, garantir que toutes les exigences commerciales et de conception sont respectées. Éduquer les parties prenantes pour garantir une compréhension complète des conceptions. Idéalement, la ressource connaît SAP S/4HANA Retail et plus spécifiquement les données de référence articles ou la gestion du matériel. Nous sommes également ouverts aux ressources connaissant les données de base des articles d’autres secteurs. SAP Master Data dans le secteur de la vente au détail / de la mode, c'est agréable d'avoir 3 à 7 ans d'expérience Français/Anglais obligatoire Le full remote n’est pas possible – 2 jours sur site client Prière de me contacter pour plus d'informations
Offre d'emploi
Consultant Microsoft BI - Azure Data Factory – H/F
Descriptif du poste : Dans le cadre de la croissance de HEXATEAM, nous sommes en quête permanente de nouveaux talents pour renforcer nos équipes. Nous cherchons actuellement un profil de Consultant Microsoft BI - Azure Data Factory – H/F pour l’un de nos clients en Ile de France. Missions et Contexte : Dans le cadre de vos projets vous serez à participer au développement et au maintien en conditions opérationnelles des solutions BI, au sein d’une équipe produit. Vous serez en support direct du responsable du produit (Product Owner) et réalisera les activités suivantes : Participation à l’analyse des besoins métier Développement d'outils de reporting d’aide à la décision sous Power BI et SSAS, en se basant sur les spécifications métiers et de l’environnement technique déjà en place Participation à la rédaction de la documentation technique et fonctionnelle Participation aux phases de recette Participation au run des applications (suivi, support aux utilisateurs, mise en place de bonne pratique, optimisations, etc) Formation des utilisateurs à Power BI Maintien en conditions opérationnelles Analyse et correction des anomalies applicatives
Mission freelance
Consultant Data Steward
Dans un contexte de changement d’ERP vers SAP et d’amélioration continue, nous recherchons un Consultant Data Steward pour rejoindre l’équipe à l’équipe de Data & Analytics de la Direction Transformation & Systèmes d’Information. Vous prendrez en charge la gestion, la qualité et l'intégrité des données tout au long de leur cycle de vie afin de garantir leur collecte, sécurisation et utilisation éthique pour soutenir les objectifs de l’entreprise. Définir et mettre en œuvre la stratégie de gestion des Master Data : définition des objectifs et principes de gestion, Spécifications des processus et procédures, Identification des outils et technologies. Gérer la qualité des données : Recueil des besoins d’améliorations, définition des actions (curatives, préventives, contrôles…), pilotage et suivi de la qualité et identifications des anomalies, indicateurs de performance de qualité. Assurer la sécurité des données : S’assurer de l’adéquation des accès avec la politique de gestion des Master Datas. Promouvoir l'utilisation éthique des données : d’assurer de la mise en place de mécanismes de contrôle pour garantir l'utilisation éthique des données selon les standards légaux (RGPD) et de l’entreprise. Collaborer avec les parties prenantes (équipes Métier, Techniques, Datas, Juridiques, Audit…)
Mission freelance
Ingénieur data (H/F)
Les missions principales de ce poste sont les suivantes : A partir de l’ensemble des sources déjà collectées, charger les données dans la base de données Basé sur une analyse de la première version du référentiel constituée, proposer une stratégie et des règles de data cleansing en vue à minima de supprimer les doublons. Réaliser le data cleansing (et documenter) Participer aux discussions et réflexions sur la définition de la future gouvernance et cycle de vie de la donnée Supporter l’installation de la base de données sur un environnement partagé (de test) Créer les vues répondant aux besoins métiers et facilitant la consultation de la base de données Aider à la construction de la roadmap de déploiement à l’échelle de l’outil
Offre d'emploi
Consultant(e) Informatica
Vous intégrerez intégrer notre communauté d'Experts ETL. En tant que Consultant Informatica vous serez amenés à apporter votre expertise et à : · Analyser et recueillir les besoins · Effectuer le support et l’assistance aux équipes de développements · Produire les différentes documentations · Faire la modélisation du datawarehouse · Développer et maintenir les Flux sur Informatica · Optimiser et automatiser les Workflows Informatica · Veille technologique · Veille technologique
Mission freelance
Data PO / PMO Confirmé BI & SAP - Déploiement Spend Bridge (chef de projet transverse)
Nous sommes à la recherche d'un Data PO / PMO - Confirmé pour l'un de nos projets de Déploiement Spend Bridge Contexte de la mission Les Achats font une refonte de l’intégralité de ses Reportings & Analytics afin de profiter des bénéfices du Big Data. Rattaché(e) au Directeur Data & Digital, vous jouerez le rôle de chef de projet transverse. Vous serez responsable de la mise en œuvre de nouveaux produits Reportings & Analytics en fonction des besoins de la fonction Achats et de vos interlocuteurs métiers. En particulier, vous serez référent(e) des analyses Achats basées sur la consolidation des transactions faites dans les ERP (consolidation des documents et chiffres des Achats du Groupe, analyse du coût des facteurs et des effets prix, optimisation des délais de paiement…). vous contribuerez au déploiement du rapport Spend Bridge à travers les Activités et Pays du Groupe. Sur les produits data qui vous seront confiés, vos missions seront les suivantes : Cadrer les besoins fonctionnels en données, en rapports et en analyse de la fonction Achats en échangeant avec vos interlocuteurs dans les entités, les activités et les pays du Groupe, Coordonner les travaux d’alimentation des données en collaboration avec la DSI en s’assurant de l’adéquation entre les choix techniques, les besoins fonctionnels et le planning, Superviser le développement des tableaux de bord en partenariat avec les donneurs d’ordre de la fonction Achats et en collaboration avec les développeurs MicroStrategy et Power BI, Développer une vision produit (feuille de route, évolutions, etc.). Objectifs et livrables Les principaux objectifs sont les suivants : Déploiement des rapports et des processus de Spend Bridge à travers les Activités et Pays du Groupe, Gestion de produit sur les rapports basés sur les données ERP (Purchasing Details, Payment Terms, Spend Bridge)
Mission freelance
AMOA DATA
CONTEXTE Accompagner les métiers et les porteurs d’offres SI de chaque portefeuille dans le recueil de besoin DATA en alignement avec les principes de DATA Gouvernance. Sous la responsabilité de la coordinatrice de la filière, le AMOA DATA assurera la coordination et l’accompagnement des MOA SI de diverses offres actuelles et à venir du portefeuille PROGRAMMATION DES INVESTISSEMENTS, du recueil de besoin DATA jusqu’à la mise en œuvre dans les SI visés. MISSIONS : • Accompagner les métiers dans leur expression de besoin DATA • Modéliser les objets métier et définir leur cycle de vie • Mettre à jour le dictionnaire de données en lien avec les objets métier • Définir les exigences de qualité par objet métier et suivi de leur mise en œuvre
Offre d'emploi
DataOps Hadoop
Architecture et Conception : Concevoir, mettre en œuvre et maintenir l'architecture Hadoop en fonction des besoins de l'entreprise. Élaborer des plans d'expansion et d'évolution pour les clusters Hadoop. Collaborer avec les équipes de développement et d'infrastructure pour concevoir des solutions adaptées aux besoins spécifiques du projet. Installation et Configuration : Installer, configurer et déployer les clusters Hadoop en utilisant les meilleures pratiques. Gérer les configurations, les mises à jour et les correctifs des composants Hadoop. Surveillance et Optimisation : Surveiller les performances du cluster Hadoop et identifier les goulots d'étranglement. Optimiser les performances en ajustant la configuration, en mettant à l'échelle le matériel ou en optimisant les requêtes. Mettre en place des outils de surveillance et des alertes pour détecter les problèmes potentiels. Sécurité : Mettre en œuvre et maintenir des stratégies de sécurité robustes pour le cluster Hadoop. Gérer l'accès aux données sensibles et aux ressources du cluster en utilisant des technologies telles que Kerberos, LDAP, etc. Effectuer des audits de sécurité réguliers et remédier aux vulnérabilités identifiées. Gestion des Données : Concevoir et mettre en œuvre des pipelines de données pour l'ingestion, le traitement et la distribution des données. Assurer la qualité des données en mettant en place des processus de nettoyage, de normalisation et de validation des données. Intégrer et gérer différents types de données, y compris les données structurées, semi-structurées et non structurées. Automatisation et Orchestration : Automatiser les tâches courantes telles que la sauvegarde, la récupération, la gestion des ressources, etc. Mettre en place des workflows d'orchestration pour coordonner les tâches complexes entre les différents composants du cluster Hadoop. Développement et Support : Fournir un support technique aux équipes de développement et d'analyse des données. Développer des outils et des scripts personnalisés pour faciliter l'administration et la gestion du cluster Hadoop. Collaborer avec les équipes de développement pour optimiser les applications et les requêtes pour le cluster Hadoop. Formation et Documentation : Former les membres de l'équipe sur l'utilisation et la gestion du cluster Hadoop. Documenter les processus, les configurations et les bonnes pratiques pour faciliter la collaboration et le transfert de connaissances. Veille Technologique : Suivre les tendances et les avancées technologiques dans le domaine du Big Data et de l'analyse de données. Évaluer de nouvelles technologies et proposer des solutions innovantes pour améliorer l'efficacité et les performances du cluster Hadoop.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes