Trouvez votre prochaine offre d’emploi ou de mission freelance Directeur de la data (CDO) à Paris
Le directeur de la data, ou chief data officer ou encore CDO est en charge de la stratégie digitale sur la partie des données. Son rôle est de rassembler les données qu’il a à sa disposition pour en tirer les informations les plus pertinentes pour mener à bien sa stratégie d’un point de vue opérationnel et organisationnel de l'entreprise. Il est garant de la fiabilité des données recueillies en interne comme en externe et de leur cohérence entre elles. Pour mener à bien sa stratégie, le directeur de la data (CDO) suit une méthodologie bien précise et doit rester le plus clairvoyant possible pour exploiter les données de manière claire et objective. Concrètement, les données sont misent sous la forme d'algorithmes, graphiques, afin de pouvoir communiquer ces données aux autres services de l’entreprise pour laquelle il travaille qui en ont besoin. Le directeur de la data (CDO) est également le référent informatique d’un point de vue des data puisqu’il communique avec toutes les parties prenantes de l’entreprise. Il est généralement en collaboration étroite avec contrôleur de gestion, directeur informatique (DSI), responsables des activités opérationnelles et des fonctions supports et reste ainsi au cœur des sujets. Il travaille également avec les data scientist et les analystes Web puisqu’ils ont la data en commun. Pour mener à bien ses missions tout en comprenant les corps de métiers avec lesquels il travaille, le directeur de la data (CDO) doit avoir une grande qualité d’écoute, de pédagogie et de communication. C’est un métier très recherché par les entreprises actuelles. Le métier de directeur de la data (CDO) peut s’exercer dans un service informatique ou bien en Freelance.
Informations sur la rémunération de la fonction
Directeur de la data (CDO).
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Data Engineer DBT
Nous sommes à la recherche d'un Data Engineer DBT pour l'un de nos client acteur principal du retail en France Le poste est basé à Paris. - pas de profil débutant, au moins une expérience de 2 ans sur dbt - contexte retail, pricing - de préférence une connaissance Airflow - Une expérience Data Analyst est apprécié - agile - très bonne capacité à communiquer afin de remonter les points bloquants - contexte : développement d’un produit (Dashboard sous Tableau) d’analyse des performances des promotions
Offre d'emploi
Data Analyst (h/f)
Contexte Le Groupe est un leader européen de la connaissance juridique et fiscale qui place la Data au cœur de sa transformation digitale. Au travers de marques de renom, l’entreprise combine des expertises dans les domaines de l’édition, de la formation et du logiciel. La DSI France (200+ collaborateurs) recherche pour son équipe Data Factory un(e) Data Analyst. La Data Factory est composée d’environ 15 personnes expertes de la Donnée qui travaillent dans le Cloud Amazon Web Services à la construction d’un Socle d’Entreprise (Datalake – Data Warehouse – Data Lab) et à l’industrialisation des principaux indicateurs de pilotage (BI) en datavisualisation (Qliksense). L’équipe Data Factory travaille également en lien étroit avec le Data Office (Data Gouvernance, Data Science, Data Analytics) et toutes les fonctions support de la DSI (Architecture, Sécurité, Compliance, Infra, …).
Offre d'emploi
Tech Lead MLOPS (H/F)
• Mettre en place l’outillage Datascience et MLOPS et identifier les patterns et normes pour un usage par 40 caisses régionales • Évaluer et adopter de nouvelles technologies et méthodologies pour améliorer les processus MLOps et l'efficacité de l'équipe • Diriger l'élaboration et la mise en œuvre des pipelines / solutions MLOps pour l'entraînement, le déploiement et la surveillance des modèles ML • Superviser et encadrer une équipe technique, en fournissant une orientation technique, en fixant des objectifs et en assurant la montée en compétence des équipes internes • Participer à l'exploration continue (étude d'opportunité, cadrage) et aider à estimer l'effort et la valeur délivrée par les choix de designs éligibles pour favoriser la priorisation par le Product Owner et le Pôle Utilisateur (évolutivité, testabilité, déployabilité...) • Collaborer avec les parties prenantes internes pour comprendre les besoins métier et fournir des solutions ML efficaces et évolutives • Décliner le cadre d’Architecture d’Entreprise(processus, normes, patterns …) et contribuer à son évolution • Faciliter la prise de décision de manière collaborative sur la meilleure architecture (conformité, sécurité, risques...), avec un juste équilibre entre le respect de la cible d'entreprise et la réponse pragmatique au besoin • Maitrise les objectifs visés par le cadre d'Architecture d’Entreprise et décrit des solutions qui s'y conforment et sont implémentables sous forme incrémentale dans les sprints • Suivre et facilite la visibilité de la conformité des solutions de son périmètre par rapport à la stratégie d'entreprise • Responsable de la documentation produit(s) en veillant à sa pertinence, fiabilité et sa cohérence avec les cadres de référence de l'architecture (processus, guides, patterns...).
Offre d'emploi
Développement backend SQL/clickhouse
Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un développeur backend SQL/clikhouse. Périmètre fonctionnel : banque d'investissement Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, base de donées distribuée avec un systel de cache in memory, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins. Les principales tâches de la missions sont les suivantes : Le but est d'développer des nouvelles fonctionnalités demandées par le trading, et aussi techniquement améliorer la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions. Le candidat sera chargé de la partie back end ainsi que de la partie devops.
Offre d'emploi
Data Analyst / Business analyst Datat junior à confirmé
💡 Contexte /Objectifs : Ll s'agira de contribuer à divers projets de la filière Finance, en renforcement des personnes actuellement en charge de piloter ces sujets dans l'équipe. • Déclaration de nouveaux indicateurs environnementaux, sociaux et de gouvernance (ESG). Pour l'IT Finance il s'agit plus particulièrement d'apporter au métier Finance des solutions pour construire un Datamart Transactionnel ESG en s'arrimant aux Golden Sources du Datalake. • Maintenance évolutive sur les modules Datalake Coût du Risque, Intragroupe ou Effets Ifrs9. La personne aura en charge: De récupérer les besoins auprès des métiers et de les valider De rédiger les spécifications fonctionnelles en cohérence avec le modèle de données du datalake et des golden sources disponibles. De participer aux tests conjointement avec l’IT et d’accompagner le métier dans ses recettes. De participer aux comités de suivi du projet (CSO, revue des Jiras du Sprint, etc…) 🤝 Expertises spécifiques : Expériences business analyst sur des projets en environnement bancaire autour de la data et problématiques associées (détermination des golden sources, appropriation des modèles de données) : exigé Connaissance des outils de BI comme EasyMorph, PowerBi, Tableau, requêtage SQL: exigé Maitrise de l'anglais écrit (reporting en anglais) et parlé : exigé Compétences génériques recherchées travail en équipe / capacité d'analyse / réactivité / force de proposition / organisation et rigueur : exigé Connaissances des architectures Systèmes d'Information bancaires : souhaité Connaissance de la méthode agile Scrum : souhaité (expérience sur un projet serait un plus) Connaissances fonctionnelles des produits de marché & de financement: serait un plus. Connaissance de la comptabilité bancaire : serait un plus
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Mission freelance
Data Scientist H/F
Notre client acteur majeur du secteur des énergies cherche un consultant Data Scientist pour renforcer son équipe. Objectifs et livrables: La Data Science consiste à extraire, analyser et valoriser les données issues de sources diverses, afin de résoudre des problèmes métiers ou de créer de nouvelles opportunités. Les compétences demandées pour réaliser une prestation de Data Science sont les suivantes : · Maîtriser les techniques de Data Exploration pour collecter, nettoyer et préparer les données avec une posture qui a pour objectif d’accompagner le métier dans la phase d’idéation. · Savoir réaliser des analyses exploratoires et descriptives des données, en utilisant des statistiques et des visualisations, pour identifier les tendances, les corrélations, les anomalies, les opportunités d'optimisation ou de création de valeur. · Concevoir, développer, tester et déployer des modèles de Data science adaptés aux problématiques métiers, en utilisant des approches variées (Optimisation, Machine Learning, Computer Vision, Generative AI, etc.). · Respecter les bonnes pratiques de MLops (versioning, monitoring, CI/CD, etc.) pour assurer la qualité, la fiabilité et la sécurité des modèles en production. · Documenter et présenter les résultats des analyses et des modèles aux parties prenantes internes en utilisant des supports adaptés (rapports, dashboards, etc.). · Contribuer aux choix technologiques et à l’innovation. Contributions transverses : · Participer à la conception/maintenance des nouveaux outils/package communs à l’organisation. · Challenger la vision de l’équipe. · Participer aux CoP (Communautés de pratiques) et aux rituels d’équipes. Compétences requises : Pour mettre en place un développement en data science et IA, il faut disposer des compétences suivantes :
Offre d'emploi
Project manager Business analyst Data senior
💡 Contexte /Objectifs : Le prestataire contribuera au programme de transition en priorité, ainsi qu’au support des sujets transverses de la filière Data. Les principales missions du poste seront : Définition et évaluation des différents scénarios de transition Pilotage et Coordination des différentes parties prenantes du projet de transition Homologation des résultats de non-régression avec le métier et les autres entités Accompagnement des filiales de la BU sur les évolutions du Datawarehouse et de la filière Data Support de l’équipe dans les activités de Data Management, notamment le pilotage des usages Data Contribuer aux pratiques agiles de l’équipe (slicing, priorisation par la valeur…) et accompagner le métier dans la transformation agile
Mission freelance
Data Architect
Role: Data Architect Lieu: Paris Durée: 7 mois (jusqu'à la fin de l'année avec possibilité de prolongation) Date de début: Immediate Hybrid Remote TJM: €600-750/jour Role: Définir des architectures de plateformes de données pour répondre aux cas d'utilisation identifiés par les entreprises ; Gérer des projets d'architecture de données impliquant des environnements cloud, sur site ou hybrides ; Produire des fichiers d'architecture. Collaborer avec l'équipe chargée des données pour veiller à ce que l'infrastructure de données existante soit maintenue et améliorée.
Mission freelance
data analyst anglais
210 jours max par an Compétences requises: • Expériences business analyst sur des projets en environnement bancaire autour de la data et problématiques associées (détermination des golden sources, appropriation des modèles de données) : exigé • Connaissance des outils de BI comme EasyMorph, PowerBi, Tableau, requêtage SQL: exigé • Maitrise de l'anglais écrit (reporting en anglais) et parlé : exigé • Compétences génériques recherchées travail en équipe / capacité d'analyse / réactivité / force de proposition / organisation et rigueur : exigé • Connaissances des architectures Systèmes d'Information bancaires : souhaité • Connaissance de la méthode agile Scrum : souhaité (expérience sur un projet serait un plus) • Connaissances fonctionnelles des produits de marché & de financement: serait un plus. • Connaissance de la comptabilité bancaire : serait un plus
Offre d'emploi
Cloud DevOps Sénior
Le département Data IA (DaIA) est en charge de mettre à disposition des métiers un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA et donner accès aux meilleures solutions d’IA Générative. Pour cela, nous recherchons un DevOps qualifié pour nous aider à la mise en place, la gestion et l'amélioration continue de nos pipelines d'intégration continue/déploiement continu (CI/CD) ainsi que de l'infrastructure cloud Responsabilités : • Industrialiser les pipelines CI/CD pour automatiser les déploiements logiciels. • Gérer et maintenir l'infrastructure cloud en assurant la disponibilité, la sécurité et la performance. • Collaborer avec les équipes de développement pour intégrer les bonnes pratiques DevOps dans le cycle de développement logiciel. • Mettre en place et maintenir les outils de surveillance, de journalisation et de gestion des erreurs. • Identifier les goulots d'étranglement dans les processus de développement et proposer des solutions d'amélioration continue. • Assurer une veille technologique constante pour rester à jour sur les tendances et les meilleures pratiques en matière de DevOps.
Mission freelance
Prestation en Data Science
Bonjour, Nous recherchons pour notre client grand compte (secteur médias) un Data Scientist. Nous étudions - prioritairement - les candidatures qui nous sont adressées par MAIL [freelance à insyco . fr] avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence (VSE/PDS/4405) dans l’objet de votre mail Contexte du besoin : Le département Data IA de notre client (médias) est en charge de mettre à disposition des métiers un socle technologique transverse permettant de mettre en production et industrialiser les cas d'usage Data et IA du groupe. Il est donc à la recherche d'un prestataire en Data Science pour de la donnée programme. Activités principales : Collecter, nettoyer et prétraiter des ensembles de données complexes provenant de diverses sources. Concevoir, développer et mettre en œuvre des modèles prédictifs et des algorithmes d'apprentissage automatique pour résoudre des problèmes commerciaux spécifiques. Effectuer des analyses statistiques approfondies pour identifier des tendances, des modèles et des anomalies significatifs. Collaborer avec les équipes interfonctionnelles pour comprendre les besoins métier et traduire ces besoins en solutions techniques. Communiquer efficacement les résultats des analyses complexes aux parties prenantes non techniques.
Mission freelance
Lead data management (H/F)
Pour accompagner le client à mettre en œuvre son plan stratégique et opérer sa transformation, un pôle DATA/IA s’est créée sous la direction du Chief Data Officer Cette nouvelle direction a pour missions de · Porter les projets DATA/IA pour l’ensemble des métiers de la branche · Assurer un rôle de conseil et de support à l’ensemble des métiers de la branche sur l’usage des données et de l’IA · Mettre en place une gouvernance autour des données, ainsi que les référentiels transverses · Veuillez au respect de la réglementation et l’éthique sur la DATA et l’IA · Co-Construire avec le pôle DATA du Groupe et la Direction Technique les plateformes et les outils nécessaires au développement et à la mise en service des solutions DATA/IA · Insuffler la culture data au sein de la branche, moyennant les offres de formation du Groupe, la communication et les évènements autour de l’innovation Dans le cadre du déploiement de la roadmap DATA/IA pour la BGPN, nous cherchons à être accompagné par un (1) consultant pour en tant que Head of data management Commercial Le consultant travaille au sein du pôle DATA, en étroite collaboration avec l’équipe Data Management du groupe et des autres entités travaillant autour de la data. La prestation couvrira deux rôles indissociables à savoir : - un rôle de Data Analyst - et un rôle de Data Manager Il aura pour mission principale d’accompagner et d’apporter une expertise au : - Responsable Data management de la Branche dans ses activités - Responsable des Product Owner de la verticale Commercial dans le cadre de projets Data/IA dans la phase d’identification et de préparation des données nécessaires au développement de cas d’usages. Son expertise sera en termes de data gouvernance et sur la création de data product. En complément de sa principale mission il aura à : Promouvoir la culture du data management Commercial au sein de la BGPN via des actions d’animations et de communication Collaborer avec l’équipe Data Management du groupe sur la définition des standards du Data Management et le choix des outils associés Accompagner les projets DATA/IA dans le déploiement des bonnes pratiques du Data Management Dans certains cas, notamment pour répondre à des besoins d’analyse « hors projet » des équipes métiers, le Data Analyst sera amené à mener des analyses (ou réaliser des extractions) Contribuer à l’optimisation de la gouvernance des données de par ses analyses. · Accompagner les projets dans la mise en œuvre du dispositif de gouvernance de données (Comitologie, Rôle et responsabilité, ressources dédiées au data management, outils, etc) Accompagner les chefs de projets DATA/IA dans la définition des besoins autour du catalogue de données, de la data quality, de la data privacy
Offre d'emploi
Head of Data Management Commercial
Le consultant travaille au sein du pôle DATA, en étroite collaboration avec les autres entités travaillant autour de la data. La prestation couvrira deux rôles indissociables à savoir : un rôle de Data Analyst et un rôle de Data Manager Il aura pour mission principale d’accompagner et d’apporter une expertise au : Responsable Data management du département Responsable des Product Owner de la verticale Commercial dans le cadre de projets Data/IA dans la phase d’identification et de préparation des données nécessaires au développement de cas d’usages. Son expertise sera en termes de data gouvernance et sur la création de data product. En complément de sa principale mission il aura à : Promouvoir la culture du data management Commercial via des actions d’animations et de communication Collaborer avec l’équipe Data Management du groupe sur la définition des standards du Data Management et le choix des outils associés Accompagner les projets DATA/IA dans le déploiement des bonnes pratiques du Data Management. Dans certains cas, notamment pour répondre à des besoins d’analyse « hors projet » des équipes métiers, le Data Analyst sera amené à mener des analyses (ou réaliser des extractions) Contribuer à l’optimisation de la gouvernance des données de par ses analyses. Projets DATA/IA : Accompagner les projets dans la mise en œuvre du dispositif de gouvernance de données (Comitologie, Rôle et responsabilité, ressources dédiées au data management, outils, etc) Accompagner les chefs de projets DATA/IA dans la définition des besoins autour du catalogue de données, de la data quality, de la data privacy L’environnement technique est composé des solutions suivantes : Alimentation en batch : dév, pas d’ETL Alimentation en temps réel : Kafka Stockage et traitement : Datalake (Cloudera) Data Engineering + Data Science : Dataiku Data Visualisation : Tableau, Power BI Data Catalog : Collibra Savoir-faire : Maîtrise de l’outil Dataiku Analyse de données Calcul d’indicateurs Connaissance de Collibra (pour enrichissement du data catalogue en fonction des scénarios des analyses) Développement de dashboard de restitution/visualisation (connaitre les outils Tableau et PowerBi est un plus) Savoir-être : Aisance relationnelle, esprit d’équipe. Rigueur et capacité de formalisation et de communication Force de proposition Culture du résultat et orientation client Niveau de compétence C-level communication Confirmé Dataiku Confirmé Data management Expert Datalake Avancé
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Offre d'emploi
Développement backend SQL/clickhouse
Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un développeur backend SQL/clikhouse. Périmètre fonctionnel : banque d'investissement Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, base de donées distribuée avec un systel de cache in memory, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins. Les principales tâches de la missions sont les suivantes : Le but est d'développer des nouvelles fonctionnalités demandées par le trading, et aussi techniquement améliorer la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions. Le candidat sera chargé de la partie back end ainsi que de la partie devops.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes