L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 156 résultats.
Mission freelance
Architecte data
Publiée le
Architecture
1 an
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission : Nous cherchons un Architecte Data, dont la mission sera de travailler sur différents aspects de l'architecture de données. Il sera le garant de l'urbanisation de la donnée, de sa cohérence et de sa circulation de la donnée au sein d'un écosystème complexe et siloté. Il assure l'interopérabilité, la qualité et la valorisation des données issues des différents silos applicatifs. Objectifs principaux de la mission : · Urbaniser le SI Data : Définir et piloter la trajectoire pour passer d'un SI siloté à une architecture data-centric (orientée service/API et/ou hub de données). · Garantir la cohérence technique : Assurer la définition d'un langage commun et la gestion des données de référence (MDM) à travers les applications. · Définir le cadre d’implémentation des données : proposer la méthode pour rendre les données accessibles et interopérables pour les usages Métier (BI, reporting opérationnel, information voyageurs temps réel, maintenance prédictive…) Activités et Responsabilités Clés Ø Architecture & Modélisation · Cartographie du SI Data en lien avec le gestionnaire des données : Établir et maintenir la cartographie des données (conceptuelle, logique) et des flux inter-applicatifs, en cohérence avec la cartographie globale du SI. · Modélisation des données : Définir et gouverner les objets métier centraux conformément aux spécifications fournies par les métiers et définir les modalités d’interactions des différents systèmes avec ces objets (fréquence, pattern, performance, liaisons entre les différents objets.) · Standards & Normes : Aider à l’intégration et la bonne implémentation des standards du transport public (NeTEx pour l'offre théorique et tarifaire, SIRI pour le temps réel…) dans les projets internes et externe, il doit également assurer une veille sur les standards. Ø Conception des Échanges & Interopérabilité · Définition des Interfaces : En collaboration avec les équipes d’architecture et de développement, concevoir les ‘contrats d'interface’ (API, Webservices, Messages, ETL) entre les solutions éditeur ou solutions maison en utilisant les plateformes d'intégration (ESB, API Management, Message Broker…). · Validation des flux : S'assurer que le dimensionnement des flux de données répondent aux besoins fonctionnels et aux contraintes de performance (ex : criticité du temps réel entre le SAE et l'application mobile). Ø Gouvernance, Qualité & Conformité des Données · Master Data Management (MDM) : En collaboration avec les gestionnaires de la donnée Identifier les applications ‘ maîtres ’ pour chaque donnée de référence (produit / billettique, véhicule/Mainta…) · Stratégie de Mise en Qualité (Data Quality) : Contribuer à la définition de la stratégie de qualité des données, en combinant des approches métier et techniques : o Stratégie Métier : Accompagner les référents métier (Ex : Gestionnaires des données) dans la définition des règles de gestion et dans les processus de correction des anomalies à la source o Stratégie Technique : Définir et contribuer à la mise en œuvre des contrôles de qualité automatisés (profiling, dédoublonnage, validation de format) au sein des flux de données (via l'ETL, l'ESB) et des tableaux de bord de suivi de la qualité des données (Data Quality Monitoring) à destination des métiers et de la DSI. · Sécurité & Conformité : Garantir que l'architecture data respecte les contraintes de sécurité (NIS2) et de protection des données personnelles (RGPD sur le CRM et la Billettique…). Ø Pilotage de Projets & Vision Stratégique · Support aux Projets : Agir en tant qu'expert Data pour tous les nouveaux projets · Cadrage Architectural : Rédiger les Dossiers d'Architecture Technique (DAT) sur le volet Data
Mission freelance
Web / Data Analyst Piano Analytics H/F/NB
Publiée le
Analyse
Google Cloud Platform (GCP)
Microsoft Power BI
210 jours
400-580 €
Île-de-France, France
Télétravail partiel
Leader des médias français , notre client recherche un Data Analyst expérimenté pour accompagner la transformation digitale de ses offres numériques. Rejoignez la Direction Data et contribuez à faire de la donnée un levier stratégique de croissance. 🚀 Vos missions : Pilotage & Reporting Créer et automatiser des dashboards Power BI pour les équipes Growth (CRM, Acquisition, Social) Recueillir les besoins métier et rédiger les cahiers des charges techniques Superviser la qualité des données et optimiser les performances des rapports existants Analyse & Insights Analyser les données Piano Analytics, Nielsen/eStat Streaming Étudier les parcours utilisateurs et la consommation vidéo (Web/App/TV) Produire des analyses mensuelles et recommandations actionnables Collaborer avec l'équipe Études pour approfondir la connaissance utilisateur Formation & Accompagnement Former et coacher les équipes internes sur Piano Analytics et les outils d'analyse Sensibiliser à l'intégration de la data dans les processus de décision Vulgariser les concepts techniques pour des équipes non-techniques Stratégie Data Définir et harmoniser les KPIs transverses pour les équipes Growth, Produit et Métiers Spécifier les prérequis de tracking pour les analyses futures Contribuer au déploiement du marqueur interne sur de nouveaux produits
Offre d'emploi
Architecte calcul/Stockage et plateformes DATA
Publiée le
Architecture
Cloud
12 mois
40k-45k €
400-550 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Missions principales Architecture et trajectoire technologique • Concevoir des architectures de calcul, stockage et plateformes DATA (On-premise, Cloud ou hybrides). • Élaborer la cible d’architecture DATA : catalogage, gouvernance, sécurité, interopérabilité. • Formaliser les patterns d’architecture, standards et bonnes pratiques. 1. Collecte et formalisation des besoins métiers et techniques • Animer des ateliers avec les directions métiers et laboratoires pour recueillir et qualifier les besoins. • Réaliser des cartographies techniques et fonctionnelles. • Identifier les contraintes et les gains attendus. 2. Analyse et ingénierie des systèmes existants • Réaliser du reverse engineering sur les systèmes existants, y compris non gérés par la DTI. • Identifier les redondances, obsolescences et pistes d’optimisation. 3. Proposition et priorisation de projets • Construire un plan d’action priorisé des projets techniques. • Appuyer la priorisation stratégique en lien avec la gouvernance DATA et le SDSI 2030 (qui reste à construire). 4. Pilotage et accompagnement technique des projets • Coordonner les travaux techniques, tests de performance et intégration. • Contribuer directement à la mise en œuvre technique et au transfert RUN. 5. Contribution à la gouvernance DATA • Participer aux instances du Programme DATA et du SDSI. • Contribuer à la définition des standards techniques et à la documentation des services. 4. Missions secondaires • Participation à des projets de plateformes mutualisées (MFT, ETL, forges logicielles, calcul). • Étude et éventuel déploiement de solutions cloud ou hybrides selon arbitrages stratégiques. • Veille technologique sur les infrastructures et technologies data. • Capitalisation documentaire et accompagnement à la montée en compétence des équipes. 5. Compétences requises 5.1 Compétences techniques • Architecture des systèmes de stockage : NAS, SAN, Object Storage, archivage. • Environnements de calcul : clusters Linux/Windows, HPC, Slurm, conteneurisation (Docker, Singularity), GPU, orchestration.Systèmes et virtualisation : VMware, Hyper-V. • Réseaux et sécurité : segmentation, performance, supervision, monitoring. • Plateformes DATA/Analytics : architectures DATA, interopérabilité technique, …. • Outils de transfert et d’intégration : MFT, ETL, pipelines CI/CD (GitLab CI, Jenkins). • Cloud et hybridation : connaissance d’Azure, OVHcloud, Scaleway ou équivalents publics. • Outils de supervision et d’observabilité : Grafana, Prometheus. • Documentation technique : rigueur rédactionnelle, utilisation d’outils tels que PlantUML, Mermaid ou Visio. 5.2 Compétences transverses • Gestion de projet technique : planification, suivi, priorisation et reporting. • Capacité d’analyse et d’arbitrage technique, sens de la décision et de la fiabilité opérationnelle. • Aptitude à dialoguer avec des interlocuteurs variés (chercheurs, ingénieurs, équipes métiers, directeurs, CDO, RSSI). • Autonomie, curiosité, rigueur documentaire et esprit de synthèse. • Sens du service public et respect de la confidentialité scientifique.
Mission freelance
Directeur de Projet – Transformation Tests & Performance
Publiée le
Reporting
18 mois
100-600 €
Paris, France
Télétravail partiel
Contexte : Experience : 6 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Directeur de projet Spécialités technologiques : Conduite du changement, Gestion du changement, Reporting, Automatisation des tests Compétences Technologies et Outils Gatling Dynatrace Neoload La Direction des Systèmes d’Information d’un grand groupe a lancé un programme stratégique visant à améliorer la qualité des développements et à réduire les délais de mise en production grâce à l’optimisation de sa chaîne de tests. Dans ce cadre, l’organisation recherche un Directeur de Projet ayant une forte culture SI pour piloter l’ensemble des chantiers liés aux tests de performance et à l’industrialisation de l’automatisation. MISSIONS Le Directeur de Projet interviendra notamment sur les thématiques suivantes : - Industrialisation des pratiques d’automatisation des tests - Définition et positionnement des phases / niveaux de tests de performance dans le cycle de build (tests de charge, tests aux limites, tests de rupture, etc.) - Pilotage global de la transformation sur les volets performances et automatisation. Volet Performances : - Garantir la qualité et la pertinence des pratiques de tests de performance - Définir et mettre en œuvre la stratégie de tests de performance, prioriser les besoins - Mettre en place une gouvernance claire, piloter les livrables des équipes projets, organiser les instances de suivi et produire un reporting standardisé Volet Automatisation : - Fédérer les parties prenantes autour d’une culture « testing first » et d’un framework d’automatisation commun - Piloter la mise en place, l’évolution et l’industrialisation des pratiques d’automatisation - Superviser l’adoption de la stratégie d’automatisation et la mutualisation des outils Responsabilités - Le Directeur de Projet est garant de la réussite du ou des projets dans toutes leurs dimensions : stratégique, organisationnelle, financière, humaine, juridique et technique. Ses responsabilités incluent notamment : - Valider la pertinence des orientations, arbitrer les décisions importantes - Garantir la recette finale des projets - Piloter la communication et l’animation auprès des équipes et instances - Préparer et accompagner la conduite du changement - Gérer l’ensemble des ressources (humaines, budgétaires, opérationnelles) - Assurer la conformité qualité / coûts / délais
Offre premium
Mission freelance
Test et Homologation Confirmé
Publiée le
Performance testing
24 mois
370-380 €
Nantes, Pays de la Loire
Télétravail partiel
Nou sommes à la recherche d'un profil Test et Homologation Confirmé ( 4 à 5 and d'xp). Missions principales: Garantir la conformité des produits livrés aux besoins exprimés et traduits en spécifications, qu’il s’agisse de systèmes existants, d’évolutions, de corrections d’incidents ou de nouveaux produits. Contribuer à l’élaboration de la stratégie de test en s’appuyant sur les exigences fonctionnelles et techniques du projet. Planifier l’exécution des tests conformément aux principes définis dans la stratégie, et assurer, si nécessaire, le pilotage d’une équipe de test en fonction de la taille du projet. Réaliser les validations prévues dans le plan de test et de recette (tests unitaires, validation du bon fonctionnement, recette provisoire, validation de service régulier, recette définitive). Identifier et signaler les anomalies ou écarts constatés. Exécuter les campagnes de tests prévues. Organiser et planifier les activités de test en tenant compte des contraintes de ressources humaines, matérielles et des environnements disponibles. Vérifier la disponibilité et la conformité des livrables nécessaires à la préparation du plan de test. Rédiger les plans de qualification fonctionnelle en collaboration avec les parties prenantes (utilisateurs clés, chef de projet, etc.). Rédiger les plans de tests d’installation, d’exploitation et d’intégration à partir des dossiers d’analyse ou d’exploitation. Préparer et maintenir les configurations de test en respectant les processus d’installation. Mettre en place et exploiter les outils de suivi des tests. Coordonner la réalisation des tests et assurer le suivi des anomalies. Assurer le reporting régulier auprès du chef de projet. Rédiger les fiches de qualification. Organiser les procédures de mise en service, les bilans et l’archivage des résultats. Mettre à jour les masters (configurations types) utilisés pour les tests.
Offre d'emploi
Consultant·e Senior Data et Power BI
Publiée le
40k-60k €
France
Télétravail partiel
Nous recrutons en CDI un·e Consultant.e Senior Data & BI - Microsoft Fabric & Power BI ! Vous rejoignez une équipe orientée Business Applications et Intelligence Artificielle, avec pour mission de structurer et développer la pratique Data autour de Microsoft Fabric et Power BI. Ce rôle est stratégique pour accompagner nos clients dans la modernisation de leurs solutions analytiques. Vos futurs défis : o Architecture & Data Engineering - Déployer des solutions Microsoft Fabric (OneLake, Lakehouse, Dataflows Gen2, pipelines). - Mettre en place la gouvernance des données, la sécurité et les processus CI/CD. - Collaborer avec les experts Business Apps & IA pour intégrer la donnée dans les applications métiers. o Business Intelligence & Reporting - Concevoir des rapports et dashboards interactifs avec Power BI. - Optimiser les modèles de données et les performances (DAX, M). - Accompagner les métiers dans le self-service BI. o Innovation & Conseil - Participer à la définition de notre offre Data & Analytics. - Contribuer à des projets IA en exploitant les données (préparation, qualité, intégration). - Assurer une veille technologique sur Fabric, BI et IA.
Mission freelance
Data steward/ Data specialist
Publiée le
Data analysis
Data governance
Data visualisation
6 mois
400-550 €
Lille, Hauts-de-France
Télétravail partiel
La mission principale du Data Steward/Data specialist sera de transformer la vision du responsable du domaine commercial en actions quotidiennes. Votre rôle s’inscrit dans le cadre d'une fusion de deux entités et donc de l’unification des processus de vente soutenu par un CRM commun et un catalogue produit unifié soutenu par le PIM ( SAP/Salesforce ). Vous serez positionné en priorité sur la partie produit. Cette mission s'articule donc autour des piliers suivants : Data Gouvernance : Aider le responsable des processus métier de l'équipe Excellence commerciale à définir les actifs de données. Comprendre et analyser les points faibles commerciaux en termes de gestion des données (en mettant l'accent sur les matériaux, les clients et les prix) Mettre en place un plan de remédiation et le communiquer Avec l'aide des équipes opérationnelle et commerciale, définir les règles et les contrôles de qualité à mettre en place dans les solutions commerciales afin de garantir la fiabilité des données (intégrité, exhaustivité, accessibilité...) Garantir les données commerciales : documentation adéquate dans le catalogue de données, définir, suivre et partager les indicateurs clés de performance (KPI) concernant l'état et l'évolution de la qualité des données, l'utilisation des données dans le domaine commercial, etc. Maîtrise/Culture des données : Participer à la démocratisation des données en formant et en animant tous les utilisateurs commerciaux des données Communiquer largement sur les applications de reporting « officielles » Partager les règles de qualité à respecter par l'équipe opérationnelle 3. Analyse des données : Aider les équipes commerciales à analyser les données, identifier les tendances, les modèles et les opportunités d'amélioration commerciale. Le Data Steward/Data specialist sera en étroite collaboration avec : Business Process Managers : en charge de la gestion du catalogue de produits, services et options ; gestion de l'entonnoir de vente ; gestion des devis, gestion des demandes des clients, gestion des tarifs. Force commerciale : responsable produit PIM, SALESFORCE et base de données tarifaire
Offre d'emploi
Test Manager Senior – Pilotage des Tests de Charge & Performance (H/F) – Dijon
Publiée le
Linux
Open Source
1 an
Dijon, Bourgogne-Franche-Comté
🎯 Contexte et objectifs Dans un environnement technologique exigeant, Ridcha Data recherche un Test Manager Senior pour concevoir et déployer une stratégie complète de tirs de charge . Votre rôle sera central pour garantir la performance, la scalabilité et la robustesse des solutions logicielles développées par nos équipes R&D. 🔧 Vos missions principales Définir et structurer la démarche de tirs de charge , adaptée à nos contextes projets. Identifier et intégrer les solutions open source les plus pertinentes pour les tests de charge et de performance. Accompagner et former les équipes R&D dans le déploiement opérationnel de la démarche. Suivre, analyser et documenter les résultats afin d’assurer une amélioration continue des performances applicatives. Assurer un reporting régulier auprès du management sur l’avancement et les indicateurs de performance. 💼 Livrables attendus Démarche de tirs de charge formalisée et validée. Plan de déploiement opérationnel auprès des équipes. Reporting et suivi consolidé du déploiement et des résultats.
Mission freelance
Head of Data
Publiée le
Gouvernance
Management
Pilotage
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Un groupe du retail spécialisé dans la distribution omnicanale accélère sa transformation digitale. Dans un contexte de croissance et d’harmonisation des systèmes, le Data Office souhaite structurer sa gouvernance, renforcer la qualité des données et professionnaliser l’ensemble de la chaîne analytique. Dans ce cadre, le groupe recherche un Head of Data expérimenté pour accompagner la montée en maturité et piloter la stratégie data globale. Responsabilités principales • Élaborer et piloter la stratégie data à l’échelle du groupe. • Superviser les équipes Data Engineering, Data Analytics et Data Governance. • Définir la roadmap Data et arbitrer les priorités techniques et métier. • Encadrer la mise en place ou l’évolution de la plateforme data (cloud). • Structurer la gouvernance : qualité, catalogage, MDM, sécurité. • Acculturer les directions métier (Marketing, Supply, E-commerce, Finance) aux usages data et IA. • Piloter les budgets data, suivre les KPI de performance et garantir la cohérence des initiatives. • Interagir avec les comités de direction et assurer un reporting stratégique. Compétences et profil recherché • +10 ans d’expérience dans la data, dont plusieurs années en management d’équipes. • Expérience confirmée en environnements retail ou B2C à forte volumétrie. • Vision globale data : architecture, gouvernance, analytics, IA. • Maîtrise d’un environnement cloud moderne (Azure, AWS ou GCP). • Solides compétences en pilotage transverse, communication et conduite du changement. • Capacité à structurer un Data Office et à faire monter en maturité des équipes pluridisciplinaires. • Leadership, esprit analytique et forte orientation business. Environnement de travail • Groupe international du retail en pleine transformation digitale. • Collaboration directe avec la DSI, la direction e-commerce et les équipes omnicanales. • Contexte hybride : 2 à 3 jours sur site selon les phases du projet. • Mission longue (6 à 12 mois renouvelables).
Mission freelance
Expert Analyste data sénior
Publiée le
Confluence
JIRA
Slack
12 ans
400-510 €
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) Expert(e) Analytics pour rejoindre la Direction Data de notre client. Missions principales Cadrage et accompagnement des équipes dans l’implémentation des outils data : identification des pré-requis, risques, parties prenantes, facteurs clés de succès et indicateurs de performance Pilotage des projets de fond : déploiement et suivi de l’outil de monitoring automatisé, enrichissement du tracking site-centric Monitoring automatisé et analyse des alertes Coordination avec les équipes Data, Technique, Offres numériques et RGPD Reporting et amélioration continue des outils et indicateurs Profil recherché 5+ ans d’expérience sur tracking / analytics Maîtrise de Piano, Médiamétrie, Netvigie / Seenaptic, TagCommander Compétences en gestion de projet (Jira, Confluence, Slack) Parfaite maîtrise du français Présence sur site : environ 50% Si vous êtes intéressé(e) ou connaissez quelqu’un qui pourrait l’être, n’hésitez pas à me contacter pour plus d’informations. Cordialement,
Mission freelance
Senior Data Engineer GCP MLOps
Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)
6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
Publiée le
BI
24 mois
250-500 €
Paris, France
Télétravail partiel
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Offre d'emploi
Responsable de Domaine Data/BI
Publiée le
Data Warehouse
ETL (Extract-transform-load)
PowerBI
90k-100k €
Antony, Île-de-France
Télétravail partiel
📌 Responsable de Domaine Data / BI (H/F) 🎯 Contexte & Enjeux du Poste Dans le cadre d’une évolution organisationnelle et du redimensionnement d’un poste stratégique, notre groupe renforce son Département Études et recrute son Responsable de Domaine Data / BI. Ce rôle clé intervient au moment où l’entreprise engage une refonte complète du SI décisionnel, une modernisation de son architecture data, et une professionnalisation de sa gouvernance de la donnée. Le poste combine vision stratégique, pilotage technique, management d’équipe (5 à 10 personnes, internes et prestataires) et accompagnement des métiers. 📝 Missions principales 1. Définition & Pilotage de la Stratégie Data Construire et suivre la feuille de route Data/BI du groupe (stratégie, priorités, trajectoires, budgets). Contribuer au ciblage de l’architecture Data et aux choix technologiques clés. Conduire la refonte du SI décisionnel et la modernisation des outils associés. 2. Gouvernance & Qualité de la Donnée Définir et appliquer les standards de qualité, sécurité, conformité et intégrité de la donnée. Superviser l’ensemble des flux, entrepôts, modèles et indicateurs clés. Garantir la fiabilité, performance et disponibilité des plateformes data. 3. Management & Structuration de l’Équipe Encadrer une équipe de 5 à 10 collaborateurs (internes + prestataires). Définir l’organisation, les responsabilités, les objectifs et les rituels d’équipe. Monter en compétence les équipes : méthodologie, bonnes pratiques, culture data. 4. Supervision Technique & Opérationnelle Piloter l’ensemble du périmètre technique BI & Data : Systèmes : SAP BW, SAP BO, Power BI, Snowflake Outils & technologies : ETL / Talend, SQL, modèles de données Garantir la maintenance, les évolutions, les déploiements et le bon fonctionnement des plateformes. Valider les solutions : ETL, dashboards, reporting, modèles de données, intégration, architecture. 5. Relation Métiers & Accompagnement Être l’interlocuteur privilégié des métiers (commerce, logistique, finance, opérations…). Recueillir, challenger et prioriser les besoins en intelligence décisionnelle. Accompagner les équipes dans l’usage des outils, la compréhension des indicateurs et la diffusion de la culture data. Collaborer étroitement avec la MOA et les chefs de projet SI
Offre d'emploi
Data Engineer
Publiée le
Dataiku
Microsoft Power BI
PySpark
1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
Mission freelance
Ingénieur Système & Data – Monitoring / Maintenance / Big Data
Publiée le
Angular
Apache Spark
Hadoop
3 ans
Île-de-France, France
Télétravail partiel
Contexte de la mission : Au sein de la Direction des Systèmes d’Information d’un grand groupe du secteur financier, vous intégrerez une équipe en charge du pilotage des risques structurels et du reporting financier . L’objectif de la mission est de maintenir et faire évoluer une plateforme technique basée sur la technologie ClickHouse® , en garantissant sa stabilité, ses performances et sa sécurité . Missions principales : La prestation consiste à contribuer aux activités suivantes : Surveillance et monitoring de l’infrastructure ; diagnostic des incidents et anomalies Maintien en conditions opérationnelles de la plateforme (composants, performances, dette technique, montées de version) Rédaction et exécution de scripts de maintenance de l’infrastructure (équilibrage des disques, tuning système, automatisation) Application des exigences de sécurité et des procédures internes (remédiation des vulnérabilités, patching, CI/CD) Définition, estimation et planification des activités techniques Rédaction de spécifications et documentation techniques Support et accompagnement des équipes internes dans la gestion quotidienne de la plateforme
Offre d'emploi
DATA ANALYSTE CONTENUS JEUNESSE
Publiée le
JIRA
18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : La Direction Data recherche une prestation en Data Analyse pour accompagner les équipes produits et éditoriales dans l’analyse de la performance des contenus jeunesses. MISSIONS - La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications. (Prise en compte des besoins des équipes interne, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du Dashboard, itérations mode projet..) - Le maintien du bon fonctionnement des dashboards existant sur Power BI. - L’accompagnement et le coaching des équipes internes sur l’intégration de la data dans leur processus de décision et de priorisation (AT Internet, Nielsen, marqueur interne). - La mesure et l’analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l’équipe études. - L’accompagnement des équipes internes dans l’identification des indicateurs/ KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l’ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul - Le partage de son expertise afin de déployer notre marqueur interne sur d’autres produits. - L’identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes. Expertises demandées pour la réalisation de la prestation : Pour mener à bien la prestation, le prestataire devra maitriser les expertises suivantes : - Maitrise des Piano Internet et eStat Streaming/Nielsen exigée. - Maitrise du tracking sur Web, App, et TV. - Expertise en analyse de parcours avec ContentSquare - Aisance analytique demandée, et maitrise de Power BI exigée. - Expertise en accompagnement/coaching data - Maîtrise de la mise en place de reporting et production des bilans - Capacité en gestion de projet - Maîtrise d’Excel, powerpoint , Jira, Confluence. - Maitrise du SQL nécessaire et connaissance de GCP -Maitrise de GetFeedBack – Usabilla pour la mise en place des NPS. - Connaissance de Power Automate pour automatiser certains process -Expérience dans les médias
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Mise à jour info-retraite
- Passage sasu à eurl: transition mutuelle/prévoyance
- Création de site Wordpress : BIC ou BNC ?
- SCI détenue par une Société bénéficera du taux réduit de 15 % d’IS ?
- Transfert d'activité - cession du fond de commerce
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
156 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois