L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 157 résultats.
Mission freelance
Architecte Data IoT
Publiée le
Apache Kafka
Architecture
IoT
12 mois
730-750 €
Lille, Hauts-de-France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Architecte Data IoT" pour un client dans le secteur du retail. Description La Data est centrale dans notre écosystème IoT : elle alimente la BI, la maintenance prédictive, la détection d'accidents et la conception intelligente de nos futurs produits. 🎯 Votre Mission : Architecturer la Data de l'IoT du Groupe Au sein de l'équipe "Cloud IoT Platform - Data Solution", vous agissez en tant que Data Architect / Lead Engineer . Vous êtes le garant des choix techniques et de l'architecture permettant d'ingérer, stocker et exposer les données venant du Cloud, des "Devices" et du Mobile. Vos responsabilités clés : Architecture & Stratégie : Imaginer et concevoir l'architecture Data pour collecter les données IoT (directement des appareils ou via mobile). Définir la stratégie des stacks techniques et garantir les standards d'architecture. Assurer l'alignement entre la vision technique, les priorités business et les besoins utilisateurs. Engineering & Pipelines : Construire des pipelines de données (structurées et non structurées) robustes et scalables. Maintenir et redesigner les pipelines existants pour servir de nouveaux cas d'usage (Analytics, IA, etc.). Garantir l'industrialisation des processus de transformation et le CI/CD. Qualité & Gouvernance : Assurer la scalabilité, l'élasticité et la fiabilité des infrastructures. Garantir la qualité de la donnée, son accessibilité, ainsi que le respect des normes de Privacy et Data Governance (Lineage). Leadership Technique : Contribuer activement à la communauté des Data Engineers. Assurer une veille technologique constante pour orienter la sélection des nouveaux outils. 🛠 Environnement Technique Langages : Python, Scala, Java. Big Data & Streaming : Kafka, Spark. Cloud & Infrastructure : AWS (Lambda, Redshift, S3), Microservices. Concepts : Systèmes distribués, Data Modeling, Real-time data exchanges.
Mission freelance
Data engineer ETL(IDQ)/python (F/H) - 75 + Remote
Publiée le
Data quality
ETL (Extract-transform-load)
Linux
12 mois
400-650 €
Paris, France
Télétravail partiel
Notre client recherche un Data Engineer ETL (Informatica / Python) pour renforcer son équipe IT au sein du domaine Finance. L’environnement technique comprend : Un ESB (Software AG) pour les traitements temps réel Un ETL (Informatica) pour les traitements batch Une Data Platform pour l’analytics (Microsoft Fabric / Power BI) Un plan de migration est en cours pour basculer les flux d’Informatica vers Microsoft Fabric. Mission Le data engineer interviendra sur le « data hub » finance, qui alimente les outils de finance. Missions principales : Phase 1 * Maintenance et support des flux existants (Informatica) * Maintenance évolutive et corrective des flux du data hub * Support aux équipes intégration et métiers * Suivi et monitoring des traitements * Analyse et résolution des incidents de production Phase 2 * Projets de migration et nouveaux développements * Participation aux projets de migration des flux vers Microsoft Fabric * Analyse des besoins et des données sources * Modélisation dans le modèle pivot du hub * Conception et développement de nouveaux flux * Rédaction de spécifications techniques/fonctionnelles détaillées * Tests unitaires et de non-régression Coordination avec les autres équipes techniques Déploiement et support post-mise en production
Offre d'emploi
Analyste Fonctionnel Data (F/H)
Publiée le
Data analysis
Rédaction des spécifications fonctionnelles
1 an
42k-45k €
350-400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
📑 CDI (42-45K€) / Freelance / Portage Salarial - 🏠 2 jours de télétravail / mois - 📍Clermont-Ferrand - 🛠 Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Analyste Fonctionnel Data pour intervenir chez un de nos clients. Vous souhaitez mettre vos compétences data au service d’un projet stratégique ? Rejoignez l’équipe et participez à garantir la fiabilité, la qualité et la valorisation des données utilisées dans les analyses décisionnelles. Vos principales missions : - Cartographier et analyser les flux de données existants, identifier les points manuels ou chronophages. - Proposer et piloter des solutions d’automatisation avec les équipes Data et IT. - Rédiger les spécifications fonctionnelles et maintenir la documentation des flux de données. - Contribuer à l’amélioration continue de la qualité et de la fiabilité des données.
Mission freelance
Data Engineer | DevOps AWS (H/F)
Publiée le
AWS Cloud
CI/CD
Data analysis
9 mois
400-450 €
Saint-Denis, Île-de-France
Télétravail partiel
Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.
Mission freelance
Data Analyst / Expert GPS
Publiée le
Apache Spark
Azure Data Factory
Data analysis
6 mois
520-590 €
Issy-les-Moulineaux, Île-de-France
Télétravail 100%
Contexte Nous recherchons un(e) Analyste Data Senior disposant d’une expérience avérée dans le traitement, la qualité et l’analyse de données GPS, afin de contribuer à des travaux d’analyse de parcours multi-journées et multi-modes de déplacement. Le/la candidat(e) interviendra dans un environnement dynamique et innovant, au sein d’équipes travaillant sur des problématiques de géolocalisation à fort volume. Missions1. Analyse et traitement de données GPS Rapprochement des points GPS avec les référentiels voirie. Détection, identification et correction des points aberrants. Consolidation des trajectoires issues de différents jours d’observation. Détection et analyse des arrêts, incluant les changements de mode de transport. 2. Qualité et enrichissement des données Vérification de la cohérence des trajectoires. Rapprochement des données GPS avec des bases d’adresses distribuées. Mise en place de règles de nettoyage et de filtrage pour améliorer la robustesse des analyses. 3. Analyse avancée des parcours Comparaison des parcours entre plusieurs journées et identification des écarts. Construction de métriques (temps d’arrêt, distance, vitesse, segments utilisés). Production d’analyses détaillées et de visualisations (cartes, dashboards, rapports). 4. Outils & environnement technique Manipulation de gros volumes de données (Spark, Databricks idéalement). Utilisation de Python, SQL, ou tout langage adapté à l’analyse géospatiale. Interaction avec des outils SIG ou bibliothèques géospatiales (QGIS, GeoPandas, etc.).
Offre d'emploi
Data Analyst Confirmé Mission Support & Gestion Backlog-Sophia Antipolis(H/F)
Publiée le
Backlog management
Data analysis
KPI
1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte de la mission Dans le cadre d’un renforcement des activités RUN, nous recherchons un Data Analyst Confirmé , immédiatement opérationnel, pour accompagner le Responsable Support dans le traitement durable du backlog et l’amélioration des procédures. 🎯 Objectifs et périmètre de la mission Gestion du backlog Redmine : Analyse et priorisation des tickets Prise en charge des actions nécessaires Clôture des tickets antérieurs au 01/01/2024 (hors périmètre 508) Assainissement et stabilisation du backlog Documentation & Procédures : Rédaction et formalisation des procédures de résolution Fiabilisation et homogénéisation du traitement RUN Évolution des outils : Participation à la réflexion sur une possible migration Redmine → Jira Analyse d’impact, prérequis, organisation cible Gestion des accès : Création et gestion des comptes Redmine Traitement des demandes en attente (85 demandes dont 37 déjà finalisées) Autres contributions : Support aux travaux de migration ERMV2 Périmètre complémentaire possible sur le backlog Jira CNAM ⚙️ Compétences techniques Data Analyst – Confirmé Scripting – Confirmé (souhaité) Développement – Junior (souhaité) Maîtrise des outils de ticketing (Redmine, Jira) Compréhension des environnements RUN / support Capacité à manipuler, structurer et exploiter les données pour produire des KPI 📊 Livrables attendus Tableau de bord KPI Backlog Procédures de support client formalisées Backlog assaini, priorisé et contrôlé
Offre d'emploi
Data Analyst H/F
Publiée le
Data analysis
Database
PL/SQL
35k-40k €
Saint-Brieuc, Bretagne
Lieu : Saint-Brieuc (22) Salaire : 35/40K€ Rythme : Présentiel Nous recrutons pour un intégrateur de solutions industrielles et tertiaires en pleine croissance situé à proximité de Saint-Brieuc dans les Côtes d’Armor. Il s’identifie comme un interlocuteur global pour les entreprises ayant besoin de solutions logicielles innovantes en automatisation, informatique, électricité, GTB, maintenance… Il souhaite couvrir l’ensemble du cycle, de l’étude/conception à la mise en œuvre, la formation, la maintenance et le suivi de leurs clients, afin d’apporter une solution clés-en-main. Dans le cadre de leur développement, notre client souhaite recruté un Data Analyst confirmé. Les missions sont les suivantes : - Interpréter les besoins métier et les transformer en problématiques analytiques exploitables. - Veiller à la qualité, la cohérence et la robustesse des données utilisées dans les modèles et analyses. - Préparer, explorer et modéliser des jeux de données complexes afin d’en extraire des résultats actionnables. - Développer et maintenir des indicateurs, rapports avancés et outils analytiques pour soutenir les décisions stratégiques. - Documenter les méthodes, modèles et workflows, et contribuer à la diffusion des bonnes pratiques data au sein de l’organisation. - Accompagner et former les utilisateurs aux analyses, modèles et outils développés pour garantir leur bonne appropriation. - Effectuer une veille continue sur les technologies, méthodes statistiques et avancées en machine learning, puis partager les évolutions pertinentes avec l’équipe.
Mission freelance
Data Analyst (H/F)
Publiée le
BigQuery
Data analysis
Git
6 mois
400-480 €
Paris, France
Télétravail partiel
Notre client dans le secteur privé recherche un profil Data Analyst (mission ouverte uniquement aux indépendants) avec 10 ans d’expérience pour des activités de conception, déploiement et maintenance de modèles d’IA à destination des clients Grand Public. La prestation couvre les activités suivantes : Assurer la production et l’évolution des modèles existants, en garantissant la qualité des données en amont ainsi que la pertinence des modèles délivrés. Développer et entraîner de nouveaux modèles (ex. : churn, appétence, segmentation/clusterisation). Réaliser des analyses et études liées à l'utilisation des modèles, incluant l’accompagnement des équipes métiers. Mettre en place et industrialiser les chaînes de production des nouveaux modèles, en optimisant les temps de traitement et en garantissant la fiabilité des résultats (environnements on-premise et GCP / MLOps). Requêtage intensif, exploration et fouille de données dans un environnement data complexe.
Offre d'emploi
DATA SCIENTIST GCP (500€ MAX)
Publiée le
Google Cloud Platform (GCP)
3 mois
47k-97k €
330-500 €
Paris, France
Télétravail partiel
La prestation consistera à : - Exploiter le socle de data pour mettre en place le pilotage des actions, en construisant des dashboards (Power BI) pour le suivi des profils, le suivi de l’engagement, le suivi des segments RF, le suivi des objectifs - Analyser les profils et comportements des utilisateurs, en mettant en place les analyses des profils de vidéonautes, décortiquant les comportements selon les canaux d’acquisition, les contenus consommés, en analysant l’impact de la pression pub sur nos utilisateurs, … - Mettre en place la data science et l’IA au service de l’amélioration de l’expérience utilisateur et l’amélioration de nos process internes - Prédiction des audiences - Enrichissement du catalogue via l’IAG - Prédiction de l’inactivité, des appétences, … - Segmentations - Expériences en analyses de connaissance clients / utilisateurs du type cycle de vie client, churn, recrutés… - Expériences en data science sur des sujets de type prévision, algo de reco, score d’appétence, anti churn… - Expériences sur des sujets d’ IA Générative - Maitrise SQL indispensable, solides connaissances en Python et/ou Spark - Expériences sur un environnement Google Cloud Platform / Big Query - Bonne connaissance des données et des outils dans un écosystème digital (de type Piano Analytics, Google Analytics..) - Capacité à synthétiser et à restituer des résultats à des interlocuteurs ayant des niveaux de maturité data différent - Capacité à mener plusieurs sujets en même temps - Curiosité, dynamisme, enthousiasme, esprit d’équipe, rigueur et autonomie
Offre d'emploi
Tech Lead Snowflake
Publiée le
Apache Airflow
AWS Cloud
Snowflake
2 ans
40k-81k €
400-640 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Tech Lead Snowflake : le Tech Lead « aura donc la charge de: 1)Co-piloter la Feature Team 2)Créer un binôme fort avec son homologue ‘Produit’ (Product Owner déjà présent). 3)Encadrer les Data Engineers : 4 externes + 1 interne 4)Assurer la mise en oeuvre des bonnes pratiques de développements (DevOps, Qualité, FinOps, etc.) 5)Contribuer au cadrage, découpage & macro-estimation des nouveaux sujets. 6)Orienter les choix techniques et de modélisation (urbanisation Snowflake, patterns Archi, etc.) 7)Livrer les produits Data (Analytics & IA) suivant les engagements de qualité et de délais pris. 8)Gérer la communication et la résolution en cas d’incidents. 9)Tenir informés ses supérieurs, voir les alerter ou demander de l’aide en cas de risque ou pb. 10)Participer aux évènements organisés à l’échelle de la DATA ou de la verticale ENGINEERING.
Offre d'emploi
Data Platform Product Manager - Très belle opportunité dans une Grande Maison française
Publiée le
AI
Apache Airflow
Data analysis
Paris, France
Télétravail partiel
Data Platform Product Manager - Très belle opportunité dans une Grande Maison française Un de nos importants clients recherche un Data Platform Product Manager dans le cadre d'un CDI à Paris. Le Data Platform Product Manager a pour mission de structurer et piloter le portefeuille de produits de la plateforme data. Il développe l'équipe et le modèle opérationnel permettant d'orchestrer l'intake, la priorisation et le delivery. Il assure le suivi opérationnel, budgétaire et méthodologique du portefeuille en garantissant l’alignement avec le Data Office Management, et en maximisant l’adoption et la valeur pour le Data Office et la Maison. Véritable partenaire des leaders techniques de la Data Platform, des autres pôles du Data Office et des différentes filiales, vous alignez vision, roadmaps, budgets, SLO et accompagnez les Platform Product Owners dans la mise en œuvre des méthodologies et des outils pour atteindre leurs objectifs dans le respect des délais et des exigences de qualité de la Maison. Vous jouez un rôle clé dans la stratégie produit, la gestion des risques, et la diffusion d’une culture produit au sein de la Data Platform. Principales activités : Engagement opérationnel : Pilote le portefeuille de produits Data Platform en collaboration avec le Data Office Management et en appui aux responsables de scope. Consolide le reporting et tient le release calendar Data Platform. Orchestre l’intake et le triage avec priorisation valeur/risque/coût et séquencement des dépendances inter-produits et inter-équipes. Tient à jour les roadmaps et objectifs Data Platform en lien avec la direction Data Office. Met à jour et analyse les KPIs Data Platform. Alerte sur les écarts majeurs. Anime l'équipe Data Product Management. Coordonne les plannings, suit l’avancement et propose des arbitrages en cas de conflit de capacité. Met en place et diffuse le modèle opérationnel de delivery orienté produit : spécifications / user stories, critères d’acceptation, definion of ready/done, backlog management, move2run, etc. Accompagne l'équipe Run dans la mise à jour des SLA/SLO, leur suivi cross-équipes et les moyens mis en oeuvre pour l'amélioration continue. Assure la cohérence transverse notamment avec DevEx, Data Office Management, et Data Governance. Evite les duplications et aligne standards et conventions. Sollicite et équilibre les partenaires externes stratégiques. Suivi budgétaire : Assure le suivi des budgets produits et des indicateurs de performance en alertant immédiatement sur les écarts et en proposant des solutions pragmatiques adaptées à l'horizon de temps. Collabore avec le Data Office Management pour un pilotage financier rigoureux. déploie showback, prépare le chargeback, identifie les postes de dépense inefficients ou obsolètes et propose une stratégie pour y remédier. Outils & méthodologies : Déploie des outils de pilotage (roadmaps/objectifs, reporting, tableaux de bord, gestion documentaire). Propose les bons KPIs de suivi. Alimente les outils de BI pour automatiser et croiser. Garantit le respect des méthodologies produit & projet notamment pour le delivery et identifie les écarts. Anime l’amélioration continue (retours d’expérience, post-mortems, actions correctives). Profil recherché : Diplômé Bac+5 (école d’ingénieur, université ou équivalent) avec une Expérience confirmée en gestion de produits Data (data platform / analytics engineering / data products) dans des environnements complexes. Expérience requise en mise en place d'approche produit/agile pour le delivery, stratégie d'implémentation en continu (projets en cours), accompagnement de l'équipe, des partenaires et des stakeholders. Expérience confirmée en coordination multi-produits et reporting exécutif ; capacité à arbitrer et synchroniser des roadmaps. Solide culture Data & AI Platform : Datawarehouse cloud (Snowflake), dbt, Orchestration (OpCon/Airflow), Dataviz (Power BI), Observabilité, DevEx, FinOps, MLOps/LLM. Maîtrise des pratiques gouvernance technique (Catalog/Lineage, GDPR automation) et des SLO/SLA. Expérience confirmée de management de profils Product Owner / Product Manager en collaboration avec des équipes techniques. Excellente communication écrite et orale (FR/EN), leadership transverse en organisation matricielle, sens de la pédagogie et de l’accompagnement au changement. Si cette offre vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.
Mission freelance
Data Analyst (MS Dynamics CRM)
Publiée le
CRM
Data analysis
Microsoft Dynamics
12 mois
370-500 €
Paris, France
Télétravail partiel
Hanson Regan recherche un Data Analyst (MS Dynamics CRM) pour un contrat renouvelable de 12 mois basé à Paris. Une excellente maîtrise de Microsoft Dynamics 365 CRM est requise. Une expertise en analyse et interprétation de données est recommandée. De plus, une expertise de Microsoft Copilot pour Power BI et la création de tableaux de bord est suggérée. Collaborer avec les parties prenantes pour recueillir et documenter efficacement les besoins métiers. Utiliser ses compétences analytiques pour identifier les tendances et les informations clés susceptibles d'améliorer l'activité. Animer des ateliers et des réunions pour garantir l'adéquation entre les besoins métiers et les solutions technologiques. Élaborer et présenter des rapports complets communiquant clairement les conclusions et les recommandations. Rechercher en permanence des opportunités d'optimisation et d'innovation des processus au sein de l'organisation. • Compétences : Microsoft Dynamics 365Customer Relationship Management (CRM), Analyse et interprétation des données, Dashboard Reporting, Microsoft Copilot pour Power BI. • Localisation : La Défense, Paris • Modalités de travail : Temps plein - Travail à distance possible 2 jours par semaine Afin de répondre aux besoins de nos clients, nous n'acceptons que les candidatures de freelances travaillant au sein de leur propre entreprise (SAS, SASU, SARL, EURL, etc.). N'hésitez pas à me contacter si vous souhaitez discuter de ce poste plus en détail.
Mission freelance
Process & Data Analyst
Publiée le
Data analysis
Gouvernance
Master Data Management (MDM)
1 an
500-570 €
Île-de-France, France
Télétravail partiel
Nous recherchons actuellement un(e) Process & Data Analyst pour accompagner les projets et assurer le lien entre les processus métier et les données nécessaires de notre client grand compte dans la logistique. Vous devrez : - Animer les groupes de travail pour créer les Service Blueprints, identifier les Data Use Cases et comprendre les dépendances fonctionnelles, - Réaliser les gap analyses afin d'identifier les systèmes IT impactés et préparer la création des fonctionnalités nécessaires, - Garantir la production des Data Use Cases basés sur les processus métier et les intégrer dans l'outil de Data Gouvernance du groupe, - Définir, avec les Data Stewards, les Business Rules et le cycle de vie des données transactionnelles et référentielles, - Accompagner les Data Stewards dans l'implémentation des données référentielles dans le Master Data Management, - Soutenir les Business Units dans l'implémentation des flux de données transactionnelles et l'utilisation des données référentielles, - Participer à l'enrichissement du Data Catalog via des définitions claires, - Contribuer aux tests d'intégration, systèmes et UAT, ainsi qu'à la gestion des migrations, stratégies de cut-over et chargements de données, - Analyser les données existantes dans les applications pour garantir la cohérence avec les solutions proposées et identifier des améliorations proactives de qualité de données, Vous travaillerez au sein d'une équipe d'experts Data Gouvernance et MDM, et serez accompagné(e) par nos Data Stewards pour mettre en place les processus conformément aux exigences des data owners des équipes métier.
Mission freelance
Data Analyst Workday / Cornerstone (H/F)
Publiée le
Data analysis
Workday
6 mois
400-550 €
Île-de-France, France
Au sein du HR Data Office, vous accompagnerez les Business Process Owners (BPOs) dans la mise en place de dashboards et d’analyses pertinentes afin de soutenir deux domaines clés : • Formation : exploitation des données issues de Cornerstone OnDemand • Talent & Performance : exploitation des données issues de Workday Votre rôle sera d’assurer la liaison entre les équipes métiers et les équipes techniques, en garantissant que les visualisations de données répondent aux objectifs stratégiques et opérationnels. 🚀 Missions principales • Définition des indicateurs clés • Identifier et proposer des KPIs pertinents avec les équipes métiers • Traduire les besoins métier en exigences claires pour les dashboards • Création et maintenance des dashboards Power BI • Concevoir, mettre à jour et maintenir des tableaux de bord adaptés aux besoins • Étudier les options de reporting disponibles sur Cornerstone OnDemand et Workday • Analyse des données • Réaliser des analyses quantitatives et qualitatives sur les données de formation et de performance • Examiner les données historiques et actuelles pour identifier tendances, comportements et anomalies • Fournir des insights pour améliorer la prise de décision et l’efficacité opérationnelle • Support à la prise de décision • Présenter les dashboards et rapports aux équipes et parties prenantes • Fournir une documentation détaillée des solutions mises en place • Être force de proposition pour définir les KPIs et mettre en avant les impacts au sein de l’organisation
Mission freelance
DATA Analyst SIG - GPS
Publiée le
Data analysis
SIG (Systèmes d'Information Géographique)
12 mois
550-580 €
Paris, France
Télétravail 100%
En quelques mots Cherry Pick est à la recherche d'un "DATA Analyst SIG - GPS" pour un client dans le secteur Public Description Data Analyst SIG – Expert Données GPS & Mobilité (H/F) Technologie clé : Databricks / Python / SQL Spatial Niveau : Expérimenté / Confirmé 🌐 Le Contexte Nous recherchons pour notre client, acteur majeur dans le secteur de la Mobilité/Logistique , un Data Analyst confirmé possédant une expertise pointue en Géomatique (SIG) . Vous rejoignez une équipe Data où la dimension spatiale est critique. Votre rôle ne sera pas simplement d'analyser des chiffres, mais de faire "parler" des millions de points GPS bruts pour reconstituer des parcours, optimiser des tournées et comprendre la réalité terrain des déplacements. 🎯 Votre Mission : Dompter la donnée GPS Vous êtes le référent sur le traitement et la valorisation des données de géolocalisation. Vous transformez une donnée brute, souvent bruitée, en informations métier fiables (arrêts, trajets, adresses). Vos défis techniques & fonctionnels : Qualité & Nettoyage de la donnée GPS : Détection et correction des points aberrants (outliers). Traitement du bruit GPS et lissage des trajectoires. Map Matching & Rapprochement Voirie : Projeter les points GPS bruts sur le filaire de voirie (snapping) pour reconstituer le trajet réel emprunté. Gérer les cas complexes (tunnels, zones urbaines denses, "canyons urbains"). Analyse des Arrêts & Adresses : Identifier les arrêts logistiques vs les arrêts de circulation (feux, bouchons). Réconcilier les positions d'arrêt avec les adresses distribuées (Geocoding / Reverse Geocoding précis). Détecter les changements de moyens de locomotion (multimodalité). Analyse Comportementale & Temporelle : Comparer les parcours réalisés entre différentes journées (analyse de régularité, détection d'anomalies de parcours). Calculer des indicateurs de performance spatiaux (ETA, temps de trajet réel vs théorique).
Offre d'emploi
Data Analyste (24)
Publiée le
Piano Analytics
PowerBI
1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus propres ou issus des chaînes d'une grande entreprise de médias. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils d'aide à la décision et des outils de pilotage. La Direction Data recherche une prestation en Data Analyse pour accompagner la direction de la croissance des offres (CRM, Acquisition, Social, Partenariat – Chaîne et FAI). Prestations attendues La prestation consistera à participer à : La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications (prise en compte des besoins des équipes internes, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du dashboard, itérations mode projet). Le maintien du bon fonctionnement des dashboards existants sur Power BI. L'accompagnement et le coaching des équipes internes sur l'intégration de la data dans leur processus de décision et de priorisation (Piano Analytics, Nielsen, marqueur interne). La mesure et l'analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l'équipe études. L'accompagnement des équipes internes dans l'identification des indicateurs/KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l'ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul. Le partage de son expertise afin de déployer notre marqueur interne sur d'autres produits. L'identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Marché global Business Analyst / MOA / AMOA
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Logiciel facturation gratuit + experience demande acompte
- Avez-vous un logiciel de facturation ?
- changement statut juridique
- Avis cabinet L-expert-comptable.com
157 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois