Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 219 résultats.
Mission freelance
Développeur CRM Salesforce Marketing Cloud
Publiée le
Data Lake
Salesforce Sales Cloud
1 an
400-550 €
Nantes, Pays de la Loire
Télétravail partiel
Recherche – Développeur CRM Salesforce Marketing Cloud (Nantes | 2 à 3 jours/semaine) Dans le cadre d’une consultation sur le contrat-cadre AST & Digital , nous recherchons un Développeur CRM Salesforce Marketing Cloud (expérimenté ou senior). 📅 Démarrage prévu : 4 décembre 2025 ⏱️ Rythme : mi-temps (2 à 3 jours par semaine) 📍 Présence sur site : lundi, mardi et jeudi 🎯 Missions principales Développer, maintenir et intégrer des solutions Salesforce Marketing Cloud : Emails, Push, Journey Builder, Automations, Datorama. Créer et personnaliser des parcours clients et des contenus dynamiques (HTML, AMPscript, responsive design, gestion de Data Extensions, Interactive Email Form). Implémenter des API et SDK SFMC sur applications mobiles natives, gérer la synchronisation CRM/Datalake et les processus automatisés RGPD . Assurer la gestion opérationnelle , les releases , le monitoring et l’ optimisation des performances (tracking, délivrabilité, réputation IP). Apporter support et conseil aux équipes métiers et digitales, dans un environnement agile et collaboratif.
Offre d'emploi
Architecte Technique Data
Publiée le
Apache Spark
Architecture
Big Data
2 ans
48k-98k €
400-770 €
Villejuif, Île-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Architecte technique Data Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plates-forme DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux reflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modérnisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query etc)
Mission freelance
Tech Lead Data Engineer - IoT / Java & Cloud
Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)
12 mois
720-730 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Tech Lead Data IoT – Java & Cloud" pour un client dans le secteur du retail. Description⚡ Le Contexte Au sein d'une plateforme IoT gérant des millions d'objets connectés (Smart Devices, vélos, équipements sportifs), nous recherchons le Référent Technique Data . Il ne s'agit pas d'un poste de Data Engineer classique qui ne fait que des pipelines, mais d'un rôle de Software Engineer / Tech Lead spécialisé dans le traitement de la donnée. Vous êtes le "Tech Lead Data" unique de la plateforme : vous portez la responsabilité technique et architecturale de tout ce qui touche à la donnée au sein de l'écosystème IoT. 🎯 Votre Mission : Architecturer et Construire le Backend Data Votre rôle est central : vous construisez le moteur qui ingère, traite et structure les événements remontés par les objets connectés. Vous êtes garant de la cohérence de la donnée, du capteur jusqu'au stockage. 1. Développement Backend & Traitement IoT (80-90% du poste) Développement Java : Concevoir et développer les briques Backend chargées du traitement des flux (Temps Réel & Événementiel). Gestion de la complexité IoT : Gérer les problématiques de connectivité instable. Exemple concret : Reconstituer une session de sport ("Ride") complète même en cas de perte de réseau, gérer les règles de début/fin de session automatiquement. Privacy by Design : Intégrer les contraintes RGPD et le respect des consentements utilisateurs directement dans l'architecture de collecte (filtrage à la source, anonymisation). 2. Architecture & Lead Data Référent Technique : Vous êtes le point de contact unique pour toutes les décisions impactant la data sur la plateforme. Conseil & Gouvernance : Vous auditez et conseillez les autres équipes Backend. Si une feature touche à la structure de la donnée, vous intervenez pour valider le modèle. Modélisation : Définir les modèles de données pour garantir leur exploitabilité future. 3. Analytics & Maintenance (10% du poste) Maintenir les flux ETL existants et les jobs d'analytics. Intervenir ponctuellement sur du Spark / Scala pour des besoins de BI ou de Data Science. 🛠 La Stack Technique Un environnement Multi-Cloud et moderne : Cloud Principal : GCP (Google Cloud Platform). IoT : AWS IoT Core (gestion de la flotte et connectivité). Langage Principal : Java (Expertise demandée). Analytics/Data : Databricks , Spark, Scala.
Mission freelance
Data Analyste Confirmé SQL Power BI Desktop, Power BI Report Server, DAX, RLS, Datamarts, Cognos
Publiée le
Microsoft Power BI
SQL
12 mois
390-400 £GB
Mer, Centre-Val de Loire
Télétravail partiel
Data Analyste Confirmé SQL Power BI Desktop, Power BI Report Server, DAX, RLS, Datamarts, Cognos pour une mission sur MER. Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. Contexte : Le service Modélisation des Données recrute un Data Analyst pour soutenir ses projets et la maintenance liés à la restitution et à l’analyse de données. Ce service gère le Système d'Information Décisionnel, qui repose sur un Datawarehouse alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Ce Datawarehouse est la source de données pour divers outils de reporting et de datavisualisation (Power BI, COGNOS) ainsi que pour la mise en œuvre de cas d’usage IA. Missions principales : Le prestataire agira sous la direction du responsable du service Modélisation des Données et ses missions incluront : - Projets de SI Décisionnels : Modélisation de données, conception de rapports, et assistance aux utilisateurs finaux. - Power BI : Point de contact technique pour les utilisateurs finaux et les Publishers de Power BI, réalisation de reportings complexes. - Migration de Dataplatform : Refonte de reporting COGNOS/Power BI vers Superset, refonte de chaînes ETL TALEND vers Dagster, et conception de datamarts. Projet en agilité. Le poste comporte une dimension technique importante ainsi qu’une forte composante relationnelle, nécessitant une analyse des besoins, leur validation, et le suivi en mode projet. Une sensibilité aux problématiques de gouvernance des données est également cruciale. Compétences requises : - Organisationnelles : - Suivi de projet en tant que contributeur MOE. - Collaboration avec des équipes sécurité/réseau/etc. - Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. - Savoir-être : - Capacité d’analyse : Comprendre et formuler un besoin, animer des ateliers, et identifier les impacts pour déterminer la meilleure solution. - Excellente capacité rédactionnelle. - Expérience en agilité (Kanban, Scrum). Connaissances métier : Une connaissance du monde des Titres et une expérience significative dans le secteur bancaire seraient des atouts supplémentaires, mais ne sont pas obligatoires. La mission est sur Mer (proche d'Orleans) - Mission sur le long terme
Mission freelance
développeur Cloud & IA
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
6 mois
Les Ulis, Île-de-France
Télétravail partiel
Profil recherché : Senior disponible en début d’année, avec une charge estimée autour de 3/5 lors des trois premiers mois, sans exigence immédiate de plein temps. Spécialisation : Développeur senior spécialisé en IA Générative (Gen AI), notamment sur la stack GEn AI. Responsabilités Clés Développement Expert & Maintien : Créer des agents intelligents autonomes utilisant l’approche Agentic AI, capables d’utiliser des outils externes ou de collaborer avec d’autres agents via des API, MCP ou autres services. Développer des applications pour la consommation des agents et algorithmes, avec des interfaces spécifiques pour les utilisateurs finaux. Mettre en place des pipelines robustes pour alimenter les LLM/Agents avec Azure, Snowflake et Databricks (RAG, Fine-Tuning). Assurer le support en production, la supervision des modèles/agents et la résolution des problèmes techniques. Compétences clés IA générative (Gen AI) : Bonne maîtrise des modèles génératifs (GPT, diffusion, etc.), capacité à exploiter des LLM via API ou fine-tuning pour la génération de texte, code ou images, tout en comprenant leurs limitations et biais. Architecture et orchestration : Aptitude à architecturer des solutions combinant plusieurs composants d’IA et Cloud, gestion de l’orchestration d’agents, partage d’état via MCP, et enjeux de performance et coût pour des systèmes multi-agents. Architecture de solution & POC : Concevoir des POCs pour les usages en Gen AI et systèmes agentiques, en explorant et validant des architectures. Prendre des responsabilités architecturales en validant les choix techniques (stack d’agents, orchestration, modèles LLM, cloud Azure) pour assurer scalabilité, sécurité et performance. Conseiller sur l’optimisation des services Azure pour l’IA Générative, en termes de coût, performance et résilience.
Offre d'emploi
Développeur Data Integration – Chaîne d’Intégration Comptable (NodeJS/TypeScript, Java, GCP)
Publiée le
Java
Node.js
SQL
62 jours
Hauts-de-France, France
📢 Appel d’Offre – Développeur Data Integration / Chaîne d’Intégration Comptable (H/F) Programme Finance – Finalisation Core Model | Contexte international Bonjour à tous, Nous recherchons un développeur expérimenté pour participer aux évolutions de notre chaîne d’intégration comptable dans le cadre d’un programme Finance international, afin de finaliser notre Core Model Finance . Le consultant interviendra sur deux composants majeurs : L’interpréteur comptable (transformation, validation, enrichissement des données) Un ETL (transport/conversion des fichiers + appels services web) 📅 Informations clés Type de contrat : Assistance technique Démarrage souhaité : 05/01/2026 Fin estimée : 31/03/2026 Volume prévisionnel : 62 jours Présence sur site : 3 jours / semaine Déplacements : Non Astreintes : Non Langue : Anglais professionnel impératif Code profil : 3.2.2 – Concepteur/Développeur – Medium 🎯 Objectif de la mission Contribuer au développement et à la stabilisation des évolutions nécessaires sur la chaîne d’intégration des données comptables, afin de garantir la qualité , la cohérence et la fiabilité des flux dans un contexte international . 🧩 Responsabilités principales Développer et mettre au point des programmes de transformation et d’enrichissement de données en NodeJS typé TypeScript + SQL sur GCP (interpréteur comptable) Développer et mettre au point des programmes équivalents en Java dans l’ ETL Concevoir et réaliser les tests unitaires Corriger les anomalies et contribuer à la stabilisation des composants Participer à la rédaction / mise à jour des spécifications techniques Respecter les normes, procédures et standards de développement (qualité, sécurité, performance) 💡 Compétences techniques attendues (Impératif) NodeJS (TypeScript) – Expert Java – Expert SQL – Expert GCP – Expert Web Services REST – Expertise solide ⭐ Compétences appréciées Expérience sur des chaînes d’intégration de données / projets Finance Pratique des environnements ETL , flux fichiers, traitements batch & contrôles Autonomie, rigueur, sens du résultat Capacité à évoluer dans un contexte international (échanges en anglais) 🧠 Profil recherché Développeur / Concepteur-Développeur confirmé À l’aise sur des sujets data transformation , intégration, APIs REST Capacité d’analyse, qualité de code, esprit d’équipe Orienté delivery (développement + tests + correction) 📄 Livrables attendus Programmes de transformation/enrichissement de données (NodeJS/TS + SQL + Java) Spécifications techniques (flux, mapping, interfaces, règles techniques) Tests unitaires (jeux de tests, résultats, couverture) Suivi des anomalies / corrections (selon processus interne)
Offre d'emploi
Ingénieur·e Vision
Publiée le
3D
Big Data
IA
Meurthe-et-Moselle, France
Télétravail partiel
En collaboration avec nos Ingénieurs (Data Science, IA, Développeur…) et nos Techniciens Vision chez APREX Solutions, vous participez au développement de nos produits, de la description fonctionnelle jusqu’à la mise en service sur site, pour nos clients issus de secteurs d’activités variés. Plus particulièrement, vous : – Accompagnez notre équipe commerciale dans les phases de pré-études et d’analyse des besoins clients, – Identifiez la technologie de vision la plus adaptée à la réalisation et l’intégration du dispositif à partir du cahier des charges et des échantillons clients, – Assurez la conception matérielle et algorithmique du dispositif à l’aide des outils logiciels développés par nos soins et du matériel que vous aurez identifié, – Gérez vos projets dans le respect des délais et des coûts, définis en amont, – Réalisez la proposition technique complète de la solution pour votre client, – Participez à la mise en service de la solution chez le client et à la formation des utilisateurs.
Offre d'emploi
DATA ENGINEERING sur KAFKA
Publiée le
Apache Kafka
API REST
Elasticsearch
3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Pour notre client dans le secteur bancaire, nous recherchons un expert Kafka : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA. Les principales technologies utilisees • Kafka • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Offre d'emploi
Data Analyst
Publiée le
KPI
Microsoft Power BI
Python
1 an
40k-45k €
400-600 €
Paris, France
Télétravail partiel
Descriptif du poste Dans le cadre de la production et de la maintenance des KPI/KRI pour l'entité, la mission comprend : Le maintien de la production actuelle des KPI/KRI, en assurant la mise à jour des formules de calcul selon les évolutions fonctionnelles et réglementaires. L'identification et la définition des nouveaux KPI/KRI à produire sur l'ensemble du périmètre, ainsi que la participation à leur validation en lien avec les équipes métiers. L'automatisation de la collecte, du traitement et de la consolidation des données nécessaires à la production des indicateurs, à l'aide de scripts développés en Python. La revalidation des formules de calcul des KPI IAM existants, leur fiabilisation, puis leur intégration dans le dashboard global de suivi. L'enrichissement et la maintenance des dashboards réalisés sous Power BI, avec une attention particulière portée à la cohérence visuelle, la pertinence des filtres de suivi et la publication automatisée des rapports. L'extension des mesures de contrôle liées à la production des dashboards, incluant la mise en place d'une couche additionnelle de reporting et l'envoi automatique d'alertes par e-mail en cas de détection d'anomalie ou de mauvaise qualité de données.
Mission freelance
Business Analyst - Data Platform
Publiée le
Business Analyst
Control-M
Microsoft SSIS
1 an
400-600 €
Paris, France
Télétravail partiel
Mission : Mission située au sein de la DSI au niveau de l’équipe Data et Reporting d'un acteur financier. La mission consistera à être Business Analyst sur la plateforme Data du SI. Analyse des besoins : Comprendre les besoins des parties prenantes et des utilisateurs finaux afin de définir des exigences claires pour des projets liés aux données. Cadrage de projet : Travailler avec des équipes techniques de la DSI (architectes, data engineers, MOA/MOE des autres applications), autres DSI du groupe, et non techniques (direction financière, conformité, direction des risques, direction commerciale) afin de cadrer un projet (solution, chiffrage, planning, …) Pilotage de projet : définir et suivre les engagements / assurer le reporting et le dialogue avec les interlocuteurs métiers Analyse des demandes du métier : Sur la base d’une expression de besoins ou de spécifications fonctionnelles générales, réalisation de l’analyse, en lien avec les développeurs, puis établissement des chiffrages et du planning de mise en œuvre des évolutions. Spécifications fonctionnelles : A partir des expressions de besoins, rédaction des spécifications fonctionnelles détaillées à destination des équipes de développement. Préparation et réalisation des recettes : Rédaction des cahiers de recettes et validation du bon fonctionnement technico-fonctionnels des applications. Assistance et support : Assurer l’assistance auprès des utilisateurs, analyser les dysfonctionnements et proposer des solutions correctives/palliatives chiffrées.
Offre d'emploi
Data Engineer (14)
Publiée le
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Informations Générales Contexte de la Mission Rattachement Direction Data (Direction du Numérique). Intégration à l'équipe Gold Pilotage (PO + 2 Data Engineers) en charge de la mise à disposition des données pour le pilotage des offres numériques via le produit Data4All. Stack : Python, SQL, dbt, BigQuery, Airflow, Terraform/Terragrunt, services GCP. Activités Attendues Maintenir et faire évoluer Data4All et les dispositifs de l'équipe ; qualité des données et support aux utilisateurs. Concevoir & maintenir des modèles de données et pipelines robustes et scalables ; organiser/structurer le stockage. Mettre en place et maintenir des infrastructures scalables, assurer sécurité/stabilité des environnements, workflows CI/CD. Contribuer à la gouvernance (qualité, fiabilité, intégrité), documentation et veille ; participation aux instances Data Ingénieurs.
Mission freelance
DATA MANAGER / REF GOUVERNANCE DE DE DONNEES
Publiée le
Collibra
Google Cloud Platform (GCP)
Gouvernance
1 an
400-550 €
Nord, France
Nous recherchons un Référent Gouvernance de Données / Data Steward pour une mission freelance au sein d’une équipe transverse Data. Ce rôle stratégique consiste à accompagner les équipes produits digitaux dans l’exposition et la qualité de leurs données, en garantissant le respect des règles de gouvernance définies au niveau groupe. Le consultant sera le point de référence sur la gouvernance des données , travaillera en autonomie et interagira régulièrement avec les autres référents data des différentes plateformes pour harmoniser les pratiques et contribuer à l’amélioration continue. Missions principales : Accompagner les équipes produits dans l’exposition de leurs données selon les standards de gouvernance. Définir et mettre en œuvre les règles de qualité des données en collaboration avec les équipes concernées. Garantir la certification des données publiées. Participer aux comités de gouvernance avec les autres référents data. Être force de proposition sur l’évolution des pratiques et des modèles de données. Contribuer à la modélisation des données et à la valorisation des données de référence. Livrables attendus : Données exposées selon les règles de gouvernance définies. Règles de qualité déployées et respectées. Évaluation du respect des standards de gouvernance.
Mission freelance
Data Scientist (h/f)
Publiée le
1 mois
400-450 €
95000, Cergy, Île-de-France
Télétravail partiel
Introduction & Résumé: Le rôle de Data Scientist est essentiel pour analyser la performance des outils de prévision au sein du département de Recherche Opérationnelle, contribuant ainsi à l'optimisation des revenus de l'entreprise. Le candidat idéal possède une connaissance approfondie de la modélisation mathématique et statistique, ainsi que des compétences en Machine Learning et en Python. Principales Responsabilités: Le Data Scientist Junior aura pour mission de: Analyser la performance d’un moteur de prédiction lié à l’overbooking. Contribuer à d'autres moteurs de prédiction et d'optimisation dans le projet FIT (Freight Intelligence Techniques). Exigences Clés: Connaissance approfondie de la modélisation mathématique et statistique. Compétences en Machine Learning. Maîtrise des bonnes pratiques Python. Expérience avec les outils : Spark, Python, Git, Bash, SQL. Compréhension des environnements Unix/Linux. Bon niveau d’Anglais écrit et oral. Expérience avec GCP (Google Cloud Platform). Doctorat en Mathématiques ou en Physique. (est un plus). Autres détails: Ce poste est basé à Paris et Amsterdam, au sein du département de Recherche Opérationnelle.
Mission freelance
ALSL - Tech Manager Data
Publiée le
Apache Airflow
AWS Cloud
Big Data
6 mois
550-620 €
Paris, France
Télétravail partiel
Nous cherchons un Tech Manager Data qui saura allier leadership technique et pilotage stratégique autour d’un sujet clé : l’exploitation des données issues des Property Management Systems. Ces données sont le cœur du fonctionnement : réservations, facturation, occupation, services. Ton rôle ? Les transformer en un actif stratégique fiable, pour booster la performance et la distribution des services. En tant que Tech Manager Data , tu seras : Le leader technique et managérial de deux équipes (internes & partenaires externes). Le chef d’orchestre des projets data PMS : collecte, intégration, fiabilisation et monitoring. Le binôme stratégique du Product Manager Data pour construire la roadmap et prioriser la valeur. Le garant de la fiabilité et de la performance des produits data : monitoring, alerting, optimisation FinOps/DevOps. L’ interface clé entre les équipes métiers, IT et les éditeurs PMS.
Offre d'emploi
Data Architecte - Lyon
Publiée le
AWS Cloud
Azure
Databricks
60k-70k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
CHEF DE PROJET DATA opérationnel
Publiée le
Dash
18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Dans le cadre de plusieurs projets Data sont en cours : conformité de la collecte et des usages des données, identification des nouveaux cas d’usage d’activation des données utilisateurs, constitution du socle de données utilisateurs, développement de la connaissance des utilisateurs, gouvernance des données… MISSIONS : Nous recherchons un chef pour la gestion opérationnelle des cas d’usages d’activation publicitaires et d’acquisition issus de la CDP : Mediarithmics. La Customer Data Platform Mediarithmics a été déployée en 2020. Elle est implémentée sur la plupart des offres. Les données issues de la CDP servent actuellement de cas d’usages à destination des équipes métiers Acquisition, CRM et de la Publicité. Les tâches confiées dans le cadre de la mission couvrent la mise en place de la collecte, le suivi du déploiement, l’exploitation et la maintenance de notre CDP mais aussi la gestion de projets data transverses (suivi de la mise en place de solutions face à la fin des cookies tiers, amélioration de l’usage de la donnée en fonction des cas d’usage publicitaires et d’acquisition en place, création de nouveaux cas d’usages transverses…). 1. Répondre aux différents besoins des équipes métiers Acquisition & Publicité - Challenger les besoins et identifier les projets/chantiers à mettre en place : a) création de nouveaux segments au sein de l’outil b) mise en place de nouveaux flux d’envoi de donnée c) mise en place de nouvelles collectes de données d)… - En tant que point d’entrée pour ces équipes, animer les points hebdo sur leurs besoins et l’évolution des projets en cours - Proposer et défendre la mise en place de nouveaux cas d’usages liées aux nouvelles features de l’outil CDP Mediarithmics, aux nouvelles collectes de données, … - Concevoir et animer des workshops de cas d’usage avec les équipes des offres & des équipes métiers pour développer l’usage de la CDP (cas d’usage par métier & transverse) 2. Participer au run et à l’amélioration continue la CDP Mediarithmics (collecte, flux, dash, …) pour répondre aux besoins métiers Acquisition & Publicité - Création de segments dans la CDP et suivi de l’envoi de données dans les applicatifs - Pilotage de la donnée Mediarithmics en créant des dashboards de Data Quality, d’insights et de mesure, - Définir les plans de marquage de la CDP sur chacune des offres/ environnements (implémentation ou corrections), accompagner les équipes dans l’implémentation et veiller à ce que la collecte correspondant aux souhaits (rédiger et réaliser les recettes, …) - Concevoir et cadrer la mise en place de nouveaux projets / implémentation de nouvelles features ou de nouvelles données / mise en place de correctif pour donner suite à des incidents : pré-requis, risques, parties prenantes, facteurs clés de succès… - Rédiger les documentations nécessaires au partage de la connaissance (CDP, cas d’usage, bonnes pratiques, … ) à destination des équipes. - Assurer la relation, la coordination et les évolutions des outils avec l’éditeur Mediarithmics 3. Gérer et suivre la mise en place des projets / cas d’usage pour les équipes Acquisition & Publicité - Organiser et animer les ateliers de conception et de cadrage avec les équipes des offres, les équipes techniques et les experts métiers - Organiser et animer les comités de pilotage des projets confiés - Coordonner et communiquer les actions entre les parties prenantes : Data, Technique, Offres numériques, Croissance des offres, Stratégie éditoriale, Equipe RGPD, … - Coordonner et communiquer avec les différents métiers en cohérence avec l’objectif projet et la roadmap - Partager les alertes projet aux différentes parties prenantes, - Identifier et partager les impacts entre les roadmaps des différents métiers, - Garantir l'avancée des projets et la qualité des livrables, - Assurer la création et l’évolution de la documentation projet / cas d’usage - Suivre, mesurer & communiquer sur les performances des projets, de l’outil CDP ou des cas d’usages - Prendre en charge, dans une démarche d’amélioration continue, les actions nécessaires pour améliorer les performances tout au long du cycle de vie des projets
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
1219 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois