L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 117 résultats.
Offre d'emploi
Incident Manager – Contexte ITIL – Environnement Applicatif Interne
Publiée le
IA
ITIL
Safe
1 an
Île-de-France, France
🎯 Contexte Dans le cadre du maintien opérationnel d’un périmètre applicatif interne utilisé par plusieurs milliers de collaborateurs, nous recherchons un Service Delivery Manager / Incident & Change Manager capable de piloter les processus ITIL, d’assurer la coordination avec les équipes techniques, et de garantir la qualité du service rendu. La mission s’inscrit dans un environnement complexe, fortement ITILisé, avec des enjeux forts de suivi des incidents majeurs , gestion des changements , résolution des problèmes récurrents , et amélioration continue . 📦 Livrables attendus Mise à jour complète des outils ITSM (ServiceNow, outils internes de gestion de crise) Documentation opérationnelle à jour Traçabilité et historiques des modifications Reporting régulier : KPI, SLA, backlog, plans d’actions Participations aux cérémonies Agile & comptes-rendus associés 🛠️ Missions principalesGestion des incidents & crises Piloter le processus de gestion des incidents, incidents majeurs et crises Assurer une résolution rapide et efficace Coordonner les escalades techniques & garantir le respect des SLA Gestion des changements Analyser et valider les demandes de changement Organiser et animer les CAB Superviser les mises en production et la qualité des releases Gestion des problèmes Identifier, analyser et suivre les problèmes majeurs / récurrents Piloter les plans d'actions pour éliminer les causes racines Contribuer à la réduction du backlog Reporting & pilotage Produire les KPI, SLA, états de backlog, suivis des incidents Assurer un reporting clair, structuré, régulier Amélioration continue Collaborer avec l’équipe Process & Tools Contribuer à la standardisation et à l’évolution des processus ITSM Participer aux réunions Agile pour fluidifier la coopération transverse 🧰 Compétences requisesTechniques & ITIL Très bonne connaissance des processus ITIL (certification appréciée) Maîtrise des outils ITSM : ServiceNow, outils internes équivalents Compétences en diagnostic d’incidents complexes Expérience en gestion opérationnelle, exploitation, coordination IT Connaissances IA (requis dans le cahier des charges) Compréhension des concepts : Machine Learning, Générative AI, RAG, LLM, agents, prompts, hallucinations Capacité à formuler des requêtes efficaces pour outils IA Connaissance des enjeux RGPD et éthiques liés à l’IA Langues Français courant (impératif) Anglais courant en contexte professionnel (impératif) Certification Safe obligatoire
Offre d'emploi
Ingénieur Cloud VMware Senior – Pré-embauche (vSphere / VCF / NSX-T / AVI)
Publiée le
Cloud privé
VMware
1 an
Ivry-sur-Seine, Île-de-France
🎯 Contexte Dans le cadre d’un programme stratégique de construction d’un cloud privé souverain , nous recherchons un Ingénieur Cloud VMware Senior pour concevoir, déployer et sécuriser une plateforme VMware de nouvelle génération. Le projet s’inscrit dans un environnement exigeant, avec des enjeux forts de sécurité , haute disponibilité , résilience , et conformité . 📦 Livrables attendus Conception & développement des plateformes VMware Documentation d’exploitation (Runbook, Architecture, Procédures) Hardening & fiches de conformité sécurité 🛠️ Missions principales Conception & Build Concevoir et optimiser des plateformes VMware (vSphere, NSX-T, AVI, VCF) Définir des services Cloud adaptés aux besoins internes Participer au développement du Cloud privé souverain Administration & Exploitation avancée Administrer les infrastructures VMware : NSX-T, AVI, VCF, BGP Garantir la disponibilité, la performance et la résilience réseau (Cisco/Juniper) Assurer le troubleshooting avancé sur les incidents critiques Sécurité & Conformité Mettre en place des contrôles de sécurité avancés Réaliser audits, hardening et mises en conformité Support & Collaboration Accompagner les équipes internes (Dev, Cloud, Infra) Former et apporter un soutien technique Produire une documentation complète et fiable 🧰 Compétences techniques impératives VCF – Expert NSX-T – Expert AVI (NSX Advanced Load Balancer) – Expert vSphere / VMware Cloud Réseaux & BGP Très bonne connaissance des architectures Datacenter Français courant (impératif) 🎓 Profil attendu Bac+5 en informatique ou équivalent Minimum 6 ans d’expérience sur VMware Cloud Forte expertise architecture VMware / virtualisation / SDN Excellente capacité d’analyse, troubleshooting et sécurisation Goût pour l’innovation, la rigueur et les environnements critiques
Mission freelance
Data Manager Client
Publiée le
Data analysis
Data management
6 mois
500-700 €
Paris, France
Télétravail partiel
DATA MANAGER CLIENT Au sein de la direction Data/IA et dans le cadre d'un programme Move to Cloud , ntre client cherche à être accompagné par un un consultant Data analyste/Data manager. Mission principale: Accompagner et apporter une expertise aux responsables des chantiers du programme. Intervention sur des sujets de cartographie des données et cas d’usages sur les différentes plateformes BGPN (infocentres datalake), et de modélisation data Product dans le cadre de la mise en place d’une architecture data mesh. L’environnement technique / Legacy : Alimentation en batch : dév, pas d’ETL Alimentation en temps réel : Kafka Stockage et traitement : Datalake (Cloudera) Data Engineering + Data Science : Dataiku Data Visualisation : Tableau, Power BI Data Catalog : Collibra Environnement cible: DataBricks/Azure Savoir-faire : • Maîtrise de l’outil Dataiku • Analyse de données • Connaissance de Collibra (pour enrichissement du data catalogue en fonction des scénarios des analyses) • Développement de dashboard de restitution/visualisation (connaitre les outils Tableau et PowerBi est un plus)
Mission freelance
Expert Data Hadoop/Hive/Hbase, Databricks 8 ans d’expériences +/s
Publiée le
Apache Hive
Databricks
Hadoop
12 mois
400-520 €
Guyancourt, Île-de-France
Télétravail partiel
Expert Data Hadoop/Hive/Hbase, Databricks 8 ans d’expériences + client logistique basé à Guyancourt (ou Montpellier, Nantes) un Expert Data Hadoop/Hive/Hbase, Databricks 8 ans d’expériences + Localisation Guyancourt / Télétravail 2 à 3 jours par semaine Durée de la mission : 2 ans Mission : Création d’une équipe transverse pour : Monitorer la qualité des données : intégration fraicheur des données sur les plateformes data identifier les sources de données actuelles (cartographie SI des données) créer un backlog de contrôles à mettre en place mise en place d’indicateurs o validation de la qualité de la Data de bout en bout o pilotage des correctifs à mettre en place en amont · Dimensionner et organiser la cellule • La cellule sera en relation avec les équipes de RUN les métiers et les autres Lignes Produit Compétences requises : Hadoop/Hive/Hbase Databricks
Offre d'emploi
Chef de Projet Fonctionnel Confirmé – Archivage Numérique & Facture Électronique (H/F)
Publiée le
Pilotage
1 an
Saint-Grégoire, Bretagne
🎯 Contexte Au sein d’une Business Unit spécialisée en Archivage Numérique et Facture Électronique , rattaché(e) à la Direction de Projets, vous serez chargé(e) de piloter des projets de dématérialisation client/fournisseur, depuis la conception jusqu’au déploiement. Le contexte inclut des traitements industriels à forte volumétrie , nécessitant rigueur, coordination et très bonne maîtrise du pilotage. 📦 Livrables attendus Gestion complète de projets informatiques Accompagnement de l’équipe commerciale en avant-vente Dossiers techniques & réponses aux appels d’offres 🛠️ Missions principales Gestion de projets Planifier, organiser et piloter les projets en respectant les processus qualité Coordonner les acteurs internes et externes Suivre les risques, reportings et alertes projet Assurer la relation client & garantir la satisfaction Accompagner les interlocuteurs clients tout au long du projet Avant-vente Soutenir l’équipe commerciale dans les phases d’avant-vente Analyser les besoins techniques des clients Participer aux propositions : dossiers techniques, AO, études de faisabilité Valoriser l’offre auprès des prospects et clients 🧰 Compétences techniques requises 🎯 Impératifs (Confirmé) Analyse fonctionnelle Pilotage de projets 🎯 Autres compétences recherchées Gestion de projet / méthodologies Bonne culture IT Compréhension des architectures SI Maîtrise des outils bureautiques Connaissance de l’EDI (un plus)
Mission freelance
data analyst GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 mois
100-400 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour, je recherche pour l'un de mes clients un(e) DATA ANALYST GCP . Skills : GCP - BigQuery - anglais Mission : -collecter, nettoyer, structurer et analyser des données provenant de différentes sources GCP -construire des jeux de données fiables et documentés dans BigQuery -concevoir et maintenir des tableaux de bord -optimisation BigQuery -participer à la mise en place de bonnes pratiques de gouvernance de la donnée -contribuer au contrôle qualité N'hésitez pas à revenir vers moi pour des informations complémentaires.
Offre d'emploi
Data Scientist LCB-FT
Publiée le
Data science
3 ans
40k-80k €
400-650 €
Île-de-France, France
Télétravail partiel
Contexte : La mission interviendra en appui d’une équipe projet pluridisciplinaire (métier conformité, gestion de projets, informatique, data science) en charge de mener à bien le développement interne d’une nouvelle solution informatique performante et innovante, intégrant notamment des fonctionnalités de machine Learning et d’intelligence artificielle en ligne avec les attentes du régulateur et les standards de place les plus performants. Prestations attendues : - Elaboration de nouveaux modèles de données adaptés à la Conformité, et notamment la révision de l’approche en matière de scoring, de segmentation de la clientèle, et des seuils de déclenchement des alertes sur opérations atypiques. - Réduction des alertes non pertinentes et l’optimisation des analyses et investigations - Sélection et la validation de variables pertinentes (features engineering) pour améliorer la performance des modèles de détection - Utilisation combinée de modèles de machine learning supervisés et non supervisés pour optimiser la détection des comportements suspects et réduire les faux positifs - Choix techniques et stratégiques adaptés aux enjeux et au contexte opérationnel du groupe BRED (typologie clients, offre produits et services, entités multiples…) - Accompagnement des différentes étapes des projets informatiques de la Conformité (études & cadrage, recette, suivi comités) dans le respect des échéances imposées - Contribution à la rédaction des livrables projets (expression de besoin métier, cahiers des charges, procédures) Expérience exigée dans la Lutte Contre le Blanchiment d'argent et le Financement du Terrorisme (LCB-FT)
Mission freelance
Data Scientist Senior
Publiée le
Google Cloud Platform (GCP)
Python
SQL
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Une grande organisation publique du secteur numérique renforce sa Direction Data, rattachée à la Direction du Numérique. Cette direction a pour objectif de faire de la donnée un levier majeur de croissance et d’optimisation des usages numériques. Le pôle Data Intelligence, composé de 4 Data Scientists et 2 Data Analysts, recherche un Data Scientist senior afin de soutenir l’exploitation des données utilisateurs, la mise en place de modèles avancés et la structuration du socle analytique. Une expérience minimale de 8 ans en data science est requise. Prestations attendues Le consultant interviendra au sein de l’équipe Data Science pour : Analyse et structuration de données • Auditer les nouvelles données disponibles dans le datalake pour enrichir le socle analytique. • Explorer, analyser et comprendre les profils et comportements utilisateurs. • Réaliser des analyses avancées : profils de vidéonautes, comportements par canal, consommation de contenus, impact de la pression publicitaire. Développement de modèles de Data Science • Comprendre les besoins métier, proposer une approche adaptée et vulgariser les résultats. • Développer et industrialiser des modèles tels que : Prévision des audiences. Enrichissement du catalogue via IA générative. Analyse sémantique des commentaires utilisateurs. Prédiction d’inactivité, d’appétence, anti-churn. Segmentation utilisateurs. Contribution au produit Data • Participer à l'amélioration continue des outils et pipelines. • Travailler avec les équipes data, produit et métier dans un contexte agile. Expertises requises Techniques • Expériences concrètes en modèles IA : prévision, recommandation, scoring, analyse sémantique, détection d’anomalies. • Expérience significative sur des sujets d’IA générative (IAG). • Maîtrise impérative de Python et SQL . • Bonne connaissance d’un cloud, idéalement Google Cloud Platform . • Connaissance des données issues d’écosystèmes digitaux (Piano Analytics, Google Analytics…). • Connaissance d’un outil de dataviz. • Un plus : architectures API, Git/GitHub, méthodes agiles. Fonctionnelles • Capacité à comprendre un besoin métier, synthétiser et restituer clairement. • Capacité à gérer plusieurs projets simultanément. • Rigueur, autonomie, esprit d’équipe.
Offre d'emploi
Data Engineer / Data Analyst Senior – Environnement Cloud & Big Data
Publiée le
Cloud
Data analysis
Microsoft Power BI
3 ans
75017, Paris, Île-de-France
Nous recherchons un expert data capable de concevoir, structurer et optimiser des solutions data modernes pour accompagner la croissance et les enjeux business d’une organisation en pleine transformation numérique. Votre rôle sera central : transformer la donnée en levier stratégique, garantir sa qualité et développer les pipelines, modèles et analyses qui permettront aux équipes métiers de prendre de meilleures décisions. 🎯 Livrables & responsabilités Concevoir et mettre en œuvre des solutions data complètes pour répondre aux besoins business. Analyser, interpréter et valoriser des données complexes pour produire des insights actionnables. Travailler avec des équipes pluridisciplinaires (IT, produit, métier, sécurité…) afin d’identifier et résoudre les problématiques data. Développer et maintenir des pipelines de données , des modèles analytiques et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données sur tout leur cycle de vie. Fournir une expertise technique et des recommandations pour soutenir la prise de décision data-driven. 🧩 Expertise requise 5 ans d’expérience minimum en data engineering, data analytics ou poste similaire. Expérience solide dans la livraison de solutions data dans des environnements dynamiques. Maîtrise des architectures et technologies data modernes : plateformes cloud (AWS, Azure, GCP), frameworks Big Data, data warehousing. Excellentes compétences en Python, SQL, Spark . Maîtrise de la modélisation de données , des processus ETL et des pipelines de transformation. Expertise sur les outils de visualisation et de reporting : Power BI, Tableau . Connaissance des bonnes pratiques de gouvernance, sécurité et conformité des données.
Offre d'emploi
Data Analyst H/F
Publiée le
Data analysis
Database
PL/SQL
35k-40k €
Saint-Brieuc, Bretagne
Lieu : Saint-Brieuc (22) Salaire : 35/40K€ Rythme : Présentiel Nous recrutons pour un intégrateur de solutions industrielles et tertiaires en pleine croissance situé à proximité de Saint-Brieuc dans les Côtes d’Armor. Il s’identifie comme un interlocuteur global pour les entreprises ayant besoin de solutions logicielles innovantes en automatisation, informatique, électricité, GTB, maintenance… Il souhaite couvrir l’ensemble du cycle, de l’étude/conception à la mise en œuvre, la formation, la maintenance et le suivi de leurs clients, afin d’apporter une solution clés-en-main. Dans le cadre de leur développement, notre client souhaite recruté un Data Analyst confirmé. Les missions sont les suivantes : - Interpréter les besoins métier et les transformer en problématiques analytiques exploitables. - Veiller à la qualité, la cohérence et la robustesse des données utilisées dans les modèles et analyses. - Préparer, explorer et modéliser des jeux de données complexes afin d’en extraire des résultats actionnables. - Développer et maintenir des indicateurs, rapports avancés et outils analytiques pour soutenir les décisions stratégiques. - Documenter les méthodes, modèles et workflows, et contribuer à la diffusion des bonnes pratiques data au sein de l’organisation. - Accompagner et former les utilisateurs aux analyses, modèles et outils développés pour garantir leur bonne appropriation. - Effectuer une veille continue sur les technologies, méthodes statistiques et avancées en machine learning, puis partager les évolutions pertinentes avec l’équipe.
Offre d'emploi
Ingénieur Data Analyst / BI
Publiée le
Apache Kafka
BI
Database
12 mois
40k-52k €
400-500 €
75017, Paris, Île-de-France
Télétravail partiel
Au sein de l’équipe transverse, positionnée entre production technique et les équipes métier (analyse des usages et de l'activité des clients), nous recherchons un profil ingénieur Data Analyst BI, pour travailler sur 4 familles de données : utilisateur (anonymisée), produit, technique, matériel. L'activité consiste : - avec les équipes métiers : comprendre leur KPI pour construire les rapports qui permettront d'améliorer les produits et services, et mieux comprendre les usages (analyse comportementale) A terme, il faut aussi connaitre l'analyse de SEO, et google analystics - avec les équipes techniques pour définir des rapports spécialisés pour de l'optimisation ou du troubleshooting
Offre d'emploi
Data Analyst H/F
Publiée le
Business Intelligence
Microsoft Power BI
Microstrategy
12 mois
45k-48k €
360-420 €
Montpellier, Occitanie
Télétravail partiel
HN Services recrute un·e Data Analyst pour intervenir sur des projets BI et Digital Data pour l’un de nos clients situé à Montpellier . Contexte et mission : Vous intégrerez un environnement agile (Scrum) au sein de l'équipe Data et collaborerez étroitement avec les équipes métiers et Business Analysts. Votre rôle sera de : Collecter, exploiter et restituer les données sous forme d’indicateurs et tableaux de bord. Conduire des analyses Data liées aux problématiques métiers. Présenter les résultats aux équipes et véhiculer les bonnes pratiques de gouvernance Data (Data Management, Data Privacy). Participer à l’évolution des pratiques dans une logique d’amélioration continue. Intervenir sur des activités BI (fabrication de dashboards via Microstrategy, calcul d’indicateurs SQL sur Teradata). Selon l’évolution de la mission : mise en œuvre du tracking des parcours utilisateurs et analyses marketing (Tag Commander, Piano Analytics, Cosmo Survey). Environnement technique : Outils de Data Visualisation : Microstrategy (expert), Power BI, Tableau. Langage : SQL (expert). Solutions analytiques : Tag Commander, Piano Analytics. Connaissance fonctionnelle de l’analyse data dans le domaine bancaire.
Mission freelance
Data Analyst / Expert GPS
Publiée le
Apache Spark
Azure Data Factory
Data analysis
6 mois
520-590 €
Issy-les-Moulineaux, Île-de-France
Télétravail 100%
Contexte Nous recherchons un(e) Analyste Data Senior disposant d’une expérience avérée dans le traitement, la qualité et l’analyse de données GPS, afin de contribuer à des travaux d’analyse de parcours multi-journées et multi-modes de déplacement. Le/la candidat(e) interviendra dans un environnement dynamique et innovant, au sein d’équipes travaillant sur des problématiques de géolocalisation à fort volume. Missions1. Analyse et traitement de données GPS Rapprochement des points GPS avec les référentiels voirie. Détection, identification et correction des points aberrants. Consolidation des trajectoires issues de différents jours d’observation. Détection et analyse des arrêts, incluant les changements de mode de transport. 2. Qualité et enrichissement des données Vérification de la cohérence des trajectoires. Rapprochement des données GPS avec des bases d’adresses distribuées. Mise en place de règles de nettoyage et de filtrage pour améliorer la robustesse des analyses. 3. Analyse avancée des parcours Comparaison des parcours entre plusieurs journées et identification des écarts. Construction de métriques (temps d’arrêt, distance, vitesse, segments utilisés). Production d’analyses détaillées et de visualisations (cartes, dashboards, rapports). 4. Outils & environnement technique Manipulation de gros volumes de données (Spark, Databricks idéalement). Utilisation de Python, SQL, ou tout langage adapté à l’analyse géospatiale. Interaction avec des outils SIG ou bibliothèques géospatiales (QGIS, GeoPandas, etc.).
Offre premium
Mission freelance
Tech Lead Data – Migration vers Microsoft Fabric
Publiée le
Apache Spark
Microsoft Fabric
PySpark
3 mois
Paris, France
Télétravail partiel
Contexte Dans le cadre de la modernisation de sa plateforme data, notre client remplace un ETL historique par un socle basé sur Microsoft Fabric et Spark. Les flux concernés alimentent un Data Hub finance/risque (contrats, positions, instruments de couverture, flux futurs, contreparties, notations, données de marché). Pour piloter cette transformation, nous recherchons un Tech Lead Data, référent technique auprès des équipes data, architecture et métiers. Descriptif de la mission Évaluer l’existant (flux batch, modèles pivots, dépendances applicatives) avec l’équipe data Concevoir le framework d’ingestion et de transformation (Spark / PySpark / Python / Notebooks) Définir les standards de développement et conventions de nommage Mettre en place la chaîne CI/CD (Azure DevOps, GitHub Actions ou équivalent) Mettre en œuvre les mécanismes de monitoring, alerting et logging des traitements Accompagner les équipes d’intégration et métiers sur les flux critiques Encadrer techniquement et mentorer une équipe d’environ 3 data engineers Optimiser les performances et garantir la qualité des livrables Contribuer à la documentation et au transfert de connaissances Profil recherché Maîtrise de Spark / PySpark et des optimisations de performance Très bonne connaissance de Microsoft Fabric (Lakehouse, Notebooks, Data Pipelines, OneLake) ou Databricks Excellente pratique de Python pour les traitements de données et frameworks internes Très bon niveau SQL, bonne culture ETL/ELT, Data Hub et ingestion temps réel Pratique de la CI/CD (Azure DevOps, GitHub Actions ou similaire) Connaissance appréciée des Webservices / APIs REST Bonne compréhension des produits financiers (prêt, emprunt, titres, swaps, FX) appréciée Aisance relationnelle avec les équipes Finance et Risques, posture de “référent bienveillant” Expérience en lead technique / pilotage de projets data, autonomie, capacité d’auto-formation Français courant, anglais professionnel
Offre d'emploi
Ingénieur DevOps Confirmé Accompagnement Évolution Produit- Sophia Antipolis (H/F)
Publiée le
CI/CD
Kubernetes
1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte Dans le cadre de l’évolution continue d’un produit stratégique, nous recherchons un Ingénieur DevOps Confirmé pour accompagner la construction, l’automatisation et l’optimisation des environnements techniques. La mission est orientée Kubernetes , CI/CD , Infrastructure as Code et observabilité . 📦 Livrables attendus Construction et maintien des environnements Automatisation complète des chaînes de delivery Documentation technique associée 🛠️ Missions principales Concevoir, déployer et administrer des clusters Kubernetes Intégrer et maintenir les outils de l’écosystème Kubernetes : Istio, Helm, ArgoCD, Prometheus, Grafana… Mettre en place et améliorer les pipelines CI/CD (GitLab CI, Jenkins, ArgoCD…) Surveiller les performances, la sécurité et la disponibilité des infrastructures Automatiser les tâches d’exploitation (Bash, Python, Terraform, Ansible…) Collaborer avec les équipes de développement pour optimiser les déploiements Assurer une veille technique et l’amélioration continue des pratiques DevOps 🧰 Compétences techniques requises (impératives) Kubernetes – Confirmé Jenkins – Confirmé Anglais professionnel – Impératif Compétences complémentaires recherchées Helm, Istio, ArgoCD, FluxCD Monitoring & observabilité : Prometheus, Grafana, Alertmanager, Loki CI/CD : GitLab CI, Jenkins, Argo Workflows IaC : Terraform, Ansible
Mission freelance
Chef de projet Data
Publiée le
BigQuery
Google Cloud Platform (GCP)
Piano Analytics
12 mois
Paris, France
Télétravail partiel
Contexte Une grande direction numérique souhaite renforcer son équipe Data dans le cadre de projets transverses impliquant de multiples directions internes. L’objectif de la direction Data est de faire de la donnée un levier de croissance stratégique via trois axes majeurs : Maximiser la collecte dans le respect des réglementations. Développer la connaissance et l’expérience utilisateur. Fournir outils de pilotage et d’aide à la décision aux équipes internes. Dans ce cadre, la mission consiste à assurer la coordination Data transversale au sein de plusieurs pôles et avec l'ensemble des directions métiers consommatrices de données. Prestations attendues Coordination intra-Data Coordonner les projets transverses entre les pôles Data (Technique, Intelligence, Management, Gouvernance). Identifier les actions attendues par chaque équipe. Assurer le suivi d’avancement et remonter les alertes. Mettre en place et structurer la comitologie, la documentation et les rituels projet. Assurer la remontée d’informations au management. Coordination inter-Data avec les métiers Agir comme point d’entrée principal pour les directions métiers consommatrices de données (Produit, Editorial, Partenariats, Marketing, Publicité…). Qualifier et formaliser les besoins (collecte, tracking, dashboards, analyses, personnalisation…). Représenter la Data dans les instances de coordination des projets transverses. Organiser les ateliers de travail, réunions de suivi, réunions de restitution. Garantir la cohérence entre les équipes Data et les métiers sur l’ensemble des sujets. Assurer la communication sur les livrables Data afin de promouvoir les réalisations. Expertises requises Expérience minimale de 8 ans en gestion de projets Data. Compétences confirmées sur GCP, SQL et BigQuery. Expérience sur les principaux métiers Data : collecte, tracking, dashboarding, analyse, personnalisation, data science. Pratique avérée des données digitales, notamment via Piano Analytics. Capacité à piloter des projets transverses et à gérer plusieurs chantiers simultanément. Capacité à synthétiser des sujets complexes et à présenter des résultats à des interlocuteurs ayant des niveaux de maturité variés.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2117 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois