L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 180 résultats.
Mission freelance
Data Engineer - Secteur Assurance et Prévoyance (H/F)
EASY PARTNER
Publiée le
Apache NiFi
Bash
Gitlab
230 jours
420-450 €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste Dans le cadre d'un projet de refonte de son SI, notre Groupe renforce son dispositif Data au sein de la Direction des Systèmes d’Information. L’objectif est de concevoir, développer et maintenir des flux de données fiables et industrialisés au service des équipes métiers Épargne et Services Financiers. Le poste est rattaché au DAS Épargne & Services Financiers et s’inscrit dans un environnement orienté data, qualité et automatisation. Missions Missions principales En tant que Data Engineer, vous interviendrez sur la conception, le développement et l’industrialisation des flux de données, dans un contexte finance / assurance à forts enjeux de qualité, de traçabilité et de performance. Concevoir et implémenter le socle data du Master Data Management (MDM) Intégrer et transformer les données issues de différentes sources Sécuriser et industrialiser les flux dans le respect des standards de qualité et de traçabilité attendus Mettre en œuvre des traitements de données (collecte, transformation, stockage) Garantir la qualité, la fiabilité et la performance des flux Travailler en lien étroit avec les équipes métiers et IT Contribuer aux bonnes pratiques de développement, d’automatisation et de CI/CD Stack technique Compétences requises (niveau confirmé) Data & traitement : Apache NiFi, requêtage et traitement de données (SQL / NoSQL) Connaissance des formats et protocoles : JSON, XML, CSV, REST API Base de données & stockage : PostgreSQL, Stockage objet (S3) DevOps & industrialisation : GitLab, GitLab CI, Pratiques CI/CD Compétences appréciées Langages & scripting : Python, Bash
Mission freelance
Responsable d’Application (RUN & DATA GCP)
Codezys
Publiée le
Git
Reporting
Shell
6 mois
Lille, Hauts-de-France
Localisation : Lille Contexte : International 1) Description de la mission Située dans un contexte international, cette mission concerne la gestion de plusieurs produits digitaux récemment déployés, avec des enjeux clés tels que : la fiabilité la continuité de service la qualité des données la performance opérationnelle Le poste de Responsable d’Application combine une responsabilité majeure dans le domaine du RUN applicatif (support, gestion des incidents, maintien en conditions opérationnelles, performance) et une contribution technique liée aux composants DATA sur GCP. Il s’inscrit dans une démarche d’amélioration continue et de développement progressif des compétences sur la stack technologique. Le profil recherché doit être à la fois technico-fonctionnel, avec une orientation vers le pilotage du RUN et du support applicatif, plutôt que vers un rôle exclusivement de développement. 2) Objectifs & responsabilités principales Pilotage du RUN applicatif Assurer la gestion des incidents et des problèmes Garantir le maintien en conditions opérationnelles (MCO) Suivre la performance à l’aide de KPI et produire un reporting régulier Maintenir la stabilité et la continuité du service pour le périmètre concerné Pilotage opérationnel & coordination transverse Animer les instances de projet et de run : COMOP / COPIL Coordonner les différentes parties prenantes : équipes IT, métiers, TMA, éditeurs, pays Gérer le pilotage opérationnel global et assurer le suivi des actions Mise en production & évolutions Accompagner les mises en production (MEV) Suivre l’avancement des projets et évolutions du périmètre Garantir la maîtrise à la fois fonctionnelle et technique des outils Assurer la maintenance évolutive Contribution DATA (GCP) Analyser et comprendre les flux de données et leurs usages Intervenir techniquement sur des aspects tels que SQL ou troubleshooting data Développer ou faire évoluer certains composants sous GCP si nécessaire Participer activement à l’amélioration continue et à la montée en compétences sur la stack DATA 3) Livrables attendus Suivi du RUN avec : – Tableaux de bord KPI – Reporting régulier (incidents, performance, disponibilité) Comptes rendus et supports d’instances : – COMOP / COPIL – Plan d’actions pour le RUN et l’amélioration continue Suivi des mises en production (MEV) : – Préparation, coordination, validation et accompagnement Documentation opérationnelle et technique du périmètre Analyses des flux DATA et résolution d’anomalies
Offre d'emploi
CRM Lead (H/F)
BLOOMAYS
Publiée le
BigQuery
CRM
HubSpot
64k-79k €
Paris, France
L’entreprise Une scale-up européenne en forte croissance , spécialisée dans la transformation digitale du marché immobilier, développe une plateforme basée sur l’intelligence artificielle permettant d’orchestrer l’ensemble du processus de vente immobilière . La technologie développée permet de gérer l’intégralité du parcours de vente et d’achat immobilier , en coordonnant les différents acteurs du marché : agents immobiliers, plateformes, acheteurs et documents administratifs. Soutenue par des investisseurs internationaux de premier plan et ayant levé plus de 50 millions de dollars , l’entreprise connaît une forte croissance avec une ambition claire : réinventer l’expérience immobilière pour des millions de propriétaires européens . Dans ce contexte d’hyper-croissance, l’entreprise recrute un CRM Lead pour faire du CRM l’un de ses principaux leviers de croissance. Le poste En tant que CRM Lead , vous serez responsable de la stratégie CRM globale de l’entreprise et de sa mise en œuvre à grande échelle. Votre objectif sera de transformer le CRM en véritable moteur de croissance , en optimisant la conversion, le chiffre d’affaires et l’expérience client tout au long du parcours utilisateur. Vous interviendrez de manière transverse auprès de plusieurs équipes (Growth, Ops, Produit, Tech) et piloterez la stratégie CRM sur l’ensemble des personas : vendeurs, acheteurs et agents immobiliers . Ce rôle combine vision stratégique et forte dimension opérationnelle , avec une implication directe dans la conception de campagnes, l’analyse de données et l’optimisation continue des parcours clients. Vos missions 1) Définir et piloter la stratégie CRM Construire une stratégie CRM globale et scalable sur l’ensemble du cycle de vie client Définir les parcours clients pour les différentes typologies d’utilisateurs Assurer la cohérence et la performance des campagnes menées par les différentes équipes métiers Garantir une expérience client fluide et qualitative tout en respectant les contraintes réglementaires (RGPD) 2) Accélérer la croissance via le CRM Piloter les KPIs CRM clés (revenus générés par le CRM, taux de conversion, réactivation des utilisateurs, satisfaction client) Identifier les leviers d’optimisation à partir de l’analyse des données Traduire les insights data en actions concrètes d’amélioration des campagnes Mettre en place des frameworks d’expérimentation (A/B testing, groupes de contrôle, mesure d’impact) 3) Piloter la stack CRM Être responsable de l’écosystème CRM et de ses outils : Customer . io Twilio WhatsApp BigQuery intégrations HubSpot Définir la gouvernance des workflows, triggers, événements et attributs CRM Garantir la fiabilité des données et la délivrabilité des campagnes Assurer la conformité RGPD 4) Structurer un CRM scalable Permettre aux équipes Growth et Ops de déployer leurs campagnes CRM de manière autonome Mettre en place : templates playbooks bonnes pratiques formations internes Accompagner les équipes sur les campagnes stratégiques Maintenir la cohérence éditoriale et l’expérience utilisateur 5) Développer l’usage de l’IA dans le CRM Intégrer des fonctionnalités d’IA dans les workflows CRM Mettre en place des mécanismes de : personnalisation avancée génération dynamique de contenu segmentation prédictive Automatiser les processus CRM à grande échelle
Mission freelance
Support Market Data
Cherry Pick
Publiée le
Linux
PL/SQL
Python
12 mois
Paris, France
Mission : Nous assister dans l’implémentation, le support et la maintenance de nos architectures market data ainsi qu’au développement et à la maintenance des outils de support. Cette mission se situe dans une équipe market data (5 personnes y compris le prestataire) qui gère la disponibilité des flux temps réel pour les applications de trading CFM Missions: Support niveau 1, qualification, traitement et suivi des incidents et des remontés d’alertes. Implémentation des nouvelles architectures des flux de données Détection, suivi et résolution des problèmes techniques et fonctionnels avec les autres équipes IT et les équipes de Recherche. Communication pendant et après les incidents auprès des utilisateurs et du management. Optimisation de la qualité des flux Intégration de nouveaux marchés Suivi et veille technologique sur les évolutions des places boursières : compréhension de l’impact sur nos infrastructures et proposition d’intégration Astreintes de l’équipe Nous recherchons donc un consultant avec les compétences suivantes : Développement Python, PL/SQL Gitlab 2/3 ans d’expérience. Support Connaissance réseau (routage, unicast, multicast) Linux, PL/SQL Expérience de support applicatif Connaissance des marchés boursiers
Mission freelance
Gestionnaire de Paie - Hypervision - Toulouse Blagnac (31)
Mon Consultant Indépendant
Publiée le
Finance
Sage Paie
12 mois
200-230 €
Toulouse, Occitanie
Nous recherchons pour l'un de nos clients, une très belle société en fort développement sur Toulouse (31) un-e Gestionnaire de Paie expérimenté-e pour gérer un périmètre de paie sur le logiciel Hypervision ADP-GSI. Maitrise d'Hypervision obligatoire et une connaissance des outils SIRH et GTA sera appréciée. Obligation d'habiter à proximité immédiate de Toulouse.Le-la Gestionnaire de paie aura à : - Préparer tous les éléments nécessaires à l'établissement de la paie et les transmettre à la société en charge d'établir les bulletins de paie - Réceptionner les bulletins de paie (établis par la société en charge d'établir les bulletins de paie) et contrôler leur conformité - Saisir, contrôler et analyser les données temps et activités des salariés et alerter en cas de problématique identifiée (retard, dépassement etc.) - Renseigner et répondre aux questions des salariés ou des managers sur les différents éléments constitutifs de la paie (explication des éléments du bulletin de salaire, congés, charges sociales…), de la gestion des temps ou de l'administration du personnel - S'assurer du paiement en temps et heures des salaires, conformément aux procédures en vigueur. - Etre force de proposition sur les modifications ou améliorations des pratiques RH locales, sur l'ensemble des sujets confiés. - Gérer les aspects administratifs liés au suivi des salariés (arrivée, départ,..) - Faire le calcul de la répartition de l'épargne salariale, conformément aux accords en vigueur et coordonner avec l'organisme en charge de leur gestion la communication des données auprès des salariés - Faire les demandes de paramétrages si nécessaire auprès des différents prestataires (Gestion de Temps, Paie,..) et suivre leur bonne mise en œuvre dans les délais impartis - Mettre à jour les tableaux de bords (gestion des temps & activité, données paie, fichiers post paie etc.) et préparer les données nécessaires en cas d'audit ou sur demande ponctuelle - Gérer le suivi des dossiers mutuelle et prévoyance avec les différents organismes compétents - Participer aux audits (mensuels ou annuels) ainsi qu'aux enquêtes rattachées à son périmètre - Contribuer activement à l'amélioration continue (process, outils et instructions de travail)
Mission freelance
Web Analyst (H/F)
WINSIDE Technology
Publiée le
Google Analytics
Google Data Studio
Google Tag Manager
1 an
Lille, Hauts-de-France
Mission principale : Au sein des équipes Digital & Data, le Web Analyst est responsable de la mesure de la performance digitale, de l’analyse des parcours clients et de l’exploitation des données pour optimiser l’expérience utilisateur et les résultats business. Il/elle joue un rôle clé dans l’amélioration continue du site et de l’ensemble de l’écosystème digital. Responsabilités : 1. Analyse & mesure de la performance Définir, maintenir et optimiser la webanalyse (datamodel, plans de taggage, KPIs). Suivre les performances du site : trafic, conversion, parcours, taux de rétention, rebond, etc. Analyser les comportements utilisateur pour identifier les freins, opportunités et segments clés. Développer des tableaux de bord pour les équipes Produit, E‑commerce, Marketing. 2. Pilotage & optimisation Recommander des améliorations UX/UI basées sur la donnée. Accompagner les équipes Produit dans les choix d’optimisation (A/B tests, personnalisation). Participer à la définition des objectifs business : acquisition, conversion, fidélisation. 3. Gestion du tagging & de la qualité de la donnée Construire et maintenir les plans de marquage (GTM ou équivalent). Contrôler la qualité des données, diagnostiquer les anomalies et assurer leur fiabilité. Collaborer avec les équipes Data Engineering pour une exploitation cohérente et propre des données. 4. Collaboration transversale Travailler en étroite collaboration avec les équipes E‑commerce, CRM, Marketing, UX et Produit. Présenter les analyses et insights de manière claire, orientée business. Sensibiliser les équipes internes à la culture data. Compétences techniques attendues : Outils de webanalyse Google Analytics (GA4) ou autre solution équivalente. Google Tag Manager (ou TMS similaire : Tealium, Tag Commander). Data & visualisation Outils BI : Data Studio / Tableau / Power BI. Bonne maîtrise d’Excel. Connaissance SQL est un plus. Expérience en optimisation A/B testing : AB Tasty, Kameleoon, Optimizely. Méthodologies CRO (Conversion Rate Optimization).
Mission freelance
Directeur Professional Services – WMS / TMS (Environnement Supply Chain Software)
Mon Consultant Indépendant
Publiée le
Direction de projet
Supply Chain
6 mois
1 060-1 090 €
Paris, France
Mission urgente – Management d’équipe 40-50 personnes Contexte : Nous accompagnons un éditeur de logiciels spécialisé en solutions Supply Chain (WMS & TMS) dans le remplacement urgent d’un responsable Professional Services. L’équipe intervient auprès de grands comptes pour l’implémentation de solutions logicielles de gestion d’entrepôt et de transport. Objectif du role : Prendre la responsabilité immédiate d’une organisation Professional Services d’environ 40 à 50 collaborateurs (consultants fonctionnels, chefs de projets, intégrateurs). Assurer la continuité opérationnelle, structurer le delivery et garantir la performance sur des projets grands comptes. Responsabilités principales : Pilotage Delivery : · Supervision des projets d’implémentation WMS / TMS · Garantie du respect des délais, marges et qualité · Gestion des arbitrages ressources et priorités · Suivi des engagements contractuels Management d’équipe : · Encadrement direct et indirect d’une équipe de 40-50 personnes · Animation des managers intermédiaires · Structuration des pratiques et méthodes · Gestion de la performance individuelle et collective Relation clients grands comptes : · Interface avec des clients stratégiques · Gestion des escalades · Participation aux COPIL · Positionnement en partenaire de confiance Organisation & outils : · Structuration des plannings et capacité delivery · Pilotage des charges et allocation des ressources · Amélioration continue des processus Professional Services · Utilisation d’outils de work management (ex : Monday – apprécié) Profil recherché : · Expérience confirmée en direction Professional Services · Management d’équipes importantes (40+ personnes) · Expérience dans l’implémentation de solutions logicielles Supply Chain (WMS / TMS impérative) · Habitué aux environnements grands comptes · Anglais professionnel indispensable · Capacité à intervenir rapidement dans un contexte exigeant · La connaissance de Monday est un vrai plus · Leadership solide · Orientation résultats · Gestion financière des projets · Capacité à structurer une organisation delivery · Communication claire avec les équipes et clients Modalités : · Démarrage : ASAP · Statut : Freelance / Management de transition · Durée : mission structurante · Localisation : Île-de-France (présentiel significatif)
Mission freelance
Lead Full Stack Engineer (AI &Agentic UI)
Comet
Publiée le
Analyse
API
Azure
10 mois
700-800 €
Paris, France
Dans le cadre d’un programme d’innovation avancée au sein d’un Tech Accelerator, nous recherchons un Data Analyst Senior pour intervenir sur la conception et le déploiement de produits data & AI de nouvelle génération , intégrant des modèles de langage (LLM) et des interfaces conversationnelles intelligentes. Vous interviendrez au cœur d’une équipe produit agile et transverse, en lien étroit avec des ingénieurs full stack, des product managers et des designers, afin de transformer des données complexes en insights exploitables et en expériences utilisateurs intelligentes . Votre rôle consistera à structurer, analyser et exploiter des données issues de multiples sources (produits, ingrédients, usages, graphes de connaissance), à contribuer aux stratégies de context enrichment (RAG) , et à garantir la qualité, la pertinence et la performance des données utilisées par les applications AI. Vous participerez activement à la mise en valeur des données via des visualisations claires , à la définition des modèles analytiques, ainsi qu’à l’optimisation des flux de données alimentant les applications conversationnelles. La mission s’inscrit dans un environnement exigeant, orienté produit, innovation rapide et impact business direct.
Mission freelance
Asset management - Risque - migration des directives de suivi
Mon Consultant Indépendant
Publiée le
Asset Center
Gestion de projet
Management
10 mois
540-590 €
Paris, France
Asset Management - Direction des risques · Participation à la migration des directives de suivi et de contrôle des investissements vers le système cible. · Conception et exécution de scénarios de test afin de valider la conformité des règles (règles UCITS, FIA, règles contractuelles et légales) fournies par le prestataire aux exigences de suivi des investissements. · Coordination de cette mise en oeuvre dans tous les pays concernés, en collaboration avec les équipes centrales. · Intervention, le cas échéant, sur la migration d'autres entités de gestion d'actifs. · Accompagnement du responsable métier dans le déploiement de la méthodologie globale du canal, en coordination avec BRS et les équipes informatiques. · Élaboration d'une stratégie de test · Conception et exécution des scénarios de test
Offre d'emploi
Data Engineer | Databricks | AWS
Hexateam
Publiée le
AWS Cloud
Databricks
Python
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Mission freelance
Chef de projet AMOA CRM
Atlas Connect
Publiée le
AMOA
CRM
HubSpot
6 mois
500-520 €
Paris, France
Missions principales 1. Pilotage de la phase finale de l’appel d’offres éditeur/intégrateur Analyse détaillée des dossiers soumis par les éditeurs/intégrateurs. Consolidation des grilles d’évaluation, scoring et recommandations. Animation des sessions de lecture commune, clarification et échanges avec les équipes internes. Organisation et animation des soutenances : préparation des supports, scénarios et attentes, animation des soutenances, synthèse des forces/faiblesses de chaque proposition. Appui à la décision finale : consolidation des évaluations, préparation des documents d’aide à la décision pour sponsors et COPIL, formulation de recommandations argumentées alignées avec la stratégie CRM. 2. Animation d’ateliers de transformation autour des processus CRM Étude et optimisation des processus métiers connexes : diagnostic, recueil des irritants, analyse de l’existant. Formulation des impacts organisationnels et techniques. Accompagnement des équipes internes : mobilisation des directions métiers et techniques, traduction des besoins en exigences fonctionnelles, facilitation des arbitrages. 3. Pilotage du projet d’intégration CRM Pilotage global en binôme avec l’intégrateur : coordination opérationnelle (planning, périmètre, jalons, comités), suivi de l’avancement, gestion des risques et plans d’actions, garantie de qualité des livrables. Relation sponsors et instances de gouvernance : préparation et animation des comités de pilotage, reporting synthétique, gestion des alertes et décisions à prendre. Création de valeur et conduite du changement : définition et suivi des KPIs, plan de communication et de conduite du changement, formation et autonomisation des équipes internes.
Offre d'emploi
DevOps (Projet Data)
KEONI CONSULTING
Publiée le
Helm
JIRA
Scrum
18 mois
20k-60k €
Paris, France
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Consultant DevOps Spécialités technologiques : Big Data, gitOps, API Nous recherchons un profil orienté DevOps afin d’intégrer le projet Data de notre client. MISSIONS - Participer au déploiement et à l’exploitation des composants applicatifs sur des environnements Kubernetes / OpenShift - Mettre en œuvre et maintenir les déploiements via Helm, dans une logique GitOps à l’aide de ArgoCD - Développer et maintenir des scripts d’automatisation en Python - Intervenir sur les environnements liés aux stacks Data (Spark, DigDash, Dremio, Airflow, NiFi) en support des besoins du projet Expertise souhaitée Environnements et outils DevOps : - Bonne connaissance de Kubernetes / OpenShift - Maîtrise de Helm - Compréhension et mise en œuvre des principes GitOps - Utilisation de ArgoCD Automatisation : - Connaissance de Python pour l’implémentation de scripts d’automatisation Écosystème Data (premier niveau) : - Spark - DigDash - Dremio - Airflow - NiFi Méthodologie et outils : - Maîtrise des pratiques Agiles (Scrum) - Utilisation de l’outil Jira
Offre d'emploi
Data Ingénieur Spark
R&S TELECOM
Publiée le
Batch
Docker
Git
1 an
Rennes, Bretagne
En tant que Data Engineer Senior, vous interviendrez sur l’ensemble du cycle de vie de la donnée. Tâches à réaliser : Concevoir, développer et maintenir des pipelines d’ingestion batch et streaming Implémenter des traitements Data robustes, industrialisés et observables Participer à la construction d’une architecture Lakehouse moderne Garantir la qualité, la traçabilité et la fiabilité des données Contribuer à l’industrialisation (CI/CD, DataOps, automatisation) Collaborer étroitement avec les Data Architects, Platform Engineers, Product Owners et équipes métier Appliquer les bonnes pratiques de sécurité by design et de conformité Participer à la documentation et au transfert de connaissances
Mission freelance
Data scientist IA + Python + GCP
emagine Consulting SARL
Publiée le
AI
BigQuery
Google Cloud Platform (GCP)
3 ans
Île-de-France, France
Descriptif mission : En coordination avec les différents acteurs du pôle Payment et du Groupe • contribution aux projets décisionnels - Big data, • participation et animation de groupes de travail avec les utilisateurs et les informatiques • collecte des besoins auprès des métiers, • modélisation et développement des reporting : spécification des indicateurs décisionnels (statistique, qualité, facturation) • Exploration de données • rédaction des livrables : spécifications fonctionnelles et techniques, cahiers de recette • participation aux recettes • formation et accompagnement des utilisateurs Connaissances techniques : Maîtrise des architectures et plateforme de l’IA ainsi que du Cloud. • Environnements et outils de Google Cloud Platform : - BigQuery, - Airflow, - Vertex Ai/Notebook Jupyter • Maîtrise des algos ML (notamment classification et NLP) • Langages : SQL, Python (Pandas, Scikit learn, Tensor Flow) • Delivery : Git, Jenkins / Cloud Build • Connaissance du Data Engineering fortement appréciée • Bonne connaissance générale des logiques décisionnelles Connaissances fonctionnelles : Comprendre l’environnement et les métiers de Paiements. Une connaissance préalable des paiements serait un plus.
Offre d'emploi
Ingénieur DATA
INFOGENE
Publiée le
44 800-54k €
Bordeaux, Nouvelle-Aquitaine
Le poste fait partie de la Direction de la Transformation Stratégique qui compte notamment quatre équipes data : BI & Data Analytics, Data & AI Technology, Data Science & AI, Stratégie & Projets Data. Sous l’autorité du/de la Responsable Data & AI Technology et du/de la Team Leader, le/la Data Engineer réalise la conception, le développement et la maintenance des systèmes – produits, services et plate-forme – permettant la collecte, la transformation, le stockage et la distribution des données. Il/elle intervient également sur l’architecture data pour garantir des solutions robustes, performantes et évolutives. Missions clés : • Conçoit, développe et maintient des systèmes – produits, services et plate-forme – permettant la collecte, la transformation, le stockage et la distribution des données • Assure le développement logiciel lié et prodigue son support aux équipes data & business dans leurs propres développements • Intervient sur l’architecture data pour garantir des solutions robustes, performantes et évolutives • Participe activement à la montée en compétence des équipes data & business et les accompagne dans l’adoption des bonnes pratiques data et DevOps • Administre et fait évoluer la plate-forme data en collaboration avec la DSI, développe les outils nécessaires Compétences attendues : • Expertise en Python et SQL, appliquée dans des environnements data complexes et exigeants, intégrée dans des pratiques DevOps (Git, CI/CD, ELK …) o Expérience solide et opérationnelle avec les outils de la modern data stack et notamment Snowflake, Airflow et Soda • Expérience démontrée dans la conception d’architectures data modulaires, scalables et résilientes, combinée à des connaissances avancées en infrastructure et cloud, en particulier Azure. • Forte sensibilité aux technologies émergentes, en particulier l’IA, avec une capacité à identifier des cas d’usage pour le business et à les intégrer dans des produits data mais aussi dans la plate-forme data
Mission freelance
Chef de projet MOA Décisionnelle
HAYS France
Publiée le
Coordination
CRM
3 ans
400-600 €
Île-de-France, France
Nous recherchons pour un de nos clients basés en IDF un Chef de projet MOA Décisionnelle pour une mission freelance (longue visibilité) Contexte de la mission : Dans le cadre d'un programme, le Groupe poursuit la transformation de son modèle de relation client afin d’améliorer la satisfaction client, l’efficacité opérationnelle et la performance commerciale. Le programme s’appuie notamment sur le progiciel Pega, utilisé comme socle de : • gestion des parcours clients, • orchestration des interactions et des tâches, • traçabilité des intentions, actions et activités relationnelles, • alimentation des dispositifs de pilotage et de reporting décisionnel. Les données issues de Pega constituent une source majeure pour les dispositifs de pilotage et de reporting décisionnel du programme. Le projet Pilotage vise à exploiter ces données, en lien avec les autres briques du système d’information, afin de fournir aux métiers et aux managers des outils de pilotage fiables, partagés et orientés usages. Dans ce contexte, le Chef de Projet MOA Décisionnelle interviendra au sein de la Direction, sur le volet pilotage du Programme et interviendra en coordination étroite avec : • les équipes métiers, • les équipes du programme , • les équipes IT, les instances de gouvernance du programme. Objectifs et livrables Expertises requises Projets décisionnels • Expérience de projets décisionnels à l’échelle d’un Groupe (multi-entités, multi-directions). • Compréhension des enjeux d’un DWH central : mutualisation, convergence des indicateurs, normalisation des règles de gestion. • Capacité à articuler besoins locaux et cadre décisionnel Groupe. • Expérience de coordination transverse entre métiers, IT et équipes Data centrales, et de suivi des recettes • Contribution à des trajectoires de rationalisation ou de convergence décisionnelle appréciée. Compétences data : • Bonne compréhension des architectures Data Warehouse / Data Lake. • Connaissance des principes de modélisation décisionnelle (étoile, flocon, datamarts). • Connaissance des principes de modélisation d’entreprise. • Compréhension des flux d’alimentation, ETL/ELT. • Intégration de nouvelles sources dans un DWH Groupe. • Capacité à réaliser des requêtes sur des environnements Data (SQL) Compétences transverses : • Forte capacité de coordination transverse (métiers / IT / programme). • Excellentes capacités rédactionnelles. • Esprit de synthèse et posture de conseil. • Expérience dans le secteur de l’assurance / mutualité fortement souhaitée. • Capacité à évoluer dans un contexte mutualiste avec enjeux de convergence. Expertises appréciées : • Compréhension des modèles de données CRM. • Capacité à analyser des objets métier relationnels (interactions, intentions, tâches). • Connaissance du secteur de l’assurance et/ou de la mutualité (enjeux relation client, performance commerciale, pilotage opérationnel).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3180 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois