Contexte de la mission Dans un grand groupe du secteur de l’assurance , la direction IT Data renforce sa plateforme data cloud afin d’améliorer le pilotage de l’activité, la connaissance client et les usages analytiques internes. La mission s’inscrit dans un contexte de montée en maturité data, avec des enjeux forts de structuration, fiabilisation et exploitation des données métiers (assurance dommages, santé, prévoyance, finance). Missions principales Concevoir et développer des pipelines de données sur GCP Modéliser les données analytiques sous BigQuery à destination du pilotage et du reporting Développer et maintenir les transformations de données via dbt Participer aux phases d’analyse des besoins métiers assurance Contribuer à la conception des modèles de données et des flux Travailler en collaboration avec les équipes BI (Tableau) et Data Science (Dataiku) Garantir la qualité, la cohérence et la fiabilité des données exposées Stack technique obligatoire Google Cloud Platform (GCP) BigQuery dbt SQL avancé Profil recherché Data Engineer confirmé à senior Capacité à intervenir sur l’analyse et la conception data , pas uniquement le développement Expérience sur des environnements data cloud structurés Bonne compréhension des enjeux métiers dans un contexte assurance ou grand compte
Responsabilités principales 1. Accompagnement des projets dans GCP Faciliter l’adoption du cloud par les équipes projets. Aider les équipes à structurer leurs besoins techniques et fonctionnels pour l’intégration dans la LZ. S’assurer de la bonne préparation de leurs environnements et prérequis. 2. Animation & coordination Animer les réunions d’avancement, ateliers de cadrage, résolutions de blocages. Synchroniser les parties prenantes techniques et métiers. Prioriser les actions et organiser les chantiers. 3. Suivi opérationnel et pilotage Suivre les actions, dépendances, blocages, ordonnancement, charges. Maintenir un tableau de bord projet clair, à jour, structuré. Assurer une visibilité transverse sur les risques et points ouverts. 4. Support technique Participer aux ateliers techniques, clarifier les solutions possibles, orienter les choix. S’assurer que les projets respectent les standards sécurité, réseau, IAM, supervision. 5. Amélioration continue Produire bilans, synthèses d’itération, plans d’amélioration. Capitaliser sur les retours d’expérience.
Qui sommes-nous ? On est une ESN spécialisée dans le domaine des infrastructures à taille humaine, avec plus de 30 ans d’histoire. Mais ce qui fait notre vraie différence ? On ne se contente pas de dire qu’on valorise nos collaborateurs, on le prouve au quotidien. Chez Artemys , on crée un univers où l’humain passe avant tout . Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. 📍 Le terrain de jeu ? Notre siège est situé au cœur du dynamique 10e arrondissement de Paris, mais nos opportunités de postes s'étendent dans tous les arrondissements parisiens et la proche banlieue. Votre mission (si vous l’acceptez) : Expertise technique Vous intervenez dans la réalisation des activités des projets. Vous avez la capacité de prendre en main des sujets techniques diversifiés et monter en compétences rapidement en toute autonomie. Vous assurez un support de niveau 3 sur l'ensemble des environnements techniques pour assister la production. Vous animez ou participez des pôles techniques sur l’ensemble des équipes infrastructures sur les domaines bureautiques, systèmes et stockage, base de données et virtualisation. Pilotage de Projet Vous orchestrez et pilotez de manière autonome l’ensemble des projets Vous savez être dans un mode de gestion multi-projets Vous organisez, coordonnez et animez l’ensemble des ressources (Internes ou externes) sur les différents projets du design jusqu’à la mise en production. Livrables Vous êtes garants du respect et de la fourniture des livrables Vous intervenez dans la rédaction des notes de cadrage, CDC, DIN, DEX, DAT. Vous communiquez régulièrement au travers de tableau de bord sur l’avancée des projets aux parties prenantes. L’environnement technique : Cloud : AWS Systèmes : Windows Server 2012/2016, RHEL 7/8, OS400, Windows 10 Virtualisation : VMware vSphere et Horizon, Citrix XenAPP, Stockage: EMC VNX/Unity, NetApp E series, HP Applications: IBM Spectrum Protect, Centreon, Ivanti, TWS, Exchange Online, SAP, JBoss, Office365, Teams, Symantec SEP, Azure Base de données : SQL server (2008, 2012), Oracle (11g, 12c,19c), DB2, Sybase ASE, HANA Matériels : Principalement HP sur la partie serveur et dell sur la partie bureautique Vous, notre perle rare : Vous avez 5 ans d’expérience (minimum) en environnement challengeant Vous avez déjà travaillé avec des grands comptes Vous parlez anglais (niveau courant) Vous êtes rigoureux, agile, force de proposition et à l’aise à l’écrit Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 48000 - 55000 € (Selon votre expertise) Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). 12 RTT, Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
La mission repose sur une approche à la fois éprouvée et innovante, adaptée au contexte spécifique de l’entreprise. Le consultant travaillera en collaboration étroite avec l’équipe projet Excellence Opérationnelle : En amont : proposition d’un dispositif d’accompagnement à la montée en puissance du SEMO. Pendant la mission : Accompagnement conseil ciblé sur les enjeux de performance ; Formations selon les priorités des directions, business units, prestataires ou filiales. En aval : analyse des retours d’expérience et formulation de recommandations. Livrables Document de cadrage comprenant : analyse du besoin, objectifs opérationnels, méthodologie, planning, ressources. Diagnostic initial (si nécessaire) : constats, points de vigilance, recommandations préalables. Plan d’action détaillé et coconstruit. Outils-supports (préférence pour les modèles internes existants). Bilan intermédiaire (selon nécessité). Rapport final de mission incluant résultats, écarts, bonnes pratiques, recommandations. Programme pédagogique détaillé + aide à la rédaction selon le format interne. Supports pédagogiques (papier et/ou numérique). Kits outils post-formation. Évaluations à chaud et, si prévu, à froid. Rapport de synthèse qualitative et quantitative. Tableau de bord actualisé des prestations réalisées. Rapport annuel d’activité incluant indicateurs de performance et de satisfaction. Modules de formation ou accompagnement sur thématiques émergentes. Contenus digitaux (vidéos, e-learning, infographies). Conception / animation de séminaires, journées thématiques, webinaires. Documents de capitalisation (guides, référentiels, synthèses).
Nous recherchons un expert data capable de concevoir, structurer et optimiser des solutions data modernes pour accompagner la croissance et les enjeux business d’une organisation en pleine transformation numérique. Votre rôle sera central : transformer la donnée en levier stratégique, garantir sa qualité et développer les pipelines, modèles et analyses qui permettront aux équipes métiers de prendre de meilleures décisions. 🎯 Livrables & responsabilités Concevoir et mettre en œuvre des solutions data complètes pour répondre aux besoins business. Analyser, interpréter et valoriser des données complexes pour produire des insights actionnables. Travailler avec des équipes pluridisciplinaires (IT, produit, métier, sécurité…) afin d’identifier et résoudre les problématiques data. Développer et maintenir des pipelines de données , des modèles analytiques et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données sur tout leur cycle de vie. Fournir une expertise technique et des recommandations pour soutenir la prise de décision data-driven. 🧩 Expertise requise 5 ans d’expérience minimum en data engineering, data analytics ou poste similaire. Expérience solide dans la livraison de solutions data dans des environnements dynamiques. Maîtrise des architectures et technologies data modernes : plateformes cloud (AWS, Azure, GCP), frameworks Big Data, data warehousing. Excellentes compétences en Python, SQL, Spark . Maîtrise de la modélisation de données , des processus ETL et des pipelines de transformation. Expertise sur les outils de visualisation et de reporting : Power BI, Tableau . Connaissance des bonnes pratiques de gouvernance, sécurité et conformité des données.
Le/La Data Product Owner – Intermodal est responsable de la définition et de la livraison du produit de données Intermodal , qui servira de datamart de référence pour l’ensemble des sources opérationnelles et commerciales clés (systèmes de gestion du transport existants et futurs, outils opérationnels, solutions de facturation, etc.). Il/Elle est le point focal côté métier pour tous les sujets liés à la construction et à l’évolution du produit de données Intermodal. Le périmètre couvre les données de référence (master data) et les données transactionnelles , issues de l’ensemble des systèmes Intermodal, y compris plusieurs TMS. Dans le cadre d’un projet de déploiement d’un nouveau système de gestion du transport, le/La Data Product Owner pilote les activités de préparation, de nettoyage et de sécurisation des données avant chaque mise en production, en collaboration avec les Product Owners, les experts régionaux et les équipes IT. Il/Elle s’appuie sur un/une référent(e) Master Data , chargé(e) d’accompagner l’identification, la standardisation et la consolidation des données de référence (clients, sites, actifs, etc.) afin de garantir une base de données cohérente et fiable. Travaillant en étroite collaboration avec les chefs de projet métier et IT, les Product Owners et les experts techniques, le/La Data Product Owner documente et supervise les flux de données de bout en bout , maintient le catalogue de données , définit et pilote les règles de qualité des données , et gère le backlog du produit data . Il/Elle promeut des indicateurs cohérents et une source unique de vérité pour le pilotage de la performance. Ce rôle fait le lien entre le métier et l’IT sur les sujets data : compréhension de la création et de l’usage des données dans les systèmes opérationnels, traduction en un datamart fiable et cohérent, et accompagnement de son adoption et de son amélioration continue. Responsabilités clésVision et roadmap du produit data Définir, avec les chefs de projet métier et IT, le plan de construction et d’évolution du datamart Intermodal de référence couvrant l’ensemble des systèmes sources clés. Traduire les objectifs métiers (pilotage de la performance, maîtrise des coûts, qualité de service, visibilité opérationnelle, etc.) en une vision produit data et une roadmap détaillée. Maintenir et prioriser le backlog du produit data (domaines de données, fonctionnalités, transformations, initiatives qualité, prérequis BI), en arbitrant entre valeur métier, contraintes techniques et ressources disponibles. Besoins BI & analytique Recueillir les besoins BI et reporting des parties prenantes métiers en collaboration avec le/la référent(e) BI (KPI, tableaux de bord, reporting réglementaire ou contractuel, suivi opérationnel). Traduire les cas d’usage métiers en exigences data : éléments de données requis, règles de calcul, niveaux d’agrégation, historique, fréquence de mise à jour. Proposer des solutions adaptées à l’architecture et aux outils BI disponibles, en tenant compte : de la fraîcheur des données requise (quasi temps réel, quotidien, mensuel), de la performance et de l’ergonomie, de la sécurité des données et des droits d’accès. Prioriser et coordonner, avec le/la référent(e) BI, la livraison des tableaux de bord et rapports basés sur le datamart Intermodal, en garantissant la cohérence des indicateurs. Compréhension et documentation des flux de données Formaliser les flux de données de bout en bout : création, mise à jour, enrichissement et consommation des données tout au long des processus Intermodal. Cartographier les interfaces et dépendances entre les différents systèmes opérationnels, les référentiels de données et la couche datamart / BI. Produire et maintenir une documentation claire (schémas de flux, lignage des données, liens processus/données) à destination des équipes IT, des utilisateurs métiers et de la gouvernance. Catalogue de données & modèle de données Piloter, en lien avec la gouvernance data, la création et la maintenance du catalogue de données Intermodal, incluant pour chaque donnée : définition et signification métier, système source, classification (master data / transactionnelle), niveau de confidentialité, responsabilités (propriétaires métier et IT). S’assurer, avec les équipes IT et les architectes data, de l’alignement entre les modèles de données logiques et physiques et la vision métier du catalogue. Promouvoir l’usage du catalogue de données comme référence unique sur la signification et l’origine des données. Qualité des données & gouvernance Identifier et évaluer l’impact des données manquantes ou de mauvaise qualité sur les opérations, le reporting et la prise de décision. Définir, pour les données clés, les pratiques de gestion de la qualité : KPI et seuils de qualité, règles de contrôle et de surveillance, processus de gestion des anomalies, rôles et responsabilités (responsables, contributeurs, escalade). Prioriser les améliorations de qualité des données dans le backlog (contrôles, enrichissements, workflows de correction). Garantir la conformité avec les politiques et standards de gouvernance data. Pilotage de la livraison & validation Collaborer avec les data engineers, développeurs BI et équipes plateforme pour livrer les incréments du produit data (nouvelles sources, tables, métriques, vues). Animer les revues de validation avec les équipes IT et métier pour confirmer l’adéquation aux besoins et la qualité de la documentation. Valider les structures de données et transformations selon des critères d’acceptation clairs. Assurer la cohérence et la réutilisation des jeux de données et indicateurs afin d’éviter les duplications. Préparation des déploiements & support Piloter, pour les projets de déploiement de nouveaux systèmes, les phases de préparation et de nettoyage des données avec l’appui du/de la référent(e) Master Data : planification des chargements et migrations, coordination avec les équipes métiers, régionales et IT, validation de la complétude et de la qualité des données avant mise en production. Suivre les incidents data lors des mises en service et en phase de démarrage, et capitaliser pour les déploiements suivants. Mettre à jour la documentation (catalogue, flux, règles de qualité) en fonction des nouvelles zones, périmètres ou évolutions des systèmes. CompétencesCompétences data & techniques Bonne compréhension des concepts de data warehouse (schéma en étoile, dimensions/faits, ETL/ELT, lignage des données). Expérience en catalogage et documentation des données. Connaissance des frameworks et indicateurs de qualité des données. Capacité à échanger avec des équipes techniques sur des modèles de données ; des bases en SQL sont un plus. Expérience avec des outils BI (Power BI, Tableau, Qlik ou équivalent). Compétences produit & métier Forte capacité à traduire les besoins métiers en exigences data et inversement. Expérience en gestion de backlog et en priorisation multi-parties prenantes. Communication claire et structurée auprès de publics métiers et techniques. Soft skills Esprit analytique, rigueur et sens du détail. Capacité à animer des ateliers et à fédérer autour de décisions communes. Sens des responsabilités et de l’ownership dans un environnement en transformation. Excellente organisation pour gérer plusieurs chantiers en parallèle.
Vous contribuez au bon fonctionnement quotidien des outils trésorerie et dans ce cadre, vous : - contrôlez quotidiennement la bonne intégration des flux dans les outils de trésorerie et le bon envoi vers les banques - analysez les incidents de maintenance corrective, - rédigez les demandes de maintenance (via l'outil Servicenow) et au suivi de ces demandes, - faites le paramétrage des outils de Trésorerie y compris tables de paramétrage de type spitab et les habilitations (comme les droits de validation de paiements en suivant le processus de validation hiérarchique), - veillez à la bonne prise en compte du besoin par les équipes informatiques. Vous êtes un contributeur dans les projets impactant les flux alimentant la trésorerie et dans les projets d’évolution des outils de Trésorerie, à ce titre vous : - rédiger les spécifications Tréso (Cahier des Charges Outils) des projets qui vous sont confiés, - faites le paramétrage des outils Tréso, et validez ce paramétrage (TS) - participez aux validations métiers (TAU). Vous êtes en lien avec les services Back Office Trésorerie, la Direction des Placements et de l’Actif Passif , les services métiers utilisant les outils de trésorerie, et la direction informatique dans ce cadre, vous : - assistez les utilisateurs pour l’utilisation des outils mis à disposition, - participez à la réalisation du tableau de bord mensuel (activités du pôle), - participez aux réunions de travail avec les autres Directions concernées.
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
CONTEXTE Experience : 2 ans et plus Métiers Fonctions : Maintenance, Support et assistance utilisateurs, Technicien support Spécialités technologiques : Poste de travail, Ticketing Notre client est un éditeur de logiciel innovant, spécialisé dans le développement d’une plateforme propriétaire dédiée au secteur immobilier. La structure, à taille humaine, place la proximité, l’agilité et la qualité de service au cœur de son fonctionnement. Dans le cadre de sa croissance, il recherche un(e Technicien Support polyvalent(e), qui sera l’interlocuteur privilégié des utilisateurs internes et externes de la plateforme. MISSIONS Vous interviendrez sur 3 volets clés : 1. Support utilisateurs N1/N2 Assurer un support quotidien aux utilisateurs de la plateforme (interne & clients). Gérer, qualifier et traiter les tickets d’incidents ou de demandes. Réaliser une première analyse fonctionnelle et technique (N1/N2). Suivre la résolution avec les équipes internes (tech / produit). Documenter les procédures et bonnes pratiques. Pistes d’amélioration attendues : Mise en place d’un outil de ticketing (ex : GLPI). Création d’un tableau de bord d’indicateurs : nombre de tickets, typologie des incidents, criticité, délais de traitement… 2. Gestion de l’environnement de travail Vous serez le référent interne sur l’ensemble du poste de travail : Gestion des environnements Microsoft 365. Onboarding & offboarding des utilisateurs. Préparation et paramétrage des postes (PC/Mac), périphériques et licences. Création, administration et suppression des comptes (internes & externes). Gestion des droits et habilitations. Suivi des livraisons, inventaire matériel et licences. 3. Accompagnement & acculturation des utilisateurs (en fonction de l'envie et la disponibilité du collaborateur) Former et accompagner les utilisateurs dans la prise en main des outils internes. Proposer des améliorations pour simplifier le quotidien des équipes. Être force de proposition sur l’évolution du support. Expertise souhaitée Compétences indispensables : Expérience de 2 à 4 ans en support informatique ou support applicatif. Bon relationnel, sens du service et pédagogie. Connaissance des environnements Microsoft 365 (ou GSuite/Gmail si besoin). Appétence pour les outils collaboratifs, les environnements SaaS et les problématiques métiers. Autonomie, rigueur, organisation. Compétences facultatives : Connaissance outils de ticketing (exemple : GLPI, Jira, Servicenow...) Capable d'évoluer dans l'environnement suivant : Structure à taille humaine, ambiance collaborative. Produit propriétaire en pleine évolution. Forte autonomie et liberté sur l’organisation du support. Possibilité d’influencer directement l’amélioration de la plateforme et des processus internes.
Bonjour, Pour le compte de mon client, nous recherchons un data engineer. L’équipe de BUILD (qui gère les données du socle relation client et du socle connaissance client. Cette équipe est en charge de mettre à disposition des données en fraicheur pour deux équipes business. Le Data Ingénieur sera intégré dans une équipe Marketing d’une dizaine de personnes. La ressource doit accompagner la direction dans la réalisation des outils BI et analyses ad hoc pour leur permettre la réalisation de leurs usages. La mission se décompose en deux volets : 1. DIR DATA : Apporter un appui à la capacité à faire de l’équipe BUILD du projet et d’épauler la capacité à faire des métiers sur des montées de versions de leurs produits data métiers. Contexte de migration des projets métiers data basé actuellement sur Synapse vers Unity Catalog (Databricks). 2. DIR MKT : L'objectif de la mission est de permettre à la direction de piloter les offres par la réalisation d'analyse et la construction de tableaux de bord. Les indicateurs mis en visibilité permettront à la direction de suivre l'adoption des offres et services et de prendre les décisions stratégiques. Actiivités du poste : Partie direction Data Participation active à l’appui des équipes métiers lors de la migration vers Unity Catalog / suppression de synapse. Appui aux métiers pour assurer la MCO de leurs produits data métiers Participation active à l’équipe de développement BUILD du projet et aux phases de recette et de validation sur les différentes livraisons des traitements de données en lien avec l’équipe de build projet. - Participation ponctuelle aux analyses d’écarts et à l’identification des causes racines sur des problèmes de qualité et incohérences de données remontées via les clients auprès de la Relation Client, l’équipe RGPD ou par d’autres canaux internes (ex : incohérences sur les dates de naissance, doublons de clients, de segments de voyages, problèmes de référentiels, etc.) - Participation ponctuelle à la construction et évolutions sur des tableaux de bord Power BI en lien avec les besoins de monitoring de la donnée des socles sous responsabilité de la direction Data . Partie Direction MKT : Construction et maintien de tableaux de bord : Élaboration et implémentation de modèles de données optimisés pour les tableaux de bord Construction du tableau de bord Validation de la conformité et de la fiabilité des données présentées dans les tableaux de bord Traitements de données Développement et maintien d’indicateurs Optimisation des performances des traitements de données Interne Automatisation de la chaine de traitements des données depuis le socle Data TGV-IC ou d'autres sources Supervision de la chaine de traitements Réalisation d’analyse Réalisation d'extractions et analyses data ad hoc pour répondre aux besoins spécifiques des métiers Actions de gouvernance de la donnée Catalogage de la donnée : Documentation des dictionnaires de données, du lineage et des produits data business Suivi de la qualité des données Mise en place d’un outil de supervision de la qualité des données Identification des anomalies et investigations
Déposez votre CV
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
100% gratuit
Aucune commission prélevée sur votre mission freelance.