Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load) à Paris

Votre recherche renvoie 40 résultats.
Freelance

Mission freelance
Consultant Kelia

ATRIUM SI
Publiée le
kelia

12 mois
Paris, France

Notre client, acteur majeur de l’assurance-vie, a lancé un chantier de transformation ambitieux pour optimiser la gestion de ses contrats de retraite collective (Article 83/82) via la suite logicielle Kelia . Vous jouerez un rôle clé dans la migration de données , en apportant votre expertise technique et métier pour garantir le succès de ce projet d’envergure. Vos missions : Migration de données : Piloter l’intégration des données des contrats Article 83/82 dans Kelia avec précision et fiabilité. Expertise SQL : Développer et optimiser des requêtes SQL complexes pour les processus ETL (Extract, Transform, Load). Collaboration métiers : Travailler main dans la main avec les équipes actuarielles et conformité pour répondre aux besoins spécifiques. Contrôle qualité : Garantir l’intégrité des données migrées et leur conformité réglementaire. Formation & support : Accompagner les équipes internes et rédiger une documentation claire pour une transition fluide.

Freelance

Mission freelance
Ingénieur Data GCP

INSYCO
Publiée le
Apache Airflow
BigQuery
CI/CD

6 mois
500-600 €
Paris, France

Bonjour, Nous recherchons pour notre client grand compte un Ingénieur Data GCP répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin CV à jour (format Word) Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence MDE/DATA/4875 en objet du message Vos responsabilités Collecte et l’ingestion de différentes sources de données non homogènes Mise en place de pipelines de traitement de données Développement des modèles de données Extraction et l’exposition des données du Lakehouse vers d’autres services Industrialisation des projets sur la GCP Mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données Participation aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données Participation active aux différentes phases de grooming, cadrage et planification des tâches avec l’équipe Expériences dans un environnement du Cloud Provider Public Google (GCP) Expériences sur des projets intégrant Gitlab CI/CD Maitrise des langages SQL et Python Expériences sur des projets Big Data intégrant PySpark, BigQuery, et Airflow Expériences dans la mise en place de pipeline ETL / ELT

Freelance

Mission freelance
Data Scientist - Paris intra muros / Finance

Mobiskill (WEFY Group)
Publiée le
Data analysis
Data science
Python

3 mois
400-530 €
Paris, France

Mission Freelance – Data Scientist 📍 Localisation : Paris 8e 🗓 Démarrage : ASAP ⏳ Durée : 3 mois renouvelables 💼 Secteur : Finance Contexte Dans le cadre d’un programme de transformation Data au sein d’un acteur majeur de la finance, nous recherchons un Data Scientist pragmatique et opérationnel, capable de prendre en charge l’intégration et la mise à disposition de nouvelles sources de données pour alimenter différentes applications stratégiques. Vos responsabilités Assurer le sourcing et le branchement de données depuis le système SNF vers les nouvelles applications. Concevoir, développer et maintenir les flux de données (ETL, API, pipelines). Garantir la qualité, la cohérence et la disponibilité des données pour les équipes métiers et techniques. Collaborer avec les équipes internes pour définir les besoins et déployer des solutions robustes. Participer à la documentation et au transfert de connaissances.

Freelance

Mission freelance
Expert Alteryx

Nexius Finance
Publiée le
Alteryx

3 ans
Paris, France

Mission principale Concevoir, optimiser et maintenir des workflows complexes dans Alteryx afin de répondre aux besoins de transformation, d’automatisation et de fiabilisation des données au sein des équipes métiers et IT. L’expert Alteryx sera également chargé d’accompagner les utilisateurs dans l’adoption de la plateforme et la mise en place des bonnes pratiques. Responsabilités Analyser les besoins métiers et traduire les exigences en solutions dans Alteryx. Concevoir, développer et maintenir des workflows et macros complexes (préparation, transformation et automatisation des données). Optimiser la performance et la robustesse des processus existants. Mettre en place des standards et bonnes pratiques pour l’utilisation d’Alteryx au sein des équipes. Former et accompagner les utilisateurs (analystes, risk managers, contrôle de gestion, etc.). Participer à l’intégration d’Alteryx avec d’autres systèmes (bases de données, BI, cloud). Assurer la documentation et la traçabilité des workflows. Contribuer à la veille technologique autour des outils d’automatisation et de data preparation. Compétences techniques Maîtrise approfondie de Alteryx Designer et Alteryx Server . Excellentes connaissances en manipulation et modélisation de données. Bonne maîtrise du SQL (optimisation de requêtes, jointures complexes). Connaissance d’outils complémentaires : Tableau, Power BI, Python ou R (serait un plus). Compréhension des architectures data (ETL, API, entrepôts de données). Connaissance des environnements cloud (Azure, AWS ou GCP) appréciée. Compétences fonctionnelles Compréhension des activités et produits des marchés financiers (actions, taux, dérivés, change, etc.). Sensibilité aux problématiques de conformité, risque et reporting réglementaire. Capacité à dialoguer avec des interlocuteurs variés : métiers, IT, data engineers, contrôleurs.

Freelance

Mission freelance
Data Engineer AWS

Cherry Pick
Publiée le
AWS Cloud
C#
Python

12 mois
500 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Energie Description 🎯 Contexte & Objectifs Intégré(e) à la squad Data Platform, vous interviendrez sur les activités de build, run et automatisation d’une plateforme de données Cloud (AWS / Azure). Votre rôle sera clé pour : Participer à la réalisation du workplan et aux user stories du backlog. Contribuer aux activités de support N2/N3 (RUN) et de Build. Livrer et suivre les artefacts de mise en production. Proposer et mettre en œuvre des optimisations FinOps, sécurité et observabilité. Développer des microservices et automatiser les pipelines & déploiements. 🛠️ Missions principales Participer au développement et maintien de la Data Platform Cloud. Créer et maintenir des processus de déploiement automatisés avec Terraform. Développer des microservices en Python et maîtriser l’intégration (CI/CD). Assurer le monitoring et l’exploitation via Grafana, App Insights. Contribuer aux flux ETL/ELT et à l’alimentation du Data Lake (AWS S3, ADLS Gen2). Gérer les activités RUN/SRE : supervision, support, automatisation. Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et FinOps. Collaborer en mode Agile/Scrum avec les parties prenantes (Data Officers, Data Architects, Engineers). Maintenir la documentation et promouvoir une approche User-Centric (recueil feedbacks, amélioration UX).

Freelance

Mission freelance
BUSINESS ANALYST DATA MART MUREX

Groupe Aptenia
Publiée le
JIRA
Murex
Méthode Agile

6 mois
400-710 €
Paris, France

• Participer à l'évolution et à la gestion du cycle de vie du produit (rituels méthodes Agile) • Comprendre et spécifier les besoins et processus métiers pour contribuer à la vision produit jusqu'à la génération des CRE vers le SI comptabilité centrale • Réaliser des prestations d'étude, de conception (spécifications générales et détaillées), de réalisation et de recette des changements • Fournir un support analytique, opérationnel et stratégique • Faciliter la construction et le partage de connaissances en interne en contribuant à la base de connaissances SIGMA • Participer à l'homologation et à la validation des patchs de l'éditeur • Aligner les données Datamart avec les besoins métiers Front Office to Back Office to Comptabilité en collaboration avec les métiers et les équipes SI fonctionnelles • Extraire et améliorer les données de la base financière MX.3 vers le Datamart • Réaliser des prestations d'étude, de conception (spécifications générales et détaillées), de réalisation et de recette des changements • Réaliser les spécifications liées à l'ETL et les recetter • Assurer l'intégrité et la qualité des données • Fournir un support analytique et opérationnel • Gérer le backlog et piloter les travaux de l'équipe en appui au lead technique du client • Contribuer à l'activité de release et de post production • Faciliter la construction et le partage de connaissances en interne en contribuant à la base de connaissances SIGMA • Assurer la coordination des différentes recettes avec les applications abonnées Pour chacune de ces activités, le prestataire produira les livrables attendus, validés dans le cadre du processus de gestion de la plateforme SIGMA. Le prestataire sera plus particulièrement en charge d'assister l'équipe sur les aspects suivants : • Construire et gérer le backlog Datamart • Animer la relation avec les applications abonnées à SIGMA • Contribuer aux projets ayant des adhérences avec le Datamart (tels que le projet de refonte du SI clients externes) Les travaux du prestataire seront réalisés en coopération avec les équipes de la filière SI et métiers, ainsi que l'éditeurMurex. Une bonne coordination constituera un élément essentiel de réussite du projet dans un contexte multi-intervenants.

Freelance

Mission freelance
Senior Python Backend Engineer / FULL REMOTE

Groupe Aptenia
Publiée le
autonomie

1 an
400-450 €
Paris, France

Description du poste – Senior Python Backend Engineer (Freelance)Contexte Nous accompagnons un grand groupe international dans le cadre d’un projet de transformation digitale. Dans ce contexte, nous recherchons un Senior Python Backend Engineer pour une mission freelance longue durée. Le consultant rejoindra une équipe internationale et contribuera au développement d’une plateforme innovante orientée data, intégrant des technologies cloud et intelligence artificielle. Missions principales Développer et maintenir des services backend en Python (API, microservices). Concevoir et optimiser des architectures event-driven et serverless sur cloud public. Automatiser les déploiements via IaC (Terraform). Participer aux décisions techniques et aux choix d’architecture. Implémenter des tests et rédiger la documentation associée. Collaborer avec une équipe distribuée en mode agile. Stack technique Python (FastAPI, Flask) Cloud serverless : Lambda, Step Functions, DynamoDB, S3, SQS, EventBridge Terraform / CodePipeline Bases de données : MongoDB, Postgres Bonus : ETL, Batch, Geospatial Conditions de mission Contrat : Freelance Localisation : Remote, avec quelques déplacements ponctuels en Europe (2-3 fois par an) Démarrage : Dès que possible Durée : Mission longue Candidature par mail : Et/ou Linkedin : Sofiane O.C

Freelance

Mission freelance
Consultant interne & intégrateur Sage 100 V10 /// Non maitrise de SAGE 100 s'abstenir svp

Mon Consultant Indépendant
Publiée le
Sage 100

3 mois
420-450 €
Paris, France

Rattaché(e) à la Direction Financière et en lien direct avec les équipes métiers (ADV, logistique, comptabilité, facturation), vous aurez pour mission de piloter et d'optimiser l'utilisation de SAGE 100 V10 au sein de l'entreprise. Missions et Activités du Poste Pilotage fonctionnel et technique de SAGE 100 V10 : paramétrage, administration, développements, support utilisateurs Structuration de la data et sécurisation de la qualité de la data Interfaçage entre la fonction Finance et les Opérations et le Commerce Votre rôle couvre : Recueil et analyse des besoins fonctionnels des différents départements (ADV, gestion des stocks, facturation) Paramétrage, développement et intégration de nouvelles fonctionnalités dans SAGE V10 afin de répondre aux besoins métiers Gestion des interfaces et interconnexions entre SAGE et les autres outils de l'écosystème (CRM, BI Klik, outils logistiques, comptabilité, etc.) Suivi des évolutions et des mises à jour de la solution (versions, correctifs, nouvelles fonctionnalités) Support de niveau 2 auprès des utilisateurs internes : assistance, résolution d'incidents, accompagnement sur les bonnes pratiques Formation et accompagnement des utilisateurs dans l'adoption des nouvelles fonctionnalités Documentation fonctionnelle et technique des paramétrages, évolutions et procédures mises en place Interface avec les différents prestataires informatiques : hébergeur, prestataire intégrateur Sage, les éditeurs des autres solutions de l’écosystème Profil 8-10 ans expérience minimum Expériences en PMI / PME (ou filiale de groupe de taille moyenne) Bac +3 minimum (informatique de gestion, systèmes d'information, finance ou équivalent) Maîtrise de l'anglais professionnel et un plus si maîtrise de l'espagnol Compétences Requises Maitrise SAGE 100 V10 en tant que consultant, intégrateur ou administrateur, en particulier modules ADV, stock, facturation. Il faut vraiment maitriser l’outil, pour pouvoir mettre les mains dans le moteur (SQL, scripts, workflow, états personnalisés, mise en page de documents, etc.) et faire tous les ajustements / paramètrages nécessaires, et piloter d’éventuels dev. Très bonne connaissance des environnements SQL et des outils d'intégration (ETL, API) Pédagogie et aisance relationnelle pour accompagner les équipes métiers Bonne connaissance des processus ADV, gestion de stock, facturation Bonne compréhension des logiques de contrôle de gestion/Comptabilité / analyse économique (rattaché à la finance et beaucoup de besoins sont directement pilotés par la finance puisque autour de la data) Capacité d'analyse fonctionnelle et technique Aisance dans la gestion de projets SI / IT (recueil besoins, cadrage, suivi, recette, déploiement) Rigueur, autonomie et sens du service utilisateur

Offre premium
CDI

Offre d'emploi
Data Engineer Databricks - Paris

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Databricks

50k-60k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance
CDI

Offre d'emploi
Senior Cloud Data Engineer

adbi
Publiée le
Apache Airflow
AWS Cloud
Docker

12 mois
Paris, France

Les équipes Data Systems de notre client recherchent un Senior Cloud Data Engineer passionné, basé à Paris, pour accompagner la forte croissance de leurs activités. En rejoignant l'équipe : Vous intégrerez une équipe autonome, impliquée dans un programme de transformation autour de projets de Data Engineering. Vous apporterez votre expertise sur la stratégie data, serez impliqué dans l’architecture et l’implémentation, et aurez l’opportunité d’expérimenter de nouvelles technologies. Vous jouerez un rôle clé en guidant les bonnes pratiques, en garantissant la fiabilité, la maintenabilité et la scalabilité des solutions que nous proposons à nos clients. Vos missions Concevoir, développer et déployer des solutions data sur le cloud (principalement AWS, mais aussi Azure ou GCP). Construire et maintenir des pipelines de données performants, sécurisés et automatisés. Travailler sur des architectures modernes type Lakehouse (Hudi, Iceberg, Delta) et appliquer des optimisations (Compaction, Z-Order, etc.). Orchestrer des pipelines avec Airflow et exploiter des environnements Hadoop / Spark. Développer en Python, SQL, Docker, avec mise en place de CI/CD et principes DevOps. Garantir la performance, la disponibilité et la sécurité des applications. Accompagner les membres moins expérimentés de l’équipe et partager les bonnes pratiques. Participer à des projets innovants et contribuer à l’évolution de notre offre Cloud Data Engineering. Profil recherché 5 ans minimum d’expérience pratique dans la construction de pipelines de données sur le cloud (AWS de préférence, Azure ou GCP acceptés). 3 ans minimum en architecture, conception, développement et support de solutions data. Connaissance des bases de données, ETL, BI, Big Data, Machine Learning et Advanced Analytics. Maîtrise des environnements Hadoop, Spark, Airflow. Expérience des architectures Lakehouse. Solides compétences en Python, SQL, CI/CD, automatisation et gestion de conteneurs (Docker). Connaissances de base en services cloud (réseau, sécurité, stockage, IAM). Bonne compréhension des méthodologies Agile et DevOps. Esprit ouvert, curieux et orienté apprentissage continu. Bon relationnel et capacité à collaborer avec des équipes pluridisciplinaires. Excellente communication écrite et orale en français et en anglais. Expérience souhaitée : infrastructures Linux, applications conteneurisées. Ce que nous offrons Participation à des projets data innovants et stratégiques. Un environnement stimulant, multiculturel et orienté partage de connaissances.

Freelance
CDI

Offre d'emploi
Expert DATAIKU

CELAD
Publiée le
Analyse

12 mois
40k-45k €
400-450 €
75652 CEDEX 13, Paris, Île-de-France

Restituer les données de l'entreprise sous forme de tableaux de bord, de graphiques, de cubes OLAP pour faciliter les choix stratégiques de la direction • Comprendre l’attendu en terme de reporting • Collecter et stocker les données (extraction) puis les distribuer et les exploiter (restitution) • Tester les différentes restitutions (cubes OLAP, tableaux de bord, reporting) • Intégrer et mettre en production le développement • Assurer une maintenance • Mise en œuvre de socles/applications, DataManagement & Business Intelligence/Analytics • Migration d'un outil BI • Mise en œuvre d'applications analytiques sous PowerBI ou autres (e.g. analyse des dépenses, cartographie et optimisation des immeubles, ...) Activités et tâches : • Le Pilotage et l’organisation des phases de migration de données (coordonner les travaux de migration) • L’étude des modèles de données source et destination • L’élaboration des fichiers de mapping (source / destination). Ainsi que les différents fichiers de spécification • La stratégie de migration (ETL) • La validation des scripts d'extraction et transformation • La prise en charge du plan de réversibilité des données • Conception et réalisation de modèles de données et cubes SSAS • Conception Dashboard PowerBI (en proximité avec les métiers) et réalisation (mode import, direct query, live query) • Développement de dashboards TABLEAU, gestion des bases de données type SQL, gestion des ETLs type Informatica Cloud, récupération ou le plug de données SalesForce

Freelance

Mission freelance
Chef de projet sécurisation Migration

Cherry Pick
Publiée le
Migration
Monétique

12 mois
630-680 €
Paris, France

Contexte de la mission Le client recherche un chef de projet/coordinateur à mi-temps pour une mission asap et jusqu’à fin novembre 2025 (avec éventualité de poursuivre en décembre) dans le cadre du projet Cyber Segmentation du SI sur le périmètre de la Monétique L’écosystème Monétique consiste en la gestion des cartes privatives pour la gestion de flotte de véhicules d’entreprises B2B. Cet écosystème complexe comprend notamment la solution de facturation et de gestion des Cartes « Cardpro » ainsi que tous les systèmes tiers en interaction avec celle-ci (extranets, CRM, gestion des contrats, autorisation des cartes, ETL, etc.) Le projet Segmentation du SI vise à renforcer la sécurité du système d'information du client en le rendant entièrement segmenté d'ici 2026, conformément aux objectifs cyber définis par l'entreprise. Dans le périmètre Monétique, le projet Segmentation SI impacte directement l’application Cardpro, avec : Une segmentation en VLAN dans la ZSA en y migrant les environnements de production et préproduction La création d’un groupe AD dédié pour les utilisateurs sur site L’obligation d’activer Zscaler quotidiennement sur site L’équipe projet Segmentation SI se charge de mettre en place la segmentation des environnements Cardpro en VLAN dans la ZSA. Le chef de projet/coordinateur sur le périmètre Monétique sera en charge de : La coordination de l’analyse techniques des flux inter et intra VLAN afin d’en assurer la complétude et identification des impacts dans les différents systèmes La coordination des développements à réaliser La réalisation de stratégie de recette, coordination, déroulement des tests transverses, et TNR Le pilotage des mises en Production La mise en place de la phase d’hypercare (VSR) Objectifs et livrables Activités à réaliser dans le cadre du projet Assurer le rôle de coordinateur TGITS SIMR/CP en lien avec les différentes parties prenantes du projet Segmentation du SI, et des systèmes concernés Mettre en place le bon niveau de gouvernance (COMOP / COPIL) Présenter le projet et son avancement Identifier, planifier, et animer les ateliers pour l'étude d'impacts et tests Coordonner les tests et TNR Valider les mises en Production lors des cérémonies de Go NoGo Livrables attendus Support pour le suivi d'avancement du projet (gouvernance) Etude d’impacts dans Cardpro et les différents systèmes le sollicitant Planning des développements à réaliser Stratégie de recette, cahier de tests et TNR Support pour validation du Go pour MEP Profil recherché : Niveau d’expérience : senior confirmé (pas junior). Type de profil : chef de projet orienté coordination / pilotage transverse , avec appétence technique sur les flux et la migration. Compétences clés : Connaissance des environnements monétiques / bancaires → idéalement Cardpro. Pilotage de projets Cyber / segmentation / migration . Coordination de flux applicatifs (analyse, TNR, non-régression). Capacité à communiquer / animer ateliers / COPIL-COMOP . Soft skills : autonomie, solide, capable de gérer un écosystème critique. Modalités : mission longue, sur site majoritairement (2 jours TT possible), capacité à interagir directement avec les sachants. Compétences attendues : Pilotage et coordination : niveau expert ⭐⭐⭐⭐⭐ Organisation et anticipation : niveau expert ⭐⭐⭐⭐⭐ Autonomie et proactivité : niveau confirmé ⭐⭐⭐⭐ Communication et présentation : niveau confirmé ⭐⭐⭐⭐ Compréhension de schémas d’architecture et de flux : niveau avancé ⭐⭐⭐

CDI

Offre d'emploi
Data Architecte Databricks - Paris

KOMEET TECHNOLOGIES
Publiée le
Databricks

65k-80k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance

Mission freelance
Architecte d'Entreprise

CS Group Solutions
Publiée le
Architecture
TOGAF

6 mois
650-700 €
Paris, France

Nous recherchons un Architecte d'Entreprise/ Domaine facturation SAP Le client recherche un Architecte d'Entreprise connaissant impérativement le Domaine facturation et SAP Prestation attendue: 3.1. Lotissement et volumétrie de la prestation La prestation comporte deux (2) Lots qui seront attribués à un seul Titulaire (mono-attributaire). Ces deux Lots seront en lien avec les deux trains du programme. Selon l’évaluation du besoin exprimé, et seulement à titre indicatif, la charge est estimée à : Lot Profil Séniorité Volumétrie estimative Lot A (ferme) 1.2 Urbaniste des systèmes d’information Sénior 218 jours Lot B (optionnel) 1.2 Urbaniste des systèmes d’information Sénior 218 jours La volumétrie peut être ajustée en cours d’exécution de la prestation durant les périodes optionnelles (Cf. 5.1), selon les besoins de l’ENTREPRISE avec un préavis d’un mois. 3.2. Description de la prestation attendue La prestation porte sur de l’Urbanisme et l’accompagnement au programme , ses équipes et les chantiers engagés. Le Programme implique une transformation et une rénovation en profondeur des outils existants. • Une rénovation des outils du marketing : Engagé en 2022, le projet a pour mission de refondre les outils de marketing digital et de marketing direct via la mise en oeuvre de 4 nouvelles solutions : - La Customer Data Platform (solution Weborama) pour constituer un référentiel marketing et se connecter aux canaux d’activation (publicité digitale, SEA, solution de marketing direct, etc.) ; - La solution de réconciliation d’identités (solution RMS / Temelio) pour augmenter les capacités de réconciliation entre les données CRM et les identifiants digitaux (cookie, device ID) ; - La solution de Marketing Automation (Oracle Responsys) pour activer des campagnes de marketing direct sur les canaux Email / SMS, ou en intégration avec d’autres canaux (courriers, push, etc.) ; - La solution de Social Messaging (solution Alcmeon) pour déclencher des conversations via les messageries instantanées. La rénovation est achevée depuis fin 2023 avec la mise en place des nouveaux systèmes. Filière Systèmes d’Information DSI Groupe Cahier des Charges d’Appel à prestation Référence : AE_DSIN014 • Une rénovation de la solution de CRM : Le renouvellement de la solution de CRM couvre essentiellement deux grands périmètres métier : - La Conquête, couvrant les processus d’avant-vente et de vente (par l'ENTREPRISE et éventuellement par des Partenaires apporteurs d’affaires) ; - La Relation Courante, couvrant la gestion des clients et des données de logement, les besoins (demandes et réclamations), l’engagement et la fidélisation, la gestion du contrat (dont les relations avec les distributeurs, les partenaires, les modifications et les résiliations). La mise en oeuvre du nouveau CRM reposera sur de nouvelles logiques : - Le principe d’omnicanalité par la centralisation des processus et des règles métier dans le CRM et leur exposition par API et web components dans les solutions digitales existantes (espace client, application mobile, etc.) ou potentiellement mises en oeuvre ultérieurement dans le cadre du Programme (par exemple Expérience Cloud) ; - Une approche centrée sur « l’individu », alors que la mise en oeuvre actuelle est essentiellement centrée sur une approche « contrat », associée au logement. A titre informatif, la solution choisie par l’ENTREPRISE est SALESFORCE. • Une rénovation des parcours et interfaces digitales pour les clients : L’ENTREPRISE doit à la fois accompagner ses clients dans leur transition vers l’électrique en anticipant les usages à venir, et se prémunir contre les risques de désintermédiation. L’ENTREPRISE doit être capable de faire pivoter la gestion relationnelle actuelle pour une relation étendue et centrée individu : - Gérer son identité, ses habilitations et ses pouvoirs : déclarer des co-gérants dans un foyer, pouvoir gérer pour autrui (seniors, jeunes, …), gérer ses consentements, ses habitudes, ses préférences relationnelles ; - Gérer ses contrats grâce à une vision synthétique par résidence et usage (centrée client et non contrat), voir et agir sur des contrats de partenaires souscrits via l’ENTREPRISE, être accompagné dans l’optimisation contractuelle selon ses habitudes ; - Piloter de manière centralisée son foyer et sa consommation d’énergie (chauffage, véhicule électrique, autoconsommation, sécurité, …), encourager les clients vers l’optimisation et la sobriété énergétique. L’ENTREPRISE doit installer ces usages complexes et divers grâce à 3 principes : - La personnalisation : limiter la complexité pour l’individu en mettant en visibilité les éléments pertinents pour chacun ; - La proactivité : proposer la next best action personnalisée, dès qu’un individu se connecte : action de pilotage, d’optimisation contractuelle, découverte d’un nouveau service, etc. ; - Le conversationnel : accompagner pas à pas, de manière fluide et didactique, en langage naturel. Filière Systèmes d’Information DSI Groupe Cahier des Charges d’Appel à prestation • Une rénovation des capacités d’échanges entre les solutions actuelles et à venir : L’ENTREPRISE s’est dotée d’une nouvelle plateforme d’échanges utilisant les solutions Anypoint Platform de notification/Salesforce pour l’intégration (IPaaS et ETL) et Cloud Pak for Integration d’IBM pour la partie Messaging afin de moderniser les services d'échanges de données du groupe et de répondre aux enjeux des Programmes de transformation du SI Commerce en particulier. L’interaction avec cette plateforme est un point clé dans la réussite du Programme. • Une rénovation de la facturière : La solution facturière SAP ISU a été convertie en S/4 HANA dans le cadre d’un projet Brownfield dont la mise en production s’est déroulée en novembre 2024. Les travaux d’interfaçage entre le CRM en SaaS, via la plateforme d’échanges, et la facturière S/4 Hana on premise sont aujourd’hui en cours de conception et réalisation. La nouvelle facturière sous S/4 HANA pourra le cas échéant être ultérieurement enrichie par la mise en oeuvre de solutions complémentaires pour élargir ses fonctionnalités et pour gérer l’obsolescence de certains de ses modules (ETL, reporting analytique ...). Au sein de la DSIN, les activités d’architecture et urbanisme sont des activités transverses aux deux Marchés de la Direction Commerce, le Marché d’affaires (MA) et le Marché des Clients Particuliers (MCP). Les compétences sont néanmoins organisées par Marché, et la déclinaison des activités d’architecture et d’urbanismes ne s’organisent pas tout à fait de la même manière entre le Marché d’Affaires et le Marché des Particuliers. A travers le programme, la Direction Commerce met en place le nouveau module Canopée sous SalesForce qui viendra remplacer à terme le module CRM7 développé sur SAP. Le programme s’appuie sur le framework SAFe pour réaliser le développement de la plateforme Commerciale Canopée : module SalesForce dédié aux conseillers ainsi que l’espace privé du digital dédié aux clients. L’objectif de cette mission, en tant qu’urbaniste, est donc d’accompagner et d’appuyer de manière opérationnelle les deux trains mis en oeuvre côté : - Un premier relatif au périmètre fonctionnel de Traitement de la Demande, le coeur de la relation client traité au sein du nouveau module Canopée (plate-forme Commerciale mise en oeuvre dans SalesForce en s’appuyant sur les modules standard Services Cloud et SFI (SalesForce industrie) ; - Un second relatif au périmètre fonctionnel de la Conquête qui couvre l’ensemble des cas d’usage en lien l’avant-vente et la vente dont la gestion contractuelle opérationnelle et la facturation ; - Contribuer et accompagner l’émergence des EPIC et des chantiers et des plans d’actions à mettre en oeuvre (appui à la rédaction des EPIC, identification et définition des macroarchitectures) ; - Prendre en charge la préparation et l’animation de groupe de travail ou d’ateliers au niveau du pôle (cadrage opérationnel des EPIC, rappel des processus et découpage en capacité de services, identification des solutions émergentes) ;

CDD
Freelance
CDI

Offre d'emploi
Data Analyst RH - Taxonomie & Data Gouvernance (F/H)

Taleo Capital
Publiée le
Data analysis
Rédaction

4 mois
50k-60k €
500-600 €
Paris, France

Contexte : Au sein de la Direction des Ressources Humaines de notre client, une grande instance financière nationale, la mission vise à accompagner la gouvernance des données RH. L’objectif est de mettre en place un catalogue de données et de définir une démarche de taxonomie adaptée , afin d’améliorer la qualité, la traçabilité et l’exploitation des données RH. Le système d’information RH est en pleine transformation avec l’intégration de nouveaux outils de gestion des talents et de formation, qui surviendront lors de sa prochaine mise à jour. A ce jour, le SIRH repose sur les 3 principales solutions techniques suivantes : Système de production : SAP ECC6 – Module HCM - EHP7 , accessible à plus de 600 utilisateurs professionnels RH via le client SAP et à l’ensemble du personnel (employés et managers) à travers un portail RH Système infocentre RH : logiciel de chargement (ETL) INFORMATICA 9 et solution de reporting SAP BI 4.2. accessible à plus de 320 utilisateurs du domaine RH. Progiciel Suite Talent de l’éditeur CEGID pour la gestion de la formation Responsabilités : Identifier les données selon leur sensibilité, les besoins métier et les outils utilisés Proposer une nomenclature avec des catégories claires dans une arborescence et définir des métadonnées, attributs et standards de qualité si possible et si pertinent Décrire et relier les données aux processus et glossaires métiers déjà existants Identifier les lacunes en matière de glossaire/dictionnaire Décrire les indicateurs diffusés dans certains tableaux de bord, sourcer les données servant à les constituer et les intégrer à la taxonomie Rédiger un support expliquant la taxonomie et les niveaux de maturité possibles de celle-ci

Freelance

Mission freelance
Data Analyst Expert - Qlik Sense & PowerBI

KEONI CONSULTING
Publiée le
autonomie
Business Analyst
Microsoft Power BI

18 mois
100-400 €
Paris, France

CONTEXTE Experience : 8 ans et plus Métiers Fonctions : Data Management :Data Analyst Spécialités technologiques : Data Visualisation, Restitution Contexte : Le Data Analyst aura pour mission de structurer les fondations méthodologiques et techniques nécessaires à la diffusion d’indicateurs fiables et exploitables pour une direction métier. Il aura pour mission de centraliser les données issues de multiples sources, d’en assurer la transformation, puis d’industrialiser leur traitement au travers de pipelines performants, pour les visualiser dans Power BI, Qlik Sense, etc. MISSIONS Le Data Analyst aura potentiellement la charge de plusieurs domaines de données au sein du département. En lien étroit avec l’architecte/expert data et les métiers, il sera responsable de la chaîne complète de traitement et de valorisation des données, depuis la compréhension du besoin jusqu’à la mise en production et la maintenance des applications décisionnelles. Il jouera un rôle clé dans cette dynamique, en prenant en charge la structuration des flux, l’optimisation des performances. Il devra allier expertise technique et compréhension des enjeux métiers pour garantir la qualité, la cohérence et la disponibilité des données. Appuyé par les standards et les outils mis à disposition par les équipes data transverses, il travaillera en forte autonomie sur les projets qui lui seront confiés. Activités : - Recueil et formalisation des besoins métier - Animer des ateliers avec les utilisateurs métiers pour comprendre leurs enjeux et besoins en reporting, datavisualisation et indicateurs. - Rédiger des spécifications fonctionnelles et techniques (cahiers des charges, dictionnaires de données, définitions d’indicateurs). - Identifier et challenger les sources de données disponibles. - Prototypage et maquettes - Concevoir des maquettes d’écrans (wireframes, prototypes Power BI ou Qlik Sense) pour validation métier. - Proposer des choix de visualisation pertinents en fonction des usages (tableaux de bord stratégiques, opérationnels, analytiques). - Conception et modélisation des données - Définir et mettre en oeuvre la modélisation back-end : datamarts, hubs data, modèles dimensionnels (étoile,flocon) ou data vault. - Écrire et optimiser les requêtes SQL ou pipelines (via Dataiku ou autres outils ETL/ELT) pour alimenter les modèles. - Mettre en place des pré-calculs ou agrégations pour optimiser les performances. - Développement des applications décisionnelles - Développer les dashboards et rapports dans Power BI et/ou Qlik Sense en respectant les standards UX/UI et les bonnes pratiques data. - Paramétrer la sécurité des données : ségrégation de données (row-level security), restrictions d.accès en conformité avec la politique RGPD. - Garantir la performance et la fiabilité des restitutions. - Tests et recette - Concevoir et exécuter les tests unitaires et d’intégration. - Préparer et accompagner la recette métier. - Corriger les anomalies détectées. - Maintenance évolutive et corrective - Faire évoluer les applications existantes selon les nouveaux besoins ou changements réglementaires. - Surveiller la qualité des données et les performances. - Rédiger et maintenir la documentation technique et fonctionnelle. - Collaboration et amélioration continue - Travailler en étroite collaboration avec l’architecte data, les autres data analysts et l.équipe métier. - Participer aux rituels d’équipe. Expertise souhaitée 8 ans d'expérience minimum sur des fonctions similaires de Data Analyst Maitrise des outils Qlik Sense et idéalement Power BI Excellente maitrise de Dataset (conception & extraction de données) Valorisation des données Big Data En capacité d'accompagner et de challenger les métiers

40 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous