Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 170 résultats.
Offre d'emploi
Product Owner Analytics - (H/F)
DAVRICOURT
Publiée le
40k-50k €
Paris, France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Analyst / Product Owner Data Manufacturing pour l'un de nos clients du secteur agroalimentaire en Île-de-France. À ce titre, vos missions quotidiennes seront les suivantes : - Recueillir et formaliser les besoins métiers liés à la donnée manufacturing ; - Transformer la donnée brute en KPI et dashboards exploitables ; - Construire ou faire évoluer des reportings et produits data ; - Piloter le backlog et travailler dans un environnement agile (Scrum / SAFe) ; - Collaborer avec les équipes métiers et techniques au sein d'un écosystème data & analytics. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Mission freelance
Data Modeler PROGRAMME DE TRANSFORMATION DATA B2B sur Paris
EterniTech
Publiée le
BigQuery
Google Cloud Platform (GCP)
Modélisation
6 mois
Paris, France
Mission : Data Modeler – Transformation Data B2B sur Paris Projet : Senior Data Analyst / Data Modeler (B2B) Contexte : Programme de transformation Data B2B, création d’un nouvel espace de données sur Google Cloud Platform / BigQuery . Approche : Greenfield – reconstruction des produits de données depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). Équipe : Intégré à la “Core Team” pour bâtir le socle technique et les données de référence utilisées par les Squads Métiers. Démarrage : ASAP / URGENT Objectif de la prestation : Le prestataire sera Référent Modélisation & Connaissance de la Donnée , faisant le lien entre Experts Métiers et Lead Data Engineer Agile. Responsabilités principales : Conception du Core Model : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) sur BigQuery (Star Schema / Data Vault). Règles de Gestion RCU : Définir/prototyper en SQL les règles de rapprochement entre données techniques et légales (SIREN/SIRET). Archéologie de la Donnée : Analyser les sources legacy (Oracle), identifier règles implicites et écarts avec la cible. Gouvernance & Dictionnaire : Documenter les métadonnées dans AIDA et ODG. Support aux Squads : Préparer des datasets certifiés pour Data Scientists et Analystes. Livrables attendus : Modélisation cible : Modèles Logiques de Données validés par Tech Lead. Mapping Source-to-Target. RCU / Vision 360 : Spécifications SQL des règles d’unicité, matrice de cas particuliers. Gouvernance : Dictionnaire de données intégré dans AIDA et ODG. Qualité des données : Définition des règles DQ pour chaque objet métier. Prototypage / exploration : Requêtes SQL et datasets de test pour validation métier. Planning clé : 1er draft RCU : mi-mars 2026 MVP RCU : fin mars 2026 Gouvernance et qualité : continu Prototypage : à la demande
Mission freelance
Coach Agile - Nantes
Signe +
Publiée le
Kanban
PowerBI
Python
220 jours
380 €
Nantes, Pays de la Loire
Accompagner les équipes Data dans l’amélioration continue de leurs pratiques (agilité, organisation, delivery) tout en contribuant à la production et à l’analyse des données. Responsabilités : Coach Agile / Scrum (50%) : - Animer les cérémonies agiles (daily, sprint planning, review, rétrospectives). - Structurer le backlog et prioriser les tâches. - Former et sensibiliser l’équipe aux pratiques Scrum, Kanban et Lean. - Aider à lever les obstacles, améliorer le fonctionnement interne et le delivery. - Mettre en place des outils simples de suivi (tableaux, indicateurs, rituels). - Faciliter la communication entre les équipes techniques, métiers et exploitation Data Analyst (50%) : - Collecter, nettoyer et analyser les données liées aux flux, usages, équipements et services en gare. - Réaliser des tableaux de bord (Power BI ou équivalent) pour les équipes métiers. - Contribuer aux études statistiques (tendances, performances, incidents, utilisation des outils…). - Proposer des indicateurs pour orienter les décisions opérationnelles. - Travailler avec les équipes terrain pour comprendre les besoins utilisateurs et améliorer les visualisations.
Mission freelance
Data Architect
Groupe Aptenia
Publiée le
Architecture
Data governance
Data quality
3 ans
Île-de-France, France
En tant que Data Architect , vous serez en charge de concevoir et mettre en œuvre une architecture data unifiée , intégrant des systèmes hétérogènes (dont ceux issus de l’acquisition de plusieurs entités). Votre objectif : simplifier, standardiser et optimiser les flux et le stockage des données pour en faire un levier stratégique. Vos responsabilités clés : ✔ Conception d’une architecture data cohérente : Définir une feuille de route technique pour intégrer les systèmes legacy et modernes dans une architecture homogène. Proposer des solutions pour réduire l’hétérogénéité des données et des plateformes. ✔ Pilotage de la migration et de l’intégration des données : Superviser la transformation et la migration des données vers des environnements cibles (data warehouses, data mesh). Garantir la qualité, la cohérence et l’accessibilité des données. ✔ Collaboration avec les équipes Data et IT : Travailler avec les Data Engineers et Data Analysts pour concevoir des pipelines de données efficaces. Être un relais technique entre les équipes IT et métiers.
Mission freelance
Senior Data Engineer AWS
SILAMIR
Publiée le
AWS Cloud
12 mois
Paris, France
Nous recherchons un Data Engineer expérimenté afin de contribuer à la fiabilité, l’automatisation et la scalabilité d’un Lakehouse data. Vous interviendrez sur la conception et l’orchestration de pipelines, l’optimisation des traitements et l’évolution de l’architecture data dans un environnement moderne basé sur AWS. Vos missions : Conception & orchestration Concevoir, développer et maintenir des pipelines Airflow pour l’ingestion et la transformation des données Mettre en place des frameworks et mécanismes d’automatisation Garantir la robustesse, la modularité et la résilience des workflows Traitement & gestion des flux Développer des composants pour le traitement de fichiers plats (CSV, JSON, Parquet…) et leur exposition via API Consommer et transformer des flux Kafka avec Spark Optimiser la performance et le partitionnement des traitements sur de gros volumes Collaboration analytique Collaborer avec les Data Analysts pour concevoir des agrégats métiers Créer et maintenir des vues Athena utilisées dans Tableau Garantir la cohérence, la fraîcheur et la traçabilité des données Évolution du Lakehouse Participer à la conception et à l’amélioration continue de l’architecture Créer et maintenir des tables de référentiel (clients, contacts, événements, interactions…) Implémenter ces référentiels avec Iceberg / Hudi Supervision & DataOps Assurer la supervision quotidienne des pipelines Mettre en place alerting et monitoring Produire et maintenir la documentation technique
Offre d'emploi
Data Ingénieur DBT - Snowflake (H/F)
Linkup Partner
Publiée le
DBT
1 an
45k-55k €
470-560 €
Paris, France
Nous recherchons un Data Engineer spécialisé DBT et Snowflake pour rejoindre une équipe Data et participer à la construction, l’optimisation et l’industrialisation d'une plateforme analytique moderne. Vous interviendrez au cœur des pipelines de données pour garantir la fiabilité, la scalabilité et la performance des modèles. En tant que Data Engineer, vous serez en charge de : 1. Développement & modélisation Modéliser, transformer et documenter les données à l’aide de DBT (models, tests, macros). Construire et optimiser les modèles dans Snowflake (warehouse, schemas, performance tuning). Développer et maintenir des pipelines data robustes (batch ou streaming selon contexte). 2. Architecture & DataOps Participer à la conception de l’architecture Data (Data Lake / Data Warehouse). Mettre en place des bonnes pratiques en versionning, CI/CD et monitoring autour de DBT. Assurer la qualité, la cohérence et la gouvernance des données. 3. Collaboration & support Travailler étroitement avec les Data Analysts, Data Scientists et équipes métier. Documenter les transformations pour assurer la transparence et la traçabilité. Participer à l'amélioration continue des standards Data. Stack technique DBT (core ou cloud) Snowflake SQL avancé Git / CI-CD (ex : GitLab, Github Actions, CircleCI) Orchestrateurs : Airflow, Dagster ou équivalent (souhaité) Langages : Python (souhaité)
Mission freelance
Product Owner Data GCP
LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud
12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
Mission freelance
DEVIENS #AUTEUR DE VIDEO Power Query
Editions ENI
Publiée le
Data cleaning
Power Query
4 mois
100-300 €
Saint-Herblain, Pays de la Loire
Vous maîtrisez Power Query sur le bout des doigts ? Vous avez la fibre pédagogique et l'envie de transmettre ? Et si votre prochain défi était de devenir auteur(trice) vidéo ? Aux Éditions ENI, nous recherchons un(e) professionnel(le) de l'IT pour concevoir et enregistrer notre prochaine vidéo qui portera sur Power Query . Votre mission : Partager votre expertise et vos conseils avec une communauté de professionnels. Pourquoi nous rejoindre ? Boostez votre Personal Branding : Devenir auteur ENI, c'est asseoir votre crédibilité dans l'écosystème IT. Focus sur votre expertise : Concentrez-vous sur le contenu, on s'occupe du reste ! Nous vous accueillons dans notre studio d'enregistrement à Saint-Herblain (déplacements pris en charge). De la captation au montage final, nous nous occupons de tout pour garantir un rendu de haute qualité à votre vidéo de formation. Un accompagnement sur-mesure : De la structure du sommaire au tournage, vous bénéficiez d'un suivi éditorial et méthodologique complet. Une rémunération simple : Forfait fixe garanti dès la fin du projet. Le profil recherché : Vous êtes Data Analyst , ou formateur(trice) ... et Power Query n'a aucun secret pour vous. Vous savez vulgariser des concepts complexes et vous êtes à l'aise pour expliquer votre démarche.
Mission freelance
Business analyst data / BI- N
KEONI CONSULTING
Publiée le
Business Analysis
SAS
SQL
18 mois
100-350 €
Nantes, Pays de la Loire
CONTEXTE Expérience: 1 ans et plus Métiers Fonctions : Conseil métier, AMOA, Business Analyst Spécialités technologiques : BI, Reporting, API objectif : offrir une vue consolidée et fiable des données pour tous les métiers et accompagner le SELF BI. · Sortie de SAS vers Power BI pour le moment une prochaine étape se fera probablement vers des outils snowflake · Modernisation des outils MISSIONS 1. Analyse métier et besoins - Recueillir et formaliser les besoins des métiers - Traduire les demandes en spécifications fonctionnelles claires - Garantir la cohérence des données (identifiants et des champs) 2. Consolidation et qualité des données - Superviser la consolidation des données provenant de plusieurs sources (Nantes, Inde). - Contribuer à l’amélioration de la qualité des données et à la définition des standards. 3. Conception et restitution - Définir des vues métiers adaptées (extractions, dashboards). - Mettre en place des solutions de reporting via Power BI et outils analytiques. 4. Accompagnement de la transformation - Promouvoir le self Bi auprès des équipes métier : l’accès direct et autonome - Participer à la phase de transformation vers un modèle Data Next. - Sensibiliser les métiers à l’usage des outils et à la gouvernance des données. Expertise souhaitée Technique : - Bonne connaissance des datawarehouses, modèles de données, requêtes SQL, SAS. - Maîtrise des outils de BI (Power BI). Profil recherché · Expérience confirmée en Business Analysis orientée data. · Sensibilité technique + compréhension des enjeux utilisateurs. · Capacité à travailler dans un environnement international (Inde, France, Italie). Soft skills : · Communication claire avec les métiers et les équipes techniques. · Sens de la qualité et de la cohérence des données. · Proactivité : crée un lien fort avec les métiers afin d’accompagner la transformation vers le SELFBI
Offre d'emploi
Product analyst
UCASE CONSULTING
Publiée le
BigQuery
Snowflake
SQL
1 an
40k-65k €
410-810 €
Paris, France
Bonjour 😀 Pour l'un de nos clients, nous recherchons un Product Data Analyst pour accompagner son équipe Produit App Mobile , afin de piloter la prise de décision basée sur la donnée et d’améliorer l’expérience de l’application mobile. Au sein de l’équipe Digital Analytics, vous jouerez un rôle clé dans l’analyse de la performance produit, l’expérimentation et l’optimisation continue, en fournissant des insights actionnables qui orientent la stratégie produit et génèrent un impact business mesurable. Responsabilités principales : Analyse Produit & Performance : Analyser les évolutions produit, les expérimentations (A/B tests) et les optimisations afin de mesurer leur impact sur les principaux KPI de l’application mobile et du business. Insights Stratégiques : Transformer les données en recommandations claires et actionnables afin d’influencer la roadmap produit et les priorités business. Collaboration avec les parties prenantes : Travailler en partenariat avec des équipes transverses pour définir les indicateurs de succès et soutenir les décisions produit basées sur la donnée. Stratégie Analytics & Tracking : Définir et valider les besoins de tracking afin de garantir une collecte de données fiable, une bonne qualité des données et l’intégrité de la mesure. Expérimentation & Optimisation : Identifier des opportunités d’optimisation pour améliorer la conversion et l’expérience utilisateur.
Mission freelance
Business analyst data / BI
KEONI CONSULTING
Publiée le
API
Business Analysis
Snowflake
18 mois
100-350 €
Vanves, Île-de-France
CONTEXTE Expérience: 1 ans et plus Métiers Fonctions : Conseil métier, AMOA, Business Analyst Spécialités technologiques : BI, Reporting, API objectif : offrir une vue consolidée et fiable des données pour tous les métiers et accompagner le SELF BI. · Sortie de SAS vers Power BI pour le moment une prochaine étape se fera probablement vers des outils snowflake · Modernisation des outils MISSIONS 1. Analyse métier et besoins - Recueillir et formaliser les besoins des métiers - Traduire les demandes en spécifications fonctionnelles claires - Garantir la cohérence des données (identifiants et des champs) 2. Consolidation et qualité des données - Superviser la consolidation des données provenant de plusieurs sources (Nantes, Inde). - Contribuer à l’amélioration de la qualité des données et à la définition des standards. 3. Conception et restitution - Définir des vues métiers adaptées (extractions, dashboards). - Mettre en place des solutions de reporting via Power BI et outils analytiques. 4. Accompagnement de la transformation - Promouvoir le self Bi auprès des équipes métier : l’accès direct et autonome - Participer à la phase de transformation vers un modèle Data Next. - Sensibiliser les métiers à l’usage des outils et à la gouvernance des données. Expertise souhaitée Technique : - Bonne connaissance des datawarehouses, modèles de données, requêtes SQL, SAS. - Maîtrise des outils de BI (Power BI). Profil recherché · Expérience confirmée en Business Analysis orientée data. · Sensibilité technique + compréhension des enjeux utilisateurs. · Capacité à travailler dans un environnement international (Inde, France, Italie). Soft skills : · Communication claire avec les métiers et les équipes techniques. · Sens de la qualité et de la cohérence des données. · Proactivité : crée un lien fort avec les métiers afin d’accompagner la transformation vers le SELFBI
Offre d'emploi
Data modeler
IT CONSULTANTS
Publiée le
Méthode Agile
12 mois
Châtillon, Île-de-France
Cherchons un profil DATA MODELER pour concevoir, développer et maintenir les modèles de données de différents domaines pour soutenir les besoins en matière de définition des différents modèles de données de notre client. Il/elle contribuera à la qualité des données et sera en charge de - la gestion des objets de données, - la création de schémas de base de données, - la modélisation de données dimensionnelles ou relationnelles Expérience en Architecture Data requise Compétences requises : - Maitrise des méthodologies de modélisation des données standard de l'industrie - Expertise éprouvée dans le développement de bases de données relationnelles dans un contexte d'entreprise - Connaissances SQL avancées, - Optimisation des performances des bases de données et des requêtes, - Compréhension approfondie de la méthodologie et des procédures de modélisation, La mission consiste à couvrir les actions suivantes : 1. Concevoir des modèles de données efficaces, y compris des schémas de base de données, des modèles dimensionnels et relationnels, 2. En collaboration avec les porteurs de domaines de données et les data stewards collaborer avec les équipes métier pour comprendre leurs besoins en matière de données et traduire ces besoins en modèles de données, 3. Développer, implémenter et maintenir des normes de modélisation de données pour garantir la cohérence au global et au sein des domaines de données, 4. Accompagner les data analysts et le faire monter en compétence sur la modélisation des données, 5. Collaborer avec les feature teams et les projets pour déployer les modèles de données et surveiller leur performance. 6. Documenter les modèles de données, les schémas de base de données et les processus liés à la modélisation de données. - Aptitudes personnelles : Excellentes capacités de travail d'équipe et de communication Excellentes capacités consultatives, facilitatives et consensuelles Excellentes capacités de communication orale et écrite Excellentes capacités d'analyse, de profilage de données et de résolution de problèmes
Mission freelance
DATA ENGINEER FABRIC/AZURE DATA FACTORY (H/F)
ALLEGIS GROUP
Publiée le
Azure Data Factory
Microsoft Fabric
6 mois
Hauts-de-France, France
TEKsystems recherche pour le compte de son client un(e) : DATA ENGINEER FABRIC Missions principales : Implémentation des composants Microsoft Fabric liés aux cas d’usage prioritaires Conception et industrialisation de pipelines d’ingestion/traitement (ETL/ELT), APIs et modèles de données avec Microsoft Fabric Observabilité, data quality, tests, CI/CD et documentation technique Optimisation coûts/performance, sécurité et conformité Collaboration étroite avec Data Analysts et équipes métiers Compétences attendues : Microsoft Fabric Python, SQL ; orchestration, versioning et CI/CD Intégration de données multi-sources (ERP/HR/Produits etc), API, batch/stream Plateformes et architectures data modernes (data fabric/data lakehouse, cloud Azure) Gouvernance des données, catalogage, métadonnées et lineage
Mission freelance
Coordinateur/Référent Data_Senior_Lyon
CAT-AMANIA
Publiée le
Data analysis
RGPD
3 ans
Lyon, Auvergne-Rhône-Alpes
Nous souhaitons nous renforcer d’un profil Coordinateur/ Référent Data, sur le site de Lyon. Interlocuteur privilégié des Tribus du site, il va capter / qualifier et challenger les besoins et les cas d’usages data à fabriquer, tout en véhiculant le cadre Data de l’entreprise au sein des équipes, à la fois sur le Data managment, la Data Protection, le Digital, le Pilotage BI. Il est entouré de Data Engineer et Data Analyst avec lesquels il collabore en vue d’assurer les missions qui lui sont confiées. - Collecte et priorisation des contributions auprès des PP métiers, organisation de la fabrication avec les Data Engineers et Data Analysts et suivi de la mise en œuvre - Participation au cadrage des contributions et vérification de la mise en œuvre / opérationnalisation du cadre Data (Data Management, Data Protection, Digital, BI), y compris contribution au choix de solutions Data en réponse aux besoins métiers et en cohérence avec les offres normées de l'entreprise - Accompagnement des squads dans la réalisation de leurs Analyses de Risques Métiers sur les axes RGPD - Acculturation, accompagnement et déploiement du Data Management auprès des squads (aide à l’appropriation de l’outil entreprise du Data Management, sensibilisation aux enjeux d’une Data Gouvernée) - Acculturation et accompagnement Digital Parcours des équipes - Organisation des points de suivi auprès des Leaders et communication sur l’état des lieux Data des Tribus suivi (enjeux, priorisation, budget) - Animation et coordination locale - Piloter et animer les travaux Data menés par le Chapitre Data pour le compte des Tribus/Squads accompagnées dans le cadre de la mission, en lien avec les Data Engineer et Data Analyst du Chapitre. Tribu accompagnées : Dématérialisation, Digital Workplace, Innovation, Crédits Entreprises/Agri Pro - Maintenir, animer et déployer le cadre de gouvernance Data (Data Management, Data Privacy) de l’entreprise auprès des Tribus/Squads accompagnées dans le cadre de la mission. - Maitriser les process, méthodes et outils donnés par le cadre de l’entreprise pour proposer la meilleure solution Data à nos clients.
Offre d'emploi
Data modeler
IT CONSULTANTS
Publiée le
Méthode Agile
12 mois
Châtillon, Île-de-France
Cherchons un profil DATA MODELER pour concevoir, développer et maintenir les modèles de données de différents domaines pour soutenir les besoins en matière de définition des différents modèles de données de notre client. Il/elle contribuera à la qualité des données et sera en charge de - la gestion des objets de données, - la création de schémas de base de données, - la modélisation de données dimensionnelles ou relationnelles Expérience en Architecture Data requise Compétences requises : - Maitrise des méthodologies de modélisation des données standard de l'industrie - Expertise éprouvée dans le développement de bases de données relationnelles dans un contexte d'entreprise - Connaissances SQL avancées, - Optimisation des performances des bases de données et des requêtes, - Compréhension approfondie de la méthodologie et des procédures de modélisation, La mission consiste à couvrir les actions suivantes : 1. Concevoir des modèles de données efficaces, y compris des schémas de base de données, des modèles dimensionnels et relationnels, 2. En collaboration avec les porteurs de domaines de données et les data stewards collaborer avec les équipes métier pour comprendre leurs besoins en matière de données et traduire ces besoins en modèles de données, 3. Développer, implémenter et maintenir des normes de modélisation de données pour garantir la cohérence au global et au sein des domaines de données, 4. Accompagner les data analysts et le faire monter en compétence sur la modélisation des données, 5. Collaborer avec les feature teams et les projets pour déployer les modèles de données et surveiller leur performance. 6. Documenter les modèles de données, les schémas de base de données et les processus liés à la modélisation de données. - Aptitudes personnelles : Excellentes capacités de travail d'équipe et de communication Excellentes capacités consultatives, facilitatives et consensuelles Excellentes capacités de communication orale et écrite Excellentes capacités d'analyse, de profilage de données et de résolution de problèmes
Mission freelance
Business analyst Asset management H/F
Mon Consultant Indépendant
Publiée le
Business Analysis
6 mois
560-590 €
Paris, France
MERCI DE NE PAS POSTULER SI : - Vous n'avez jamais travaillé en Asset management - Vous ne maîtriser pas SQL et d'autres solutions de requêtes L’équipe Data recherche un Business Analyst pour accompagner la phase d’implémentation du projet de plateforme Data. La mission consiste à soutenir l’équipe en travaillant à la préparation, à la structuration et à la mise en œuvre du projet de migration des données. La mission consistera également à aider l’équipe sur d’autres projets évolutifs afin de répondre aux besoins des clients internes. Des connaissances fonctionnelles des métiers de l’asset management, des flux de données et votre expérience en tant que gestionnaire de projet sont nécessaires pour cette mission. Compétences techniques : Connaissances de l’environnement réglementaire de la gestion d’actifs Français, européens et UK. Une connaissance de la réglementation bancaire et de l’assurance est un plus. Français et Anglais courants Bonne compréhension des enjeux de qualité de données en contexte réglementaire Maitrise des outils Pack Office, VBA, SQL, Python, Neoxam Data Hub, Tableau Desktop, Data Bricks est un plus. Forte capacité à documenter précisément les process, contrôles et anomalies Expérience en optimisation de processus et mise en place de control framework Experience : Expérience dans un rôle de Business/Data Analyst, idéalement dans l’Asset Management ou au sein d’un cabinet de conseil Expérience de gestion de projet dans un environnement complexe (par le nombre d’interlocuteurs, la variété des sujets à traiter, le calendrier serré à respecter).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Client final, ESN et société de portage filiale de l'ESN
- URSSAF micro-entreprise : factures impayées, encaissement et facture groupée
- Mon ESN me demande de baisser mon TJM de 100 euros
- Pourquoi est-il si dur de décrocher une mission avec un CV pourtant plutôt intéressant ?
- Root-MENU ressemble à une arnaque
- Un Avis sur votre activité
170 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois