Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 212 résultats.
CDI

Offre d'emploi
Data Manager H/F

WINSEARCH
Publiée le

70k-90k €
Laval, Pays de la Loire
Votre mission : Faire de la donnée un levier direct de performance commerciale et de création de valeur métier pour l'ensemble du réseau. Structurer, fiabiliser et interconnecter le patrimoine informationnel de TYLS afin de passer d'une donnée subie à une donnée déclencheuse de business. Architecte du patrimoine Data du réseau Cartographier l'ensemble des flux et sources de données (GI / Facturation / Social / CRM / BI).Définir les standards de structuration, de qualité et de gouvernance.Sécuriser et uniformiser les référentiels.Construire le datalake interne du réseau.Déployer un socle BI robuste (Power BI) pour piloter la performance. 2. Accélérateur de performance commerciale Transformer la donnée en produits data activables : triggers, scoring, segmentation intelligente.Alimenter les équipes commerciales en insights actionnables.Déployer des dashboards réseau orientés business et productivité.Mesurer et piloter la performance par cabinet, par offre, par segment. 3. Chef d'orchestre des briques SI stratégiques Piloter la cohérence et l'interconnexion des outils structurants.Moderniser la brique GI / Facturation, socle de qualité des données internes.Interconnecter le SI Social (SILAE) avec la comptabilité et le CRM.Positionner HubSpot comme référentiel client unique. 4. Bâtisseur d'équipe et leader transverse Créer et structurer la fonction Data au sein du réseau.Recruter et manager un Data Analyst / BI Expert.Définir les priorités, roadmaps et rituels de pilotage.Accompagner le changement auprès des équipes métiers et commerciales. 5. Anticipation des croissances externes Intégrer l'impact des opérations de croissance externe en cours.Anticiper l'augmentation des volumes de flux et la complexification des systèmes.Définir une architecture scalable.Sécuriser les migrations et harmonisations post-acquisition. Responsabilités clés Définition de la roadmap Data & BI du réseau.Construction du datalake et des flux d'interconnexion.Gouvernance et qualité des données.Déploiement des outils BI et indicateurs COMEX.Pilotage des projets transverses SI/Data.Management d'équipe.Reporting direct Direction Générale / COMEX.
CDI
Freelance

Offre d'emploi
Data Engineer

LEVUP
Publiée le
AWS Cloud
Python
Snowflake

12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
Freelance

Mission freelance
Coach Agile - Nantes

Signe +
Publiée le
Kanban
PowerBI
Python

220 jours
380 €
Nantes, Pays de la Loire
Accompagner les équipes Data dans l’amélioration continue de leurs pratiques (agilité, organisation, delivery) tout en contribuant à la production et à l’analyse des données. Responsabilités : Coach Agile / Scrum (50%) : - Animer les cérémonies agiles (daily, sprint planning, review, rétrospectives). - Structurer le backlog et prioriser les tâches. - Former et sensibiliser l’équipe aux pratiques Scrum, Kanban et Lean. - Aider à lever les obstacles, améliorer le fonctionnement interne et le delivery. - Mettre en place des outils simples de suivi (tableaux, indicateurs, rituels). - Faciliter la communication entre les équipes techniques, métiers et exploitation Data Analyst (50%) : - Collecter, nettoyer et analyser les données liées aux flux, usages, équipements et services en gare. - Réaliser des tableaux de bord (Power BI ou équivalent) pour les équipes métiers. - Contribuer aux études statistiques (tendances, performances, incidents, utilisation des outils…). - Proposer des indicateurs pour orienter les décisions opérationnelles. - Travailler avec les équipes terrain pour comprendre les besoins utilisateurs et améliorer les visualisations.
Freelance

Mission freelance
DATA SCIENTIST - sénior

Geniem
Publiée le
Data science
Dataiku
Machine Learning

6 mois
Lille, Hauts-de-France
Pour compléter une équipe transverse : Data Engineer, Data Scientist, Data Analyst et MLOps Elle assure également le lien avec la Global Tech & Data Platform . Cette plateforme construit et maintient les produits liés à nos infrastructures et notre transformation vers le Cloud GCP, assurant ainsi l’efficacité opérationnelle sur lesquelles reposent nos plateformes métiers. Votre mission : En lien avec notre philosophie Data In Product, vous êtes responsable de : La création de solutions et applications ML/IA de pointes, pour mise en production, La modélisation et l’industrialisation de modèles produits au service des BUs de la plateforme, L’élaboration d’un cadre de bonnes pratiques au sein de la guilde Data du domaine, L’accompagnement et l’acculturation des métiers sur les bonnes pratiques de l’exploitation de la data. Vous êtes vous-même sensible à l’approche Data Driven de nos produits, L’intégration des applications ML dans nos produits, en lien avec les équipes métiers, La mise en place de modèles statistiques pour résoudre les problématiques identifiées, La collecte de données, la construction de Data Marts et le déploiement de modèles (end-to-end PoC), La connaissance des métriques de base, et les principes d’évaluation de la qualité des modèles obtenus, et leur relation avec les indicateurs de performances Métier, La veille technologique pour orienter et être force de proposition sur l’animation de la backlog du Data Socle COMPÉTENCES REQUISES/ Technique : Python, SQL, GCP (BigQuery, GCS, ...), Pipeline MLOps, Linux, Modélisation de données Méthodologique : Agilité, Github Langues : Français, Anglais
Freelance

Mission freelance
Senior Data Engineer AWS

SILAMIR
Publiée le
AWS Cloud

12 mois
Paris, France
Nous recherchons un Data Engineer expérimenté afin de contribuer à la fiabilité, l’automatisation et la scalabilité d’un Lakehouse data. Vous interviendrez sur la conception et l’orchestration de pipelines, l’optimisation des traitements et l’évolution de l’architecture data dans un environnement moderne basé sur AWS. Vos missions : Conception & orchestration Concevoir, développer et maintenir des pipelines Airflow pour l’ingestion et la transformation des données Mettre en place des frameworks et mécanismes d’automatisation Garantir la robustesse, la modularité et la résilience des workflows Traitement & gestion des flux Développer des composants pour le traitement de fichiers plats (CSV, JSON, Parquet…) et leur exposition via API Consommer et transformer des flux Kafka avec Spark Optimiser la performance et le partitionnement des traitements sur de gros volumes Collaboration analytique Collaborer avec les Data Analysts pour concevoir des agrégats métiers Créer et maintenir des vues Athena utilisées dans Tableau Garantir la cohérence, la fraîcheur et la traçabilité des données Évolution du Lakehouse Participer à la conception et à l’amélioration continue de l’architecture Créer et maintenir des tables de référentiel (clients, contacts, événements, interactions…) Implémenter ces référentiels avec Iceberg / Hudi Supervision & DataOps Assurer la supervision quotidienne des pipelines Mettre en place alerting et monitoring Produire et maintenir la documentation technique
CDI

Offre d'emploi
Consultant(e) Data Expérimenté(e) – Expertise Dataiku (F/H) -Niort

Argain Consulting Innovation
Publiée le
Dataiku
DBT
Google Cloud Platform (GCP)

35k-46k €
Niort, Nouvelle-Aquitaine
Nous recherchons un(e) Consultant(e) Data Expérimenté(e) – Expertise Dataiku (F/H) pour notre cabinet à Niort 🚀 En tant que Consultant(e) Data Expérimenté(e) – Expertise Dataiku , vous interviendrez afin de : Travailler à la fois comme Développeur Data, Business Analyst Data , et référent Dataiku, en jonglant efficacement entre plusieurs projets. Synthétiser les échanges (ateliers, COPRO) afin de partager les sujets clés, proposer des solutions adaptées, chiffrer les besoins et planifier les actions. Assurer le suivi des tâches, sprints et collaborations via JIRA. Concevoir, développer et maintenir des pipelines data end‑to‑end dans Dataiku , notamment avec des traitements en SQL et la connaissance de GCP Contribuer à l’amélioration continue des modèles de traitement, de la qualité des données et des processus métiers. Analyser les besoins des équipes métier, challenger les hypothèses et traduire les cas d’usage en solutions data robustes. Participer à l’animation des ateliers, COPIL/COPRO, et accompagner les équipes dans la bonne exploitation des outils data. Collaborer avec les équipes Data, IT, métiers et prestataires externes pour garantir l’avancement des projets. Assurer une documentation claire et la traçabilité des traitements Data.
Freelance

Mission freelance
Data Architect

Groupe Aptenia
Publiée le
Architecture
Data governance
Data quality

3 ans
Île-de-France, France
En tant que Data Architect , vous serez en charge de concevoir et mettre en œuvre une architecture data unifiée , intégrant des systèmes hétérogènes (dont ceux issus de l’acquisition de plusieurs entités). Votre objectif : simplifier, standardiser et optimiser les flux et le stockage des données pour en faire un levier stratégique. Vos responsabilités clés : ✔ Conception d’une architecture data cohérente : Définir une feuille de route technique pour intégrer les systèmes legacy et modernes dans une architecture homogène. Proposer des solutions pour réduire l’hétérogénéité des données et des plateformes. ✔ Pilotage de la migration et de l’intégration des données : Superviser la transformation et la migration des données vers des environnements cibles (data warehouses, data mesh). Garantir la qualité, la cohérence et l’accessibilité des données. ✔ Collaboration avec les équipes Data et IT : Travailler avec les Data Engineers et Data Analysts pour concevoir des pipelines de données efficaces. Être un relais technique entre les équipes IT et métiers.
Freelance
CDI

Offre d'emploi
Global Head of Data & Digital Transformation

Inventiv IT
Publiée le
Data Strategy
IA
Pilotage

1 an
85k-100k €
800-920 €
Paris, France
CONTEXTE : Au sein d'un pôle innovant de R&D "Pharma", responsabilité globale de la stratégie Data, Digital et IA afin d’accélérer le développement et transformer les pratiques scientifiques. Rôle stratégique au plus haut niveau, en interface directe avec le top management et les fonctions Digital/IT groupe. OBJECTIFS DE LA MISSION : Définir et exécuter la stratégie globale Digital / IA pour la R&D, alignée avec les objectifs corporate. Piloter une équipe internationale de 20 Data Analyst déployés sur les sites R&D. Garantir la continuité et la conformité des opérations. Superviser le déploiement de solutions Digital, Data et IA via l’équipe produit digitale Gérer un portefeuille stratégique d’initiatives digitales (~10 M€ de budget annuel) avec priorisation basée sur la valeur business et le ROI. Être l’interface principale entre la R&D Vaccins et les fonctions Digital/IT groupe. Porter la gouvernance data et développer une culture data transverse de bout en bout Conduire la transformation culturelle et la montée en compétences digitales des équipes scientifiques. PROFIL RECHERCHÉ : Formation : PhD ou équivalent scientifique. Expertise démontrée en développement "Pharma" Compétences clés : Leadership confirmé en transformation digitale, Data et IA en environnement scientifique ou santé. Capacité à définir et déployer une stratégie transformationnelle globale. Expérience de pilotage budgétaire significative. Forte capacité d’influence C-level. Expérience en conduite du changement dans des organisations complexes. Capacité à démontrer la valeur business et le ROI des initiatives digitales. Excellente capacité de communication entre experts techniques et scientifiques. Profil Executive / Direction Programme / Transformation Digitale R&D Pharma NIVEAU DE SÉNIORITÉ : Direction / Head of Global Function Management international Pilotage budget multi-million € Exposition COMEX / C-level
CDI

Offre d'emploi
Data Analyst- Part de Marché F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Spark
BigQuery
Python

Boulogne-Billancourt, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Product Owner Data GCP

LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud

12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
Freelance

Mission freelance
Lead Data Scientist

Signe +
Publiée le
Big Data

12 mois
580-810 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Leader technique et fonctionnel chargé de concevoir, déployer et industrialiser des solutions AI/ML utilisant des algorithmes avancés Identifier les opportunités d’amélioration data et piloter leur mise en œuvre dans des environnements cross-fonctionnels Encadrer et faire monter en compétences une équipe de Data Scientists et Data Analysts Garantir le cycle de vie complet des modèles (développement, déploiement, monitoring, amélioration continue) Collaborer étroitement avec les équipes métiers pour transformer les besoins business en solutions data Expérience requise 8 à 10+ ans d’expérience en Data Science Expérience confirmée en développement de code déployable et mise en production de modèles Expérience en développement logiciel production-ready et en environnement agile Expérience de management d’équipe Data Expérience en environnement healthcare ou manufacturing appréciée Compétences techniques Maîtrise des langages Data Science : Python, R, C++ Connaissance des bases de données SQL / NoSQL / Graph / Time series Expertise en AI/ML : Supervised & Unsupervised Learning Deep Learning LLMs Reinforcement Learning Federated Learning Time series forecasting Bayesian statistics et optimisation Expérience cloud et HPC : AWS, Azure, Spark CI/CD, orchestration et industrialisation des modèles Data visualization & storytelling (Tableau, Power BI, Streamlit) Expérience APIs enterprise et big data mining Connaissance des réglementations Data & AI Compétences comportementales Leadership et management d’équipe Communication écrite et orale excellente Capacité à aligner plusieurs équipes et parties prenantes Esprit analytique et résolution de problèmes Autonomie, proactivité et esprit d’équipe Formation Master ou PhD en mathématiques, informatique, ingénierie, statistiques ou domaine quantitatif équivalent
Freelance

Mission freelance
POT8981 - Un Proxy Product Manager sur Aubervilliers

Almatek
Publiée le
Méthode Agile

6 mois
Aubervilliers, Île-de-France
Almatek recherche pour l'un de ses clients, un Proxy Product Manager sur Aubervilliers. Objectifs et livrables Vous avez pour responsabilité de maximiser la valeur du produit développé. Vos missions se divisent en 4 grands axes : 1. Stratégie, Cadrage et Backlog (BUILD) • Collecter les demandes d'évolution des utilisateurs clés à travers le monde. • Gérer et prioriser le backlog d'Epics en fonction de la valeur métier et du ROI attendu. • Détailler les parcours utilisateurs (User Journeys) pour valider les besoins avec les parties prenantes, et traduire ces parcours en Epics/fonctionnalités pour les équipes de réalisation. • Gérer le flux de développement des epics via le Workflow JIRA et coordonner les interfaces (UI/UX) au quotidien via Trello. • Piloter les synergies et les mutualisations de déploiement avec les autres outils de l'écosystème (GMAO, outils métiers). 2. Pilotage de la Valeur et Satisfaction Client • Suivre et communiquer les KPIs d'usage et de valeur pour mesurer la performance du produit et sa contribution aux objectifs de l'entreprise. • Analyser les données d'utilisation pour adapter et améliorer le produit de manière proactive. 3. Animation des Rituels Agiles et Communication • Préparer et participer aux Comités Opérationnels (ComOp) et suivre l'avancement de vos sujets via Smartsheet. • Préparer et participer aux Revues de Sprint bi-mensuelles avant la mise en intégration, valider les fonctionnalités développées par rapport aux critères d'acceptation. • Animer les points mensuels avec les Key Users (KU) des Business Units internationales pour les accompagner au déploiement et récolter leurs feedbacks. 4. Support, Cybersécurité et Documentation (RUN) • Superviser et traiter les tickets de support (Niveau 2 et 3) via ServiceNow (SNOW) en collaboration avec l'équipe de réalisation pour résoudre les incidents et intégrer les demandes d'évolution. • S'assurer de la conformité du produit et des règles de cybersécurité Veolia (suivi du plan d'action et remédiations suite aux Pentests). • Participer à la rédaction et au maintien de la documentation technique et utilisateur. • Help the Product Sales & communication manager on the creation of communication materials Update the release notes regularly 5. Traning support & dashboarding • Dispenser ponctuellement des formations utilisateurs lors des phases de prévente et de déploiement, en collaboration avec le responsable des ventes et de la communication produit, afin de garantir une adoption optimale du produit. • Suivi, mise en place et déploiement de modèles de tableaux de bord DataStudio avec l'aide du Data Engineer/Analyst Vous travaillerez étroitement avec les membres de l'équipe sous la responsabilité du product manager : • apprenti UX/UI • Data Engineer / Analyst • Product Sales and Communication Manager • Product Owner • Developeurs • experts métiers • key users partour dans le monde • divers services transverse à Veolia : cybersecurité, Service management, équipe data, communication,
Freelance
CDI
CDD

Offre d'emploi
Data modeler

IT CONSULTANTS
Publiée le
Méthode Agile

12 mois
Châtillon, Île-de-France
Cherchons un profil DATA MODELER pour concevoir, développer et maintenir les modèles de données de différents domaines pour soutenir les besoins en matière de définition des différents modèles de données de notre client. Il/elle contribuera à la qualité des données et sera en charge de - la gestion des objets de données, - la création de schémas de base de données, - la modélisation de données dimensionnelles ou relationnelles Expérience en Architecture Data requise Compétences requises : - Maitrise des méthodologies de modélisation des données standard de l'industrie - Expertise éprouvée dans le développement de bases de données relationnelles dans un contexte d'entreprise - Connaissances SQL avancées, - Optimisation des performances des bases de données et des requêtes, - Compréhension approfondie de la méthodologie et des procédures de modélisation, La mission consiste à couvrir les actions suivantes : 1. Concevoir des modèles de données efficaces, y compris des schémas de base de données, des modèles dimensionnels et relationnels, 2. En collaboration avec les porteurs de domaines de données et les data stewards collaborer avec les équipes métier pour comprendre leurs besoins en matière de données et traduire ces besoins en modèles de données, 3. Développer, implémenter et maintenir des normes de modélisation de données pour garantir la cohérence au global et au sein des domaines de données, 4. Accompagner les data analysts et le faire monter en compétence sur la modélisation des données, 5. Collaborer avec les feature teams et les projets pour déployer les modèles de données et surveiller leur performance. 6. Documenter les modèles de données, les schémas de base de données et les processus liés à la modélisation de données. - Aptitudes personnelles : Excellentes capacités de travail d'équipe et de communication Excellentes capacités consultatives, facilitatives et consensuelles Excellentes capacités de communication orale et écrite Excellentes capacités d'analyse, de profilage de données et de résolution de problèmes
Freelance

Mission freelance
DATA ENGINEER FABRIC/AZURE DATA FACTORY (H/F)

ALLEGIS GROUP
Publiée le
Azure Data Factory
Microsoft Fabric

6 mois
Hauts-de-France, France
TEKsystems recherche pour le compte de son client un(e) : DATA ENGINEER FABRIC Missions principales : Implémentation des composants Microsoft Fabric liés aux cas d’usage prioritaires Conception et industrialisation de pipelines d’ingestion/traitement (ETL/ELT), APIs et modèles de données avec Microsoft Fabric Observabilité, data quality, tests, CI/CD et documentation technique Optimisation coûts/performance, sécurité et conformité Collaboration étroite avec Data Analysts et équipes métiers Compétences attendues : Microsoft Fabric Python, SQL ; orchestration, versioning et CI/CD Intégration de données multi-sources (ERP/HR/Produits etc), API, batch/stream Plateformes et architectures data modernes (data fabric/data lakehouse, cloud Azure) Gouvernance des données, catalogage, métadonnées et lineage
Freelance
CDI
CDD

Offre d'emploi
Data modeler

IT CONSULTANTS
Publiée le
Méthode Agile

12 mois
Châtillon, Île-de-France
Cherchons un profil DATA MODELER pour concevoir, développer et maintenir les modèles de données de différents domaines pour soutenir les besoins en matière de définition des différents modèles de données de notre client. Il/elle contribuera à la qualité des données et sera en charge de - la gestion des objets de données, - la création de schémas de base de données, - la modélisation de données dimensionnelles ou relationnelles Expérience en Architecture Data requise Compétences requises : - Maitrise des méthodologies de modélisation des données standard de l'industrie - Expertise éprouvée dans le développement de bases de données relationnelles dans un contexte d'entreprise - Connaissances SQL avancées, - Optimisation des performances des bases de données et des requêtes, - Compréhension approfondie de la méthodologie et des procédures de modélisation, La mission consiste à couvrir les actions suivantes : 1. Concevoir des modèles de données efficaces, y compris des schémas de base de données, des modèles dimensionnels et relationnels, 2. En collaboration avec les porteurs de domaines de données et les data stewards collaborer avec les équipes métier pour comprendre leurs besoins en matière de données et traduire ces besoins en modèles de données, 3. Développer, implémenter et maintenir des normes de modélisation de données pour garantir la cohérence au global et au sein des domaines de données, 4. Accompagner les data analysts et le faire monter en compétence sur la modélisation des données, 5. Collaborer avec les feature teams et les projets pour déployer les modèles de données et surveiller leur performance. 6. Documenter les modèles de données, les schémas de base de données et les processus liés à la modélisation de données. - Aptitudes personnelles : Excellentes capacités de travail d'équipe et de communication Excellentes capacités consultatives, facilitatives et consensuelles Excellentes capacités de communication orale et écrite Excellentes capacités d'analyse, de profilage de données et de résolution de problèmes
Freelance

Mission freelance
Business analyst Asset management H/F

Mon Consultant Indépendant
Publiée le
Business Analysis

6 mois
560-590 €
Paris, France
MERCI DE NE PAS POSTULER SI : - Vous n'avez jamais travaillé en Asset management - Vous ne maîtriser pas SQL et d'autres solutions de requêtes L’équipe Data recherche un Business Analyst pour accompagner la phase d’implémentation du projet de plateforme Data. La mission consiste à soutenir l’équipe en travaillant à la préparation, à la structuration et à la mise en œuvre du projet de migration des données. La mission consistera également à aider l’équipe sur d’autres projets évolutifs afin de répondre aux besoins des clients internes. Des connaissances fonctionnelles des métiers de l’asset management, des flux de données et votre expérience en tant que gestionnaire de projet sont nécessaires pour cette mission. Compétences techniques : Connaissances de l’environnement réglementaire de la gestion d’actifs Français, européens et UK. Une connaissance de la réglementation bancaire et de l’assurance est un plus. Français et Anglais courants Bonne compréhension des enjeux de qualité de données en contexte réglementaire Maitrise des outils Pack Office, VBA, SQL, Python, Neoxam Data Hub, Tableau Desktop, Data Bricks est un plus. Forte capacité à documenter précisément les process, contrôles et anomalies Expérience en optimisation de processus et mise en place de control framework Experience : Expérience dans un rôle de Business/Data Analyst, idéalement dans l’Asset Management ou au sein d’un cabinet de conseil Expérience de gestion de projet dans un environnement complexe (par le nombre d’interlocuteurs, la variété des sujets à traiter, le calendrier serré à respecter).
212 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous