L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 154 résultats.
Mission freelance
Développeur MSBI - Power BI Ms Consultant (Secteur bancaire)
Publiée le
Azure Data Factory
Azure DevOps
BI
12 mois
500-560 €
Île-de-France, France
Télétravail partiel
Au sein de la Direction des Données et des Services Analytiques, le service Analytic assure la mise en œuvre et le support des solutions analytiques et de Business Intelligence de la Banque. L’équipe DEV Rapide MSBI intervient sur des projets de développement agiles et rapides (moins de 20 jours de développement) pour répondre aux besoins métiers en matière d’analyse, de reporting et de visualisation de données. Le consultant interviendra sur l’ensemble du cycle de vie des projets BI : du recueil de besoin jusqu’à la mise en production, tout en accompagnant les utilisateurs et en participant à la promotion de l’offre de services BI. 🎯 Missions Recueil des besoins auprès des équipes métiers et participation aux ateliers techniques et fonctionnels. Conception et développement de solutions BI agiles (SQL, SSIS, SSRS, SSAS, Power BI). Mise en œuvre de prototypes et POC pour valider les choix fonctionnels et techniques. Accompagnement des utilisateurs dans la prise en main des solutions et des outils de datavisualisation. Maintenance et évolution des solutions BI déployées. Avant-vente et conseil : participation à la présentation de l’offre de services BI, réalisation de démonstrations et supports de communication. Animation de communautés BI et partage des bonnes pratiques. Mise à jour documentaire (SharePoint) et suivi des activités (reporting hebdomadaire). Veille technologique sur l’écosystème Microsoft BI et les outils complémentaires.
Mission freelance
Directeur de Programme Data / IA
Publiée le
Cloudera
Data analysis
Data governance
12 mois
520-660 €
Montpellier, Occitanie
Télétravail partiel
Contexte et Mission : Dans le cadre du renforcement de son domaine Data, notre client recherche un Product Lead / Directeur de Projet expérimenté . Placé directement sous le responsable de domaine, le Product Lead est le garant du delivery des data products et responsable de la tenue des promesses faites aux métiers . Le Product Lead assure la qualité et la performance technique des composants de la ligne de produit Data, Analytics & AI, dans le respect des standards de la DSI. Responsabilités : Comprendre techniquement et fonctionnellement la ligne de produit Data, Analytics & AI. Collaborer avec les parties prenantes de la ligne de produit : Delivery Owner, Directeurs de Programme. Participer à l’élaboration de la stratégie de la ligne de produit avec le Responsable de ligne et le Directeur de Patrimoine : dimensionnement équipe, sourcing, choix de solutions, cohérence globale, coûts. Garantir la qualité de la ligne de produit : disponibilité, labels qualité. Maintenir et superviser opérationnellement la ligne de produit. Suivre l’avancement de la FDR (Feuille de Route) de la ligne de produit : communiquer et publier les évolutions et mises en production. Définir la stratégie et la politique d’industrialisation et de maintenance de la ligne de produit. Accompagner les Features Teams pour faire évoluer la ligne de produit. Collaborer avec les équipes agiles : alertes projets, staffing, gestion des charges. Maintenir et mettre à jour la documentation (Wiki, SharePoint, Teams…). Garantir la pérennité technologique de la ligne de produit et réduire la dette technique. Gérer le cycle de vie de la ligne de produit en collaboration avec le Responsable de ligne produit. Être le correspondant privilégié de la DEXO : gestion de crise, proximité des sites partenaires. Localisation et Conditions : Localisation : Montpellier (minimum 2 jours/semaine) Environnement Technique : Cloudera, SAP Hana/BW, DataBricks, Snowflake, PowerBi, DSS Une connaissance de ces solutions est un plus, mais d’autres stacks technologiques sont acceptables Profil Recherché : Expérience confirmée en pilotage de projets DATA et en management d’équipe . Capacité à comprendre à la fois les enjeux techniques et métiers. Expérience dans l’élaboration de stratégies de lignes de produit et la supervision de leur delivery. Maîtrise des outils de suivi et d’industrialisation des produits Data. Compétences en gouvernance, qualité et pérennité technologique des produits. Excellentes qualités relationnelles pour collaborer avec des équipes multidisciplinaires et des partenaires externes. Capacité à travailler dans un environnement agile et à gérer des priorités multiples.
Offre d'emploi
Business Analyst Data & Géodonnées H/F
Publiée le
API
Data analysis
1 an
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
La mission s’inscrit dans le cadre de la construction d’un GeoDataHub , une plateforme visant à collecter, centraliser et diffuser des données géographiques externes (open data ou données payantes). L’objectif est de rendre ces données accessibles aux différentes équipes métiers (climat, BtoB, digital, data, etc.) afin de : Modéliser les risques climatiques Optimiser les leviers de tarification et de souscription Développer des dispositifs de prévention et d’alerte Appuyer la gestion de crise en cas d’événements climatiques majeurs Objectifs du GeoDataHub Le projet vise à construire et enrichir plusieurs référentiels géographiques : Connaissance du territoire Climat / météo Caractérisation des bâtiments d’une adresse donnée (MVP prévu pour T4 2025) Caractérisation de l’aléa climatique (scores géoclimatiques – planifié pour 2026) Missions principales S’approprier les parcours métiers et décrire les parcours utilisateurs en lien avec les équipes métier et design. Assurer le lien entre les acteurs métier et techniques (développeurs, testeurs, data engineers). Analyser les anomalies et identifier les causes (outils, parcours, données). Évaluer l’impact métier des solutions livrées (durée de traitement, performance, usage). Concevoir des solutions fonctionnelles cohérentes et alignées sur les besoins exprimés. Rédiger les expressions de besoin et challenger les demandes métiers. Rédiger et découper les User Stories (HU), définir les critères d’acceptation et les spécifications fonctionnelles détaillées (SFD IHM / SFD API). Contribuer à la priorisation du backlog et signaler les alertes ou points de blocage. Livrables attendus Expression de besoin (sous forme d’User Stories) Spécifications fonctionnelles (API, ingestion de données, solutions) Études d’impacts Spécifications de tests & PV de validation Compte-rendus d’activités hebdomadaires Documentation technique en Markdown Compétences techniques et fonctionnelles Rédaction de spécifications d’API et de flux d’ingestion de données Analyse d’anomalies et recettes fonctionnelles Maîtrise des outils : GDR, GAP, VSI Automatisation de tests API Support aux développeurs Bonne compréhension des processus de tarification/souscription (produits IARD ou habitation) Intérêt pour la donnée géographique et climatique Environnement et collaboration Mission réalisée en interaction avec : Les équipes métiers (tarification, souscription, prévention), Les équipes techniques (développement, data, API), Des experts climat et data (modélisation, visualisation).
Mission freelance
Data Analyst
Publiée le
Data Lake
Data visualisation
Dataiku
2 mois
250 €
Nantes, Pays de la Loire
Télétravail partiel
Compétences techniques indispensables : Maîtrise de SQL et Dataiku (indispensable). Bonne connaissance des environnements Big Data (type Data Lake, Hive, Impala, Spark…). Maitrise des bases du web marketing Connaissance des outils de dataviz : Digdash, Qlik Sense, Power BI, etc. Maîtrise de Piano Analytics ou d’un outil équivalent de web analytics est un plus. Compréhension des enjeux liés à la qualité, à la structuration et à la gouvernance de la donnée. Compétences fonctionnelles : Capacité à analyser, synthétiser et vulgariser des résultats complexes. Sens de la rigueur, de l’autonomie et de la curiosité. Excellentes aptitudes à travailler en équipe et à interagir avec des interlocuteurs variés (techniques et métiers).
Mission freelance
Architecte / Expert MongoDB Atlas sur Azure
Publiée le
.NET CORE
Apache Kafka
Architecture ARM
6 mois
530-620 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Garantir la mise en œuvre et la maintenance d’une solution MongoDB Atlas hébergée sur Azure robuste, performante et conforme aux exigences réglementaires (PDP, RGPD), tout en répondant aux besoins métiers : disponibilité, traçabilité, sécurité, gouvernance des données et exploitation BI (Grafana, Power BI). Responsabilités principales Architecture et conception Définir l’architecture cible MongoDB Atlas sur Azure (topologie, multi-régions, interconnexion, réseaux, haute disponibilité, sauvegarde et reprise d’activité). Concevoir les schémas documentaires et le modèle de données optimisé selon les cas d’usage applicatifs et les contraintes réglementaires (rétention, anonymisation, traçabilité). Élaborer la stratégie de sauvegarde, restauration et gestion des incidents (playbooks, tests de restauration). Sécurité et conformité Définir et implémenter les mécanismes de sécurité : chiffrement at-rest et in-transit , gestion des clés (BYOK / Azure Key Vault), contrôle d’accès (RBAC, LDAP/AD, IAM), audit et journalisation. Garantir la conformité PDP / RGPD des données et des traitements. Intégration et performance Piloter l’intégration technique avec les pipelines ETL/ELT , les solutions de streaming ( Kafka , Azure Data Factory , Functions , iPaaS , etc.). Optimiser la performance : indexation, sharding, agrégations, profiling, tuning des requêtes et gestion de la charge. Observabilité et supervision Mettre en place les pratiques d’observabilité : alerting, dashboards, métriques et logs centralisés via Grafana , Zabbix , Azure Monitor ou équivalents. Intégrer MongoDB avec les outils de visualisation Grafana et Power BI (connecteurs, sécurité, gouvernance des accès). Projet et documentation Participer aux phases projet : ateliers d’architecture, proof of concept, accompagnement en RUN (SLA, runbooks, transfert de compétences). Rédiger les livrables techniques : architecture cible, schémas de données, règles de sécurité, runbooks, plans de tests et documents d’exploitation. Compétences techniques requises Base de données & Cloud Expertise MongoDB Atlas : déploiement, configuration, sécurité, scaling, sharding, sauvegarde/restore, performance tuning. Très bonne connaissance d’ Azure : VNet, ExpressRoute/VPN, Managed Identities, Azure Key Vault, Azure AD, Storage, Log Analytics. Développement & intégration Maîtrise des drivers MongoDB (Java, Node.js, .NET, Python selon la stack applicative). Connaissance des principes de data modelling NoSQL : embedding vs referencing, patterns de consultation, conception pour volumes variables. Expérience avec les outils d’intégration et ingestion : Azure Data Factory , Kafka , SnapLogic , Functions . Sécurité & conformité Chiffrement, BYOK, IAM, RBAC, audit, conformité PDP/RGPD . Observabilité & reporting Monitoring MongoDB, alerting, dashboards ( Grafana , Zabbix , Azure Monitor ). Intégration MongoDB ↔ Power BI / Grafana (connecteurs, APIs, performances). DevOps Bonnes pratiques Infrastructure as Code : Terraform , ARM , Bicep . CI/CD et tests automatisés pour les déploiements. Notions de DevSecOps appréciées.
Offre d'emploi
Data Analyse H/F
Publiée le
Microsoft Power BI
12 mois
50k-60k €
500-550 €
Île-de-France, France
La prestation consistera à participer à : - La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications. (Prise en compte des besoins des équipes interne, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du Dashboard, itérations mode projet..) - Le maintien du bon fonctionnement des dashboards existant sur Power BI. - L’accompagnement et le coaching des équipes internes sur l’intégration de la data dans leur processus de décision et de priorisation (AT Internet, Nielsen, marqueur interne). - La mesure et l’analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l’équipe études. - L’accompagnement des équipes internes dans l’identification des indicateurs/ KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l’ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul - Le partage de son expertise afin de déployer notre marqueur interne sur d’autres produits. - L’identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes.
Offre d'emploi
Consultant en cybersécurité polyvalent confirmé
Publiée le
CyberSoc
Cybersécurité
Data analysis
1 an
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
🏁CONTEXTE DE LA MISSION Je recherche pour l'un de nos clients basé à Issy-Les-Moulineaux (92), un(e) Consultant(e) Cybersécurité confirmé(e) (6-8 ans d'XP environ) disposant de connaissances polyvalentes (Vuln. Management, SIEM, analyse de logs, endpoint/XDR,...), ainsi qu’une bonne compréhension des flux de données et des environnements techniques complexes. 🧾 INFOS LOGISTIQUES 🚀 Démarrage : Janvier 2026 ; ⏳ Durée : 1 an renouvelable ; 📍 Lieu : Issy-les-Moulineaux ; 🏡 Télétravail : quasi-full remote (présence requise le jeudi)
Mission freelance
Directeur de programme DATA/ Product Manager - Montpellier
Publiée le
Backlog management
Cloudera
Data governance
12 mois
550-670 €
Montpellier, Occitanie
Télétravail partiel
Contexte et Mission : Dans le cadre du renforcement de son domaine Data, notre client recherche un Directeur de Projet expérimenté . Placé directement sous le responsable de domaine, le Product Lead est le garant du delivery des data products et responsable de la tenue des promesses faites aux métiers . Le Product Lead assure la qualité et la performance technique des composants de la ligne de produit Data, Analytics & AI, dans le respect des standards de la DSI. Responsabilités : Comprendre techniquement et fonctionnellement la ligne de produit Data, Analytics & AI. Collaborer avec les parties prenantes de la ligne de produit : Delivery Owner, Directeurs de Programme. Participer à l’élaboration de la stratégie de la ligne de produit avec le Responsable de ligne et le Directeur de Patrimoine : dimensionnement équipe, sourcing, choix de solutions, cohérence globale, coûts. Garantir la qualité de la ligne de produit : disponibilité, labels qualité. Maintenir et superviser opérationnellement la ligne de produit. Suivre l’avancement de la FDR (Feuille de Route) de la ligne de produit : communiquer et publier les évolutions et mises en production. Définir la stratégie et la politique d’industrialisation et de maintenance de la ligne de produit. Accompagner les Features Teams pour faire évoluer la ligne de produit. Collaborer avec les équipes agiles : alertes projets, staffing, gestion des charges. Maintenir et mettre à jour la documentation (Wiki, SharePoint, Teams…). Garantir la pérennité technologique de la ligne de produit et réduire la dette technique. Gérer le cycle de vie de la ligne de produit en collaboration avec le Responsable de ligne produit. Être le correspondant privilégié de la DEXO : gestion de crise, proximité des sites partenaires. Localisation et Conditions : Localisation : Montpellier (minimum 2 jours/semaine) Démarrage : ASAP Environnement Technique : Cloudera, SAP Hana/BW, DataBricks, Snowflake, PowerBi, DSS Une connaissance de ces solutions est un plus, mais d’autres stacks technologiques sont acceptables Profil Recherché : Expérience confirmée en pilotage de projets DATA et en management d’équipe . Capacité à comprendre à la fois les enjeux techniques et métiers. Expérience dans l’élaboration de stratégies de lignes de produit et la supervision de leur delivery. Maîtrise des outils de suivi et d’industrialisation des produits Data. Compétences en gouvernance, qualité et pérennité technologique des produits. Excellentes qualités relationnelles pour collaborer avec des équipes multidisciplinaires et des partenaires externes. Capacité à travailler dans un environnement agile et à gérer des priorités multiples.
Offre d'emploi
Data Analytics Senior H/F
Publiée le
Confluence
JIRA
12 mois
40k-45k €
500-550 €
Île-de-France, France
La prestation consistera à participer à : - Pilotage et gestion de projet : - Cadrage et accompagnement des équipes dans l’implémentation des outils data dans l’univers de télévision : identification des pré-requis, risques, parties prenantes, facteurs clés de succès du projet et des indicateurs de performance, - Pilotage des projets de fond (déploiement et suivi de l’outil de monitoring automatisé, enrichissement du tracking site centric) en adhérence avec le marquage des environnements Télévisions. - Suivi des roadmaps projets et les plans de déploiement - Coordination et communication des actions entre les parties prenantes : Data, Technique, Offres numériques, Croissance des offres, Stratégie éditoriale, Equipe RGPD - Partage des alertes tracking (quali/quanti) et projet aux différentes parties prenantes, - L'avancée des projets et de la qualité des livrables, - La création et l’évolution de la documentation projet en collaboration avec l’équipe - Le suivi et la réalisation des recettes en collaboration avec l’équipe - La diffusion des bonnes pratiques et process de la cellule EAD (Expert Analytics) Reporting et suivi : - Suivre et communiquer les performances des projets et des outils, - Monitorer les outils - Prendre en charge, dans une démarche d’amélioration continue, les actions nécessaires pour améliorer les performances tout au long du cycle de vie des projets Le candidat devra apporter dans sa réponse des propositions pour suivre et améliorer la gestion et les performances du projet et le monitoring des outils.
Offre d'emploi
Expert Data analytics senior
Publiée le
Pilotage
18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Contexte et détails de la mission Définition du besoin Nous cherchons un expert data analytics sénior pour concevoir, maintenir, déployer et recetter la collecte des données de navigation des utilisateurs sur web, app et tv, pour fournir les indicateurs nécessaires au pilotage et la bonne compréhension des usages et la consommation des offres numériques. Cella consistera également à assurer la bonne communication des informations au sein de la cellule, piloter des projets opérationnels et à accompagner les experts dans la gestion de leurs tâches quotidiennes en collaboration étroite avec le responsable analytics. Il a également la charge d’opérer l’outil de monitoring automatisé et de vérifier la pertinence des alertes afin de s’assurer que la collecte s’effectue correctement (en respect avec le plan de marquage) sur ses offres et ses environnements MISSIONS: La prestation consistera à participer à : - Pilotage et gestion de projet : - Cadrage et accompagnement des équipes dans l’implémentation des outils data dans l’univers du client : identification des pré-requis, risques, parties prenantes, facteurs clés de succès du projet et des indicateurs de performance, - Pilotage des projets de fond (déploiement et suivi de l’outil de monitoring automatisé, enrichissement du tracking site centric) en adhérence avec le marquage des environnements. - Suivi des roadmaps projets et les plans de déploiement - Coordination et communication des actions entre les parties prenantes : Data, Technique, Offres numériques, Croissance des offres, Stratégie éditoriale, Equipe RGPD - Partage des alertes tracking (quali/quanti) et projet aux différentes parties prenantes, - L'avancée des projets et de la qualité des livrables, - La création et l’évolution de la documentation projet en collaboration avec l’équipe - Le suivi et la réalisation des recettes en collaboration avec l’équipe - La diffusion des bonnes pratiques et process de la cellule EAD (Expert Analytics) - Reporting et suivi : - Suivre et communiquer les performances des projets et des outils, - Monitorer les outils - Prendre en charge, dans une démarche d’amélioration continue, les actions nécessaires pour améliorer les performances tout au long du cycle de vie des projets Le candidat devra apporter dans sa réponse des propositions pour suivre et améliorer la gestion et les performances du projet et le monitoring des outils.
Offre d'emploi
Data Analyst Splunk ITSI – Secteur Bancaire – Région Parisienne (H/F)
Publiée le
BI
Splunk
SQL
38k-42k €
Île-de-France, France
Télétravail partiel
Contexte du poste Rejoignez une entreprise majeure dans le secteur bancaire, engagée dans une transformation digitale ambitieuse. Située en Ile-De-France, notre entité est au cœur d’un projet stratégique visant à optimiser nos infrastructures IT grâce à des solutions innovantes de gestion de données. Vous intégrerez une équipe composée de passionnés de technologie et d’experts en data, dédiée à la création et à l’optimisation des dashboards ITSI. Cette mission vitale pour notre équipe a émergé pour renforcer notre capacité à analyser, interpréter, et intégrer les logs de nos infrastructures à travers la plateforme Splunk. Missions Missions principales Développer et optimiser les dashboards Splunk ITSI pour le monitoring et la performance SI. Configurer Splunk et structurer la base de données logs pour les infrastructures. Organiser, nettoyer, modéliser et fiabiliser les jeux de données nécessaires au pilotage. Explorer les données, produire des analyses, identifier tendances et anomalies. Créer ou améliorer des requêtes SPL et des algorithmes d’extraction pertinents. Industrialiser les traitements récurrents et assurer la qualité des gisements de données. Collaborer avec les équipes Argos pour comprendre les besoins métiers et orienter les dashboards. Documenter les travaux, sécuriser la cohérence et garantir un usage opérationnel durable. Participer à l’exploration de données complexes et à l’industrialisation des processus d’analyse. Soutenir le management dans la résolution des enjeux métiers via l’analyse de données passées. Stack technique Stack principale à maîtriser Splunk Dashboarding Splunk ITSI Data Analyse
Mission freelance
Technical Business Analyst
Publiée le
BPM (Business Process Management)
Business Analyst
Data analysis
6 mois
400-510 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Appréhender les processus métiers et accompagner les métiers dans la rédaction de leurs processus Rédiger les spécifications fonctionnelles, le mapping de données, et les règles de gestion techniques à destination des développeurs/intégrateurs. Traduire les spécifications fonctionnelles en spécifications techniques, paramétrages applicatifs et flux inter-applicatifs en collaboration avec l’éditeur retenu S’assurer de la cohérence applicative avec l’architecture du système d’information (flux et interface), de la documentation des applications (cartographie applicative). Proposer des solutions fonctionnelles et techniques, répondant aux besoins métiers et aux exigences réglementaires ou permettant de rendre le SI plus efficient et maintenable Mesurer les impacts des solutions proposées avec l’ensemble des équipes DSI Contribuer au déploiement des fonctionnalités ou outils sélectionné Assurer la transition vers les équipes support en produisant les livrables (support de formation, procédure, mode opératoire…) nécessaires à l’exploitation des applications
Mission freelance
Mission Freelance – Data Analyst (Confirmé)
Publiée le
Microsoft Power BI
1 an
400-530 €
Île-de-France, France
Télétravail partiel
Vos missions Participer à la construction et exploitation du socle de données (Datalake GCP / BigQuery). Réaliser des analyses de connaissance utilisateurs : profils, appétences, parcours, fidélisation, impact des fonctionnalités et de la pression publicitaire. Concevoir, mettre à jour et améliorer des dashboards Power BI pour le suivi des objectifs et indicateurs. Contribuer à la valorisation des données au service des équipes internes (éditorial, produit, marketing). Compétences techniques Maîtrise des requêtes SQL avancées . Expérience sur un environnement Cloud (idéalement GCP / BigQuery ). Solide maîtrise de Power BI . Bonne connaissance des bases de données et outils analytics (Piano Analytics, Google Analytics…). Appétence pour les contenus audiovisuels et la data storytelling .
Mission freelance
Chef de projet Géomarketing
Publiée le
Client
CRM
Data analysis
12 mois
500-600 €
Paris, France
Télétravail partiel
Nous recherchons un(e) chef de projet Géomarketing pour piloter l’industrialisation de nos outils géomarketing et la mise en place d’un reporting KPI efficace, afin de renforcer la prise de décision et l’optimisation des opérations commerciales et logistiques. Missions principales : Industrialisation des outils géomarketing Analyse des besoins métiers et identification des outils existants. Standardisation et automatisation des processus géomarketing. Déploiement de solutions adaptées aux différentes entités du groupe. Formation et accompagnement des utilisateurs internes. Mise en place de reporting KPI Définition et structuration des indicateurs clés de performance (KPI) géomarketing. Création de tableaux de bord interactifs et automatisés pour le suivi des activités. Mise en place de processus de collecte, de consolidation et d’analyse des données. Pilotage de la performance et identification des leviers d’optimisation. Pilotage de projets transverses Coordination avec les équipes commerciales, marketing, logistique et IT. Suivi du planning, des coûts et des livrables. Garantir la qualité et la fiabilité des données utilisées dans les analyses.
Offre d'emploi
Lead Technical Architect / Principal Engineer – Finance de Marché (H/F)
Publiée le
Calcul hautes performances (HPC)
Java
Python
3 ans
Île-de-France, France
Pour notre client dans le secteur de la banque d’investissement et des marchés financiers , nous recherchons un Lead Technical Architect / Principal Engineer afin d’accompagner la transformation et l’industrialisation de ses plateformes critiques dédiées aux activités de recherche quantitative , pricing , risk management , et traitement de données financières . L’environnement est international, collaboratif et techniquement exigeant, avec une forte interaction entre équipes Quant , Ingénierie , Data , IT et Production . Mission principale : Concevoir, piloter et optimiser l’architecture des systèmes quantitatifs et des chaînes de calcul haute performance, en garantissant leur robustesse, scalabilité et adéquation avec les besoins métier. Responsabilités : 1. Architecture & Design Concevoir et faire évoluer l’architecture globale des services quantitatifs (pricing, risk, simulations). Définir les standards technologiques et les bonnes pratiques pour des systèmes critiques. Repenser les composants historiques pour améliorer performances, latence, disponibilité et résilience. Sélectionner les langages, frameworks et paradigmes adaptés à des workloads intensifs. 2. Performance & Scalabilité Optimiser les infrastructures de calcul distribuées (compute grids, scheduling, parallélisation). Améliorer les pipelines de données financières (time-series, tick data, surfaces de volatilité). Assurer la haute disponibilité, la tolérance aux pannes, et des performances stables en charge. 3. Données de marché & Services Superviser l’architecture des systèmes de collecte, stockage et diffusion de données financières. Garantir la cohérence, la disponibilité et la performance des pipelines de données critiques. 4. Collaboration Transverse Travailler en étroite collaboration avec : les équipes Quant (modélisation, analytics), les équipes d’ingénierie logiciel et IT, la Data Engineering, les équipes Ops/Production. Transformer des besoins complexes en solutions industrielles fiables et pérennes. 5. Leadership Technique Être force de proposition sur l’évolution de la stack technique. Challenger les décisions technologiques et architecturales existantes. Encadrer techniquement des ingénieurs (sans dimension managériale obligatoire).
Mission freelance
229359/Data Architect DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi)
Publiée le
Architecture
3 mois
Vélizy-Villacoublay, Île-de-France
Télétravail partiel
Data Architect Expérience: • Compétences indispensables 7 à 12 ans en ingénierie des données avec DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. Modélisation sémantique, contrats de données, ingénierie de la performance, couche dbt/metrics ; GCP + hybride sur site, IaC/CI-CD pour les données. Architecture monopage, contrats de données, ADR/HLD, modèle sémantique et arbre KPI, runbook/SLO, modèle de coût. Mission Maîtrisez l'architecture de la solution de bout en bout pour les produits de données et les cas d'utilisation analytiques au sein d'une ou plusieurs chaînes de valeur. Traduisez les résultats commerciaux en solutions de données sécurisées, évolutives et soucieuses des coûts, basées sur les données et la plateforme d'entreprise (DWH, Iceberg/Trino lakehouse, streaming, ML, GCP/on-premise). Architecture : Ingestion de lots/flux, DWH (Kimball/Star) + Lakehouse (Iceberg/Trino), service via SQL/APIs/couche sémantique ; Les fonctionnalités ML s'écoulent en cas de besoin. Modélisation : Concepts métiers → conceptuels/sémantiques → logiques/physiques (partitionnement, ordre Z/cluster, index). BI & Analytics : Posséder la couche sémantique/les métriques, gouverner les KPI, optimiser les performances du tableau de bord/requête, la mise en cache, les agrégats ; activer le libre-service (couche dbt/metrics + catalogue). Ops & FinOps : SLO (fraîcheur/latence/coût), observabilité, runbooks, backfills ; ajustez le stockage/les requêtes pour réduire les coûts. Gouvernance/Maillage : métadonnées de propriété du produit, découvrabilité, documentation ; publication de blueprints et ADR. Compétences indispensables 7 à 12 ans en ingénierie des données avec DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. Modélisation sémantique, contrats de données, ingénierie de la performance, couche dbt/metrics ; GCP + hybride sur site, IaC/CI-CD pour les données. Architecture monopage, contrats de données, ADR/HLD, modèle sémantique et arbre KPI, runbook/SLO, modèle de coût. Gestion des parties prenantes • Travaillez en étroite collaboration avec les parties prenantes de l'entreprise, les responsables de livraison et les propriétaires de produits pour recueillir des informations, comprendre les points faibles et hiérarchiser les fonctionnalités qui génèrent de la valeur pour l'entreprise. • Présenter régulièrement des mises à jour sur les progrès à la haute direction, en soulignant les étapes franchies, les défis rencontrés et les prochaines étapes du processus de développement.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
154 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois