L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 959 résultats.
Offre d'emploi
Administrateur réseaux F/H
Experis France
Publiée le
32k-37k €
Angers, Pays de la Loire
Administrateur réseaux F/H - Angers 📢 Offre d'emploi - Administrateur Réseaux (H/F) Localisation : Angers Type de contrat : CDI / Freelance / Mission longue 🎯 Contexte du poste Dans le cadre du renforcement de son pôle Réseau, notre client recherche un Administrateur Réseaux capable d'assurer le support niveau 2 des infrastructures WAN, LAN et Wi-Fi , ainsi que de participer à la structuration des processus de diagnostic et à l'enrichissement de la base de connaissances réseau. Vous interviendrez au cœur d'un environnement technique exigeant, en lien direct avec les équipes IT, les prestataires et les experts infrastructures. 🔧 Missions principales 1️⃣ Administration & Exploitation des Infrastructures Vous garantissez le bon fonctionnement, la disponibilité et la performance des environnements réseaux et systèmes associés : Administration et exploitation des infrastructures : WAN, LAN, Wi-Fi , serveurs, bases de données, stockage et réseaux. Analyse, résolution et escalade des incidents de niveau 2. Suivi des performances, supervision, optimisation des flux réseau. Participation aux opérations d'exploitation courante et aux changements planifiés (maintenance, upgrades, patching…). 2️⃣ Pilotage des Prestataires Coordination et suivi des prestataires matériels ou logiciels intervenant sur le périmètre réseau. Participation à la gestion contractuelle, validation des livrables techniques, contrôle de qualité des interventions. Suivi des engagements SLA et reporting des performances. 3️⃣ Étude, Conception & Projets Réseau Participation à l'étude, la définition et la mise en œuvre des nouvelles architectures applicatives. Proposition d'améliorations techniques pour fiabiliser les infrastructures. Contribution au design des architectures réseau : sécurisation, segmentation, haute disponibilité, QoS… Participation à la rédaction des documents d'architecture et d'exploitation. 4️⃣ Urbanisation du Système d'Information Vous jouez un rôle clé dans la cohérence globale du SI : Contribution à l'urbanisation du SI et aux travaux d'intégration réseau. Participation à la mise en place et à l'évolution des API et des bus d'échanges de données . Développement des chaînes de diagnostic réseau : méthodologie, outils, automatisation. Enrichissement de la base de connaissances : procédures, modes opératoires, guides de dépannage.
Mission freelance
Data Scientist Senior
NEOLYNK
Publiée le
Python
SQL
3 mois
400-500 €
Lille, Hauts-de-France
Responsabilités principales Concevoir et déployer des features IA Construire des pipelines de traitement de données Industrialiser et monitorer les applications / services (latence, coût, taux de réponse, satisfaction utilisateur). Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Machine learning / Deep learning Traitement de données non structurées: PDF/Images Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques.
Offre d'emploi
UX/UI Designer Senior (H/F)
WINSIDE Technology
Publiée le
Design system
Figma
45k-49k €
Lille, Hauts-de-France
Localisation : Lille (59) Présence : 2 jours / semaine sur site (mardi obligatoire) Démarrage : courant avril Contexte : Mission stratégique pour un groupe international du secteur de l’habitat Contexte de la mission L’entreprise engage un programme stratégique autour de la transformation de son écosystème conversationnel. L’objectif : faire évoluer le chatbot actuel vers un assistant virtuel intelligent, omnicanal et proactif , capable d’accompagner les clients sur de nombreux touchpoints (web, mobile, e-commerce, services…). La mission s’inscrit au cœur des équipes digitales, produit, données et expérience client. Elle nécessite un profil senior, autonome et très à l’aise dans la coordination transverse. Rôle et responsabilités 1. Conception UX/UI pour un assistant virtuel nouvelle génération Définir et concevoir les parcours conversationnels avec une approche orientée utilisateur. Collaborer avec les équipes produit, data, IA et développement pour traduire la vision en expériences pertinentes. Prototyper les interactions clés (interfaces web/app + flows conversationnels). 2. Animation de workshops et collaboration transverse Organiser et animer des ateliers de co‑création, idéation, alignement et exploration. Recueillir, structurer et prioriser les besoins des parties prenantes. Faciliter les échanges entre métiers, tech, design, data et commerce. 3. UX Research & évaluation continue Mener ou accompagner les phases d’entretiens, tests utilisateurs, analyses de besoins. Contribuer à la production des insights permettant d’améliorer l’expérience conversationnelle. 4. Création et évolution du Design System Participer à la définition des composants, guidelines et normes UI pour assurer la cohérence entre les différents points de contact. Adapter les composants UI aux spécificités des interactions conversationnelles. 5. Communication & storytelling Valoriser les travaux auprès des équipes internes et des sponsors. Produire des supports clairs, pédagogiques et engageants (présentations, prototypes, documentation). Profil recherché Compétences clés Senior UX/UI Designer avec au moins 7–10 ans d’expérience en design digital. Forte capacité à travailler en autonomie sur des sujets stratégiques. Maîtrise des outils de design : Figma, FigJam, outils de prototypage avancés. Très à l’aise en communication (oral/écrit), en animation de workshops et en présentation. Expérience avérée sur : design system products complexes / multi‑équipes UX research Bonus Expérience en design conversationnel (chatbot, assistant IA, voice UX…). Connaissance de l’écosystème e‑commerce. Familiarité avec les environnements data / IA générative.
Mission freelance
Data Engineer
Codezys
Publiée le
Intelligence artificielle
Python
Snowflake
12 mois
Bordeaux, Nouvelle-Aquitaine
Dans le cadre de notre démarche d'innovation et de renforcement de notre expertise en gestion de données, nous lançons un appel d'offres pour le recrutement d'un(e) Data Engineer intégré(e) à notre Direction des Systèmes d'Information (DSI). Le(a) candidat(e) retenu(e) aura pour mission principale d'apporter son expertise technique sur des sujets récents liés à l'intelligence artificielle (IA) appliquée à la data, en s'appuyant sur une compréhension approfondie des enjeux métiers et techniques. Responsabilités principales : Alimentation de données : Effectuer l'ingestion, la transformation et la mise à jour des flux de données provenant de différentes sources afin d’assurer leur disponibilité et leur cohérence. Collaboration avec un Data Analyst : Travailler en binôme sur des projets liés à l’IA et à la data, en apportant votre expertise technique pour la réalisation d’analyses et la mise en place de solutions innovantes. Développement d’outils IA : Participer à la conception et au déploiement d’agents IA capables de réaliser du requêtage SQL en langage naturel, facilitant ainsi l’accès et l’interprétation des données par les utilisateurs métier. Outils et monitoring : Mettre à disposition des outils d’aide au développement, au monitoring et à la maintenance des plateformes data, afin d’assurer leur fiabilité et leur performance. Veille technologique : Effectuer une veille continue sur les architectures data, en termes de nouvelles tendances, d’outils émergents et de bonnes pratiques, pour faire évoluer nos solutions et répondre efficacement aux besoins métiers. La personne recrutée devra faire preuve de rigueur, d’autonomie et d’un esprit d’innovation, tout en étant à l’écoute des besoins des utilisateurs finaux. La maîtrise des technologies liées à l’IA, aux plateformes data et à la requête en langage naturel sera un réel atout pour la réussite de ce projet. Nous invitons donc les candidats ou organismes intéressés à soumettre leur proposition, en précisant leur approche technique, leur expérience et leur capacité à répondre à ces enjeux stratégiques.
Mission freelance
DATA ANALYST - Expert (>10 ans) F/H
SMARTPOINT
Publiée le
Apache Spark
Databricks
DataGalaxy
24 mois
550-580 €
Île-de-France, France
Dans le cadre du renforcement du DataLab, nous recherchons un Data Analyst Lead en prestation, rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution, multienseignes et multimétiers, avec de forts enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. La connaissance du domaine de la Grande Distribution est un critère essentiel. Objectifs de la mission Apporter une expertise en data analyse et en conception de solutions informatiques orientées données. Contribuer à la montée en compétence des Data Analysts du DataLab. Accompagner les équipes produits et projets sur des sujets analytiques et techniques avancés. Animer la communauté des Data Analystes. Coanimer la Data Authority et les ateliers associés, en lien avec l’équipe Gouvernance des données. Principales missions Expertise en data analyse et conception de solutions data. Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions). Contribution à la structuration et à l’alignement des KPI métiers. Animation de la communauté des data analystes (ateliers, bonnes pratiques, retours d’expérience). Contribution à la modélisation des données, notamment en faisant vivre le modèle de données communes. Coanimation de la Data Authority et des ateliers associés. Compétences clés attendues Expertise confirmée en data analyse. Capacité à concevoir et challenger des solutions data. Pratique avérée de la modélisation des données. Connaissance significative et opérationnelle de la Grande Distribution (critère indispensable) : enjeux business, indicateurs clés (vente, marge, stock, approvisionnement, performance magasin), compréhension des usages métiers de la donnée. Capacité à accompagner et faire monter en compétence des Data Analysts. Aisance dans l’animation de communautés et d’ateliers transverses. Contexte technique Technologies Big Data : SQL, Databricks, Scala, Python BI / Reporting : Power BI, MicroStrategy Modélisation des données : PowerDesigner Gouvernance des données : DataGalaxy Qualité des données / Data Observability : SODA Méthodologie projet : SAFE (Agilité à l’échelle) Outils Agile : Jira Environnements Big Data : Microsoft Azure & DataBricks Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes
Mission freelance
Business Analysis Market Data - Paris
Net technologie
Publiée le
Business Analyst
Market data
6 mois
Paris, France
Objectifs de la mission Gestion de projet / Business Analysis accès marché Suivi des migrations marchés et des demandes métiers sur les outils de passages d'ordres et de market data. - Analyse des impacts (techniques, fonctionnels, régulateurs et interne) des migrations marchés ou des demandes métiers sur les outils de passages d'ordres et de market data - Suivi avec toutes les équipes impactées (developpement, Production, Middle Office, Referentiel, Reporting, Regulatory, Trading Support, Trading,...) - Rédaction des spécifications à destination des équipes de développement - Suivi des développements - Etablissement des procédures de test en concertation avec l'équipe de QA - Suivi des déploiements en production en concertation avec les équipes de production en tenant compte des différentes contraintes (chronologie, versions, calendrier,...)
Offre d'emploi
BUSINESS DATA ANALYST / CONTRÔLEUR DE GESTION F/H - Marketing (H/F)
█ █ █ █ █ █ █
Publiée le
Nantes, Pays de la Loire
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Consultant BI - Data Analyst Qlik
ANDEMA
Publiée le
Qlik Sense
Qlikview
SQL
3 mois
Lille, Hauts-de-France
Contexte Pour l'un de nos clients majeurs du secteur Retail, nous recherchons un Consultant BI / Data Analyst spécialisé Qlik afin de renforcer l'équipe Data. Vous interviendrez en collaboration étroite avec les équipes métiers (offre, pricing, supply, finance, marketing...) dans un environnement à forte volumétrie. L'objectif : délivrer des dashboards fiables et performants, structurer les KPIs stratégiques et accompagner la transformation Data de l'enseigne. Une exposition aux flux d'intégration via Stambia est possible dans une logique de montée en compétences, mais le poste reste orienté BI / Analyse. Missions 1. Développement & Modélisation BI - Concevoir, développer et maintenir les applications sous QlikView et Qlik Sense. - Modéliser les données Retail (ventes, stocks, marges, supply, fidélité...). - Optimiser les modèles QVD et les performances applicatives. - Développer et maintenir les scripts d'alimentation nécessaires aux dashboards. 2. Analyse & Restitution - Recueillir et analyser les besoins métiers lors d'ateliers fonctionnels. - Structurer et formaliser les KPIs retail (sell-out, taux de transformation, panier moyen, disponibilité, ruptures...). - Concevoir des dashboards orientés pilotage opérationnel et stratégique. - Garantir la fiabilité, la cohérence et la qualité des données restituées. 3. Maintenance & Support - Assurer le MCO des applications BI existantes. - Gérer les incidents et optimiser les performances. - Maintenir la documentation technique et fonctionnelle. - Être force de proposition sur l'amélioration des usages BI. Environnement technique - QlikView, Qlik Sense - SQL (PostgreSQL, Oracle, SQL Server) - DataWarehouse - Stambia - JIRA, Git - Agile Scrum / Kanban
Mission freelance
Administrateur système et réseau N2
Ness Technologies
Publiée le
Administration réseaux
Administration système
OS Windows
6 mois
Paris, France
Fiche de mission – Administrateur Systèmes Windows N2 (H/F) Localisation : Paris Durée : 4 à 6 mois Démarrage : À définir Contexte de la mission Nous recherchons un Administrateur Systèmes N2 orienté Windows . La mission est principalement axée sur l’administration systèmes (80%) avec une part complémentaire sur les sujets réseaux (20%). Missions principalesAdministration Systèmes (80%) Assurer l’exploitation et l’administration des environnements Windows (niveau N2) Gérer les incidents, demandes et problèmes via l’outil de ticketing Participer au maintien en conditions opérationnelles (MCO) des infrastructures Réaliser les actions d’administration courante (comptes, droits, services, correctifs, supervision) Participer aux mises à jour, patch management et opérations de maintenance Documenter les procédures et les actions réalisées Support Réseaux (20%) Prendre en charge les incidents réseaux de premier niveau avancé Effectuer les diagnostics de connectivité (LAN/WAN, VPN, DNS, DHCP) Escalader vers les équipes expertes si nécessaire Environnement technique Systèmes Windows Server Active Directory (GPO, gestion des comptes et droits) Environnements Microsoft (DNS, DHCP) Outils Outil de ticketing (ITSM) Outils de supervision Patch management Réseaux – connaissances attendues Bases TCP/IP LAN / VLAN VPN Diagnostic de connectivité
Offre d'emploi
Data Engineer (H/F)
AVA2I
Publiée le
Amazon Redshift
Apache Airflow
API
3 ans
Île-de-France, France
Dans le cadre de la phase 2 de construction de sa plateforme Data Groupe, un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data. L’objectif est de consolider le socle technique existant, d’industrialiser les pipelines et de contribuer aux projets d’ingénierie Data & IA, tout en assurant le Run des assets déjà en production. 🎯 Missions principales 🔹 Build – Data Platform Participer à la construction et à l’évolution de la plateforme Data Concevoir et développer des pipelines de données Réaliser des POC et spiker le backlog Contribuer aux choix d’architecture en respectant les standards définis Optimiser les requêtes Amazon Redshift (point clé de la mission) 🔹 Run – Exploitation Assurer le maintien en conditions opérationnelles Superviser les traitements Garantir la performance et la stabilité des assets 🔹 Contribution IA Participer aux projets d’AI Engineering Collaborer avec les squads Data Métier Être force de proposition sur les solutions techniques 🔹 Optimisation des coûts Maîtriser les coûts des services cloud (dimension FinOps importante) 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Scalabilité & clustering ⚙ Dev & DevOps Python APIs (FastAPI / Flask) Airflow Docker Terraform GitLab CI/CD Linux Git (code review, merge request) 📊 Outils analytiques (bonus) Tableau Dataiku Alteryx
Mission freelance
Senior Data Platform Engineer – Databricks / Snowflake (H/F)
TEOLIA CONSULTING
Publiée le
Azure Data Factory
CI/CD
Databricks
6 mois
550-560 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe Data Engineering / Data Platform au sein d’un environnement international exigeant, nous recherchons un Senior Data Platform Engineer expert Databricks / Snowflake. Vous interviendrez sur la structuration, l’optimisation et l’industrialisation d’une plateforme data cloud moderne, au cœur d’enjeux stratégiques liés à la qualité, la performance et la fiabilité des données. Vos missions principales : Conception et optimisation de pipelines data sous Azure Data Factory et Databricks Modélisation, optimisation et sécurisation d’environnements Snowflake Structuration de modèles de données complexes (multi-sources, multi-réglementations) Industrialisation des workflows via GitHub Enterprise Cloud (CI/CD) Mise en place de bonnes pratiques de qualité et monitoring des données Contribution aux choix d’architecture et à l’amélioration continue de la Data Platform Collaboration étroite avec les équipes techniques et métiers Vous évoluerez dans un environnement à fort niveau d’exigence technique et organisationnelle, où la robustesse, la performance et la rigueur sont essentielles.
Offre d'emploi
Business Data Analyst Pré‑Trade Énergie & Commodities
WHIZE
Publiée le
Big Data
Finance
3 ans
Paris, France
Le Business Analyst Pré‑Trade intervient au cœur des activités Front‑to‑Middle sur les marchés de l’énergie (électricité, gaz, pétrole, émissions, garanties d’origine). Il accompagne les desks trading dans l’analyse, la structuration et l’évolution des processus pré‑trade, ainsi que dans la gestion et la qualité des données de marché. Ses missions couvrent l’analyse fonctionnelle, la compréhension des produits énergie, la modélisation des données, et l’amélioration continue des systèmes ETRM/CTRM. Le rôle est orienté trading, opérationnel et data , sans dimension Risk. Missions principales Analyser les besoins des desks Power, Gas, Oil, Emissions et Renewables. Étudier les mécanismes des marchés spot, intraday, day‑ahead, balancing et dérivés énergie. Documenter et optimiser les workflows pré‑trade : saisie d’ordres, enrichissement, contrôles, validation. Analyser les contract features des produits énergie : profils horaires, règles de livraison, indexations, contraintes physiques. Structurer et fiabiliser les market data énergie : prix spot/forward, courbes, données fondamentales, données issues des plateformes (EPEX, ICE, NordPool…). Comprendre et documenter le fonctionnement de l’ order book : profondeur, liquidité, matching. Réaliser des analyses data (SQL, Python) et produire des dashboards pour les équipes trading. Rédiger des spécifications fonctionnelles (user stories, règles métier, mapping de données). Participer aux phases de tests (UAT, non‑régression) et accompagner les utilisateurs lors des déploiements.
Mission freelance
Senior Data Analyst
SILAMIR
Publiée le
Tableau Desktop
Tableau software
1 an
Paris, France
Vous intervenez en tant que référent analytique auprès des équipes Métiers (Produit, Business Development, Sales, Marketing, Fraude, etc.). Votre rôle consiste à assurer le suivi de la performance, produire des analyses à forte valeur ajoutée et accompagner les équipes dans leurs prises de décision. Vos missions : Piloter la performance business à travers le suivi et l’analyse des KPI stratégiques Réaliser des analyses ad hoc afin de répondre aux problématiques métiers Collaborer avec les équipes Métiers pour mesurer l’impact des évolutions et identifier des opportunités d’optimisation Mettre à jour, fiabiliser et améliorer les dashboards existants (Tableau, Metabase…) Définir et suivre les indicateurs de performance pertinents avec les parties prenantes (Business, Sales, Product) Contribuer activement à la diffusion d’une culture data et aux bonnes pratiques analytiques
Offre d'emploi
Chef de Projet IT Senior (Programme Data International)
Gentis Recruitment SAS
Publiée le
BI
KPI
Microsoft Excel
12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme stratégique de transformation des systèmes d’information, un grand groupe international du secteur de l’énergie renforce son équipe IT afin de piloter un programme data transversal à l’échelle internationale. Le projet vise à structurer et industrialiser la gestion des données B2B au sein de plusieurs entités du groupe, en mettant en place des standards communs de gouvernance, de qualité de données et de reporting. L’objectif est de disposer d’une source de données fiable et harmonisée permettant d’améliorer la prise de décision dans plusieurs domaines : ventes, opérations, finance, gestion des risques et conformité carbone. Le programme s’inscrit dans un contexte international impliquant plusieurs pays et nécessite une coordination forte entre équipes métiers, équipes IT et responsables data. Missions principales Le consultant interviendra en tant que Chef de Projet IT Senior et aura pour responsabilités principales : Piloter la mise en place d’indicateurs et de métriques de performance sur plusieurs entités internationales Assurer l’onboarding et la coordination des différentes parties prenantes du programme Garantir le respect des objectifs projet en termes de périmètre, planning, budget et qualité Assurer la coordination entre les équipes IT, les architectes et les équipes métiers Piloter les processus de communication, gestion des risques, gestion des incidents et gestion du changement Superviser la livraison des développements IT conformément à la roadmap définie Produire les reportings et préparer les instances de gouvernance du programme Participer à la structuration de la gouvernance data et à l’alignement entre les différents streams du programme Livrables attendus Plan de suivi du projet Reporting d’activité et indicateurs de performance Tableaux de bord KPI Suivi de l’avancement des développements Documentation de gouvernance et supports pour les comités de pilotage Roadmap et plan de déploiement du projet à l’international Compétences techniques requises Gestion de projet IT (plus de 10 ans d’expérience) Pilotage de programmes internationaux Reporting et mise en place de KPI Plateformes décisionnelles et outils de reporting Modélisation de données Maîtrise avancée des outils bureautiques (Excel notamment) Compétences fonctionnelles Expérience significative dans des projets data ou BI Bonne compréhension des architectures fonctionnelles et des systèmes d’information Expérience de déploiement de projets dans des environnements internationaux Capacité à piloter des transformations impliquant plusieurs entités Compétences comportementales Leadership et capacité à embarquer les équipes Excellente communication écrite et orale Forte capacité d’analyse et de structuration Capacité à travailler dans un environnement complexe et évolutif Aptitude à coordonner des équipes multidisciplinaires Langues Anglais courant indispensable Français apprécié
Mission freelance
DATA MESH PLATFORM MANAGER
Codezys
Publiée le
Azure
Cloud
Data governance
12 mois
Courbevoie, Île-de-France
Contexte de la mission Le Groupe met en place une Self-Service Data Platform basée sur les principes du Data Mesh , appelée Group Data Platform (GDP) . La mission vise à concevoir, construire, déployer et exploiter cette plateforme à l’échelle de l’entreprise. Le Data Mesh Platform Manager sera responsable de la mise en œuvre, de l’adoption et du pilotage de la plateforme dans un environnement multi-cloud (AWS/Azure) et hybride, incluant des systèmes on-premise. Objectifs et livrables Construction et delivery de la plateforme Data Mesh : conception de l’architecture, définition des capacités, standards techniques, garantissant scalabilité, performance et sécurité. Livrables : ADR, architecture de référence, roadmap, standards techniques. Architecture cloud et hybride : conception, pilotage des déploiements sur AWS et Azure, intégration des systèmes on-premise, automatisation via Infrastructure as Code. Livrables : blueprint, framework de sécurité, conformité. Delivery et pilotage : gestion du cycle de deliverables, priorisation, suivi de la performance et gestion des incidents. Livrables : roadmap, plan de release, indicateurs de fiabilité. Déploiement dans les domaines métiers : accompagnement des équipes, création de data products, onboarding, résolution des problématiques d’adoption. Livrables : frameworks d’onboarding, playbooks, KPI d’usage, supports de formation. Product management et évolution : recueil des besoins, définition de la vision, mesure de la valeur, améliorations continues. Livrables : vision produit, KPI, feedbacks, roadmap d’évolution. Gouvernance et documentation : documentation des capacités, conformité avec la Data Governance fédérée. Livrables : référentiel, standards, frameworks, playbooks. Communication et reporting : suivi de l’avancement, reporting aux gouvernances, alignement des parties prenantes. Livrables : dashboards, présentations, suivi des décisions. Promotion et évangélisation interne : valorisation de la plateforme, développement de la communauté. Livrables : supports de communication, stratégies d’adoption, démonstrations, cas d’usage.
Mission freelance
Data Architect (Secteur Luxe)
Nicholson SAS
Publiée le
Azure DevOps
Git
Github
8 mois
1 200 €
Paris, France
Pour le compte de l’un de nos clients basé à Paris, nous recherchons un Data Architect (Secteur de Luxe) afin d’intervenir sur une mission stratégique autour de l’architecture et de la valorisation des données. Missions: Concevoir et mettre en œuvre des solutions de données de bout en bout dans Azure Fabric (Lakehouse, Data Warehouse, modèles sémantiques). Intégration avec Power BI et modèles d'évolutivité. Définir les zones/hiérarchie de données (couches Bronze, Argent, Or). Établir des cadres de gouvernance des données. Modélisation des données et conception de pipelines ETL/ELT. Définir la logique de transformation et les règles métier. Gérez les charges incrémentielles, les dimensions et les contrôles de qualité. Optimisez les performances des requêtes et l’efficacité du stockage. (Outils : SQL, Python (PySpark), Azure Data Factory, Fabric Notebooks, dbt). Expertise en développement Python et SQL : rédigez des scripts Python efficaces (PySpark) pour la transformation des données dans Fabric Notebooks. SQL pour les requêtes complexes, les agrégations et l'optimisation des performances. Développer des bibliothèques de code et des fonctions réutilisables. Gérer la validation de la qualité des données et la gestion des erreurs. Représentation du fata dans la propriété finale du tableau de bord. Gestion du pipeline CI/CD et du contrôle de version GitHub : mettre en œuvre des flux de travail CI/CD pour le déploiement de produits de données. Gestion des référentiels de codes, stratégies de branchement. Suivre les modifications et maintenir des pistes d'audit. Outils : GitHub, Azure DevOps Pipelines, GitHub Actions, Git CLI, règles de protection des branches. Gouvernance des données, sécurité et contrôle d'accès basé sur les rôles (RBAC) : définissez des politiques de gouvernance pour le traçage des données, la gestion des métadonnées et les normes de qualité des données. Implémentez le contrôle d’accès basé sur les rôles (RBAC) pour les espaces de travail et les ensembles de données Fabric. Configurez la sécurité au niveau de l’espace de travail, de l’ensemble de données et des lignes. Établir des schémas de classification des données.Outils : Azure Fabric RBAC, Azure AD/Entra ID, Purview (gouvernance des métadonnées), rôles d'espace de travail Fabric, Power BI RLS (Row-Level Security). Cartographie des données E2E et définition des KPI : Documentez le lignage complet des données depuis les systèmes sources (D365, bases de données héritées) jusqu'aux magasins de données finaux. Créez des documents de cartographie détaillés (champs sources → colonnes cibles). Définissez la logique métier et les règles de transformation à chaque couche. Identifier et définir des KPI alignés avec les objectifs business. Établir la logique de calcul, les seuils et le suivi des KPI. Créez des dictionnaires de données et des glossaires métier. Outils : Confluence (documentation), Visio/Lucidchart (diagrammes de flux de données), Excel (matrices de cartographie), Power BI (tableaux de bord KPI). Documentation du cadre, normes et composants de ressources : établir des normes d'architecture de données et une documentation sur les meilleures pratiques. Conventions de dénomination, structures de dossiers, modèles de conception. Créez des modèles pour les blocs-notes, les scripts SQL et les fichiers de configuration. Définir les règles de qualité des données et les cadres de validation. Documenter les procédures de déploiement, les guides de dépannage et les runbooks. Tenir à jour les enregistrements de décisions d'architecture (ADR). Fournir des guides d'intégration pour les nouveaux membres de l'équipe. Profil : Data Architect Nombre d’années d’expérience : +7 ans Site : Paris ; sur site Prix d’achat max : 1200 euros Date de démarrage : asap Date de fin : 31/12/2026 Compétences techniques requises : Microsoft Azure Microsoft Azure Service Fabric Azure DevOps Pipelines SQL PySpark Git CLI, GitHub Power BI RLS
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6959 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois