Trouvez votre prochaine offre d’emploi ou de mission freelance Azure Data Factory
Votre recherche renvoie 60 résultats.
Mission freelance
RESPONSABLE D'APPLICATION - Confirmé (H/F)
Publiée le
Azure Data Factory
Databricks
ITIL
4 mois
400-490 €
Châtillon, Île-de-France
Télétravail partiel
Responsable d'application au Datalab : o Assure et coordonne les activités de maintenance corrective et évolutive des applications dont il est responsable. o Il est responsable de la qualité de service délivrée dans le respect des contrats (support, qualité, sécurité, …) vis-à-vis des entités métiers en s’appuyant sur les équipes transverses. o Il est aussi le garant du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité de l’application. o Il est en interface avec le métier et répond aux demandes d’évolution ou des projets en lien avec le Responsable SI Métier et le Chef de Projet. CONCEPTION D'ÉVOLUTION DU SYSTÈME D'INFORMATION o Est l'interlocuteur des métiers / DOSI lors de la vie courante des systèmes o Est responsable de l'évolution des applications dont il a la charge o Gère les demandes, les priorise, et gère les lots d'évolutions de ses applications en lien avec le Responsable SI métier et le Responsable de Domaine/Pôle o Participe aux cadrages et projets d'adaptation et d'évolution du SI o Effectue l'analyse fonctionnelle des besoins et détermine les impacts sur les interfaces avec les produits environnants dans le système d'information de l'entreprise o Suit les roadmaps de l'Editeur, en analyse les impacts sur son périmètre et anticipe et pilote les montées de versions MISE EN ŒUVRE DU SYSTÈME D'INFORMATION o Conduit, dans le cadre des projets, l'évolution cohérente de son système depuis la conception jusqu'à la mise en service o Réalise les spécifications de ses applications o S’assure de la qualité attendue des développements réalisés o Contribue à la stratégie de recette des projets sur son périmètre o Est responsable de la définition, avec le métier/DOSI et l'équipe Test Factory, des plans de tests nécessaires à la recette de ses applications o Pilote les livraisons de corrections en cas d'anomalies détectées sur ses applications QUALITÉ DU SYSTÈME D'INFORMATION (PERFORMANCE, COHÉRENCE, COÛT, DÉLAI? ) o Applique les normes, méthodes et outils de référence définis au sein du Domaine ou de la Direction de référence o Est le garant du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité de ses applications o Est responsable de la gestion documentaire des applications o S'assure de la production et du suivi des indicateurs de performances de ses applications en lien avec le Responsable de Domaine/Pôle, le Chargé de Pilotage SI o S'assure que les SLA définis contractuellement avec l'éditeur et les Domaines sont suivis et respectés
Mission freelance
Business Application Owner/ SAP
Publiée le
API
API REST
Ariba
12 mois
510-550 €
Lille, Hauts-de-France
Télétravail partiel
Mission Le Business Application Owner est le gestionnaire, l’expert de référence et le garant des connaissances d’un patrimoine applicatif. Sa mission est de maximiser la valeur de ce patrimoine en assurant : l’excellence opérationnelle (Run, QoS), la performance et la fiabilité au quotidien, le pilotage des évolutions et de la rationalisation, l’interface unique entre les utilisateurs, les partenaires et les projets de transformation. Il agit dans le respect des objectifs de Qualité de Service , de Satisfaction Utilisateurs et d’alignement stratégique du SI. Périmètre Applicatif Basware : Outil Purchase-to-Pay (P2P) pour la gestion des demandes d'achat, commandes et factures fournisseurs. Synertrade : Outil SRM dédié au référencement fournisseurs et au pilotage de la relation fournisseur. Le périmètre applicatif peut évoluer selon les besoins de l’entreprise. Responsabilités 🔧 1. Garantie du fonctionnement opérationnel (Run & QoS) Assurer et contrôler la disponibilité, la performance et l’intégrité du patrimoine applicatif conformément aux SLA . Traiter les incidents de niveau 3 et piloter la gestion des problèmes (réduction du MTTR). Veiller à l’application des politiques de sécurité (mises à jour, gestion des accès, conformité). Coordonner toutes les ressources internes/externes (prestataires, centres de service) intervenant sur le périmètre. 🚀 2. Pilotage des évolutions & Expertise Recueillir, analyser et prioriser les demandes d’évolutions. Contribuer à la conception fonctionnelle des solutions. Apporter une expertise fonctionnelle et technique dans les projets de transformation. Être le garant des connaissances : documentation, cartographie, modes opératoires. Assurer la cohérence et la pérennité du patrimoine applicatif. 🤝 3. Relation utilisateurs & partenaires Gérer la relation opérationnelle avec les éditeurs, intégrateurs et partenaires (y compris L1 si applicable) et garantir le respect contractuel des SLA . S’assurer du bon usage des applications et accompagner les utilisateurs (formation, conseils, communication). Traduire les besoins métiers en spécifications fonctionnelles ou solutions opérationnelles. Compétences Requises 🛠 Compétences techniques Maîtrise des SGBD & SQL (Oracle, SQL Server). Power Automate, Logic Apps Microsoft. Connaissance des outils Procurement (SAP Ariba, Basware…). Compréhension des environnements SaaS, Cloud, API, bases de données. Connaissance SSI : gestion des accès, mises à jour critiques, conformité. Compréhension de l’architecture / urbanisation SI. Gestion de la configuration et référentiels documentaires. 🧩 Compétences ITSM Gestion des incidents (N3) : coordination des équipes techniques et partenaires. Gestion des problèmes : analyse des causes racines et mise en place d’actions correctives durables. Gestion des changements : évaluation d’impacts, validation des mises en production. 📐 Gestion de Projet & Fonctionnel Maîtrise des méthodologies Agile et Cycle en V. Pilotage autonome des projets d’évolution, participation aux grands projets. Traduction des besoins métiers en spécifications fonctionnelles. Définition et suivi des KPI (QoS, MTTR…). 👥 Compétences interpersonnelles Aisance relationnelle & écoute active. Capacité de priorisation et planification. Travail transverse et en coopération. Autonomie et prise de décision. Orientation service & satisfaction utilisateur. Rigueur, organisation & pédagogie. Orientation résultats et qualité de service. 🌍 Langues Français et anglais (niveau B2 minimum).
Mission freelance
Consultant PUR AZURE + BI
Publiée le
Azure
Azure Data Factory
DAX
3 mois
230-430 €
Courbevoie, Île-de-France
Télétravail partiel
* Concevoir et développer des entrepôts de données (Data Warehouse), Data Marts et Data Cubes * Développer des flux ETL réutilisables avec Azure Data Factory * Intégrer et transformer des données provenant de multiples sources vers Azure SQL DB / Data Lake * Mettre en oeuvre des mécanismes de chargement (complet, delta, historique) * Optimiser la performance des requêtes (SQL, DAX, MDX) et assurer la qualité des données * Mettre en place des outils analytiques et alimenter les dashboards Power BI * Développer des rapports Power BI * Gérer la sécurité des données, notamment le Row Level Security à tous les niveaux de la chaîne * Participer à la mise en place de pipelines CI/CD automatisés via Azure DevOps / GitLab
Mission freelance
Data Engineer Ms Fabric - Python /Azure
Publiée le
Azure
Azure Data Factory
Azure DevOps
12 mois
550-630 €
Paris, France
Télétravail partiel
Contexte Dans le cadre du renforcement de ses équipes Data, notre client du secteur de l’énergie recherche 2 Data Engineers spécialisés en Python , PySpark , Microsoft Fabric et maîtrisant l’environnement Azure Cloud . Les prestations débuteront début / mi-janvier 2026 pour une mission longue à Paris. Objectifs de la mission Le Data Engineer interviendra sur la conception, le développement et la mise en production de l’architecture de données de l’entreprise. Il aura notamment pour missions : Objectifs Concevoir une architecture Data performante, scalable et conforme aux besoins métiers. Industrialiser les flux de données au sein de l’écosystème Azure et Microsoft Fabric. Garantir la fiabilité, la qualité et la disponibilité des données. Livrables attendus Architecture cible documentée Pipelines de données développés et testés Pipelines mis en production et monitorés Documentation technique complète Plan de maintenance et évolutions techniques recommandées Responsabilités détaillées Recueillir et analyser les besoins des métiers et utilisateurs. Concevoir l’architecture de données : modèles, schémas, stockage, orchestration. Développer des pipelines data robustes sous Python , PySpark , Microsoft Fabric . Mettre en production les différents flux (CI/CD, monitoring…). Maintenir et faire évoluer l’architecture existante. Assurer un support technique de niveau expert sur la chaîne de traitement des données. Contribuer à l’amélioration continue des pratiques Data et Cloud. Compétences requises Techniques CompétenceNiveau Python ⭐⭐⭐⭐ (Expert) PySpark ⭐⭐⭐⭐ (Expert) Microsoft Fabric ⭐⭐⭐ (Confirmé) Certification « Microsoft Certified: Fabric Data Engineer Associate » Souhaitée / requise Azure Cloud ⭐⭐⭐ (Confirmé) Anglais ⭐⭐⭐ (Courant) Soft Skills Rigueur et autonomie Communication claire avec les métiers Capacité à travailler en équipe dans un environnement Agile/Cloud Bon sens de l’analyse et de la résolution de problèmes Modalités Lieu : Paris Type : Prestation de Data Engineering Présence obligatoire : 3 jours sur site / semaine Télétravail : 2 jours Début de mission : début / mi-janvier 2026
Offre d'emploi
Product Owner data
Publiée le
Azure Data Factory
Cybersécurité
Data Lake
6 mois
Courbevoie, Île-de-France
Télétravail partiel
Nous recherchons un Product Owner expérimenté pour intervenir sur le Datalake Cybersécurité, en collaboration avec l’équipe Data de Saint-Gobain. Ce projet repose sur la dataplateforme Snowflake et PowerBI. Missions principales : Rédiger le cahier des charges et définir les plannings. Définir et analyser les KPIs avec le métier. Optimiser le calcul des KPIs et analyser les sources de données. Modéliser les données dans PowerBI et Snowflake. Définir les règles de gestion des accès et de data gouvernance. Suivre l’ordonnancement des sources et définir les règles d’historisation. Garantir la qualité et les performances des données. Gérer le backlog et les cérémonies Agile dans Jira. Réaliser les tests unitaires sur Snowflake et les tests end-to-end sur PowerBI. Rédiger la documentation fonctionnelle et technique. Mettre en place le monitoring et l’alerting des sources et de la qualité de la donnée. Assurer la communication, la formation et le support auprès des utilisateurs. Organiser des comités de pilotage et suivre le run.
Offre d'emploi
Expert Data Factory
Publiée le
Azure
Azure Data Factory
Azure DevOps
12 mois
60k-70k €
400-550 €
Paris, France
Télétravail partiel
🚀 CITECH recrute ! ✨ Si vous souhaitez mettre à profit vos compétences et accompagner un projet stratégique, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Expert Data Factory (H/F) 🏢 Présentation du client Notre client est un grand cabinet français reconnu pour son expertise pluridisciplinaire et son accompagnement stratégique auprès d’entreprises de toutes tailles. Dans le cadre du développement de son pôle Data, il souhaite renforcer son équipe avec un profil expérimenté capable de structurer et d’optimiser la gestion de la donnée au sein de son environnement Microsoft. Description du poste 💼 Contexte de la mission Au sein de l’équipe Data, vous interviendrez en tant qu’ Expert Data Factory afin d’assurer la fiabilité, la qualité et la valorisation des données. Vous aurez un rôle clé dans la conception, la transformation et l’agrégation de données provenant de multiples sources, tout en accompagnant la montée en compétences de deux collaborateurs plus juniors déjà en poste. 🚀 Missions principales Analyser, structurer et consolider les données issues de différents environnements, notamment Azure AD et diverses bases SQL. Mettre en place des processus de nettoyage, de contrôle qualité et d’agrégation des données . Concevoir et maintenir des pipelines de données robustes et performants. Garantir la qualité et la cohérence des données dans l’ensemble du système d’information. Participer à la gouvernance de la donnée et à l’amélioration continue des pratiques Data au sein de l’équipe. Encadrer et faire monter en compétences deux collaborateurs juniors sur les aspects techniques et méthodologiques. Collaborer étroitement avec les équipes IT et métiers pour comprendre les besoins et assurer la fiabilité des analyses.
Offre d'emploi
Tech Lead Data
Publiée le
Azure
Azure Data Factory
Microsoft Fabric
6 mois
Paris, France
Télétravail partiel
Mission Freelance – Tech Lead Data Client : secteur Minéraux / Industrie Localisation : Paris 16ᵉ Télétravail : 1 à 2 jours par semaine Équipe : environ 10 collaborateurs Durée : 6 mois minimum Contexte et enjeux Le client engage une transformation data ambitieuse avec la mise en place d’une Data Factory moderne et scalable basée sur Microsoft Fabric . Le dispositif repose sur trois volets complémentaires : Program Management – pilotage global et coordination. Tech Enablers – construction des fondations techniques de la plateforme. Data Use Cases – livraison de cas d’usage métiers à fort impact (supply chain, finance, production, etc.). L’objectif est double : livrer rapidement 2 à 3 cas d’usage prioritaires et structurer une organisation agile et durable , intégrée à l’écosystème Azure. Rôle : Tech Lead Data En tant que référent technique , vous jouerez un rôle clé dans la conception, la structuration et la mise en œuvre de la Data Factory. Vous serez le garant de la cohérence technique et du bon niveau d’exécution des équipes. Missions principales : Piloter la mise en œuvre technique des cas d’usage et assurer leur intégration dans la plateforme cible. Encadrer et accompagner une équipe de 2 Data Engineers et 1 Analytical Engineer. Définir les standards d’architecture, bonnes pratiques et guidelines techniques. Garantir la qualité du code, des pipelines et des livrables. Participer activement aux décisions d’architecture et aux revues techniques. Contribuer à la mise en place d’une gouvernance agile structurée (PI Planning, rituels d’équipe). Environnement technique Cloud & Data Platform : Microsoft Fabric, Azure Traitement & Intégration : Spark, Data Factory, Synapse Langages : Python, SQL, Scala CI/CD & Infrastructure as Code : Git, Terraform Méthodologie : Agile SAFe / Scrum Profil recherché Expérience confirmée en tant que Tech Lead ou Architecte Data (5+ ans) , idéalement dans un environnement Microsoft. Maîtrise des architectures cloud Azure et des pipelines de données (ETL/ELT). Leadership technique, sens du collectif et goût du mentoring. Bonne compréhension des enjeux d’intégration et de gouvernance data. Anglais courant, environnement international. Atouts de la mission Projet stratégique et structurant : construction d’une Data Factory from scratch. Rôle clé dans la définition de l’architecture et des standards techniques. Environnement de travail moderne et exigeant, favorisant l’excellence technique.
Mission freelance
Senior Data Scientist
Publiée le
ADFS
Analyse financière
Azure
6 mois
550-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre du remplacement d’un consultant senior sortant, tu rejoindras l’équipe Pricing & Revenue Management afin d’assurer la continuité, l’évolution et la fiabilisation des modèles algorithmiques stratégiques. Ton rôle sera clé pour concevoir, développer et optimiser des modèles avancés de pricing et de revenue management, permettant de prévoir, indexer et optimiser les contrats clients dans un contexte business à forts enjeux. 🧠 Missions principales 1. Développement & optimisation de modèles Concevoir et développer des modèles avancés de pricing (indexation, forecasting, optimisation des revenus). Améliorer la performance des algorithmes existants (précision, vitesse, robustesse, explicabilité). Construire de nouveaux modèles data-driven liés au revenue management (élasticité, stratégie tarifaire, scénarios). 2. Engineering & Data Pipeline Développer, maintenir et optimiser des pipelines dans Azure Data Factory & Azure Databricks . Manipuler, transformer et structurer des données dans un environnement big data. Intégrer et orchestrer les données via Azure Lakehouse / ADLS . (Bonus) Utiliser PySpark pour gérer des volumes de données importants. 3. Collaboration & Interaction Business Travailler en étroite collaboration avec les équipes Pricing, Finance et Opérations. Comprendre les besoins business et les traduire en modèles statistiques exploitables. Documenter, présenter et vulgariser les résultats auprès des équipes métier. Garantir une forte réactivité et la fiabilité des livrables compte tenu des enjeux stratégiques. 🛠️ Stack technique Python : indispensable (modélisation, data processing, industrialisation). Azure Cloud : Databricks, ADF, ADLS / Lakehouse. PySpark : apprécié. Méthodes & domain expertise : Pricing algorithmique Revenue management Forecasting (séries temporelles, modèles ML) Optimisation (linéaire, stochastique, contraintes)
Mission freelance
PO DATA Technique
Publiée le
Apache Solr
API
API Platform
12 mois
530-560 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Product Owner / Business Analyst expérimenté (5 à 10 ans d’expérience) pour accompagner le cadrage et le pilotage d’évolutions produit à forte dimension data. La mission vise à structurer les besoins, assurer le suivi du delivery, produire une documentation de qualité et garantir la prise de décision éclairée grâce à l’analyse de données. Responsabilités principales Cadrer les besoins fonctionnels, définir la vision et le périmètre des évolutions. Rédiger et prioriser les User Stories avec leurs règles métier et critères d’acceptation. Suivre le delivery, coordonner les équipes techniques et animer les rituels Agile. Rédiger les cas de tests et participer aux phases de validation fonctionnelle. Assurer la communication et le reporting auprès des différents stakeholders internes et externes. Exploiter les données pour quantifier l’impact des évolutions, orienter les choix et mesurer la valeur. Contribuer à l’amélioration continue des processus, du produit et des méthodes de travail. Compétences fonctionnelles souhaitées Cadrage des besoins : bonne maîtrise (niveau 3) Suivi du delivery : bonne maîtrise (niveau 3) Rédaction de User Stories : bonne maîtrise (niveau 3) Rédaction de cas de tests : bonne maîtrise (niveau 3) Communication externe avec les stakeholders : bonne maîtrise (niveau 3) Analyse data pour la prise de décision : bonne maîtrise (niveau 3) Compétences outils et technologies souhaitées Analyses de données : bonne maîtrise (niveau 3) Moteurs de recherche (type Elastic, Solr…) : bonne maîtrise (niveau 3) Méthodologies de tests en contexte incertain : maîtrise partielle (niveau 2) Navigation AWS Console : maîtrise partielle (niveau 2) Requêtage Elastic : maîtrise partielle (niveau 2) API HTTP : maîtrise partielle (niveau 2) SQL : débutant (niveau 1) Compétences méthodologiques Agile / Scrum : bonne maîtrise (niveau 3) SAFe : maîtrise partielle (niveau 2) Kanban : maîtrise partielle (niveau 2) Profil recherché 5 à 10 ans d’expérience en Product Ownership, Business Analysis ou Product Management. Bonne compréhension des environnements techniques et data. Solides capacités d’analyse, de synthèse et d’expression écrite/orale. Aisance relationnelle et capacité à travailler avec des équipes pluridisciplinaires. Orientation valeur, autonomie et capacité à évoluer dans un contexte incertain et dynamique. Livrables attendus User Stories priorisées et documentées Cas de tests fonctionnels Analyses d’impact basées sur la data Reporting régulier du delivery Documentation fonctionnelle et process
Mission freelance
Data Project Manager
Publiée le
Architecture
Azure Data Factory
Budget Management
6 mois
400-530 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Responsable du pilotage global de la roadmap technologique en lien avec les objectifs business. Vous gérez le budget, le planning et l’animation des instances de gouvernance (COMEX et opérationnelles), tout en assurant l’alignement des jalons techniques avec les jalons métiers. Vous supervisez la réalisation des projets techniques (design, développement, tests, mise en production) en coordonnant les équipes internes et externes (développement, infrastructure, architecture, sécurité). Vous assurez le suivi des développements et des recettes, notamment sur les flux de données. Vous réalisez les cadrages et spécifications techniques : traduction des besoins fonctionnels, définition des flux entre les systèmes (PRM, Salesforce, back-offices, filiales), validation des choix d’architecture, conformité RGPD et sécurité des échanges. Enfin, vous pilotez la stratégie de migration des systèmes existants, en collaboration avec les SI producteurs et consommateurs de données.
Mission freelance
Architecte DATA - Ms Fabric Full TT
Publiée le
Architecture
Azure Data Factory
Azure DevOps
6 mois
610-660 €
France
Télétravail 100%
Responsabilités principales : Feuille de route Data : Définir et maintenir une roadmap de la plateforme de données alignée avec la stratégie de l’organisation. Évolution du Data Stack : Concevoir, déployer et faire évoluer l’architecture du data stack moderne (MSF). Données de référence : Mettre en place et gérer les données de référence (MDM), sources uniques de vérité pour réduire incohérences et redondances. Alignement métier : Traduire les besoins business en solutions architecturales sécurisées et évolutives. Cohérence des outils : Assurer l’intégration fluide entre systèmes existants, cloud, outils départementaux et solutions BI/ERP. Livraison transverse : Collaborer avec ingénieurs data, analystes BI et responsables métiers pour produire des données fiables et gouvernées. Normes et bonnes pratiques : Développer architectures de référence, modèles de données et protocoles de gouvernance. BI en libre-service : Permettre une analyse libre mais gouvernée via exposition structurée des données. Profil recherché : Formation : Diplôme d’ingénieur ou équivalent en informatique, data engineering ou discipline similaire. Expérience : 5+ ans en architecture de données dans des environnements complexes et hybrides. Expérience avec MDM et plateformes Microsoft Fabric. Expertise sur plateformes hybrides (legacy, on-prem, cloud-native). Pilotage d’initiatives transverse (IT, métier, gouvernance). Compétences clés : Cloud & Data Platform : Azure, conception d’architectures Azure, CI/CD avec Azure DevOps. Intégration & pipelines : Azure Data Factory, Fabric Pipelines, intégration avec CRM/ERP. Solutions unifiées modernes : Microsoft Fabric, Databricks / PySpark. Modélisation & stockage : SQL Server, Cosmos DB, modèles dimensionnels, normalisés, Lakehouse. Gouvernance & métadonnées : Data lineage, catalogue de données, intégration BI/MDM/qualité. Sécurité & conformité : Entra ID, Key Vault, RGPD, PasswordState. BI & analytique : Power BI, DAX, modélisation sémantique, Microsoft Fabric.
Mission freelance
Mission Freelance / Portage - Microsoft Fabric / Azure - Paris - Hybride
Publiée le
Azure
Azure Data Factory
Azure Synapse
3 ans
380-460 €
Courbevoie, Île-de-France
Télétravail partiel
Bonjour, Pour l’un de mes clients, je recherche un Consultant Microsoft Fabric Rôle : Concevoir, intégrer et optimiser les flux de données sur la plateforme Microsoft Fabric . Structurer OneLake, Synapse, Data Factory , créer et maintenir les référentiels, améliorer la qualité des données et collaborer avec les équipes BI sur les modèles de reporting. Compétences clés : Microsoft Fabric, Azure (Synapse, Data Factory, Databricks, Event Hub, OneLake), ETL, Data Lake / Lakehouse, modèle Médaillon, SQL, Python (PySpark), Power BI, intégration inter-applicative, reporting BI. Profil recherché : Expérience confirmée sur Azure et ADF, bonne maîtrise des architectures Data Lake / Lakehouse. Personne rigoureuse, organisée, avec un bon esprit d’équipe, capable de documenter et vulgariser les traitements. Si vous êtes intéressé et que votre profil correspond, merci de postuler avec votre CV à jour . Je reviendrai vers vous rapidement.
Offre d'emploi
Ingénieur Cloud Data
Publiée le
Azure Data Factory
Azure DevOps
Databricks
1 an
40k-45k €
Île-de-France, France
Télétravail partiel
Au sein de la Direction Digital et Data, vous intégrerez le Data Lab en charge de l’ensemble des projets BI et Data pour les enseignes et les fonctions d’appui du Groupement En tant qu'Ingénieur devOps, votre mission principale sera de participer au déploiement des projets data du Groupement. La plate-forme utilisée est le Cloud Microsoft Azure. vos missions: Construire des infrastructures Cloud Public (principalement sur Azure) Industrialiser les architectures cibles et configurer les équipements (CI / CD) Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures.-Participer aux phases de validation technique lors des mises en production ou des évolutions. Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation
Mission freelance
Expert MlOps Data IA / LLM(Secteur Bancaire)
Publiée le
API Platform
Azure Data Factory
Azure Kubernetes Service (AKS)
12 mois
550-600 €
Paris, France
Le Lab Data connaît une forte accélération et un passage à l’échelle. Les équipes construisent et opèrent un Data Mesh , un Datalake , ainsi qu’une plateforme complète permettant de rendre accessibles les données, les analytics et les produits IA. Le périmètre inclut : Conception du magasin Workspace pour accès aux données Connectivité avancée du Data Lab Mise en production de nombreux agents et modèles (≈60) Montée en puissance sur l’ observabilité , le Go-to-Market , l’orchestration, et l’optimisation de la vitesse de livraison L’objectif : accélérer , scaler , et professionnaliser la chaîne de valeur Data & IA pour soutenir une croissance forte du nombre d’utilisateurs. Mission principale Rejoindre le Lab Data pour : Accélérer l’évolution du Data Mesh et du Datalake Renforcer l’observabilité, la qualité, et la fiabilité des pipelines Structurer et opérer la plateforme agentique (LLM, agents, graph, orchestration) Améliorer la vitesse et la maturité en production (MLOps & LLMOps) Accompagner l’onboarding rapide des nouveaux utilisateurs et experts Contribuer au Go-to-Market et à la montée en maturité du produit Participer au développement interne des outils d’automatisation et d’orchestration Responsabilités clésData Engineering & Analytics Développer et opérer des pipelines Spark / SQL performants Contribuer au Data Mesh, Datalake, et aux connecteurs Workspace Gestion de la consommation via API, Spark, Elastic Search Déploiement et optimisation Power BI & DataViz avancée Participer à la construction du catalogue de données / agents Orchestration & Infrastructure Concevoir et opérer les workflows sur Kubernetes Infrastructure as Code (Terraform – un plus) Observabilité appliquée au Data & IA (logs, metrics, traces) Contribution à la refonte de n8n interne Gestion DAG & orchestrateurs internes / agentiques ML Ops & LLM Ops Gestion du cycle de vie ML & LLM Mise en production d’agents LLM (60+ agents en prod) Context engineering : gestion dynamique du contexte partagé, hiérarchie, rationalisation Deep Search, Knowledge Graph, Neo Forging Monitoring, optimisation et sécurité des modèles Plateforme agentique : supervision, versioning, fiabilité Développement Applicatif API robustes (Python / FastAPI) Application front (React – un plus, avec sensibilité design) Automatisation et intégration dans la plateforme
Mission freelance
Data Architecte (Secteur Energie / Industrie)
Publiée le
Apache Airflow
Apache Spark
Architecture
12 mois
690-780 €
Rennes, Bretagne
Télétravail partiel
Contexte & Enjeux Projet stratégique à haute visibilité visant à construire une nouvelle Data Platform . L’infrastructure, livrée sur un modèle Kubernetes , constitue le socle du futur environnement Data. Une équipe backend est déjà en place et développe le socle applicatif en Python / Django . Objectif principal : Structurer et définir l’ architecture Data de la plateforme, dans une logique modulaire, scalable et sécurisée , et préparer l’intégration des premiers cas d’usage métiers. 🧩 Mission Le Data Architecte interviendra sur : Définir l’ architecture cible de la Data Platform après livraison de l’infrastructure ; Segmentation et ségrégation des stockages selon les typologies de données (temps réel, analytics, applicatif) ; Déploiement et orchestration des conteneurs dans l’environnement Kubernetes ; Mise en place du socle Data et des patterns de gouvernance : sécurité, qualité, monitoring, CI/CD Data ; Accompagnement sur les choix technologiques (préférence open source) ; Co-construction avec les équipes métiers utilisant des outils no-code / low-code pour leurs besoins analytiques. 🧠 Profil recherché Architecte Data confirmé, à l’aise sur les environnements Cloud Azure et Kubernetes ; Maîtrise des architectures temps réel , data pipelines et data storage (Data Lake / Data Warehouse) ; Expérience solide sur les environnements open source : Spark, Kafka, Airflow, etc. ; Capacité à intervenir sur des sujets d’ architecture globale (data + applicatif) ; Bon sens du travail en équipe et de la co-construction dans un contexte sensible et confidentiel ; Capacité à proposer des solutions adaptées aux contraintes existantes. ⚙️ Environnement technique (indicatif) Cloud : Azure Orchestration : Kubernetes Backend : Python / Django Data : Open source – Spark, Kafka, Airflow, etc. Usages métiers : No-code / Low-code
Mission freelance
Product Owner - Cybersécurité (H/F)
Publiée le
Azure Data Factory
Cybersécurité
Microsoft Power BI
12 mois
600-700 €
La Défense, Île-de-France
Télétravail partiel
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Product Owner Data / BI (H/F) pour intervenir sur un projet Datalake Cybersécurité chez l'un de nos clients. Voici un aperçu détaillé de vos missions 🎯 : - Rédiger le cahier des charges et définir les plannings de la squad. - Définir et analyser les KPIs fonctionnels et techniques avec les équipes métiers. - Analyser les sources de données nécessaires à la construction des KPIs et optimiser leur calcul. - Réaliser la modélisation des données dans PowerBI et Snowflake . - Définir les règles de gestion des accès, de data gouvernance et d’historisation des données. - Assurer la qualité des performances , le suivi des ordonnancements et le monitoring/alerting des sources et de la qualité des données. - Gérer le backlog dans JIRA et suivre les cérémonies Agile . - Réaliser les tests unitaires sur Snowflake et les tests end-to-end sur PowerBI . - Rédiger et suivre la documentation fonctionnelle et technique . - Assurer la communication, la formation et le support auprès des utilisateurs. - Organiser et animer les comités de pilotage et le suivi du run.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
60 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois