L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 291 résultats.
Offre d'emploi
DBA Expert MongoDB (H/F)
AVA2I
Publiée le
Azure
Database
Mongodb
3 ans
Île-de-France, France
Dans le cadre du renforcement des équipes IT et de l’évolution des plateformes data vers le cloud, un acteur du secteur de l’énergie recherche un DBA MongoDB expert pour intervenir sur des environnements Azure PaaS à forte criticité, basés sur les technologies MongoDB. Le poste est orienté expertise opérationnelle et technique. Il ne s’agit pas d’un rôle d’architecte mais d’un référent MongoDB capable d’intervenir en profondeur sur la plateforme. Missions principales Administration et exploitation de bases MongoDB en environnement Azure PaaS. Maintien en Conditions Opérationnelles incluant la performance, la disponibilité et la sécurité. Supervision des bases et suivi des indicateurs. Optimisation des performances avec tuning avancé et gestion des index. Gestion des volumes, de la réplication et de la haute disponibilité. Gestion des incidents complexes de niveau N2 et N3. Diagnostic et troubleshooting avancé MongoDB. Réalisation des montées de version et opérations de maintenance. Mise en place et suivi des bonnes pratiques incluant les sauvegardes, restaurations, la sécurité et la supervision. Support technique aux équipes applicatives et rôle de référent MongoDB. Environnement technique MongoDB avec expertise indispensable. Azure PaaS incluant Cosmos DB API MongoDB et MongoDB managé. Cloud Microsoft Azure. Automatisation et scripting PowerShell, Python ou équivalent. Supervision, sécurité et haute disponibilité.
Offre d'emploi
EXPERT SECURITE CLOUD AZURE
CyberTee
Publiée le
Azure
40k-45k €
Paris, France
Consultant Sécurité Cloud – Azure Missions : Concevoir et sécuriser des architectures Azure conformes aux standards et bonnes pratiques de sécurité. Mettre en œuvre les mécanismes de sécurité Azure (IAM, réseau, chiffrement, supervision). Automatiser et sécuriser les infrastructures via Terraform et Ansible. Accompagner les équipes sur la sécurisation des environnements conteneurisés (Docker, Kubernetes). Réaliser des audits de sécurité, analyses de risques et recommandations de durcissement. Assurer la veille technologique et proposer des améliorations continues en sécurité cloud. Profil recherché : Certifications AZ-305 et AZ-500 Minimum 5 ans d’expérience sur Azure Maîtrise de Terraform et Ansible, compétences sur Docker et Kubernetes
Mission freelance
Senior Fullstack .Net/React APIGEE
Codezys
Publiée le
Apigee
Azure
CI/CD
36 mois
Paris, France
Vous rejoignez la plateforme API centrale d’un leader mondial du secteur de l’Énergie , dont l’objectif est de fournir des services automatisés aux développeurs pour héberger, exposer et gérer leurs API dans un environnement multi-cloud . Le projet concerne le DevPortal de la plateforme API : un portail clé, orienté utilisateurs, au cœur de l’expérience développeur. Vous intégrerez : Une squad de 8 développeurs et DevOps Une task-force de 4 personnes (développeurs, DevOps, architecte) Un environnement Agile Scrum , international, avec démonstrations de fin de sprint à l’échelle mondiale La philosophie de l’équipe est clairement “You build it, you run it” . Objectifs et livrables Objectifs de la mission Maintenir et faire évoluer le DevPortal de la plateforme API Concevoir, développer et sécuriser de nouvelles fonctionnalités Garantir une qualité de code irréprochable et des standards élevés de tests Contribuer à une plateforme user-centric , en intégrant activement les retours utilisateurs Participer à l’exploitation et au support du produit en conditions réelles Responsabilités principales Développer et maintenir des fonctionnalités back-end en ASP.NET Core Contribuer au développement fullstack , avec une exposition front-end (React) Concevoir des API robustes, sécurisées et maintenables Mettre en œuvre les bonnes pratiques de Clean Code, TDD et BDD Participer à la mise en place et à l’évolution des pipelines CI/CD Travailler dans un environnement multi-cloud (Azure, AWS, GCP) Collaborer étroitement avec les équipes DevOps et Architecture Participer aux démonstrations de sprint et aux échanges avec les utilisateurs finaux Assurer le support et l’amélioration continue du produit en production Environnement technique Back-end : ASP.NET Core Front-end : React.js (nice to have) Cloud : Azure, AWS, GCP DevOps : CI/CD, automatisation, pratiques “You build it, you run it” Méthodologie : Agile Scrum Qualité : Tests automatisés, TDD, BDD, code review, standards de qualité stricts
Mission freelance
EXPERT DEVOPS AZURE
CAT-AMANIA
Publiée le
Architecture
Azure
Cloud
3 mois
Lille, Hauts-de-France
Un acteur majeur souhaite renforcer son infrastructure cloud et ses processus DevOps sur Microsoft Azure . L’objectif de la mission est de mettre en place des solutions d’automatisation et de gestion de l’infrastructure en tant que code (IAC) à l’aide d’outils tels que Terraform et Ansible . Le projet vise à optimiser les processus de déploiement , améliorer la gestion des ressources cloud pour plus de scalabilité , et garantir une livraison efficace des projets dans le respect des standards de qualité. L’expertise en méthodologie Agile sera essentielle pour assurer le suivi et la réussite des projets. Le consultant collaborera étroitement avec les équipes internes afin d’assurer une intégration harmonieuse des solutions et un transfert de compétences efficace. Objectifs de la mission Déployer des solutions d’ automatisation avec Terraform et Ansible Optimiser les processus de déploiement sur Azure Améliorer la gestion des ressources cloud pour une meilleure scalabilité Appliquer les pratiques agiles pour une livraison rapide et efficace Collaborer avec les équipes internes pour assurer le succès du projet Livrables attendus Mise en œuvre complète de l’automatisation et des workflows IAC Optimisation des pipelines de déploiement et des processus DevOps Documentation détaillée sur l’architecture cloud, les pratiques DevOps et les outils utilisés Formation et accompagnement des équipes internes sur les nouvelles solutions Suivi et reporting de l’avancement selon les standards Agile
Offre d'emploi
Chef de projet technique – Migration de solution d’authentification / SSO
Ewolve
Publiée le
Azure
Gestion de projet
IAM
2 ans
40k-45k €
540-640 €
Paris, France
Description de la mission : Notre client, un grand compte du secteur bancaire, recherche un Chef de projet technique pour piloter un projet stratégique de migration de sa plateforme d’authentification et SSO. Le consultant interviendra sur l’ensemble du cycle de vie du projet, depuis la stratégie de migration jusqu’au transfert vers les équipes opérationnelles. Le projet inclut : Remplacement et migration de la solution d’authentification et SSO Couverture des protocoles de fédération (SAML, OAuth2, OpenID Connect) Intégration avec les annuaires et systèmes IAM (AD, AAD, LDAP, IAM groupe…) Mise en place et migration de MFA / authentification forte Accompagnement des équipes applicatives et des partenaires dans la migration Missions principales : Pilotage de projet : Construire et maintenir le planning, le budget et le plan de ressources Organiser et animer les comités de pilotage et comités techniques Coordonner toutes les parties prenantes : sécurité, infrastructure, réseau, équipes applicatives, éditeurs, intégrateurs Suivre les risques, dépendances, actions et arbitrages Pilotage de la migration : Définir la stratégie de migration : priorisation des applications, cohabitation progressive, plan de repli Piloter les POC, pilotes, recettes et généralisation Coordonner les mises en production et périodes de co-existence Assurer la communication et l’accompagnement des équipes applicatives Tests, sécurité et conformité : Définir et suivre la stratégie de tests (fonctionnels, techniques, charge, sécurité) S’assurer de la conformité aux exigences de sécurité et réglementaires du secteur bancaire Valider la disponibilité, performance et résilience de la solution Documentation & transfert vers le RUN : Piloter la production de la documentation projet, d’exploitation et d’architecture Organiser le transfert de connaissances vers les équipes Run / Access Control / Support Veiller à l’adaptation des processus ITIL (incident, changement, problème)
Mission freelance
AI Engineer H/F
ODHCOM - FREELANCEREPUBLIK
Publiée le
Azure
Azure AI
C#
6 mois
Paris, France
🔧 Project Description AI Engineer – Assistant IA métier Le consultant interviendra au sein de l’équipe Produit, en collaboration étroite avec : les équipes Plateformes (DevSecOps, Data Platform, AI Platform), l’équipe Produit (CRM), les équipes métiers. La mission couvre plusieurs axes structurants : refonte de l’architecture afin de permettre un découplage et une abstraction de l’accès aux données ; intégration de nouveaux parcours utilisateurs sur des canaux mobiles et des applications métiers existantes (CRM, Outlook, Teams) ; connexion à de nouvelles sources de données (Outlook, SharePoint, applications métiers) ; extension géographique (Monaco, Luxembourg) et extension métier (Corporate, Asset Management) ; convergence avec Copilot et renforcement des parcours pre-meeting / post-meeting ; mise en place d’un monitoring avancé. 🎯 Mission Objective & Livrables Objectifs de la mission : Industrialiser l’assistant IA. Garantir la scalabilité, la performance, la sécurité et la conformité réglementaire des solutions IA. Étendre les usages, les périmètres métiers et géographiques du produit. 👤 Responsabilités Conception & mise en œuvre IA Participer à la définition des architectures IA en s’appuyant sur Copilot Studio, AI Foundry et Semantic Kernel, en garantissant performance, sécurité et conformité réglementaire. Concevoir, développer et mettre en œuvre des agents IA (copilotes, assistants métier, agents autonomes) répondant aux besoins des équipes produit et métiers. 2) Cadrage des cas d’usage & collaboration sécurité/produit Collaborer avec les équipes produit, architectes et experts sécurité pour cadrer les cas d’usage, affiner les prompts, orchestrer les workflows et fiabiliser les réponses IA. 3) Intégration SI & interopérabilité Intégrer les agents IA au système d’information existant, notamment via Dataverse, Dynamics 365 CE, Power Platform, API Management (APIM) et MCP Server. 4) Exploitation, monitoring & amélioration continue Mettre en place le monitoring des solutions en production. Contribuer à l’amélioration continue des agents (qualité des réponses, performance et coûts). Prendre en charge les anomalies et évolutions mineures pendant les phases de recette et de production. Proposer des optimisations de coûts liées à l’usage des solutions IA. 5) Capitalisation & montée en compétences Contribuer à la documentation technique, au partage de bonnes pratiques et à la montée en compétences des équipes internes sur les usages IA. 6) Gouvernance projet & mode de delivery (Agile) Participer aux cérémonies agiles Scrum. Reporter aux Product Owners sur l’avancement des travaux. Alerter l’équipe en cas de difficultés rencontrées ou de risques de retard. 7) Veille & innovation (écosystème Microsoft) Assurer une veille sur les évolutions de l’écosystème Microsoft et identifier les apports potentiels dans le contexte du projet.
Offre d'emploi
Développeur mobile React Native / Data Engineer H/F
SMARTPOINT
Publiée le
Apache Spark
Azure
Databricks
12 mois
55k-60k €
400-450 €
Île-de-France, France
Nous recherchons un profil hybride, combinant une expertise en développement mobile React Native et une compétence solide en Data Engineering sur Databricks/Azure. Votre mission principale portera sur la maintenance évolutive et corrective d’une application mobile développée en React Native. Vous interviendrez sur les sujets suivants : Développement mobile Assurer la maintenance évolutive et corrective d’une application mobile en React Native Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité) Implémenter de nouvelles fonctionnalités ainsi que les tests associés, dans une démarche clean code (sécurité, maintenabilité) Data Engineering Concevoir, développer et implémenter des solutions Big Data Analytics Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake Développer des notebooks avancés sous Databricks (langage SQL, Framework SPARK) Rédiger la documentation technique (DAT, release notes, etc.) Réaliser des tests unitaires et assurer la qualité des livrables Contribuer à la maintenance évolutive et corrective des traitements Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés
Mission freelance
Data Engineer Senior H/F
Comet
Publiée le
Apache Spark
Azure Data Factory
Databricks
60 jours
510-620 €
Île-de-France, France
Vous rejoindrez un projet stratégique de plateforme unifiée d’intégration et de traitement des données , centralisant plus de 20 sources de données hétérogènes pour répondre aux besoins analytiques des équipes produit et décisionnel. La solution est développée selon les principes d’un lakehouse avec architecture en médaillon (Bronze, Silver, Gold). Environnement technique : Azure Data Factory Azure Databricks Spark Scala & SQL Azure DevOps (Git) Datadog (monitoring) Missions principales : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory Développer et optimiser des flux de transformation de données en Scala sur Databricks Maintenir et créer de nouveaux indicateurs de qualité de données Garantir la qualité du code et le respect des normes de développement Implémenter des tests unitaires et assurer la fiabilité des solutions Maintenir les dashboards de monitoring sur Datadog Participer au refactoring du code existant pour améliorer performance et maintenabilité (Spark Declarative Pipeline et DBT)
Mission freelance
DevOps Cloud Senior Azure / AWS
Comet
Publiée le
AWS Cloud
Azure
Azure DevOps
6 mois
450-600 €
Paris, France
Vous interviendrez en tant que DevOps Cloud Senior au sein d’un pool DevOps Cloud d’un grand groupe international , dans un contexte de structuration et de standardisation des environnements Cloud . La mission consiste à concevoir, déployer et faire évoluer des environnements Azure et AWS from scratch , en respectant les standards de sécurité, d’automatisation et de fiabilité définis par le groupe. Vous interviendrez sur les fondations Cloud , en amont des projets applicatifs, avec un fort enjeu de pérennité et de reproductibilité . Vous serez impliqué dans la mise en place de l’Infrastructure as Code , la construction de pipelines CI/CD , le déploiement et l’exploitation de plateformes Kubernetes , ainsi que dans les sujets de monitoring, haute disponibilité et sécurité Cloud . Au-delà de l’exécution technique, vous contribuerez activement aux standards DevOps , à la capitalisation des bonnes pratiques et aux échanges au sein de la communauté Ops , dans un environnement structuré et collaboratif. Mission longue, à forte valeur ajoutée technique, orientée socle Cloud et bonnes pratiques DevOps .
Mission freelance
Intégrateur Technique /Gestionnaire Env. H/F
Insitoo Freelances
Publiée le
Administration linux
Azure Kubernetes Service (AKS)
Linux
2 ans
252-336 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Paris et Marseille et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Intégrateur Technique /Gestionnaire Env. H/F à Aix-en-Provence, France. Contexte : La prestation porte sur la gestion et l’industrialisation des environnements de recette Les missions attendues par le Intégrateur Technique /Gestionnaire Env. H/F : Déploiement des applications sur les différentes plateformes. Exécution et suivi des tests d’accrochage technique (tests automatisés). Validation de la conformité globale des environnements avant mise à disposition des équipes fonctionnelles. Prise en charge des incidents, analyse des causes racines, suivi et documentation. Collaboration étroite avec les équipes de développement et d’exploitation pour sécuriser les livraisons. Mise en place de procédures de surveillance, reporting, et industrialisation des gestes techniques (scripts, automatisation) Compétences indispensables Bases solides en Unix/Linux (commandes, gestion de services, logs). Compréhension des cycles de développement et environnements de recette. Déploiement d’applications sur différentes plateformes. Analyse d’incidents, qualification, escalade au niveau 2 si nécessaire. Bonne capacité de communication et travail avec équipes Dev / Exploit. Compétences souhaitées (idéal mais non obligatoires) Connaissances Kubernetes (K8s) et plateformes conteneurisées . Maitrise de ArgoCD ou d'un autre outil GitOps. Notions de pratiques DevOps . Scripting ( Shell , éventuellement Python). Idéalement : notions de développement (Java / Angular) — non exigé . Localisation : Aix-en-Provence (13) Télétravail : 2j/5
Mission freelance
Profil IA / LLM Engineering (Agents/MCP)
LINKWAY
Publiée le
Azure AI
6 mois
Guyancourt, Île-de-France
Notre client recherche un Ingénieur IA / LLM passionné pour une mission d'avant-garde : intégrer l'intelligence artificielle générative au cœur d'une plateforme d'infrastructure Cloud (IDP). Dans le cadre de ce projet innovant, vous serez chargé(e) de concevoir et développer des agents intelligents capables d'interagir avec l'infrastructure Azure et les outils DevOps. Vous travaillerez spécifiquement sur des implémentations basées sur le Model Context Protocol (MCP) et les modèles Claude (Anthropic) ou Azure OpenAI. Vos défis techniques et responsabilités : Développement d'Agents Autonomes (Agentic Workflow) : Vous concevrez des agents IA capables de comprendre des requêtes en langage naturel (ex: "Pourquoi mon déploiement a échoué ?", "Crée un nouvel environnement de dev") et d'exécuter des actions concrètes sur la plateforme. Vous utiliserez des frameworks modernes (LangChain, LangGraph ou solutions natives MCP) pour orchestrer ces interactions. Implémentation du Model Context Protocol (MCP) : Vous serez pionnier dans l'utilisation du standard MCP pour connecter les LLMs aux données et outils de l'entreprise. Vous développerez des connecteurs (servers MCP) sécurisés permettant à l'IA d'accéder aux logs, aux configurations Kubernetes et aux documentations techniques en temps réel, sans hallucination. Intégration AIOps : Vous collaborerez avec les équipes SRE pour analyser les patterns d'incidents. Vous entraînerez ou finerez (RAG - Retrieval Augmented Generation) les modèles pour qu'ils deviennent des assistants de niveau 1 pour le support opérationnel, capables de proposer des diagnostics et des remédiations automatiques. Architecture et Sécurité IA : Vous veillerez à ce que les interactions avec les LLMs respectent les normes de sécurité strictes (pas de fuite de secrets, contrôle d'accès RBAC). Vous optimiserez les coûts liés à l'utilisation des tokens et choisirez les modèles les plus adaptés (coût/performance) pour chaque tâche. Veille Technologique Active : Le domaine de l'IA générative évoluant à une vitesse fulgurante, vous devrez maintenir une veille constante sur les nouveaux modèles, les techniques de prompting avancées et les évolutions du protocole MCP pour maintenir la plateforme à l'état de l'art.
Mission freelance
Data Engineer Azure Synapse / PySpark (Référentiel ESG)
STHREE SAS pour HUXLEY
Publiée le
12 mois
500 €
France
🔍 Contexte Un acteur européen majeur du secteur financier recherche un Data Engineer confirmé pour renforcer son département Data & Referential . La mission s'inscrit dans le cadre de la mise en place d'un référentiel de données unifié , avec un focus particulier sur les indicateurs ESG provenant de multiples sources. 🎯 Votre rôle Intégration de nouvelles sources de données via Azure Synapse & PySpark Mise en place d'un monitoring rigoureux des flux Adaptation des connexions au reporting interne pour intégrer les nouvelles données Coordination avec les Business Analysts Contrôles de cohérence et qualité des données (comparaison inter‑sources) 🧱 Compétences techniques clés Azure Synapse PySpark Azure Data Factory Azure DevOps SonarCloud API Management Micro‑services SQL Server Connaissance Informatica IDQ = un plus 👤 Profil recherché Bac+5 (ingénieur ou équivalent) Minimum 3 ans d'expérience sur Azure Synapse & PySpark Bonne culture Data & Monitoring Pratique des environnements Agile (SCRUM) & DevOps Maîtrise du français et de l'anglais Intérêt pour l' Asset Management et les sujets ESG 📅 Démarrage : 1er février 2026
Mission freelance
Développeur confirmé DATABRICKS (Lyon)
SQLI
Publiée le
Azure Data Factory
Java
1 an
450-500 €
Lyon, Auvergne-Rhône-Alpes
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un développeur confirmé Databricks. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
Offre d'emploi
Technicien de proximité H/F
OBJECTWARE
Publiée le
Android
Azure
ITIL
35k-45k €
Metz, Grand Est
Nous recherchons pour un de nos clients un Technicien de proximité H/F sur le secteur du Metz pour une mission débutant dès que possible. Vous assurerez le support informatique de proximité auprès des utilisateurs VIP, ainsi que le traitement des sollicitations utilisateurs sur l’environnement bureautique, dans le respect des procédures et des engagements de service (SLA). Vos missions : Support utilisateurs Prendre en charge les incidents et demandes sur site VIP : postes de travail (PC, laptops), périphériques (écrans, imprimantes, stations d’accueil, webcams…), smartphones et tablettes professionnels. Assurer l’assistance de proximité auprès des utilisateurs à forte exigence (direction, managers, assistants de direction, etc.). Garantir une présence terrain proactive. Gestion des incidents et demandes Qualifier, diagnostiquer et résoudre les incidents : matériel, système d’exploitation, applications bureautiques, outils métiers. Gérer les tickets dans l’outil ITSM : création, mise à jour, clôture avec compte-rendu clair. Escalader vers les autres équipes techniques si nécessaire. Préparation et déploiement du matériel Préparer et déployer les équipements : postes de travail, téléphones, accessoires. Installer et configurer : systèmes, logiciels, profils utilisateurs. Réaliser les remplacements urgents de matériel sur site VIP. Accompagnement et relation utilisateur Accompagner les utilisateurs VIP lors : de changements de matériel, de déménagements, de réunions sensibles (support ponctuel si besoin). Adapter son discours à des interlocuteurs non techniques. Garantir une communication claire, rassurante et professionnelle.
Mission freelance
Senior BackEnd Developer – (Fabric / Python)
Codezys
Publiée le
Azure
Azure DevOps Services
Git
12 mois
Aubervilliers, Île-de-France
Rejoignez une initiative à fort impact dans le domaine des données au sein d'un groupe de services environnementaux de premier plan. Nous développons une Plateforme d'Intelligence Artificielle Industrielle dédiée au traitement, à l'analyse et à la visualisation en temps réel des données de séries temporelles provenant de sites industriels. Cette plateforme repose sur Microsoft Fabric , en utilisant principalement Python et les services Azure, afin d'offrir aux équipes industrielles des analyses avancées et des insights pertinents. Vous ferez partie d'une équipe pluridisciplinaire composée de : 1 Chef de Produit 1 Product Owner 1 Lead Développeur 3 Développeurs Data 1 Développeur DevOps Nous recherchons actuellement un Développeur Back-End Senior pour renforcer notre équipe de développement centrale. Objectifs et livrables Principales responsabilités Concevoir, développer et optimiser des pipelines de données ainsi que des frameworks de traitement en utilisant Microsoft Fabric et Python. Traiter des données de séries temporelles afin de permettre des analyses en temps réel et à postériori pour les opérations industrielles. Collaborer étroitement avec le Product Owner et les acteurs métier pour transformer leurs besoins en flux de données robustes et en architectures évolutives. Contribuer à la livraison du produit minimum viable (MVP) de la plateforme ainsi qu'aux déploiements à grande échelle à venir. Appliquer les meilleures pratiques DevOps en utilisant Terraform et GitLab CI/CD pour automatiser et sécuriser les déploiements.
Mission freelance
Directeur de projet Data
Groupe Ayli
Publiée le
Apache NiFi
Azure Kubernetes Service (AKS)
Databricks
1 an
500-680 €
Saint-Denis, Île-de-France
Directeur de projet Data 🎯 Contexte Dans le cadre d’un programme majeur de transformation digitale au sein d’un grand groupe du secteur transport / infrastructures, une plateforme Data centralisée est au cœur des enjeux de collecte, traitement et valorisation des données à grande échelle. Cette plateforme supporte des cas d’usage critiques liés à la maintenance, l’ingénierie, la supervision et l’optimisation des opérations, avec des volumes importants et des données complexes (dont données 3D). Nous recherchons un Architecte Data senior avec une forte posture de pilotage, capable d’être force de proposition sur l’architecture cible et d’accompagner l’évolution de la plateforme existante. 🧩 Votre rôle Vous interviendrez au sein d’un programme transverse regroupant équipes techniques, métiers et gouvernance Data, avec pour missions principales : La conception et l’évolution de l’architecture Data cible Le pilotage des travaux de transformation et de migration de la plateforme La coordination des acteurs techniques et métiers La garantie des exigences de sécurité, gouvernance et conformité réglementaire (RGPD) 🛠️ Responsabilités Analyse et cadrage de l’architecture cible (scénarios, phasage) Spécification de la plateforme Data et rédaction des dossiers d’architecture HLD / LLD Définition de patterns d’ingestion, de traitement et d’exposition des données Pilotage de la chaîne Data de bout en bout (ingestion → stockage → traitement → exposition) Suivi de projet : planning, risques, coûts, indicateurs, reporting Cadrage FinOps Coordination transverse avec les équipes techniques, sécurité et gouvernance Mise en place de tableaux de bord de supervision (DataDog) 🔧 Environnement technique Cloud : Microsoft Azure Plateforme Data : Databricks, Azure Data Lake Gen2 Ingestion : Apache NiFi, AKS, Zookeeper Traitement : Spark / Python Bases de données : PostgreSQL BI : Power BI Supervision : DataDog Méthodologie : Agile / Scrum
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Junior en quete d'une mission en portage salarial
- Recherche de conseils & retours d’expérience en portage salarial (AMOA / Coordination)
- Quelle platefome de freelancing? recherche de mission
- Suppression de compte sur KICKLOX impossible
- Je passe VTC , besoin d'aide
- ARE, ACRE, création SARLU, IK et rémunération
3291 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois