L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 182 résultats.
Offre d'emploi
Data Engineer Talend - DAX
Publiée le
AWS Cloud
Azure
Snowflake
40k-50k €
Dax, Nouvelle-Aquitaine
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation
Offre d'emploi
Développeur(se) Azure Data Fabric confirmé(e)
Publiée le
MySQL
18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Transformation digitale ; Gouvernance des données Dans un contexte de transformation digitale orientée data, nous recherchons un profil senior capable de concevoir, développer et maintenir des solutions de traitement et d’ingestion de données sur la plateforme Azure Data Fabric. Vous serez un acteur clé dans l’industrialisation des flux de données, l’optimisation des pipelines, et la mise en œuvre de solutions scalables et performantes. Le poste implique à la fois un rôle opérationnel, d’expertise technique et de leadership sur les bonnes pratiques de l’écosystème Azure. MISSIONS 1. Conception et développement ▪ Participer à l’analyse des besoins métiers et techniques en matière de traitement de données. ▪ Concevoir et développer des pipelines d’ingestion, de transformation et de distribution des données sur Azure Data Factory. ▪ Intégrer les services Azure liés à la Data Fabric qui seront nécessaire : ex : Azure Data Lake Storage Gen2 etc... ▪ Implémenter des modèles de données et des solutions de traitement ▪ Encadrer la modélisation des flux de données complexes (batch et streaming) et proposer des architectures “data-driven” adaptées aux enjeux métiers. 2. Conception et développement de pipelines avancés ▪ Concevoir, développer et maintenir des pipelines avec Azure Data Factory et/ou Azure Synapse Pipelines. ▪ Définir et mettre en œuvre des stratégies de surveillance (monitoring) et d’alerting des pipelines. ▪ Optimiser les performances et les coûts des traitements (partitionnement, parallélisation, contrôle qualité). 3. Support et amélioration continue ▪ Assurer le support dans l’utilisation de la plateforme. ▪ Être force de proposition sur l’optimisation des traitements, la réduction des coûts Azure, et les innovations technologiques. ▪ Suivre la performance et la fiabilité des solutions déployées via Azure Monitor, Log Analytics, Application Insights. Expertise souhaitée Compétences requises : Techniques : ▪ Azure Data Factory - Expert ▪ Azure Data Lake Storage Gen2 - Confirmé ▪ Azure Synapse Analytics (dedicated & serverless) - Confirmé à expert ▪ Azure Event Hub / Stream Analytics - Bonne connaissance ▪ Sécurité Azure & gouvernance - Bonne connaissance ▪ Python / SQL / PowerShell - Confirmé ▪ Architecture Data / Cloud - Expérience significative ▪ PowerBI Confirmé Compétences comportementales : • Bon relationnel et sens de l’écoute • Autonomie et esprit d’initiative • Esprit analytique et rigueur • Capacité à vulgariser les sujets techniques pour les métiers • Esprit d’équipe Profil recherché : ▪ Bac+3 à Bac+5 en informatique, ingénierie, data ou équivalent. ▪ Expérience significative en développement de solutions data sur Microsoft Azure. ▪ Minimum 5 ans d’expérience sur des projets data complexes en environnement cloud (Azure de préférence). ▪ Très bonne connaissance de l’écosystème Azure et de ses services data. ▪ Bonne compréhension des architectures data modernes (data lake, real-time,event-driven). ▪ Sensibilité forte à la performance, la sécurité et la gouvernance des données. ▪ Autonomie, rigueur, curiosité technologique, esprit d’équipe. ▪ Bon niveau de communication, capable d’interagir avec les équipes métiers et IT.
Mission freelance
ARCHITECTE TECHNIQUE IAM/ AWS habilitable - anglais courant H/F
Publiée le
AWS Cloud
IAM
6 mois
400-670 €
Corbeil-Essonnes, Île-de-France
L’architecte recherché interviendra pour les missions suivantes : • Apporter son expertise dans les réflexions d’évolution de l’architecture notamment l’IAM pour les environnements Fournisseurs et Clients. • Contribuer à l’architecture technique en collaboration avec les experts • Éclairer techniquement pour effectuer les arbitrages des scénarios d’évolution des composants de ces architectures. • Analyser les scénarios de migration en soulignant les points d’attention, les impacts, les contraintes. • Participer à la rédaction de documents de projet (DAT Général et DAT Détaillé, Ouverture de flux réseaux, documentation d’installation, d’exploitabilité, tout type de document technique). • Piloter la mise en oeuvre des infrastructures à migrer. • Contribuer à la recette technique des composants notamment dans la rédaction des cahiers de recette. • Accompagner la mise en production en coordination avec les équipes du Département Infrastructure de la DSI de Safran Aircraft Engines. • Effectuer des transferts de connaissances aux équipes impliquées dans ces projets. • Participation à la gouvernance globale du projet en collaboration avec le Chef de projet.
Mission freelance
Senior Azure Data Engineer
Publiée le
Automatisation
Azure
Data Lake
6 mois
400-550 €
Paris, France
Télétravail partiel
Concevoir, construire et maintenir des pipelines d'ingestion de données à l'aide d'Azure et d'outils ETL (Talend, Informatica). Intégrer diverses sources de données dans les environnements Azure Data Lake et Databricks. Garantir l'évolutivité, la performance et la sécurité des solutions de données. Optimiser les flux de travail et automatiser les processus afin de réduire les interventions manuelles. Collaborer étroitement avec les analystes métier pour traduire les besoins en solutions techniques. Gérer plusieurs projets simultanément, en assurant le respect des délais et des bonnes pratiques. Mettre en œuvre des contrôles de qualité des données et des normes de documentation. Contribuer aux initiatives d'amélioration continue au sein de l'équipe DataOps.
Mission freelance
[SCH] Architecte GCP - 1064
Publiée le
10 mois
350-450 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme stratégique de modernisation et centralisation des données RH, le client recherche un Architecte Google Cloud Platform (GCP) expérimenté pour concevoir, déployer et accompagner la mise en place d’une plateforme Data RH unifiée. L’objectif est de fiabiliser, gouverner et valoriser les données RH au sein d’un environnement GCP à forte volumétrie. Missions principales : -Concevoir et documenter l’architecture GCP (BigQuery, Cloud Composer, Storage, IAM, Dataflow…). -Accompagner les équipes Data et RH sur la migration, intégration et fiabilisation des flux de données existants. -Piloter la mise en œuvre des pipelines ETL/ELT et orchestrations avec Cloud Composer / Airflow. -Assurer la sécurité, la gouvernance et la qualité des données dans le respect des standards du groupe. -Contribuer à l’industrialisation des environnements (Terraform, CI/CD). -Coacher les équipes internes sur les bonnes pratiques GCP et l’usage de BigQuery pour les reporting RH. -Participer aux rituels agiles (daily, sprint review, backlog grooming). Objectifs & livrables attendus : -Architecture GCP validée et documentée (DAT, DEX, schémas d’intégration). -Mise en place de la plateforme Data RH (BigQuery, Composer, GCS). -Pipelines automatisés et sécurisés pour la collecte, transformation et exposition des données RH. -Accompagnement des équipes jusqu’à la stabilisation et passage en RUN. Profil recherché : - +8 ans d’expérience en architecture data / cloud, dont 3+ sur GCP. -Maîtrise approfondie des composants BigQuery, Cloud Composer (Airflow), Cloud Storage, IAM. -Expérience en data engineering / ETL / orchestration. -Connaissance des outils de visualisation type Power BI. -Sensibilité aux enjeux RH et gouvernance des données. -Pratique confirmée de l’agilité (Scrum / SAFe). -Excellent relationnel et capacité à vulgariser les aspects techniques auprès des équipes métiers.
Mission freelance
Responsable d’application ADOBE Campaign
Publiée le
Adobe
Adobe Campaign
12 mois
550-600 €
Paris, France
Télétravail partiel
Vous serez responsable de projets et des activités courantes liés à l’évolutivité autour de notre outil de gestion de campagne ADOBE et des flux associés. Principales missions : Gestion de backlog : maîtrise, organisation et ordonnancement du backlog de ses sujets / projets Escalades métiers, tickets de bugs et évolutions TMA, projets Qualité du backlog : complétude et état des tickets, ... Phases amont (roadmap, recueil des besoins, cadrage et macro impact/chiffrage) amenant à la rédaction des SFD et la compréhension de celles-ci par l’équipe Réalisation de la stratégie de recette et exécution de la recette Communication auprès des différents interlocuteurs IT et / ou métiers : coordination des différents interlocuteurs lors des différentes phases projet en accompagnement du chef de projet et/ou de la Responsable de Domaine Réalisation de la stratégie de déploiement et évaluation des impacts Gestion des adhérences : cohérence technico-fonctionnelle de son backlog et des adhérences de celui-ci avec les autres équipes Passation des informations aux équipes d’exploitation à la suite de changement ou mise en production Production de la documentation fonctionnelle et de la capitalisation de cette documentation Synchronisation technico-fonctionnelle avec les autres équipes et les partenaires externes le cas échéant Amélioration continue Priorisation de ses sujets entre le RUN et les différents projets BUILD en fonction des impacts et priorités annoncées. Environnement technologique : ADOBE Cloud : GCP APIs JIRA Postman Talend Informatica Vous intervenez sur des projets variés liés aux domaines clients et en serez le référent. Votre rôle est d’assurer une continuité de service et délivrer les nouveaux projets inscrits à la roadmap tout en vous coordonnant avec les autres domaines (E-commerce, CRM, Fidélité, DATA, ...) Si vous avez une expertise technico-fonctionnelle sur ce sujet, on vous veut !! Profil recherché : Expérience dans le secteur de du retail et idéalement dans la grande distribution Minimum Bac+5 en école d’ingénieur ou master Minimum 3/4 ans d’expérience sur un poste similaire Expérience forte sur l’applicatif ADOBE, et une expérience dans le domaine du retail et/ou du e-commerce Maitrise de Jira Expérience dans un environnement multipartenaire : aisance à travailler avec une direction métier comme avec un développeur
Mission freelance
DataOps - Plateforme d'IA Générative (Microsoft Azure) - Lille (H/F
Publiée le
Azure AI Foundry
IA Générative
Python
3 mois
500-550 €
Lille, Hauts-de-France
Télétravail partiel
Contexte du poste Rejoignez une entreprise leader dans le secteur du numérique reconnue pour son savoir-faire en matière de solutions IT avancées. Dans un contexte d'innovation et de croissance, nous cherchons à renforcer notre département "Innovation Technologique" en construisant une nouvelle plateforme d'IA générative. Ce projet structurant est clé pour notre entreprise, car il implique de concevoir, industrialiser et opérer cette plateforme sous Microsoft Azure. Missions - Concevoir et mettre en place la plateforme d'IA générative (Azure AI Foundry). - Industrialiser les flux et processus DataOps. - Assurer la sécurisation des API via Azure API Management. - Automatiser les déploiements avec GitLab CI/CD. - Développer des solutions innovantes en Python. - Assurer la traçabilité, l'observabilité et la gouvernance des usages IA
Offre d'emploi
administrateur réseaux et securité
Publiée le
Aruba
DHCP (Dynamic Host Configuration Protocol)
DNS
6 mois
40k-45k €
400 €
75000, Paris, Île-de-France
Au sein d'un grand compte parisien votre fonction sera de réaliser l'Administration et la supervision du réseau Installer, configurer et maintenir les équipements réseau : switches, routeurs, bornes Wi-Fi, firewalls, etc. (Aruba, Extreme Networks, Palo Alto,…) Gérer les infrastructures LAN/WAN/VPN et les services réseau (DHCP, DNS, NTP…). Superviser les flux réseau. Diagnostiquer et résoudre les incidents réseau. Sécurité des systèmes d’information Mettre en œuvre les politiques de sécurité : segmentation réseau, MFA, gestion des logs, audits d’accès. Administrer les dispositifs de sécurité : IDS/IPS, WAF, proxy, filtrage web. Assurer la sécurité des environnements hybrides (on-premise et cloud). Participer à la gestion des incidents de sécurité et aux plans de reprise d’activité. Support et expertise technique Assurer le support technique de niveau 2/3 auprès des équipes internes. Collaborer avec les sous-traitants et prestataires pour les projets d’infrastructure. Rédiger et maintenir la documentation technique (architectures, procédures, configurations). Conformité et veille technologique Veiller au respect des référentiels de sécurité (ISO 27001, CNIL, RGPD…). Participer aux audits techniques et aux contrôles internes. Assurer une veille sur les nouvelles menaces et solutions de cybersécurité.
Offre d'emploi
Ingénieur.e de production DevOps
Publiée le
CFT (Cross File Transfer)
Dynatrace
Kubernetes
3 ans
45k-65k €
480-550 €
Île-de-France, France
Télétravail partiel
En tant qu’ingénieur.e de production DevOps, vous jouerez un rôle clé dans le maintien en conditions opérationnelles (MCO), le déploiement, la supervision et l’évolution d’un parc applicatif hébergé majoritairement sur un cloud privé (Kubernetes) dans un contexte hybride Legacy / Cloud. Votre rôle RUN / MCO · Garantir la disponibilité et la performance des applications (tuning, supervision, capacité, etc.) · Gérer les incidents de production (CPU, Kubernetes, certificats expirés, indisponibilité applicative…) · Analyser les causes racines, résoudre les problèmes et participer aux cellules de crise · Intervenir lors d’astreintes (à partir du 6ᵉ mois) et lors des maintenances hors horaires ouvrés Projets / BUILD · Réaliser les déploiements applicatifs et les migrations (notamment Legacy vers Cloud) · Participer aux projets de résilience (multi-nœuds, équilibrage de charge, BGP, etc.) · Contribuer à la gestion des obsolescences techniques Automatisation & Outils · Automatiser les tâches récurrentes en lien avec les parties prenantes (Ansible, GitLab CI, Terraform…) · Participer à la création de jobs (CronJobs Kubernetes, Autosys, transferts CFT…) · Sécuriser et industrialiser les flux applicatifs et systèmes Supervision & Observabilité · Maintenir et améliorer les outils de monitoring (Dynatrace, Load DNS, Six Dig…) · Renforcer la supervision fonctionnelle basée sur le ressenti utilisateur (robots simulateurs)
Mission freelance
Data Engineer
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Offre d'emploi
Chef de projet CRM Assurance
Publiée le
Salesforce CPQ
36 mois
40k-45k €
400-550 €
Île-de-France, France
• Cadre les besoins d’interfaçage et identifie les impacts SI de son périmètre (état des lieux de l'existant, objectifs, risques associés, estimation budgétaire, planning prévisionnel, moyens alloués, modalités de reporting...) • Cartographie détaillée des flux d’intégration de son périmètre • Co-construit les spécifications avec les équipes études et l’intégrateur du CRM • Pilote la définition des contrats d’interface • Pilote la réalisation des demi-interfaces • Pilote l’implémentation des flux en zone d’intermédiation • Définit le plan de test d’intégration • Supervise les tests 2 à 2 • Coordonne les tests d'intégration puis les recettes avec l’intégrateur, les équipes et les métiers • Sécurise les points transverses : sécurité, supervision, logs, résilience
Offre d'emploi
Product Owner Plateforme Big Data (AWS / Databricks)
Publiée le
Agile Scrum
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Mission freelance
Data ingénieur ( H/F) - Full remote
Publiée le
Apache Spark
Big Data
Google Cloud Platform (GCP)
1 an
370-500 €
France
Télétravail 100%
Contexte de la mission : Intégrez une équipe BI dédiée aux données de la relation client. Vous travaillerez dans un environnement en pleine transformation, avec une migration vers le cloud GCP en cours. Vos responsabilités : Intégrer une équipe agile et contribuer à la gestion et à l’évolution des données BI orientées CRM. Participer à la migration des environnements BI traditionnels vers GCP . Développer, maintenir et optimiser les flux de données (SQL, Big Data). Assurer la qualité, la performance et la fiabilité des traitements. Collaborer avec les équipes métiers et techniques pour répondre aux besoins de reporting et d’analyse.
Mission freelance
Architecte DataOps – IA Générative (Microsoft Azure)
Publiée le
Azure
Azure AI Foundry
IaaS (Infrastructure-as-a-Service)
3 mois
Hauts-de-France, France
Télétravail partiel
À propos du poste Dans le cadre de l’accélération des initiatives autour de l’IA générative, je recherche pour mon client un profil capable de concevoir, industrialiser et exploiter une architecture technique robuste sur Microsoft Azure. Votre mission : établir les fondations DataOps pour garantir fiabilité, performance, traçabilité et gouvernance de la stack IA générative. Vos missions • Mettre en place la plateforme IA générative sous Azure (IA Foundry) • Industrialiser les flux et processus DataOps • Implémenter l’API Management (APIM) pour exposer les services IA • Assurer la traçabilité, l’observabilité et la gouvernance Compétences clés • Programmation Python – Confirmé • GitLab CI/CD – Confirmé • Azure APIM – Confirmé • Azure IA Foundry – Confirmé Profil recherché • Expérience en architecture DataOps et environnements Cloud • Maîtrise des outils Azure et des pratiques CI/CD • Anglais courant
Mission freelance
Consultant BI Senior - SSIS, SSAS Tabular, Azure & .NET
Publiée le
12 mois
500 €
Paris, France
Télétravail partiel
Consultant BI Senior - SSAS Tabular, Azure & .NET (Mission 12 mois) 📍 Localisation : Paris 📅 Démarrage : ASAP (Janvier 2026) 🕒 Durée : 12 mois Contexte : Notre client, acteur majeur de la gestion d'actifs en Europe, mène un projet stratégique de modernisation d'un outil interne de suivi des actifs sous gestion (AUM). Ce projet inclut la migration vers des technologies Microsoft BI avancées et le déploiement sur Azure. Vos responsabilités : Modernisation de l'architecture BI Migration d'un cube SSAS multidimensionnel vers un modèle Tabular Optimisation des modèles et des performances Adaptation et migration des flux SSIS Refonte des rapports SSRS Déploiement complet sur Azure (Analysis Services, SQL Database, Data Factory, Power BI Premium) Améliorations fonctionnelles Développement de nouveaux KPI et indicateurs Intégration de nouvelles sources de données Amélioration des règles de calcul et de la logique métier Mise en place d'un système d'alertes Définition des événements déclencheurs Développement d'un mécanisme d'alertes automatisées (emails, dashboards, notifications) Support opérationnel Support N2/N3 sur l'outil et ses workflows Résolution des incidents et fiabilisation du système Compétences techniques requises : Expertise Microsoft BI : SSAS (Multidimensionnel & Tabular), SSIS, SSRS SQL Server (T-SQL avancé) Développement .NET / C# Azure : Analysis Services, Data Factory, SQL Database, monitoring/alerting Connaissance Power BI Premium Compétences métier : Bonne compréhension de la gestion d'actifs / Asset Management Familiarité avec les métriques AUM, reporting financier, indicateurs commerciaux Soft Skills : Autonomie, proactivité, rigueur Excellentes capacités de communication Esprit analytique et orienté solution Langues : Français & Anglais (niveau professionnel) Conditions particulières : Présence physique : 3 jours/semaine sur site à Paris Méthodologie Agile
Mission freelance
Scrum Master Senior (SRE / DevOps)
Publiée le
Agile Scrum
Azure Kubernetes Service (AKS)
DevOps
12 mois
500-550 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un "Scrum Master / SRE & Cloud" pour un client dans le secteur bancaire. Vous intégrerez l’équipe SRE composée d’une vingtaine d’experts spécialisés en architecture et automatisation cloud (Terraform, OpenShift, Helm, Kubernetes). L’équipe est responsable du provisionnement et de la supervision des environnements hors-production et production. Mission En tant que Scrum Master Senior , vous interviendrez sur la coordination de 30 à 35 personnes , réparties en plusieurs squads. Votre rôle sera d’assurer la bonne application des méthodologies agiles, de fluidifier le delivery et de soutenir l’amélioration continue de l’organisation. Vous travaillerez en collaboration étroite avec le management SRE, les développeurs et l’ensemble des parties prenantes. Responsabilités Animation Agile & Cadence Équipe Mise en place, animation et optimisation des cérémonies agiles (Scrum, Scrumban…). Coaching des équipes dans l’adoption des pratiques agiles adaptées au contexte SRE/Cloud. Facilitation & Coordination Faciliter les travaux quotidiens et lever les obstacles. Gestion de la coordination entre plusieurs squads (30–35 collaborateurs). Assurer la communication fluide entre équipes techniques et parties prenantes. Suivi & Pilotage Définition et mise en place d’indicateurs, dashboards et outils de suivi. Prévision des activités et planification réaliste à 2–3 mois. Contribution à l’amélioration continue des processus internes. Amélioration Continue Promouvoir les bonnes pratiques d’organisation. Accompagner la montée en compétence des équipes. Identifier les leviers d’optimisation (flux, priorisation, communication…). Profil Recherché Compétences fonctionnelles Solide expérience en tant que Scrum Master (idéalement en environnement cloud ou SRE). Capacité à coordonner plusieurs squads. Excellentes compétences en communication, écoute et gestion de conflits. Forte autonomie, sens de l’organisation, capacité à prioriser. Expérience confirmée avec des équipes de développement logiciel ou produit. Certification Scrum Master (CSM, PSM, ou équivalent) appréciée. Compétences techniques (atouts majeurs) Compréhension des environnements SRE et des principes de fiabilité. Connaissances des technologies : Terraform Helm Kubernetes OpenShift Familiarité avec les pratiques d’automatisation et d’Infrastructure as Code. Informations Pratiques Début : ASAP Lieu : Bercy Village (Paris, ligne 14) Type de mission : Freelance longue durée
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Entretiens et tests techniques developpeurs Java Angular junior
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
182 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois