Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 048 résultats.
Offre premium
CDI
Freelance

Offre d'emploi
Ingénieur Réseau Datacenter & Cloud

VADEMI
Publiée le
Ansible
AWS Cloud
Azure

12 mois
42k-55k €
400-500 €
Essonne, France
Administrer Réseau LAN/WAN et Landing Zone Cloud Le livrable est : Schémas et principes des zones d'acostage Datacenter et Cloud Compétences techniques : Fabric VXLAN (Arista) - Expert - Impératif Protocole L2 (SPB, ...) et L3 (BGP, ...) - Expert - Impératif Cloud Landing Zone (AWS, GCP, Azure) - Expert - Impératif Firewall (Palo Alto, Fortinet, ...) et F5 LTM - Junior - Important Connaissances linguistiques : Anglais Professionnel (Secondaire) Description détaillée : Dans un contexte de migration du réseau de notre centre de données et des projets cloud, nous recherchons un ingénieur pour renforcer l'équipe en charge de la gestion du réseau du Datacenter et cloud : Mission : - Concevoir, planifier et mettre en œuvre des architectures réseau complexes répondant aux besoins opérationnels de l'entreprise. - Participer aux traitements des demandes ou projets des différents métiers et dans une approche de service - Contribuer à la mise à jour des outils, de la documentation interne et à l’automatisation des tâches récurrentes afin de réduire le RUN. - Suivre les tendances technologiques et proposer des améliorations continues pour optimiser ou réduire l'infrastructure réseau - Fournir un support technique et une expertise aux équipes internes en cas de problèmes complexes. Domaine de compétences : - Maîtrise des couches L2, L3 (MPLS, BGP, VxLAN,SDWAN), F5 LB, DNS - Expertise sur la partie sécurité : FW PaloAlto/Fortinet - Expertise sur la partie Cloud (AWS, GCP, Azure) - Connaissance avancée sur les outils d'automatisation (netbox, ansible, …) Vos atouts : Vous faites preuve d’organisation, de rigueur et appréciez le travail d’équipe et collaboratif Votre bon sens du relationnel sera un atout pour communiquer avec une grande diversité d’interlocuteurs Vous avez un sens de l’innovation et de la créativité.
Freelance

Mission freelance
DATA MESH PLATFORM MANAGER

Codezys
Publiée le
Azure
Cloud
Data governance

12 mois
Courbevoie, Île-de-France
Contexte de la mission Le Groupe met en place une Self-Service Data Platform basée sur les principes du Data Mesh , appelée Group Data Platform (GDP) . La mission vise à concevoir, construire, déployer et exploiter cette plateforme à l’échelle de l’entreprise. Le Data Mesh Platform Manager sera responsable de la mise en œuvre, de l’adoption et du pilotage de la plateforme dans un environnement multi-cloud (AWS/Azure) et hybride, incluant des systèmes on-premise. Objectifs et livrables Construction et delivery de la plateforme Data Mesh : conception de l’architecture, définition des capacités, standards techniques, garantissant scalabilité, performance et sécurité. Livrables : ADR, architecture de référence, roadmap, standards techniques. Architecture cloud et hybride : conception, pilotage des déploiements sur AWS et Azure, intégration des systèmes on-premise, automatisation via Infrastructure as Code. Livrables : blueprint, framework de sécurité, conformité. Delivery et pilotage : gestion du cycle de deliverables, priorisation, suivi de la performance et gestion des incidents. Livrables : roadmap, plan de release, indicateurs de fiabilité. Déploiement dans les domaines métiers : accompagnement des équipes, création de data products, onboarding, résolution des problématiques d’adoption. Livrables : frameworks d’onboarding, playbooks, KPI d’usage, supports de formation. Product management et évolution : recueil des besoins, définition de la vision, mesure de la valeur, améliorations continues. Livrables : vision produit, KPI, feedbacks, roadmap d’évolution. Gouvernance et documentation : documentation des capacités, conformité avec la Data Governance fédérée. Livrables : référentiel, standards, frameworks, playbooks. Communication et reporting : suivi de l’avancement, reporting aux gouvernances, alignement des parties prenantes. Livrables : dashboards, présentations, suivi des décisions. Promotion et évangélisation interne : valorisation de la plateforme, développement de la communauté. Livrables : supports de communication, stratégies d’adoption, démonstrations, cas d’usage.
Freelance

Mission freelance
Geo Data Engineer

Celexio
Publiée le
Apache Airflow
AWS Cloud
Bash

3 mois
400-550 €
Paris, France
Vous êtes un "bricoleur" du code, passionné par l'infrastructure et capable de naviguer dans des environnements techniques denses ? Nous recherchons un Geo Data Engineer (H/F) pour rejoindre un acteur majeur de la Tech. Ici, on ne cherche pas forcément un titre, mais un tempérament : quelqu'un qui n'a pas peur de mettre le nez dans le code, de comprendre l'infra et de proposer des solutions concrètes. 📋 Détails de la mission Secteur d’activité : Plateformes Digitales / Data Localisation : Paris (Télétravail flexible) Durée : Mission longue (Freelance, Indépendant ou Portage) Démarrage : ASAP Votre challenge Au sein d'un environnement riche et techniquement challengeant, vous serez le garant de la qualité et de la fluidité des flux de données géographiques. Votre autonomie et votre capacité à communiquer seront vos meilleurs atouts pour vous onboarder efficacement. Vos missions principales : Développer et maintenir des pipelines de données robustes. Intervenir sur l'infrastructure et le code pour optimiser les performances. Collaborer avec les équipes transverses pour intégrer des solutions Data innovantes. Apporter votre vision de "touche-à-tout" pour résoudre des problématiques complexes.
Freelance

Mission freelance
Expert Cloud Azure

Ness Technologies
Publiée le
Azure
Azure Active Directory

6 mois
Paris, France
Missions principales Expertise & Architecture Concevoir et faire évoluer les architectures Cloud Azure (IaaS / PaaS) Garantir la performance, la sécurité et la haute disponibilité des environnements Définir les bonnes pratiques d’architecture et de gouvernance Cloud Accompagner les équipes techniques sur les choix techniques et les designs Projets Cloud & Migration Participer aux projets de migration vers Azure (Lift & Shift, refactoring) Mettre en place et configurer les services Azure Automatiser les déploiements via des outils d’Infrastructure as Code Participer aux mises en production et aux phases de validation technique Sécurité & Gouvernance Mettre en œuvre les politiques de sécurité (Azure Policy, RBAC, Defender, Sentinel) Définir les standards de gouvernance et de gestion des ressources Assurer la conformité et le respect des bonnes pratiques Cloud (CAF / Well-Architected Framework) Optimisation & Exploitation Optimiser les performances et les coûts (FinOps) Superviser les environnements (monitoring, alerting) Participer à la résolution des incidents complexes (support N3) Produire la documentation technique et les procédures
CDI
Freelance

Offre d'emploi
Data Engineer AWS expérimenté

UCASE CONSULTING
Publiée le
Apache Spark
AWS Cloud
Python

1 an
50k-60k €
500-600 €
Île-de-France, France
Dans le cadre du renforcement de l'équipe Data de notre client, nous recherchons un(e) Data Engineer AWS expérimenté(e) (5 à 7 ans d’expérience minimum), capable d’intervenir sur des plateformes data à forte volumétrie et à forts enjeux de performance, de sécurité et de coûts. Missions 1️⃣ Maintien en condition opérationnelle de la plateforme Contrôler et garantir la disponibilité des données et des services Assurer le suivi des traitements et la gestion des incidents Répondre aux demandes de données ad hoc et analyser les anomalies Développer des correctifs et des évolutions si nécessaire Contribuer à la qualité des données et à l’industrialisation de la plateforme Communiquer avec les utilisateurs et accompagner les équipes 2️⃣ Design & construction de services et pipelines data Concevoir et mettre en place des flux de données (acquisition, transformation, exposition) Développer des pipelines robustes et performants (batch et temps réel) Réaliser des modélisations de données adaptées aux usages métiers Mettre en place les traitements sur différents formats (CSV, XML, JSON, Parquet) Ordonnancer les traitements et gérer les dépendances (Airflow) Développer et maintenir des flux temps réel via Kafka (MSK) Réaliser les tests unitaires et d’intégration Participer aux revues de code et veiller au respect des standards Gérer les déploiements sur l’ensemble des environnements Enrichir et maintenir la documentation technique Environnement technique AWS : S3, EMR, EKS, EC2, Lambda, Athena Spark (Scala), Python, SQL Kafka Airflow Dataiku GitLab & GitLab CI Terraform
Alternance

Offre d'alternance
Data Engineer (Databricks /Azure)

█ █ █ █ █ █ █
Publiée le
Apache Spark
Big Data
CI/CD

Châtillon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Ingénieur Cloud Azure (h/f)

emagine Consulting SARL
Publiée le
Azure

3 ans
400-500 €
Île-de-France, France
Dans le cadre de son programme GoToCloud, Le client recherche un ingénieur Cloud Azure qui participera à la construction de sa plateforme Azure ainsi qu’à son développement dans le cadre de projets Move to Cloud. Responsabilités : Concevoir, déployer et administrer des infrastructures cloud sur Microsoft Azure. Participer à la migration des applications et des données vers Azure. Garantir la sécurité, la disponibilité et la performance des plateformes cloud. Automatiser les déploiements et la gestion des ressources via des outils d’Infrastructure as Code (IaC) (ARM, Terraform, Bicep…). Fournir une expertise technique et un support aux équipes projet. Rester à jour avec les évolutions technologiques et les nouvelles fonctionnalités Azure. Rédiger la documentation technique et accompagner les équipes internes à l’utilisation des solutions mises en place. Assurer le support de niveau 2/3 sur les incidents liés à l’infrastructure cloud. Compétences requises : Maitrise du cloud Microsoft Azure, notamment des sujets de plateforme (réseau, identité, conformité…) Expérience avérée dans le move to cloud d’applications Bonne connaissance des concepts d’IaC, notamment de l’outil Terraform Compétences en scripting et automatisation (PowerShell, Azure CLI, Python) Conception et mise en œuvre de pipelines CI/CD (Github, Azure DevOps…) Déploiement et administration de conteneurs et de solutions d’orchestration de conteneurs (Kubernetes) Excellentes capacités d’analyse et de résolution de problèmes Bonnes compétences en communication et en collaboration Rédaction documentaire Qualifications : Bac+3 à Bac+5 en informatique ou équivalent. Certifications Microsoft Azure appréciées (AZ-104, AZ-303/304, AZ-400…) Sens du service, autonomie, rigueur et capacité à travailler en équipe.
Freelance

Mission freelance
Architecte Infrastructure

Sapiens Group
Publiée le
Active Directory
Ansible
AWS Cloud

12 mois
500-550 €
Lille, Hauts-de-France
Principales responsabilités1. Gouvernance et expertise technique Garantir la cohérence, la performance et la sécurité des architectures du périmètre. Participer à la conception et valider techniquement les évolutions majeures et les nouveaux services (architecture et spécifications). Assurer une veille technologique sur son périmètre. Définir, documenter et maintenir les standards de configuration, les bonnes pratiques et les procédures opérationnelles et de sécurité. Accompagner les équipes dans la mise en œuvre des bonnes pratiques d’architecture. Valider techniquement les choix de solutions et propositions d’évolution des partenaires ou centres de services opérationnels (Gatekeeper). 2. Qualité et amélioration continue Contribuer à l’élaboration du Plan d’Amélioration Continue (CSI) et mettre en œuvre les actions techniques prioritaires pour réduire la dette technique et améliorer la résilience. Transférer l’expertise aux équipes N1/N2/N3 pour renforcer leur autonomie (Shift-Left) et garantir l’application des standards. Identifier les tâches récurrentes d’administration et d’exploitation et piloter leur automatisation ou délégation pour optimiser l’efficacité opérationnelle. S’assurer de l’application rigoureuse des processus ITIL (gestion des changements, gestion de la capacité). 3. Support et opérations critiques Intervenir en tant qu’expert de dernier recours (Super N3/N4) pour le diagnostic et la résolution des incidents majeurs ou bloquants. Superviser, valider et, si nécessaire, réaliser les analyses de causes racines (RCA) pour transformer les incidents en actions préventives. Assurer la conformité technique des opérations de maintenance (changements, mises à jour) réalisées par les partenaires N3. Évaluer les risques techniques liés aux changements et vulnérabilités, et proposer des plans de mitigation. Piloter opérationnellement l’équipe Hosting. Renforcer la sécurité et la conformité en mettant en place un dispositif de sauvegarde isolé pour garantir le Plan de Reprise d’Activité (PRA). Environnement Hosting Infrastructures Cloud (IaaS/PaaS) : AWS, Azure, GCP, automatisation IaC (Terraform, Ansible), gestion de conteneurs (Docker, Kubernetes). Systèmes d’exploitation : Administration et sécurisation avancée de Windows Server et Linux/Unix, GPO, gestion des patchs et vulnérabilités. Virtualisation & Hyperconvergence : Maîtrise des hyperviseurs (VMware, Hyper-V) et des architectures convergées/hyperconvergées. Stockage & sauvegarde : SAN/NAS, baies de stockage, solutions de sauvegarde et restauration, PRA/DRP. Services d’annuaire : Administration et architecture Active Directory, LDAP, IAM et fédération d’identités.
Freelance

Mission freelance
Expert IAM Azure

Signe +
Publiée le
Administration linux
IAM
Terraform

6 mois
270-450 €
Toulouse, Occitanie
Description détaillée de la prestation : Le consultant devra soutenir l’équipe OPS IAM dans : • la conception, la construction et le déploiement des services IAM sur Azure, • la migration d’éléments tels que les proxies d’autorisation, les annuaires LDAP et les services de provisioning, • la livraison de guides d’exploitation, d’architectures HLD/LLD, et la réalisation du transfert de connaissances aux équipes internes, • un support éventuel de niveau 3 sur les composants mis en place. Techno : • Maîtrise solide : Linux, Azure, automatisation (Terraform, Ansible, GitHub) • Très bonne connaissance de l’écosystème IAM (OIDC, SAML2, LDAP) • Expertise en PingAccess et OpenLDAP ; connaissance PingFederate / PingOne appréciée • Expérience avérée sur la conception et l’implémentation d’architectures IAM dans Azure • Bonne communication FR/EN et capacité à travailler en équipe
CDI
Freelance

Offre d'emploi
Expert SysOps Cloud Azure H/F

Le Groupe SYD
Publiée le
Automatisation
Azure
FinOps

12 mois
45k-50k €
450-530 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 💼 Poste : Expert SysOps Cloud Azure H/F 📍 Lieu : Nantes (44) 🏠 Télétravail : Hybride – 2/3 jours TT 📝 Contrat : CDI ou Portage 👉 Contexte client : Tu rejoins un acteur d’envergure engagé dans une refonte complète de son environnement Cloud Azure. L’objectif ? Reconstruire toute l’architecture Cloud , rationaliser les usages et maîtriser les coûts d’une plateforme devenue trop onéreuse mois après mois. Au sein de l’équipe Cloud & Ops , tu participes à la redéfinition des fondations Azure : structuration des groupes de ressources, revue des droits et rôles, optimisation des workloads, gouvernance, sécurité et bonnes pratiques. Tu auras pour missions de : Repenser et reconstruire l’ architecture complète du Cloud Azure (resource groups, gouvernance, policies, RBAC, subscription design). Optimiser les coûts et mettre en place les bonnes pratiques FinOps pour réduire la facture mensuelle. Administrer, maintenir et faire évoluer les environnements Azure (VM, Storage, VNet, Load Balancer, Firewall, Identity…). Fiabiliser et industrialiser les déploiements via des pratiques SysOps avancées. Assurer la gestion des droits, rôles et accès (IAM, RBAC, Azure AD). Mettre en place ou renforcer la supervision, la sécurité et les mécanismes d’automatisation. 🧰 Stack technique : Cloud : Microsoft Azure (VM, Storage, VNet, Load Balancer, App Services ) Gouvernance & Architecture : Policies, Blueprints, gestion des ressources, structuration des subscriptions, tagging Optimisation : FinOps, cost management, right-sizing, rationalisation Ops & Automatisation : PowerShell, CLI Azure, Terraform, monitoring Azure, sécurité Cloud Supervision & Sécurité : Azure Monitor, Log Analytics, Defender for Cloud
CDI

Offre d'emploi
Data Engineer | Databricks

Hexateam
Publiée le
AWS Cloud
Databricks
Python

Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Freelance

Mission freelance
Data Architecte AWS / Iceberg

Atlas Connect
Publiée le
Apache Airflow
Apache Spark
API

12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
CDI

Offre d'emploi
Data Architect H/F

OBJECTWARE
Publiée le
Azure Data Factory
Microsoft Fabric
Microsoft Power BI

60k-65k €
Bordeaux, Nouvelle-Aquitaine
Résumé du poste Notre client recherche un Data Architect expérimenté pour rejoindre une équipe Data Fabric et contribuer à la conception et à la mise en œuvre de l’architecture data à l’échelle de l’entreprise. Le rôle se concentre sur la création de produits de données réutilisables pour les domaines métiers , en travaillant étroitement avec les équipes Master Data Management (MDM), Data Engineers, Data Analysts, Information Security ainsi que les parties prenantes métiers. Le poste combine leadership architectural et travail opérationnel , incluant la modélisation de données, la conception d’intégrations, la mise en œuvre de la gouvernance et la configuration de la plateforme . Principales responsabilitésArchitecture de données & gouvernance Identifier et formaliser les domaines de master data à l’échelle de l’entreprise (Customer, HR, Finance, etc.). Collaborer avec l’équipe MDM pour concevoir les structures de golden record, la logique de consolidation et les flux d’intégration . Concevoir et documenter des produits de master data réutilisables (schémas, contrats, modes d’accès, APIs). Contribuer à la modélisation des données aux niveaux conceptuel, logique et physique sur les différents domaines de données. Travailler avec les Data Engineers pour traduire l’architecture en medallion layers, zones curées et pipelines d’intégration . Définir des standards de gouvernance incluant ownership, stewardship, lineage, classification et gestion du cycle de vie des données . Configurer les standards de métadonnées et les structures du catalogue de données afin d’assurer la découvrabilité et la réutilisation . S’assurer que les décisions architecturales sont clairement documentées et exploitables . Évolution de la plateforme, qualité & gouvernance Concevoir et mettre en œuvre des modèles de sécurité des données (RBAC, classification, masquage, contrôles de confidentialité). Participer à la mise en œuvre et à l’exploitation des outils de gouvernance des données (ex : Microsoft Purview), incluant scans, validation du lineage et classification . Définir des standards pour la documentation, la découvrabilité et l’enregistrement des data products dans la plateforme . Examiner les implémentations des domaines de données afin d’éviter la duplication ou la fragmentation des master data . S’assurer que la gouvernance et les métadonnées sont intégrées dans les processus CI/CD et de déploiement . Identifier et réduire les risques liés à l’incohérence des données, aux shadow master data ou à la prolifération non contrôlée des données . Contribuer à l’évaluation de nouvelles technologies et analyser leurs impacts en matière de gouvernance et d’intégration . Support et accompagnement Fournir un accompagnement architectural aux Data Engineers et Data Analysts . Participer à des ateliers techniques et sessions de conception . Accompagner l’ intégration de nouveaux domaines de données via des templates architecturaux et des implémentations de référence . Promouvoir des pratiques cohérentes en matière de métadonnées, sécurité et qualité des données . Agir comme interface entre l’équipe Data Platform, l’équipe MDM et les parties prenantes gouvernance / sécurité .
Freelance

Mission freelance
DevOps Azure

TEOLIA CONSULTING
Publiée le
Azure

3 mois
Paris, France
Dans le cadre de l’industrialisation de ses plateformes IT et du renforcement de sa posture sécurité, un grand groupe international du secteur du Luxe renforce son équipe DevOps / Cloud. L’environnement technique s’appuie sur : une plateforme GitLab utilisée par plusieurs équipes (applications & Infrastructure as Code), des environnements Microsoft Azure , une volonté forte de structurer une approche DevSecOps durable (standardisation, automatisation, sécurisation des secrets, gouvernance). L’objectif est d’accompagner la transformation vers un modèle Cloud Azure sécurisé, industrialisé et scalable , en lien étroit avec les équipes infrastructure, sécurité et développement. Missions : Concevoir, maintenir et industrialiser les pipelines GitLab CI/CD Standardiser les pratiques et templates de déploiement Automatiser les workflows applicatifs et infrastructure Améliorer la fiabilité, la traçabilité et l’observabilité des déploiements Participer à la conception et à l’évolution des architectures Azure Implémenter et maintenir l’Infrastructure as Code (Terraform / Bicep) Gérer les environnements (DEV / RECETTE / PROD) Contribuer à l’optimisation des ressources Cloud (FinOps) Sécuriser les pipelines CI/CD et la gestion des secrets Implémenter les bonnes pratiques IAM Azure (RBAC, Managed Identities) Mettre en place des contrôles de sécurité automatisés (scans, policies, quality gates) Participer au durcissement des configurations Azure Contribuer à la prévention des risques liés à l’exposition de secrets
CDD
CDI
Freelance

Offre d'emploi
Ingénieur de production OPS sénior

KEONI CONSULTING
Publiée le
AWS Cloud
DevOps
Service Delivery Management

18 mois
20k-60k €
100-450 €
Lille, Hauts-de-France
Contexte : Nous recherchons un OPS sénior (5 ans d'XP minimum) pour renforcer l'équipe s'occupant de l'exploitation d’un asset. Au sein d'une équipe Ops/Support du domaine vous intégrerez une équipe composée de : 3 OPS 1 Lead Tech OPS 1 DM 2 Supports MISSIONS - d'assurer l'exploitation des applications - de répondre aux demandes d'installation des livrables fournit par notre CDS - d'aider au diagnostic lors d'incidents ou de debug - En parallèle, il participera et travaillera en partenariat avec le PO technique sur le rebuild/refactoring afin de répondre à des enjeux de scalabilité et d'optimisation des coûts de l'architecture. - d'assurer les astreintes PIV (1 semaine par mois) La mission nécessite un réel investissement tant le projet est vaste et pluriel dans sa partie technique. Il y a beaucoup à apprendre et on sort souvent de sa zone de confort pour répondre efficacement aux exigences des clients. Livrables : • Garant de la bonne application des processus de production en transverse : évolutions et créations des stacks techniques • Garant de la cohérence de bout en bout des différents environnements • Organisation et pilotage de la gestion des événements impactant la production • Porte une vision auprès du domaine sur le RUN et facilite la priorisation de sujets d'amélioration • Accompagnement des équipes sur le delivery/recette, analyse des anomalies et facilitateur sur la communication inter-domaine au sein du domaine • Pilotage les incidents majeurs • Accompagne la réalisation de ces sujets ou les porte opérationnellement en fonction des besoins Compétences : Activités détaillées : - Contribuer au développement, à l'évolution et à la maintenance des outils d'industrialisation - Assurer le déploiement en environnement de préproduction et production des livrables fournit par notre CDS - Assurer le run de l'application en production (suivi de la QoS, monitoring, supervision, Incidentologies, debug et analyses) - Accompagner notre CDS dans leur intégration de livrable sous AWS - Accompagner les équipes support clients dans l'analyse et la résolution des incidents - En véritable devops, augmenter l’autonomie de l’équipe sur la partie exploitation en automatisant au maximum les processus - Dans un contexte agile, être dans un esprit d’amélioration continue. - Vous concevez et développez les outils DEVOPS adaptés au produit à délivrer en respectant les choix et les bonnes pratiques de l’entreprise. - Vous êtes référent sur l’infrastructure, les plateformes applicatives, l’usine logicielle et l’industrialisation des déploiements - Vous accompagnez l’équipe sur l’adoption des bonnes pratiques et nos outils DEVOPS - Vous participez quotidiennement aux tâches du backlog de l’équipe - Vous partagez et transmettez les informations (procédures, documentations, meetups, formations internes) - Vous participez à la réflexion sur les évolutions de la plate-forme en tant que membre à part entière de l’équipe - Vous contribuez à la diffusion de la culture et du savoir technique autour des bonnes pratiques de la production (cloud AWS) au sein de l’équipe et dans l’entreprise en général.
CDI

Offre d'emploi
Administrateur DevOps Cloud AWS

CONCRETIO SERVICES
Publiée le
AWS Cloud
DevOps
Jenkins

50k-60k €
Marseille, Provence-Alpes-Côte d'Azur
Contexte & Environnement Vous rejoignez une équipe de 5 personnes dans un contexte fortement international impliquant de nombreuses collaborations avec des équipes offshore. Ce poste requiert d'excellentes qualités relationnelles et une capacité à communiquer efficacement en français et en anglais, tant à l'écrit qu'à l'oral. Missions Principales – Administrer et maintenir l'infrastructure Cloud AWS (EC2, ECS, S3, IAM, VPC, RDS…) – Concevoir, déployer et optimiser les pipelines CI/CD avec Jenkins – Diagnostiquer et résoudre les incidents liés aux chaînes de livraison continue – Automatiser les déploiements et la configuration des environnements via Ansible – Superviser les conteneurs applicatifs orchestrés sur Amazon ECS – Collaborer étroitement avec les équipes de développement onshore et offshore – Rédiger la documentation technique et les runbooks en français et en anglais – Participer activement aux rituels Agile et aux réunions de pilotage internationales
5048 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous