L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 475 résultats.
Mission freelance
Software Engineer Informatica PowerCenter Talend (H/F)
EXMC
Publiée le
API
Informatica PowerCenter
Talend
1 an
Paris, France
Service chargé d’interagir avec l’équipe produit, les équipes projets, ainsi que les équipes sécurité et architecture. Technologies : Talend, Informatica PowerCenter & IDMC, Oracle, Unix. Services : Contribution au développement, à la livraison et à la maintenance des applications Talend ou Informatica ; Conception, tests et documentation des nouvelles solutions ; Garantie du respect des bonnes pratiques de développement et des exigences de sécurité. Livrables : Ateliers, documentation de conception et de design ; Développement des applications, tests unitaires et livraison ; Support aux phases de recette utilisateur (UAT).
Mission freelance
Data Engineer -CLOUD GOOGLE-
DEVIK CONSULTING
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)
1 an
400-650 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Data Engineer Spécialisé sur Google Cloud afin de rejoindre la Squad data pour le pilotage commercial Tâches principales Développement de pipeline de données sur Cloud Composer / Airflow Optimisation des performances et coûts des traitements sur GCP Participation aux choix d'outils et des solutions techniques sur GCP et développement de nouvelles application Modélisation des données sur BigQuery Maintenir l'existant en condition opérationnelle Préparer et mettre en œuvre l’interopérabilité avec de nouveaux systèmes opérationnels Proposer des simplifications et/ou optimisations selon les normes internes Compétences demandées GCP : Confirmé Big Query : Expert Base de donnée : Confirmé Python : confirmé Lieu : Paris
Mission freelance
Release Train Engineer H/F
AGH CONSULTING
Publiée le
Méthode Agile
6 mois
300-480 €
Niort, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un Release Train Engineer (RTE) chargé de coordonner et d'harmoniser le travail de plusieurs équipes impliquées dans le développement d'un même produit ou programme. Le RTE agit comme facilitateur et coordinateur entre les différentes équipes, afin d'assurer une collaboration fluide, une bonne communication et une livraison régulière de valeur. Il accompagne les équipes dans l'application des principes de l'agilité et contribue à l'amélioration continue de l'organisation. A ce titre, vos principales missions seront les suivantes : 1. Organisation et facilitation des événements de coordination Le Release Train Engineer : -Prépare et anime les réunions et événements majeurs impliquant l'ensemble des équipes, -Veille à la bonne compréhension des priorités et du planning global, -S'assure que les objectifs sont clairement définis et partagés par tous, -Garantit le bon fonctionnement de l'Agile Release Train et la livraison régulière de valeur, -Veille à la bonne application du cadre Agile et du framework de pilotage du programme. 2. Coordination des équipes Le RTE assure la synchronisation entre les différentes équipes en : -Identifiant les dépendances et les points de blocage entre équipes -Facilitant la résolution des problèmes organisationnels -Favorisant la collaboration entre les différents acteurs du programme -Accompagnant les équipes, les Product Owners et les managers dans l'application des pratiques Agile. 3. Suivi de l'avancement et pilotage Il assure le suivi global de l'activité : -Suivi de l'avancement des équipes, -Identification et anticipation des risques, -Communication régulière de l'état d'avancement auprès des parties prenantes. 4. Amélioration continue Le Release Train Engineer contribue à améliorer le fonctionnement collectif en : -Favorisant une meilleure collaboration entre les équipes, -Proposant des axes d'amélioration organisationnelle, -Facilitant les échanges avec les parties prenantes (métiers, architectes, autres équipes), -Encourageant une culture de travail efficace et collaborative.
Mission freelance
Senior Quality Engineer
KUBE Partners S.L. / Pixie Services
Publiée le
C#
Cucumber
Java
6 mois
400-450 €
Lille, Hauts-de-France
🧪 Fiche de Poste — Senior Quality Engineer Freelance (H/F) 📍 Lille — Mission longue 🎯 Contexte Nous accompagnons un acteur international du retail dans la transformation de ses outils digitaux utilisés en magasin. Au sein d’un domaine dédié à l’expérience en point de vente, une équipe produit développe des solutions innovantes permettant : d’optimiser l’agencement des espaces de vente d’améliorer la mise en avant des produits de proposer des expériences interactives et visuelles d’accompagner les équipes terrain dans leurs performances commerciales Dans un contexte de forte croissance et d’usage à grande échelle (déploiement international), nous recherchons un Senior Quality Engineer Freelance pour structurer et piloter l’automatisation des tests d’un produit 3D stratégique. Vous intégrerez une équipe agile composée de développeurs backend et frontend. 🚀 Missions1. Automatisation — Environnement 3D (Unity / C#) Concevoir et maintenir des tests d’intégration via Unity Test Framework Implémenter des tests : Edit Mode Play Mode Vérifier les comportements fonctionnels de l’application 3D 2. Automatisation des APIs Implémenter les tests automatisés sur des APIs backend (Java / Kotlin) Utiliser une approche BDD (Cucumber-based) Rédiger des scénarios en Gherkin Aligner validation technique et besoins métiers 3. CI/CD Intégrer les suites de tests dans les pipelines d’intégration continue Exploiter les rapports de tests Identifier rapidement les régressions Collaborer avec les développeurs pour améliorer la stabilité produit 4. Stratégie Qualité Participer aux phases de conception pour garantir la testabilité Définir et suivre les KPIs qualité : Couverture de tests DRE / DDE Stabilité des builds Contribuer à l’amélioration continue des pratiques QA Structurer les processus qualité de l’équipe Compétences techniques : Stratégie de test Tests automatisés Cucumber / BDD Unity test Framework Java C#
Offre d'emploi
EXPERT SPARK DATA ENGINEER H/F
CELAD
Publiée le
42k-50k €
Rennes, Bretagne
Nous poursuivons notre développement et recherchons actuellement un(e) Expert Spark Data Engineer H/F pour intervenir chez un de nos clients. Contexte : La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence. Vous interviendrez sur une architecture Data moderne reposant notamment sur Kafka Connect, Spark, Kubernetes et MongoDB, avec des enjeux de volumétrie importants : 350 bases de données 5 000 requêtes par seconde 1 To de données par an L’objectif est de réaliser un audit technique et de proposer des axes d’optimisation de la plateforme existante. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Réaliser un audit et un état des lieux technique de l’existant - Identifier les axes d’amélioration des traitements Spark (batch et streaming) - Optimiser les performances pour les flux temps réel - Définir les recommandations de dimensionnement de l’infrastructure - Proposer des améliorations sur MongoDB (modélisation et structuration des données) - Rédiger un document d’architecture cible et de préconisations
Offre d'emploi
CDI – Data Engineer Databricks (AWS) – 3 à 7 ans d’expérience
Hexateam
Publiée le
Amazon S3
Apache Airflow
AWS Glue
La Défense, Île-de-France
Contexte Dans le cadre de notre croissance, nous recrutons un Data Engineer pour intervenir sur des environnements Databricks sur AWS, avec des enjeux d’ingestion, de transformation et de fiabilité des données. Missions Développement et ingestion de données • Concevoir et développer des pipelines de données en Python et Spark sur Databricks • Mettre en place des flux entre sources externes (ex : Oracle) et un Data Lake (S3 / Delta Lake) • Optimiser les traitements et les performances Orchestration et qualité des données • Orchestrer les workflows avec AWS Airflow • Mettre en place des contrôles qualité et des mécanismes de validation • Développer des outils de monitoring et de gestion des anomalies Maintien en condition opérationnelle • Assurer la disponibilité et la performance des pipelines • Diagnostiquer et corriger les incidents • Participer à l’amélioration continue des traitements Contribution • Participer aux ateliers techniques et aux échanges avec les équipes • Documenter les pipelines, architectures et processus • Contribuer aux bonnes pratiques Data et Big Data
Mission freelance
DATA ENGINEER GCP
ESENCA
Publiée le
Apache Airflow
BigQuery
DBT
1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
Mission freelance
Data Engineer / Développeur Talend
ARGANA CONSULTING CORP LLP
Publiée le
Data governance
Data Lake
Data modelling
12 mois
400-460 €
Paris, France
Nous recherchons un Développeur Talend confirmé / Data Engineer pour renforcer une équipe existante, en appui direct au Tech Lead, afin d’augmenter la capacité de delivery sur les projets data. 🧠 Compétences requises 🔴 Compétences impératives Talend (ETL) : niveau confirmé (3 à 6 ans) Développement de pipelines d’intégration de données Maintenance et évolution de flux existants (MCO) 🟠 Compétences importantes Data engineering (modélisation, qualité de données) Intégration de données multi-sources Compréhension des architectures data (Data Lake, ETL) 🟡 Compétences appréciées Gouvernance data / bonnes pratiques Sécurité des données Outils de versioning et CI/CD Documentation technique 🎓 Formation & expérience Bac +2 à Bac +5 (informatique / data) Expérience : 3 à 6 ans minimum Expérience significative sur Talend obligatoire 📋 Fiche de poste – Missions 🎯 Objectif principal Renforcer l’équipe data pour : Développer de nouveaux pipelines d’intégration Assurer la maintenance des flux existants Garantir la qualité, la sécurité et la performance des données 🔧 Missions principales 🏗️ Développement & intégration Concevoir et développer des flux Talend Réaliser : Modélisation Paramétrage Développement Tests Implémenter de nouveaux pipelines data 🔄 Maintenance & exploitation (MCO) Assurer le maintien en condition opérationnelle des pipelines Corriger les anomalies et optimiser les performances Superviser les traitements de données 🧩 Data engineering Structurer et organiser les données (formats, modèles) Garantir la qualité des données (nettoyage, validation) Participer à l’alimentation du Data Lake 🛠️ Gouvernance & bonnes pratiques Appliquer les normes et standards de développement Contribuer à : L’architecture data Les bonnes pratiques de développement La gestion de configuration Documenter les développements 🤝 Support & collaboration Accompagner les équipes projet (SI, data, métiers) Travailler en collaboration avec le Tech Lead Participer à la montée en compétence de l’équipe 🔐 Sécurité & conformité Garantir la sécurité des flux de données Respecter les règles de gouvernance data 📦 Livrables attendus Développements Talend (jobs, pipelines) Documentation technique Dossiers d’architecture data Cartographie des flux et données Indicateurs de qualité des données
Mission freelance
IT Support Engineer - £300PD – Hybrid
INVESTIGO
Publiée le
300 £GB
Angleterre, Royaume-Uni
IT Support Engineer - £300PD – Hybrid A global financial technology organisation is looking for a Senior Support Engineer to take ownership of its Microsoft 365 environment, network infrastructure and cloud services. This is a senior hands-on role combining business-as-usual operations with transformation projects, ideal for an engineer who enjoys working across Microsoft 365, networking and cloud platforms while acting as a technical escalation point within the team. Key Responsibilities: Manage and support the Microsoft 365 estate (Exchange Online, Teams, SharePoint, OneDrive, Outlook) Administer Entra ID (Azure AD), conditional access, MFA and Intune device management Support network infrastructure including VPN, routing, VLANs, DNS and DHCP Maintain and optimise AWS cloud services (EC2, S3, VPC, IAM) or Azure equivalents Manage identity and access management, SSO integrations and authentication policies Automate tasks using PowerShell scripting Act as a technical escalation point, mentoring junior engineers and supporting infrastructure projects Requirements: 5+ years supporting Microsoft 365 in an enterprise environment Strong experience with Exchange Online, Teams, SharePoint, Entra ID and Intune Solid networking knowledge (subnets, routing, VLANs, DNS, DHCP) Experience supporting AWS or Azure cloud infrastructure PowerShell automation skills Strong troubleshooting ability and clear communication skills Please make an application if you feel this position may be relevant
Offre d'emploi
DEVOPS Platform Engineer - Niveau 3
KEONI CONSULTING
Publiée le
Grafana
Linux
Terraform
18 mois
20k-60k €
100-500 €
Paris, France
Contexte Nous recherchons un Devops de Platform Engineer pour répondre aux besoins des & équipes de fabrication applicatives. Au sein de la Platform Engineering dans la tribe, le Platform Engineer sera en charge de l’intégration et l’administration des offres. MISSIONS • Maîtrise des serveurs Linux, Unix, RedHat, etc. ainsi que d’un ou plusieurs langages de programmation, notamment Python • Accompagné les clients internes « ME » projet sur la livraison de leurs applications dans le cloud • Être support des « ME » en cas de bug ou anomalie sur leur livraison • Assurer les installations des logiciels fournis par les éditeurs • Concevoir, industrialiser et maintenir des pipelines CI/CD pour les offres IaaS / PaaS de la Direction Technique, en respectant les standards internes (GitHub Actions, Jenkins, ArgoCD) • Installer et paramétrer le progiciel et l’adapter aux exigences du client • Automatiser le provisioning et la configuration des offres Platform Engineering • Développer des playbooks Ansible et des modules Terraform • Installation et Intégration des produits DT d’observabilité (Grafana, LOKI, Instana ELK • , Prometheus) • Automatiser les tests et la validation technique • Installation et Intégration des produits Socle de la Platform Engineering (PostgreSQL, MongoDB, HAproxy, Kafka, Redis) • Intégrer et paramétrer les solutions logicielles et applicatives dans les environnements de tests et d’assurer la cohabitation de l’ensemble des composants techniques et applicatifs des environnements de tests. • Paramétrer ces logiciels en conformité avec les exigences fonctionnelles définies et en adaptation avec les autres composants de l’environnement technique. • Préparer et suivre avec les équipes projets & de production, les mises en exploitation des applications. • Acquérir une maîtrise des offres d’infrastructures du cloud provider « GTE » pertinentes sur ce périmètre • Rédiger les scénarios de test & identification des outils de benchmarking • Communiquer les résultats du benchmark et présentation du rapport d’analyse • Participer au chantier de définition du modèle opérationnel • Maîtriser les standards de l’offre de service avec des cas d’usage à destination des fabrications RÉSULTATS ATTENDUS Les résultats attendus sont : • Accompagner et Participer aux livraisons des projet défini • Partager et communiquer les difficultés potentiellement rencontrées et être force de proposition pour une amélioration continu des itérations • Être support des « ME » en cas d’anomalie sur les livraisons et proposer des solutions de résolution. • Participer aux ateliers avec « GTE » • Développer et documenter des cas de test manuels et scénarisés • Analyse et recommandations de mise à l'échelle des applications et de l'infrastructure • Préparation et présentation des résultats de performance • S’inscrit dans une démarche d’amélioration continue par des feedbacks au sein de l’équipe d’accompagnement projets • Être garant du modèle d’intégration du socle de conteneurisation avec les systèmes d’échange, et d’une manière générale l’ensemble de l’écosystème • Rédiger doc technique • Réaliser les tests associés au paramétrage : tests unitaires, tests d’intégration… • Participe aux cérémonies/réunions projet • Suit et réalise les actions projets qui lui sont affectées • Participe à l’identification des risques projet • Participe aux comités de pilotage
Offre d'emploi
Expert Cloud GCP / S3NS
CAT-AMANIA
Publiée le
Apigee
Artifactory
CI/CD
Île-de-France, France
Objectif poursuivi pour cette mission L’objectif de cette mission est de renforcer l’équipe technique pour : • • Participation au Design & Implémentation de la landing zone S3NS (Organisation, Auth & Habilitation, Réseau, Sécurité, Chiffrement, Gestion des clés & secrets, intégration avec le SI Bpifrance) • Participation à la mise en place des briques de sécurité (Cloisonnement, FW, Bastion Wallix, Intégration au SOC Palo Alto) • Intégration avec les briques de service du SI (Observabilité Datadog, Event Confluent, Atlas MongoDb, Solution Finops en dev spe, SSO Ping Identity, Cnapp Prisma, Sauvegarde Commvault...) • Abstraction des services & Intégration à la plateforme de service (0 ticket, Automatisation par event & API) • Accompagnement à la migration des premières applications sur le périmètre Assurance Export (28 applications • Architecture Cloud Sécurisée : Expertise dans la conception et l’implémentation de Landing Zones Cloud multi projet avec un fort accent sur la sécurité (Firewall, IAM, régulation). • Réseaux cloud : Maîtrise des concepts de réseaux sur un environnement GCP, incluant VPC, VPN, pare-feu NAT, etc. • Certification GCP • API & Plateforming : Capacités dans l’intégration et la gestion des API (par ex, Apigee). • Approche DevSecOps : Connaissance des outils d’intégration/delivery continue et des pratiques d’automatisation pour assurer la scalabilité et le MCS. • Connaissance méthodologie SAFE.
Offre d'emploi
AWS Platform Engineer - Geneva (Switzerland)
LEVUP
Publiée le
AWS Cloud
Kubernetes
12 mois
Genève, Suisse
Vous intégrez une équipe spécialisée dans la fourniture de solutions d’intégration innovantes pour l’ensemble des lignes métiers et des sites. Notre expertise couvre les environnements on-premise et cloud, le conseil ainsi que la gestion de projets. • Gestion des mises en production : piloter le cycle de release, corriger les anomalies et déployer de nouvelles fonctionnalités en collaboration avec le Product Manager. • Gestion des infrastructures on-premise (machines virtuelles Windows et Linux). • Automatisation & optimisation : maintenir et refactoriser les automatisations à l’aide d’outils tels que Puppet, Ansible et Terraform • Gestion des incidents : analyser les incidents et anomalies, identifier les causes racines et mettre en œuvre des solutions pérennes • Infrastructure as Code (IaC) : automatiser le provisionnement et la gestion des ressources cloud via Terraform, GitHub et GitHub Actions • Performance & sécurité : optimiser les environnements en termes de coûts, performances et sécurité, et mettre en place des pipelines CI/CD • Supervision & maintien en conditions opérationnelles : maintenir les outils de supervision (ex. Rundeck, Grafana) pour les environnements on-premise et cloud • Méthodologies DevOps : appliquer les bonnes pratiques DevOps, participer aux rotations d’astreinte et garantir l’alignement avec les exigences métier et sécurité • Migration et gestion Cloud : contribuer à la stratégie de migration vers le cloud AWS. • Documentation & intégration : rédiger la documentation technique et gérer plusieurs applications dans des environnements hybrides • Travail en équipe : collaborer en binôme avec les équipes afin de délivrer les activités efficacement et dans les délais
Mission freelance
Data engineer Google cloud platform (GCP)
CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
BigQuery
6 mois
Île-de-France, France
Pour le compte d'un acteur majeur, nous recherchons un(e) Data Engineer confirmé(e) pour concevoir et déployer des chaînes de traitement de données complexes au sein d'un Datalake moderne. Vous intégrerez une équipe évoluant en mode Agile (Scrum/Kanban) avec une forte culture de l'automatisation. Vos responsabilités : Concevoir et mettre en œuvre les chaînes d’ingestion, de validation et de croisement de données. Assurer le déversement et l'enrichissement des données dans le Datalake. Produire automatiquement des agrégats (journaliers à mensuels) via la puissance du Cloud. Développer et documenter les User Stories en collaboration directe avec le Product Owner. Garantir la qualité via l'automatisation des tests fonctionnels et la correction des anomalies. Participer activement à la chaîne de delivery continue et assister les équipes d'exploitation. Profil recherché : Expertise confirmée sur la plateforme GCP (indispensable) . Maîtrise avancée de l'écosystème Spark / Scala / Kafka . Expérience solide sur les environnements conteneurisés ( GKE, Docker ) et l'Infrastructure as Code ( Terraform, Ansible ). Compétences pointues en stockage et requêtage ( BigQuery, SQL, HDFS ). Capacité à orchestrer des workflows complexes avec Airflow / Composer . Esprit collaboratif, curieux des évolutions technologiques et doté d'un excellent relationnel.
Offre d'emploi
Platform Engineer – Observabilité
Ela Technology
Publiée le
Git
Kubernetes
Python
1 an
50k-57k €
520-550 €
Montpellier, Occitanie
Rejoignez l’équipe Observabilité et contribuez à la construction, l’évolution et la fiabilité des plateformes du Groupe. En tant que Platform Engineer , vous jouerez un rôle clé dans l’automatisation, la standardisation et la sécurisation de l’environnement technique, dans une logique Platform-as-a-Product au service des équipes internes (dev, ops, data…). Missions principales 1. Automatisation & Industrialisation Maintenir et faire évoluer les infrastructures virtualisées et conteneurisées (VMs, Kubernetes). Mettre en place des workflows GitOps robustes (ArgoCD, GitLab CI, Ansible). Gérer tout le cycle de vie des environnements (dev → prod). 2. Support & Accompagnement des équipes Onboarding des équipes techniques et accompagnement à l’usage des outils. Support plateforme : diagnostic, amélioration continue, documentation. Contribution aux golden paths (déploiement, logs, monitoring). 3. Conception de modules réutilisables Création de blueprints, templates et modules. Gestion du portail interne de la plateforme. 4. Sécurité & Conformité Intégration des exigences sécurité (CyberAct, politiques internes). Automatisation des contrôles (images, secrets, règles Kubernetes, audits). Contribution au contrôle d’accès. 5. Fiabilité de la plateforme Travaux sur la résilience, HA, automatisation des redémarrages, rollback. Intervention sur incidents, post-mortems, réduction du MTTR. Suivi des SLOs et indicateurs de performance. 6. Collaboration transverse Travail conjoint avec le Product Owner sur les évolutions. Participation aux choix d’architecture et d’outillage. Documentation claire et structurée. Activités clés Pilotage de la livraison des plateformes d’observabilité. Conception, développement et intégration de solutions d’observabilité. PoC et démonstrations. Optimisation des requêtes, tuning de clusters, modélisation de données. Résolution de problématiques data complexes. Travail étroit avec les équipes d’exploitation. Mentorat / coaching interne.
Offre d'emploi
📩 Azure Platform Engineer – Data & Analytics Platform
Gentis Recruitment SAS
Publiée le
Azure
Azure Kubernetes Service (AKS)
CI/CD
3 mois
40k-45k €
300-400 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data cloud à l’échelle groupe, notre client recherche un Azure Platform Engineer pour renforcer une équipe en charge de la conception, du déploiement et de l’exploitation de la plateforme. Les enjeux sont forts autour de : la scalabilité la gouvernance des données la sécurité la performance des traitements L’environnement est majoritairement Azure , avec une ouverture possible vers du multi-cloud. Vos missions Infrastructure & Cloud (Azure) Développement et maintenance d’infrastructures via Terraform / Bicep / ARM Gestion des ressources Azure : ADLS Gen2, Blob Storage Réseaux (VNet, NSG, Private Endpoints) Gestion des environnements DEV / TEST / PROD Data Platform Administration et exploitation d’un Data Lake Azure Mise en place des règles de gouvernance et sécurité : Azure AD / RBAC Policies / Purview Optimisation des performances et des coûts CI/CD & automatisation Mise en place et maintenance de pipelines CI/CD Automatisation des déploiements (infra + data + services) Environnements : Azure DevOps / GitHub Actions Développement & APIs Développement de microservices en Python Création d’APIs REST Intégration avec les services Azure (Functions, Event Hub…) Containers & orchestration Déploiement de services containerisés (Docker) Orchestration via AKS / Azure Container Apps Monitoring & fiabilité Mise en place de la supervision : Azure Monitor Log Analytics Application Insights Suivi des performances et de la disponibilité Collaboration Rédaction de documentation technique Interaction avec équipes data, dev et métiers Participation aux rituels Agile Stack technique Cloud : Azure Data : ADLS Gen2, Databricks, Synapse IaC : Terraform, Bicep, ARM CI/CD : Azure DevOps, GitHub Actions Containers : Docker, AKS Langage : Python Streaming : Event Hub, Service Bus
Offre d'emploi
Lead Cloud Engineer
Groupe Aptenia
Publiée le
Ansible
Azure
CI/CD
6 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Lead Cloud Engineer / Ingénieur Cloud Senior, pour concevoir, automatiser et opérer des environnements Cloud publics et privés à forte criticité dans un contexte SaaS en transformation. En relai du responsable, vous assurez le pilotage opérationnel, la priorisation et l’animation d’équipe. Vous industrialisez l’infrastructure via l’IaC (Terraform/Ansible), garantissez le MCO, la performance et la fiabilité (SLA/SLO), et pilotez les projets de migration et d’évolution vers un modèle multi-cloud. performance (SLA/SLO), et contribuez aux projets de migration et d’évolution multi-cloud dans un contexte SaaS en forte transformation.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
475 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois