L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 466 résultats.
Offre d'emploi
Ingénieur DevOps Confirmé
AGH CONSULTING
Publiée le
Ansible
OpenStack
40k-50k €
Romainville, Île-de-France
Dans le cadre du renforcement de ses équipes techniques et de l’évolution de ses plateformes d’ingénierie, une entreprise française intervenant sur des environnements à forte criticité recherche un Ingénieur DevOps confirmé pour accompagner des projets structurants autour de l’industrialisation des chaînes de développement et du RUN applicatif. Vous interviendrez au sein d’équipes techniques pluridisciplinaires, sur des environnements complexes mêlant projets applicatifs, plateformes CI/CD et infrastructures cloud . Missions En tant qu’Ingénieur DevOps, vous interviendrez sur les périmètres suivants : Contribution à la conception, à l’évolution et au maintien des chaînes CI/CD Mise en place et amélioration d’outils d’industrialisation (build, tests, déploiement, supervision) Participation à l’évolution des infrastructures (on-premise / cloud / conteneurisation) Accompagnement des équipes de développement sur les bonnes pratiques DevOps Automatisation des déploiements et des opérations via des outils d’Infrastructure as Code Contribution à la documentation technique et aux standards d’ingénierie Participation aux rituels projets (Agile / Scrum selon les contextes)
Mission freelance
Ingénieur Cloud DevOps Senior – Expert GCP & Terraform (H/F)
LINKWAY
Publiée le
Bash
CI/CD
Cloud
6 mois
Saint-Ouen-sur-Seine, Île-de-France
Dans le cadre de l'accélération digitale de notre client, leader mondial de la beauté, nous recherchons un Ingénieur Cloud DevOps confirmé pour rejoindre le campus de Saint-Ouen. Vous intégrerez une équipe d'élite dédiée au support, au développement et à l'opérationnalisation de services numériques "consumer-facing". Ces services, exposés à des millions d'utilisateurs à travers le monde, requièrent une infrastructure d'une robustesse et d'une évolutivité irréprochables. Votre mission principale consistera à concevoir, bâtir et maintenir des infrastructures Cloud sur Google Cloud Platform (GCP), tout en garantissant l'automatisation complète des processus de déploiement. Vous jouerez un rôle charnière entre les équipes de développement applicatif et les architectes de solutions pour assurer la fluidité du "Build" au "Run". Vos responsabilités détaillées s'articuleront autour de quatre axes majeurs : Infrastructure as Code (IaC) et Architecture Cloud : Vous serez le garant de l'infrastructure GCP. Votre arme de prédilection sera Terraform, sur lequel une expertise forte est exigée. Vous devrez écrire, maintenir et faire évoluer des modules Terraform réutilisables et sécurisés pour provisionner l'ensemble des ressources (Compute, Networking, IAM, GKE, Storage). L'objectif est de garantir une infrastructure immuable, auditable et rapidement reproductible. Automatisation et CI/CD (Focus GitHub) : L'automatisation est au cœur de cette mission. Vous serez en charge de la mise en place et de l'optimisation des pipelines de déploiement continu (CI/CD) via GitHub Actions. Vous devrez fluidifier le cycle de vie du développement logiciel, depuis le commit jusqu'à la mise en production, en intégrant des tests automatisés, des scans de sécurité et des validations de qualité. La maîtrise de GitHub en tant qu'outil de versioning et d'orchestration est impérative. Opérations, Monitoring et Fiabilité (SRE) : Au-delà de la construction, vous assurerez le "Run" des services. Cela implique la mise en place d'une surveillance proactive (Monitoring) et de systèmes d'alerting avancés pour détecter les anomalies avant qu'elles n'impactent l'utilisateur final. Vous serez responsable de l'analyse des logs, du débogage des environnements de production et de la résolution rapide des incidents. Une approche orientée Site Reliability Engineering (SRE) sera appréciée pour garantir la haute disponibilité et la scalabilité des plateformes. Conteneurisation et Environnement Linux : Vous évoluerez dans un environnement technique pointu reposant sur Linux et la conteneurisation. Une maîtrise solide de Docker est indispensable pour standardiser les environnements de développement et de production. Vous accompagnerez les équipes dans les meilleures pratiques de gestion des conteneurs, de l'optimisation des images à leur orchestration.
Mission freelance
Cloud Network & Automation Engineer AWS
Tenth Revolution Group
Publiée le
CI/CD
Datadog
Linux
3 mois
110-550 €
Paris, France
Vous ne serez pas là pour “maintenir des routeurs”. Votre mission : coder, automatiser, sécuriser et scaler une plateforme IoT critique utilisée par des centaines de collectivités. Vos responsabilités principales : Automatisation & développement : scripts et outils réseau en Python / TypeScript, workflows et APIs, IaC (Terraform/CDK), pipelines CI/CD (GitHub Actions). Réseau cloud & scalabilité : VPC, routing, firewalling, VPN, peering, diagnostic d’incidents réseau à grande échelle, gestion de routeurs IoT 4G/5G. Sécurité by design : rotation automatique de certificats, hardening cloud et réseau, conformité cloud souverain. Observabilité & fiabilité : dashboards, alerting, SLO, automatisation de la détection et remédiation d’incidents, amélioration de la fiabilité globale. ✨ Pourquoi ce poste est unique : plus de code que de configuration, impact direct sur un produit utilisé par des centaines de collectivités, sujets souveraineté, sécurité et performance, équipe qui automatise tout.
Offre d'emploi
Expert·e senior en Quantum Computing appliqué / Développement Quantique
INFOTEL CONSEIL
Publiée le
Python
1 an
Paris, France
Nous recherchons un profil senior en quantum computing appliqué pour intervenir en soutien technique au sein d’un lab d’innovation. Le rôle consiste à identifier et qualifier des cas d’usage quantiques à partir de problématiques métiers (optimisation, simulation, finance, trading), à en évaluer la maturité technologique, à challenger des partenaires industriels et à développer des prototypes . Le poste est exclusivement technique : il n’inclut ni communication, ni représentation en comité, ni portage décisionnel. Responsabilités Identifier des cas d’usage quantiques à partir de problématiques métiers. Évaluer la maturité réelle des technologies et algorithmes quantiques. Challenger des partenaires technologiques et leurs solutions. Porter des convictions techniques argumentées. Concevoir et développer des prototypes (POC). Contribuer à la montée en compétences des développeurs du lab (sessions courtes, accompagnement). Compétences attendues Excellente compréhension des architectures quantiques , de leur maturité et de leurs limites. Maîtrise des principales familles d’algorithmes quantiques . Solide socle en mathématiques appliquées , algorithmique et machine learning . Forte capacité à relier problématiques métiers et potentiel quantique réel. Expérience en prototypage et développement. Capacité à transmettre et vulgariser auprès de profils techniques. Profil Profil senior avec une expertise avérée en quantum computing appliqué. Expérience en R&D, innovation ou prototypage avancé. Esprit critique, autonomie et posture d’expert.
Mission freelance
DATA MESH PLATFORM MANAGER SENIOR F/H
SMARTPOINT
Publiée le
AWS Cloud
Azure
CI/CD
12 mois
100-600 €
Île-de-France, France
Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform – GDP) comme un produit interne, en garantissant : Sa livraison technique Son adoption à l’échelle de l’entreprise Son excellence opérationnelle Son amélioration continue RESPONSABILITÉS CLÉSConstruction et Livraison de la Plateforme (Responsabilité principale)1. Responsabilités Concevoir et implémenter l’architecture de la plateforme Data Self-Service Définir les capacités de la plateforme (data products, pipelines, gouvernance, observabilité, accès self-service) Définir et faire respecter les standards techniques et les patterns d’architecture Garantir la scalabilité, la performance et la sécurité Prendre des décisions techniques hands-on et valider les solutions 2. Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme Architecture Cloud et Infrastructure3. Responsabilités Piloter la conception et l’exploitation d’architectures cloud et hybrides avec le Group Data Architect Coordonner avec l’équipe Group Data Delivery l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Piloter l’automatisation et l’Infrastructure as Code Garantir les exigences de sécurité et de conformité 4. Livrables attendus Blueprint d’architecture cloud (avec le Group Data Architect) Framework de sécurité et de gestion des accès Pilotage Delivery & Exécution5. Responsabilités Être responsable du cycle de vie de livraison de la plateforme Définir le backlog et le processus de priorisation Gérer les releases et les déploiements en production Suivre la performance et la fiabilité Gérer les risques et incidents techniques 6. Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et gestion des versions Dashboards de suivi delivery Indicateurs SLA / métriques de fiabilité Déploiement & Adoption par les Domaines7. Responsabilités Déployer la plateforme dans les différents domaines métiers Permettre aux équipes domaine de construire leurs data products Déployer le modèle opérationnel Data Mesh Accompagner l’onboarding et l’adoption Résoudre les problématiques d’adoption opérationnelle 8. Livrables attendus Framework et processus d’onboarding des domaines Guidelines du cycle de vie des data products Playbooks d’accompagnement des domaines Indicateurs d’adoption et d’usage Supports de formation et documentation d’onboarding Product Management (orienté usage) & Amélioration Continue9. Responsabilités Recueillir les besoins utilisateurs et exigences plateforme Définir la vision produit et la roadmap Mesurer l’usage et la création de valeur Améliorer l’expérience développeur et utilisateur 10. Livrables attendus Vision produit et proposition de valeur KPIs plateforme et métriques d’adoption Boucles de feedback utilisateur et backlog d’amélioration Roadmap d’évolution de la plateforme Documentation, Standardisation & Gouvernance11. Responsabilités Documenter les capacités et processus de la plateforme Garantir la conformité avec la gouvernance fédérée des données du Groupe 12. Livrables attendus Référentiel documentaire de la plateforme Standards techniques et guides d’implémentation Framework de gouvernance et conformité Playbooks de bonnes pratiques Communication Opérationnelle & Reporting Exécutif13. Responsabilités Communiquer sur l’avancement et l’impact de la plateforme Fournir un reporting de niveau exécutif Assurer l’alignement des parties prenantes 14. Livrables attendus Dashboard exécutif du projet Dashboards de performance plateforme Présentations en comité de pilotage Suivi des décisions, risques et incidents Promotion Interne & Évangélisation15. Responsabilités Promouvoir la valeur de la plateforme dans l’organisation Soutenir les initiatives d’adoption interne Construire une communauté plateforme 16. Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations plateforme et portfolio de cas d’usage Expérience requise Minimum 15 ans d’expérience en data platform, data engineering ou architecture Expérience prouvée dans la construction et livraison de plateformes data en production Forte expérience hands-on en delivery technique Expérience en platform engineering ou data engineering avancé Expérience en environnement grand groupe ou multi-entités Expérience pratique du Data Mesh obligatoire Compétences techniquesArchitecture & Engineering Architecture data distribuée Conception de systèmes distribués Infrastructure as Code Pratiques DevOps / DataOps / CI/CD Ingénierie performance et scalabilité Cloud & Infrastructure Expertise avancée AWS et Azure Architectures hybrides et on-premise Sécurité et gouvernance cloud Plateforme Data Data products & gestion du cycle de vie Pipelines et orchestration Gestion des métadonnées et catalogues Frameworks de gouvernance data Observabilité data Product & Delivery Approche produit appliquée aux plateformes techniques Gestion roadmap & backlog Méthodologies Agile Développement orienté valeur Soft Skills critiques Leadership technique et opérationnel fort Orientation exécution et delivery Capacité à intervenir de manière hands-on dans des environnements complexes Excellente communication transverse Sens fort de la responsabilité Esprit analytique et pragmatique Capacité d’influence sans autorité hiérarchique directe Vision stratégique avec focus opérationnel Gestion des parties prenantes au niveau exécutif et opérationnel Anglais courant obligatoire (écrit et oral) Indicateurs de succès Plateforme livrée et opérationnelle en production Adoption par les domaines métiers Nombre et qualité des data products déployés Fiabilité et performance de la plateforme Satisfaction et usage des utilisateurs Réduction du time-to-market des cas d’usage data
Mission freelance
Directeur de projet
SKILL EXPERT
Publiée le
Agile Scrum
Apache NiFi
Cloud
1 an
630-660 €
Saint-Denis, Île-de-France
Contexte de la prestation La division CAP de MATHIS SNCF Réseau participe aux grands chantiers de modernisation du réseau ferroviaire. Il consiste à automatiser l'ensemble des processus de surveillance, maintenance, ingénierie . L'objectif est de tirer parti des opportunités offertes par les nouvelles technologies dans la collecte et le traitement des données pour réduire au maximum l'impact sur les circulations. Au sein de ce programme et en lien avec la gouvernance de la donnée, un socle centralisé d’ingestion, de stockage, de traitement et de mise à disposition des données provenant des différentes sources, à destination des différents consommateurs du programme, a été construit. En 2025-2026-2027, ce socle va évoluer selon les axes suivants : •Rapatriement d’une partie des services techniques, à ce jour hébergé chez IT Novem, dans le SI géré par la DGNUM •Déploiement de la plateforme data basée sur l’outil Databricks et les nouvelles fonctionnalités de gestion de la donnée (sql endpoint, unity Catalog, deltasharing, …) •Déploiement des plateformes d’ingestion basée sur l’outil Apache Nifi et les nouvelles fonctionnalités sur AKS. •Intégration des applications d’espace d’analyse, selon la cible d’architecture et les points précédents dans une cible globale •Extension du puits acquisition SNCF RESEAU vers des usages département MATHIS et plus en fonction des besoins DGNUM.
Mission freelance
Coach Agile à l’Échelle (SAFe) – Expert Transformation
LINKWAY
Publiée le
DevOps
Jira Align
Kanban
10 mois
550-600 €
Île-de-France, France
Votre mission principale consistera à accompagner l'organisation, du management exécutif aux équipes opérationnelles, dans l'adoption, l'implémentation et l'optimisation du framework SAFe (Scaled Agile Framework). Vous agirez en tant que catalyseur du changement, garantissant que les principes Lean-Agile . Stratégie de Transformation et Lean Portfolio Management (LPM) : Vous accompagnerez les décideurs et le PMO dans la mise en place du Lean Portfolio Management. Vous aiderez à définir les chaînes de valeur (Value Streams) opérationnelles et de développement pour assurer un alignement entre les impératifs budgétaires et la livraison logicielle. Votre expertise permettra de fluidifier la priorisation des Épics et de structurer la gouvernance agile au plus haut niveau. Lancement et Coaching des Trains (Agile Release Trains - ARTs) : Vous serez le référent pour le lancement de nouveaux trains ou l'optimisation des trains existants. Cela implique de coacher les rôles clés tels que le Release Train Engineer (RTE), les Product Managers et les System Architects. Vous superviserez la préparation et l'animation des événements majeurs, notamment le PI Planning (Program Increment Planning), en vous assurant que les dépendances sont gérées et que les risques sont maîtrisés. Technique et Métriques : Vous encouragerez l'adoption de pratiques d'ingénierie logicielle (DevOps, CI/CD, qualité intégrée) nécessaires pour soutenir le flux continu de valeur. Parallèlement, vous mettrez en place des KPI et des mesures de performance pertinents (Flow Velocity, Flow Time, Flow Load) pour objectiver les progrès de la transformation et identifier les goulots d'étranglement systémiques.
Offre d'emploi
Ingénieur DevOps
NEO SOFT SERVICES
Publiée le
Google Cloud Platform (GCP)
45k-50k €
35000, Rennes, Bretagne
Contexte Dans un environnement technologique exigeant et en forte évolution, vous interviendrez sur l’ensemble du cycle de vie des plateformes et des infrastructures, en collaboration étroite avec les équipes de développement, d’exploitation et de sécurité. Mission Vous contribuerez à la conception, à l’évolution et à la sécurisation des plateformes techniques, dans une logique d’automatisation, de performance et de fiabilité des services. Responsabilités Accompagner les équipes de développement dans l’optimisation, la fiabilisation et la sécurisation des environnements. Participer à la définition des architectures techniques et garantir leur évolutivité, leur disponibilité et leur résilience (PRA, haute disponibilité). Automatiser le déploiement et la gestion des infrastructures via une approche Infrastructure as Code (IaC) . Contribuer à l’amélioration continue des plateformes d’hébergement (monitoring, performances, capacité, scalabilité). Piloter ou accompagner des projets de migration Cloud et On-Premise vers des architectures cloud . Intervenir sur la gestion des incidents de production et contribuer à l’analyse des causes racines et aux plans d’amélioration.
Mission freelance
Platform Reliability Engineer SRE & DevOps
Codezys
Publiée le
Azure Data Factory
Azure DevOps Services
Datadog
12 mois
390-500 €
Versailles, Île-de-France
Contexte et approche : La mission s’inscrit dans une démarche SRE et DevOps, avec une intégration à l’équipe Plateforme pour garantir fiabilité, exploitabilité et qualité des microservices. Principales responsabilités : Assurer l’intégration et l’exploitation opérationnelle des applications de la plateforme. Vérifier la conformité des livraisons selon les standards (nommage, logs, documentation, monitoring). Améliorer la documentation des releases. Définir et suivre des indicateurs de fiabilité (SLI/SLO), error budgets, en lien avec les équipes de développement. Configurer et maintenir dans Datadog les dashboards, règles d’alerting, runbooks, et améliorer l’observabilité. Diagnostiquer en profondeur les applications (.NET, PHP, JavaScript) via logs, traces et métriques (Datadog APM/Logs/RUM). Automatiser l’exploitation par la configuration d’autoscaling, health probes, politiques de redémarrage et procédures de failover. Conduire des post-mortems après incidents, documenter et piloter les actions correctives. Mettre à jour et optimiser les pipelines de déploiement dans Azure DevOps. Maintenir et faire évoluer les Helm charts pour le déploiement sur Kubernetes (AKS). Intégrer SonarQube dans les processus de livraison pour renforcer la qualité du code. Collaborer avec les tech leads, développeurs et QA pour intégrer les tests automatisés en CI/CD et renforcer la résilience des services. Assurer un support de niveau 3 sur les services de la plateforme et participer aux analyses post-incident.
Offre d'emploi
Ingénieur Data Event Management
VISIAN
Publiée le
Apache Kafka
Java
Python
1 an
40k-45k €
230-540 €
Paris, France
Intégration au sein de l'équipe Data Event Management Intégration au sein de l'équipe Data Event Management qui gère les trois offres de services suivantes : Offre Infra. Kafka sur ITCloud OnPremise Offre Infra. Kafka sur IBMCloud/dMZR Activités principales Construction/Déploiement/Support/MCO des offres autour de la technologie de messaging kafka Méthodologie de Travail ITIL Agile/Scrum à l'échelle Product Based Projets principaux en cours Transition vers un Nouvel Orchestrateur sur l'Offre Infra Kafka IBMCloud/dMZR basé sur Python et Airflow, Terraform Extension de l'offre Kafka sur IBMCloud/dMZR avec l'intégration du produit Lenses Migration du monitoring de l'infrastructure OnPremise de Splunk vers une solution Dynatrace combinée avec ELK Technologies Utilisées Outils administratifs: ServiceNow, Jira, Confluence Infrastructure as Code: Ansible, Terraform Langages: Bash, Java (Spring/JHipster), Python Repository: Artifactory Database: SQL Server, PostgreSQL Conteneurisation: Docker/Kubernetes Provider Cloud: ITCloud, IBMCloud Orchestration: Airflow, Autosys, BPM Versionning: Git Messaging: Kafka CI/CD: GitLab CI Operating system: Redhat Monitoring: ELK, Dynatrace, LogDNA, Sysdig Sécurité: HashiCorp Vault, Cyberarc
Mission freelance
Développeur SEAL
Codezys
Publiée le
Deep Learning
Intelligence artificielle
Java
6 mois
450-500 €
Courbevoie, Île-de-France
Dans le cadre des activités d'une grande entreprise de services publics, le/la Développeur(se) spécialisé(e) intervient sur des sujets à forte composante technique et innovation, liés notamment aux environnements connectés à des compteurs intelligents, aux protocoles de communication et aux problématiques d’aide à la décision. La mission nécessite une expertise confirmée en développement logiciel, une bonne compréhension des systèmes communicants (notamment CPL / radio fréquence) ainsi qu’une capacité à intégrer des approches Machine Learning / Deep Learning pour répondre à des besoins métier et techniques. Le/la consultant(e) participera à l’analyse des besoins en systèmes informatiques, à la proposition de solutions adaptées, puis à la mise en œuvre technique sur différents environnements (Windows/Linux/Raspberry Pi), en s’appuyant sur des compétences en modélisation, algorithmie (dont théorie des graphes) et programmation. 2) Objectifs & livrables attendus Le/la prestataire devra contribuer aux activités suivantes : 🎯 Analyse & cadrage Réaliser l’analyse des besoins en systèmes d’information en lien avec les enjeux de l’organisme Proposer des solutions techniques et fonctionnelles adaptées à la situation Participer à la démarche de gestion de projet en respectant les processus internes 🧠 Aide à la décision / optimisation Exploiter les concepts de théorie des graphes Contribuer à des problématiques d’aide à la décision Intégrer des approaches Machine Learning / Deep Learning selon les cas d’usage 💻 Développement & implémentation Développer et maintenir des composants applicatifs en : - Java / Python / C++ Mettre en œuvre des traitements, scripts et analyses sur : - Windows, Linux, Raspberry Pi Exploiter les librairies Python nécessaires à l’analyse : - Matplotlib, Numpy 📡 Communication & protocoles Intervenir dans des contextes liés aux télécommunications, notamment en ce qui concerne les réseaux CPL et radio fréquence Travailler autour des protocoles et flux : - ZigBee, Modbus, Protocoles liés à des compteurs communicants Comprendre et exploiter les protocoles CPL G1 et CPL G3 Maîtriser les principes liés à la chaîne de communication des compteurs intelligents
Offre d'emploi
DEVOPS & App INTEGRATION FACTORY
Codezys
Publiée le
Administration système
Azure
Azure Data Factory
24 mois
40k-50k €
340-420 €
Hauts-de-Seine, France
Localisation et organisation Site situé dans le 92 avec 1 jour sur site et 4 jours en télétravail par semaine. Intégré à la Direction Infrastructure Technique de la DSI. Rattaché au responsable de l’équipe « DEVOPS & App INTEGRATION FACTORY ». Rôle principal Garant de l’intégration applicative, tant technique que fonctionnelle, dans le respect de l’architecture et de la sécurité du groupe. Production de la documentation technique en lien avec les architectes et l’exploitation. Développement des pratiques DevOps. Interventions en expertise sur incidents complexes (N3). Valeur ajoutée Assemblage des composants logiciels et infrastructure selon les plans d’urbanisme, architecture et sécurité. Connaissance de l’état de l’art technique pour une intégration optimale. Amélioration de la performance, disponibilité, supervision et évolutivité du SI. Documentation et référencement technique des applications. Maîtrise des architectures IaaS, PaaS, SaaS et On-Premise. Fondamentaux du poste Leadership et compétences en collaboration et communication. Développement des compétences techniques et rédactionnelles. Activités principales Coordination de l’infrastructure pour la création de nouveaux environnements (recette, pré-production, production). Support à l’équipe projet lors des phases techniques. Définition des solutions techniques en lien avec les équipes applicatives, architectes et urbanistes. Participation à la sélection des intégrateurs lors des appels d’offres. Rédaction de documents techniques pour la construction et le maintien opérationnel. Mise en place d’environnements applicatifs, développement Infra-As-Code (HCL Terraform) et gestion de prestataires externes. Installation d’applications, création de VMs, ouverture de flux, implémentation d’intergiciels et interfaces inter-applicatives. Support à la recette, mise en production, et mise en place de la supervision applicative. Gestion des besoins/demandes, relai avec les équipes techniques et optimisation des processus d’intégration. Performance et amélioration continue Pilotage du catalogue des services d’intégration applicative. Optimisation des processus d’intégration et déploiement. Veille technologique et participation aux audits de sécurité. Démarche d’amélioration continue et capitalisation (retours d’expérience, modes). Gestion des incidents et conformité Contribution à la résolution d’incidents de production nécessitant une expertise technique. Respect des responsabilités selon le modèle de delivery SI (matrices RACI).
Mission freelance
DBA OpenSource / DevOps - Projet Innovant - Île-de-France (H/F)
EASY PARTNER
Publiée le
MariaDB
MySQL
PostgreSQL
1 an
500-550 €
Châtillon, Île-de-France
Missions Missions principales Assurer le maintien en condition opérationnelle des environnements de bases de données OpenSource SQL et NoSQL. Gérer les incidents et garantir un support de niveau 2 pour toutes les problématiques BDD. Participer activement à l'automatisation des processus dans un environnement DevOps. Missions annexes Réaliser des audits et apporter une expertise en performance tuning. Former et assister les équipes projet dans l'utilisation optimale des bases de données. Participer à la conception technique et à la gestion des performances des BDD. Stack technique À maîtriser PostgreSQL - Expert MariaDB/MySQL - Confirmé AWX - Expert CouchBase - Confirmé Environnement technique global Bases de données SQL & NoSQL Méthodologies DevOps Anglais professionnel impératif
Mission freelance
Lead QA / Lead Qualité Logicielle
Inventiv IT
Publiée le
AWS Cloud
DevOps
Gitlab
6 mois
480-620 €
Île-de-France, France
Contexte Dans un environnement Digital structuré et agile, l’objectif est de renforcer la pratique QA au niveau transverse : structurer la démarche qualité, homogénéiser les standards, améliorer la fiabilité en production et accélérer l’adoption des tests automatisés. Le poste implique une interaction forte avec les Delivery Leads, Product Owners, Tech Leads, équipes de développement, profils QA et équipes métiers (recette). En tant que Lead QA, vous définissez, diffusez et faites appliquer une stratégie d’assurance qualité commune. Vous accompagnez les dispositifs projets afin d’élever durablement le niveau de qualité, tant fonctionnelle que technique. Missions principalesPhase 1 – Consolidation sur un périmètre pilote Évaluer l’existant : pratiques QA, documentation, outillage, méthodologies et livrables Identifier les écarts, points de fragilité et risques qualité (non-régression, performance, batch, règles métier…) Proposer des améliorations concrètes du modèle de delivery et de la stratégie de recette Phase 2 – Déploiement transverse Définir et maintenir le cadre QA global : référentiels, templates, checklists, critères qualité, KPIs Contribuer à l’outillage commun (CI/CD, composants partagés, documentation, bootstrap) Accompagner les équipes (dev/tech/produit/métier) dans la mise en place de stratégies de test adaptées (cloud, progiciel, applications spécifiques…) Former et faire monter en compétences les équipes (coaching, acculturation, communautés de pratiques) Participer aux rituels projet (comités, reporting, démonstrations d’avancement) Contribuer à la qualification et à l’évaluation des profils QA Environnement technique Backend : Java / Node.js (TypeScript) Frontend : React (TypeScript) Bases de données : PostgreSQL, MongoDB Cloud : AWS (EKS) CI/CD & versionning : GitLab Monitoring : Datadog Authentification : Okta SSO / Active Directory Qualité & tests : Sonar, TestContainers, Trivy, Gitleaks, GitLab SAST, Gatling
Mission freelance
DevOps Terraform (Domaine Bancaire)
JobiStart
Publiée le
Terraform
3 ans
400-550 €
Paris, France
Spécialiste de l'Infrastructure as Code (IaC), vous pilotez l'automatisation du provisionnement des ressources cloud et on-premise. Votre mission principale est de concevoir et maintenir des modules Terraform réutilisables, sécurisés et conformes aux normes bancaires. Vous intégrez ces déploiements dans des pipelines CI/CD (GitLab CI, GitHub Actions) pour permettre une livraison continue et sans erreur des infrastructures applicatives. Vous gérez le state management, les environnements multi-cloud et travaillez sur l'automatisation du réseau et de la sécurité (Vault, Sentinel). Vous accompagnez les équipes de développement dans leur transition vers le "Self-Service Infrastructure" tout en garantissant la conformité avec les exigences de régulation financière.
Offre d'emploi
DevOps / Cloud Engineer (H/F)
AGH CONSULTING
Publiée le
AWS Cloud
DevOps
6 mois
40k-50k €
310-450 €
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre d’une hausse d’activité, nous recherchons un(e) DevOps / Cloud Engineer pour renforcer nos équipes techniques et intervenir sur des environnements Cloud et CI/CD à forts enjeux. Missions Vous interviendrez sur l’ensemble de la chaîne DevOps et Cloud : Concevoir, mettre en œuvre et maintenir les infrastructures Cloud Créer, maintenir et optimiser les pipelines CI/CD Automatiser les processus de build, de test et de déploiement Collaborer avec les équipes développement et produit pour garantir des déploiements fiables Superviser la disponibilité, la performance et la fiabilité des systèmes Mettre en place des dashboards de monitoring Contribuer à l’amélioration continue des outils et pratiques DevOps Produire un compte-rendu d’activité mensuel
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1466 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois