Trouvez votre prochaine offre d’emploi ou de mission freelance DevOps à Paris
Ce qu’il faut savoir sur DevOps
DevOps est un ensemble de pratiques qui combine le développement logiciel (Dev) et les opérations informatiques (Ops) visant à raccourcir le cycle de développement et à fournir une livraison continue avec une haute qualité logicielle.
Mission freelance
Intégrateur d'application(H/F)
Au sein du pôle Intégration de la Direction Technologies & Organisation (DTO) , vous serez en charge de l’intégration des applications dans le Système d’Information (SI) de SFIL, en garantissant la cohérence technique (infrastructure, applicatif, OS, réseau). Vous interviendrez sur les projets d’intégration , les mises en production , et apporterez un support de niveau 3 sur les applications critiques. Responsabilités principales Intégration et évolution des applications dans le SI Installation, configuration et documentation technique (DAT, DEX, procédures) Mise en place et maintenance du pipeline CI/CD sous Azure DevOps Support technique de niveau 3 et coordination de chantiers techniques Contribution à la définition des architectures techniques
Offre d'emploi
Data engineer MSBI Python Azure (7-8 ans minimum)
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Offre d'emploi
Ingénieur DevOps / FullStack NodeJS (H/F)
Nous recherchons un Ingénieur DevOps - Développeur FullStack (NodeJS) pour renforcer la cellule Services CI/CD et Automatisation. Missions principales : - Développement de services et d'API - Conception d'IHM (back & front) - Mise en oeuvre et optimisation des pipelines CI/CD - Rédaction et exécution des tests unitaires / end-to-end - Maintien en conditions opérationnelles des outils, services et API - Gestion des incidents et évolutions - Travail en mode Agile (Scrum) Stack technique : - Obligatoire : NodeJS, NestJS, JavaScript, VueJS, MySQL, Git/GitLab, GitLab CI, Kubernetes / ArgoCD - Souhaité : Java, Playwright, Groovy, Python, ELK, UX/UI Nous recherchons un profil confirmé en développement FullStack, doté d'une solide culture DevOps et d'un vrai sens du collectif. Tu maîtrises l'écosystème NodeJS et les environnements CI/CD modernes, et tu sais intervenir aussi bien sur le front que sur le back. Autonome et rigoureux, tu es reconnu pour ta capacité à t'adapter dans des environnements complexes et à proposer des solutions concrètes pour améliorer la qualité et la productivité des équipes. Curieux techniquement, tu t'intéresses aux bonnes pratiques d'intégration continue, d'automatisation et de déploiement sur Kubernetes. Ton goût du travail bien fait, ton esprit d'équipe et ta communication fluide seront de véritables atouts pour réussir sur ce poste. Soft skills attendues : - Esprit d'équipe et sens du partage - Bonne communication orale et écrite - Force de proposition et autonomie - Connaissance des méthodes Agile Scrum
Offre d'emploi
DevOps Kubernetes Engineer / SRE
Au sein d’une équipe d'expertise, vous intervenez en tant que DevOps / SRE Platform sur l'évolution et la maintenance d’une plateforme moderne orientée Big Data & Streaming. L’objectif est d’assurer la fiabilité, l’évolutivité et la sécurité de l’écosystème technique basé sur Kubernetes, Kafka et GCP. Responsabilités principales Migration Cloud & Conteneurs : Migration des composants depuis l’IaaS vers Google Cloud Platform (services managés) et Kubernetes (GKE). Administration Kubernetes & Operators : Gestion et maintenance de clusters Kubernetes (GKE) et déploiement des opérateurs critiques. Data Streaming & Kafka : Maintien de la plateforme Streaming temps réel basée sur Kafka. Orchestration & Pipelines : Administration du Cloud Composer (Airflow) et mise en place de pipelines d’ingestion de données. Infrastructure as Code & Sécurité : Déploiement d’infrastructures via Terraform, gestion du patch management et renforcement de la sécurité des composants. CI/CD & Automatisation : Maintenance et optimisation des pipelines CI/CD (Jenkins, GitLab-CI) et contribution à l’industrialisation des déploiements. Observabilité & Fiabilité : Mise en place et suivi du monitoring (Prometheus, Grafana), gestion proactive des incidents et amélioration continue de la disponibilité des services. Innovation & Support : Réalisation de POC sur de nouvelles technologies, support technique aux équipes de développement et accompagnement des équipes RUN.
Mission freelance
Techlead Java Fullstack
Pour un acteur en Assurance, au sein de la DSI nous recherchons un techlead sur le périmètre AS (Action Sociale). La mission a pour objectifs d'intervenir sur différents sujets en lien avec l'Action Sociale: Développement d'une nouvelle application de gestion de l'action sociale assurance (ASAP) Gestion du MCO du périmètre Action Sociale Mission principale : Au sein d'une équipe de 6 personnes, réalisation d'une nouvelle solution de gestion de l'action sociale L'application est composée de batchs et d'une application web Les tâches concerneront la réalisation de développements front et back. En parallèle de ces travaux, gestion du MCO (Maintien en condition opérationnelles) : Prise en charge des incidents Développement des évolutions ou des correctifs Livrables : Documentation technique Réalisation des travaux de développements (front et back) Support sur les applicatifs gérés dans le cadre du MCO
Mission freelance
DELPHIX Expert DELPHIX/q
DELPHIX Expert DELPHIX (Devops)- Dans le cadre d’un projet de mise en conformité règlementaire avec le RGPD, et plus particulièrement d’anonymisation des données à caractère personnel présentes dans les environnements de tests, je recherche un profil d’« Expert DELPHIX ». Les compétences attendues : Les compétences indispensables au projet pour remplir les responsabilités évoquées sont : - Expertise de développement de requêtes SQL - Expertise de développement de PowerShell Idéalement, une première expérience sur la solution DELPHIX est fortement souhaitable, mais une montée en compétence contextuelle est envisageable. Les autres compétences souhaitables portent sur SQL Server, Mongo DB, Maria DB, paramétrage REGEX & Java. Au-delà des compétences techniques, dans le contexte du projet, une expérience dans l’accompagnement d’une organisation dans la transformation et l’industrialisation des pratiques de test est recommandé. C’est une mission longue durée dans le 13°arrondissement avec 2 jours de télétravail.
Mission freelance
Data Platform Engineer - Terraform
Bonjour, Nou recherchons pour l'un de nos clients intégrateurs un ingénieur plateforme de données. Description du poste : En tant qu'ingénieur plateforme de données, vous êtes spécialisé dans la conception, le développement et la maintenance de l'infrastructure sous-jacente qui prend en charge les pipelines de données et les applications basées sur les données d'une organisation. Vos responsabilités sont hautement techniques et consistent à créer un écosystème de données robuste, évolutif et fiable.
Mission freelance
Expert DELPHIX/q
Expert DELPHIX (Devops)- Dans le cadre d’un projet de mise en conformité règlementaire avec le RGPD, et plus particulièrement d’anonymisation des données à caractère personnel présentes dans les environnements de tests, je recherche un profil d’« Expert DELPHIX ». Les compétences attendues : Les compétences indispensables au projet pour remplir les responsabilités évoquées sont : - Expertise de développement de requêtes SQL - Expertise de développement de PowerShell Idéalement, une première expérience sur la solution DELPHIX est fortement souhaitable, mais une montée en compétence contextuelle est envisageable. Les autres compétences souhaitables portent sur SQL Server, Mongo DB, Maria DB, paramétrage REGEX & Java. Au-delà des compétences techniques, dans le contexte du projet, une expérience dans l’accompagnement d’une organisation dans la transformation et l’industrialisation des pratiques de test est recommandé. C’est une mission longue durée dans le 13°arrondissement avec 2 jours de télétravail.
Offre d'emploi
Expert Data Factory
🚀 CITECH recrute ! ✨ Si vous souhaitez mettre à profit vos compétences et accompagner un projet stratégique, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Expert Data Factory (H/F) 🏢 Présentation du client Notre client est un grand cabinet français reconnu pour son expertise pluridisciplinaire et son accompagnement stratégique auprès d’entreprises de toutes tailles. Dans le cadre du développement de son pôle Data, il souhaite renforcer son équipe avec un profil expérimenté capable de structurer et d’optimiser la gestion de la donnée au sein de son environnement Microsoft. Description du poste 💼 Contexte de la mission Au sein de l’équipe Data, vous interviendrez en tant qu’ Expert Data Factory afin d’assurer la fiabilité, la qualité et la valorisation des données. Vous aurez un rôle clé dans la conception, la transformation et l’agrégation de données provenant de multiples sources, tout en accompagnant la montée en compétences de deux collaborateurs plus juniors déjà en poste. 🚀 Missions principales Analyser, structurer et consolider les données issues de différents environnements, notamment Azure AD et diverses bases SQL. Mettre en place des processus de nettoyage, de contrôle qualité et d’agrégation des données . Concevoir et maintenir des pipelines de données robustes et performants. Garantir la qualité et la cohérence des données dans l’ensemble du système d’information. Participer à la gouvernance de la donnée et à l’amélioration continue des pratiques Data au sein de l’équipe. Encadrer et faire monter en compétences deux collaborateurs juniors sur les aspects techniques et méthodologiques. Collaborer étroitement avec les équipes IT et métiers pour comprendre les besoins et assurer la fiabilité des analyses.
Mission freelance
Senior Devops
Mission L’équipe Data est au cœur de nos stratégies d’investissement, exploitant une large gamme de sources de données pour générer des indicateurs diversifiés qui permettent d’obtenir de solides performances pour nos clients. En tant que membre de l’équipe Data Platform, votre mission sera de mettre en œuvre activement les directives et recommandations d’audit afin de sécuriser nos environnements de production. Principales tâches : En tant que Senior DevOps Engineer, vos principales missions seront : Séparation des environnements de production et de développement (gestion des droits, amélioration des tests), Gestion de la capacité de nos serveurs (y compris suivi et alertes), Industrialisation des tests de qualité des données, Amélioration de la gestion des versions (tests, versioning, etc.), Mise en place d’un plan de reprise après sinistre et de chaos engineering, Maintenance de plusieurs serveurs et assets existants (y compris les outils et pipelines CI/CD). Qualifications / Compétences requises Diplôme de niveau Licence ou Master en informatique, génie logiciel ou domaine similaire, Minimum 8 ans d’expérience en tant qu’ingénieur DevOps, dont au moins 4 ans sur des projets centrés sur la Data, Expérience approfondie en développement Python et maîtrise de la création d’applications évolutives, Expertise en pratiques DevOps et pipelines CI/CD pour améliorer les processus de déploiement, Expérience des frameworks Infra-as-Code, Excellentes compétences collaboratives et capacité à traduire des besoins utilisateurs complexes en solutions techniques efficaces, Bonne maîtrise de l’anglais (la documentation sera rédigée en anglais et certains utilisateurs de la Data Platform ne parlent pas français). Atouts supplémentaires : Expérience avec des frameworks de traitement de données tels que Pandas ou Spark, Expérience en développement produit agile et méthodologie Scrum, Compréhension des bonnes pratiques de sécurité et de conformité dans les environnements cloud. Environnement technologique : Sur site : OS REHL 7 à 9, shell, DevOps : Jenkins, SonarQube, Conda, Ansible, … Logiciels : Python, Rust (un plus), AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, …
Offre d'emploi
Devops AZURE (H/F)
Dans le cadre d’un projet stratégique au sein d’un grand groupe bancaire , nous recherchons un Ingénieur DevOps Azure confirmé pour renforcer les équipes Cloud & Automatisation à Paris . Poste à pourvoir immédiatement . Missions principales : Concevoir et maintenir les pipelines CI/CD . Automatiser les déploiements via Terraform , Ansible , Jenkins ou Azure DevOps . Gérer les environnements Azure (AKS, App Service, Key Vault, Monitoring). Contribuer à la sécurisation et la fiabilité des plateformes bancaires critiques. Compétences clés : Azure , Terraform , Ansible , Jenkins , XLR/XLD , Docker , Kubernetes . Scripting : PowerShell , Bash , Python . Expérience CI/CD, IaC et environnement réglementé (bancaire/financier). Profil recherché : Expérience confirmée en DevOps (3+ ans). Connaissance du secteur bancaire appréciée. Rigueur, fiabilité et esprit d’équipe. Disponibilité immédiate. 📍 Lieu : Paris 🕓 Démarrage : ASAP
Mission freelance
Consultant Data Engineering & Support Reporting Réglementaire
Le bénéficiaire recherche un(e) consultant(e) pour accompagner ses équipes en charge du reporting réglementaire et de la supervision des chaînes de production de données . L’objectif : garantir la fiabilité, la qualité et la conformité des flux de données réglementaires, dans un environnement complexe et fortement orienté Big Data . Volet Data Engineering Assurer le bon acheminement quotidien des données dans les applications et systèmes de contrôle (Datawarehouse). Suivre et améliorer la qualité des données : complétude, exactitude, ponctualité (accuracy, timeliness, completeness). Concevoir et implémenter des pipelines de données inter-applications et inter-environnements, afin d’améliorer la qualité et la fiabilité du reporting réglementaire. Volet Support et Supervision Fournir un support technique et fonctionnel transverse , couvrant différents métiers, applications et technologies. Assurer le monitoring des chaînes de reporting et le traitement des anomalies (flux d’opérations, data quality, etc.). Suivre la performance et l’efficacité des chaînes réglementaires (timeliness, complétude…). Participer aux task forces de reprise ou de traitement de stock (scripting, SQL, automatisation). Réaliser des analyses fonctionnelles et techniques sur les rejets liés aux opérations ou aux flux métiers.
Offre d'emploi
Ingénieur·e DevOps - CDI
Pour le compte de l'un de nos clients grands compte, nous recherchons un·e ingénieur Devops ! En tant que Devops, vous serez amené·e à automatiser des processus de déploiement pour sécuriser les problématiques de sécurité et infrastructure. Vos missions seront : -Développer des chaînes CI/CD -Outiller les environnements automatisés -Gérer batchs et API -Maintenir la documentation technique Environnement technique : - Automatisation avec Terraform & Ansible - Développement Python - Docker, Kubernetes - Git, GitHub, GitLab - Jenkins - AWS, Azure
Offre d'emploi
DevOps AWS (H/F)
Dans le cadre du renforcement d'une équipe dans le secteur de l'énergie, nous recherchons un(e) Ingénieur DevOps spécialisé AWS . Missions principales Concevoir, déployer et maintenir des architectures Cloud AWS (EC2, ECS, RDS, Lambda, etc.) Mettre en place et maintenir des pipelines CI/CD (GitLab CI, GitHub Actions, Jenkins, etc.) Automatiser les déploiements avec des outils comme Terraform , CloudFormation ou Ansible Superviser les environnements de production et staging (monitoring, alerting, logs) Gérer les problématiques de scalabilité, sécurité, résilience et performance Optimiser les coûts d'infrastructure AWS Collaborer avec les équipes de développement et produit dans un contexte Agile Garantir la haute disponibilité et la sécurité des services Stack technique Cloud : AWS (EC2, ECS/Fargate, S3, RDS, Lambda, CloudWatch, IAM, Route 53, etc.) Infra as Code : Terraform, CloudFormation CI/CD : GitLab CI, GitHub Actions, Jenkins Conteneurisation : Docker, (Kubernetes ou ECS) Observabilité : Prometheus, Grafana, ELK, Datadog, CloudWatch Scripting : Bash, Python Sécurité : IAM, Secrets Manager, contrôle des accès, best practices AWS
Offre d'emploi
Ingénieur de Production DevOps/Administrateur d’outils applicatifs (H/F) "
Nous recherchons pour l’un de nos clients grands compte un(e) "Ingénieur de Production DevOps/Administrateur d’outils applicatifs (H/F) " Missions principales : Transfert en production et exploitation Assurer le transfert des applications en production. Évoluer et maintenir les procédures d'exploitation. Concevoir et configurer les sondes de supervision (Centreon). Planifier les traitements et les plans de production via l'ordonnanceur VTOM. Élaborer, diffuser et mettre à jour les procédures d'exploitation et les fiches de consignes. Définir les normes d'exploitation des différents environnements. Mettre en place des tableaux de bord pour le suivi des performances. Administration des environnements Administrer les serveurs Linux (Redhat/CentOS/Rocky) et Windows des environnements d'intégration et de développement. Gérer les infrastructures virtualisées (VMWare, Nutanix, Huawei). Participant à la mise en place et au développement de la chaîne CI/CD (Jenkins, Gitlab, Ansible). Développer et maintenir les pipelines Jenkins dans la chaîne CI/CD. Support et assistance Fournir un support technique et fonctionnel aux utilisateurs, en particulier aux équipes de développement et d'intégration. Intervenir rapidement en cas d'incident d'exploitation : analyse, diagnostic et résolution. Participer à la gestion des problèmes et au traitement des tickets demandes/incidents. Assurer une assistance technique en astreinte hors heures ouvrées.
Offre d'emploi
Consultant DEVOPS
Client : Public Lieu de mission : Paris Poste : Consultant DevOps Durée mission : longue Seniorité : +5 ans Date de démarrage : ASAP Missions principales Concevoir, mettre en œuvre et maintenir des pipelines CI/CD robustes (GitLab CI, GitHub Actions, Jenkins, Azure DevOps, Bamboo). Automatiser la création et la gestion d’infrastructures via des outils d’ Infrastructure as Code (Terraform, Ansible, Puppet, Chef, Pulumi). Accompagner les équipes de développement dans la conteneurisation et l’orchestration ( Docker, Kubernetes, OpenShift, Rancher, Helm ). Déployer et administrer des environnements Cloud (AWS, Azure, GCP, OVH, Scaleway). Assurer la supervision, le monitoring et l’alerte via des solutions Observabilité (Prometheus, Grafana, ELK/Elastic Stack, EFK, Splunk, Datadog, New Relic, AppDynamics). Intégrer la sécurité by design dans les pipelines (DevSecOps, Snyk, SonarQube, HashiCorp Vault, Aqua Security, Prisma Cloud). Mettre en place des solutions de scalabilité et de haute disponibilité (HAProxy, Nginx, Istio, Linkerd, Service Mesh). Contribuer à l’optimisation de la performance, de la résilience et des coûts des environnements Cloud et on-premise. Participer à la culture SRE (Site Reliability Engineering) et à l’industrialisation des bonnes pratiques DevOps. CI/CD : GitLab CI/CD, GitHub Actions, Jenkins, Azure DevOps, Bamboo, CircleCI OS : LINUX Conteneurisation & Orchestration : Docker, Kubernetes, OpenShift, Rancher, Helm, Istio IaC & Configuration Management : Terraform, Ansible, Puppet, Chef, Pulumi Cloud : AWS (EC2, EKS, Lambda, CloudFormation), Azure (AKS, DevOps, Functions), GCP (GKE, Cloud Build, Cloud Run), OVH, Scaleway Monitoring & Logging : Prometheus, Grafana, ELK/EFK Stack, Splunk, Datadog, New Relic Sécurité & DevSecOps : SonarQube, Snyk, HashiCorp Vault, Aqua Security, Prisma Cloud, Falco Networking & Middleware : Nginx, HAProxy, Traefik, Kong, RabbitMQ, Kafka Langages & Scripting : Python, Bash, Go, PowerShell, Groovy, YAML
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour DevOps
Ingénieur·e devops (Cloud)
L’ingénieur·e devops utilise les pratiques DevOps pour automatiser et optimiser les processus de développement et de déploiement dans des environnements Cloud, garantissant la continuité et l'efficacité des opérations.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e devops (Cloud) .
Découvrir les offresIngénieur·e systèmes & réseaux
L’ingénieur·e systèmes & réseaux travaille avec des outils DevOps pour gérer l’infrastructure, automatiser les tâches récurrentes et améliorer la collaboration entre les équipes de développement et d'exploitation.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offresLead developer / Tech lead
Le/ La lead developer utilise les pratiques DevOps pour superviser le développement et la livraison continue, tout en facilitant l’intégration entre les équipes de développement et d’exploitation.
Explorez les offres d'emploi ou de mission freelance pour Lead developer / Tech lead .
Découvrir les offresIngénieur·e d'exploitation
L’ingénieur·e d'exploitation applique DevOps pour assurer la gestion des systèmes, la mise en production et la surveillance des applications afin d'optimiser la performance et la stabilité des services.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e d'exploitation .
Découvrir les offres