Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Offre d'emploi
Data Engineer
Data Engineer pour l’équipe EPM : Description du Poste : Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Enterprise Management et Finance, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur de notre plateforme de données, responsable de l'ingestion et de la normalisation des données. Son rôle sera également de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Exigences : • Expérience confirmée en tant que Data Engineer, avec une expertise démontrée sur la plateforme GCP. • Solides compétences en DBT pour la modélisation et le testing • Solides compétences en GCP BigQuery, SQL, Workflow, Azure DevOps et en modélisation de données. • Expérience de travail dans un environnement Agile SAFe. • Capacité à travailler en équipe et à communiquer efficacement avec des parties prenantes techniques et non techniques. Qualités Personnelles : • Esprit analytique et résolution de problèmes. • Autonomie et proactivité. • Capacité à s'adapter à un environnement en évolution rapide.
Offre d'emploi
DevOps Confirmé
Vous intégrerez un collectif Agile au sein d’une équipe d’environ 20 personnes, engagée dans la qualité de service des applications. En tant qu’ingénieur(e) DevOps / SRE, vous contribuerez à la transformation du système d’information en co-construisant des solutions résilientes, en participant aux évolutions applicatives et technologiques, et en diffusant les bonnes pratiques DevOps et SRE. Missions principales Assurer l’exploitabilité et la résilience des solutions dans des environnements modernes (Kubernetes, Openshift, Azure). Participer aux évolutions applicatives et à la modernisation des plateformes. Mettre en place et promouvoir les bonnes pratiques DevOps et SRE. Contribuer à la sécurisation des applications (performance, résilience, sécurité). Identifier, analyser et résoudre les incidents. Collaborer avec les équipes de développement pour garantir la qualité de service. Favoriser le partage de connaissances et la montée en compétences au sein du collectif.
Offre d'emploi
Ingénieur Devops / Dev Python/Scrum Master
Contexte Dans un monde toujours plus digital avec des besoins de stockage et d'exploitation de volumes de données de plus en plus importants, une entreprise de services informatiques cherche un prestataire DevOps/Scrum Master pour la squad SQL. Cette squad travaille sur la version cloud d'une plateforme bancaire pour livrer tous les métiers de la banque. Mission Principale Le prestataire aura pour mission d'intégrer la squad SQL et de travailler sur les phases de développement et déploiement des produits. Il aura aussi pour mission d'implémenter une plateforme de Webservices et de Monitoring. Responsabilités Techniques Comprendre l'expression de besoin du Product Owner et contribuer à l'architecture cible à mettre en oeuvre selon les contraintes Pour chacun des composants, échanger avec l'équipe et les équipes connexes Automatiser le déploiement des composants Développement Python, Ansible, Terraform Capacité à faire le backup des Tech Lead si besoin (Plateforme complexe multi-composants) Connaissance des environnements Docker & Kubernetes Savoir organiser une arborescence Ansible multi-roles & multi-version, flexible (Ansible Tower / Galaxy) Développer des solutions pour monitorer et améliorer la qualité des produits Identifier les problèmes techniques et développer les 'fix' ou updates nécessaires S'assurer que l'ensemble des standards sécurité soient respectés et intégrés Rédaction de documentation pour l'équipe (Wiki) Autonomie, travail en équipe et reporting Travail en équipe Agile (Scrum/Kanban) Missions de Scrum Master Animer les cérémonies de la squad Participer à l'amélioration continue Scrum Garantir le mode de fonctionnement Scrum Participer à la communauté des Scrum Masters
Mission freelance
ALSL - Tech Lead Senior Python / FastAPI / AWS
Dans le cadre d’un programme stratégique de digitalisation et d’outillage décisionnel, notre client recherche un Tech Lead Senior Python pour piloter la conception et la cohérence technique de deux applications web à fort enjeu métier. Ces applications participent à la planification et à l’optimisation d’opérations complexes à l’échelle nationale, intégrant une forte dimension data, cartographique et d’optimisation de scénarios. L’environnement est agile, collaboratif et techniquement exigeant, au cœur d’un projet de transformation numérique d’envergure. Missions : Définir et garantir l’architecture technique du projet Encadrer les développeurs backend et frontend Superviser la qualité, la performance et la documentation du code Piloter les déploiements sur les environnements (dev, recette, prod) Participer à la roadmap technique et aux cérémonies agiles Être moteur sur la veille technologique et l’amélioration continue Assurer la cohérence globale entre les différentes briques applicatives Environnement technique Backend : Python 3.11 FastAPI, SQLAlchemy 2, Pydantic 2, Alembic PostgreSQL 14 + PostGIS DevOps & Cloud : AWS (S3, RDS) Jenkins, Ansible, Helm, Docker, Kubernetes Datadog Outils & Autres : GitLab, Pytest Jira ou équivalent Méthodologie Agile / Scrum
Mission freelance
Développeur AWS (Data Lake / Python / Terraform)
Nous recherchons un Développeur AWS confirmé pour renforcer sa squad Data Platform . L’objectif est de concevoir, développer et administrer un Data Lake AWS à grande échelle, en créant des microservices robustes et sécurisés, tout en automatisant les déploiements et la gestion de l’infrastructure via Terraform. Missions principales Concevoir et développer des microservices en Python pour l’administration du Data Lake (gestion des accès aux dossiers, gouvernance des données, automatisation des flux). Créer et maintenir des solutions de Data Lake sur AWS S3 . Définir et mettre en œuvre l’ Infrastructure as Code via Terraform . Participer aux activités de RUN & Build : monitoring, support, optimisation des performances. Contribuer à l’ automatisation et à l’amélioration continue de la plateforme (SRE, observabilité, sécurité, FinOps). Collaborer avec les parties prenantes (Data Engineers, Data Architects, Data Officers) dans un contexte Agile . Documenter les développements, process et bonnes pratiques. Compétences techniques attendues Excellente maîtrise du développement Python (microservices, APIs). Solide expérience sur AWS S3 et les concepts Data Lake. Expertise en Terraform (IaC) . Bonne compréhension des mécanismes d’ alimentation ETL . Expérience en observabilité et monitoring (Grafana, App Insights ou équivalents). Pratique des méthodologies Agile . Plus (nice-to-have) : expérience avec Databricks .
Mission freelance
DataOps - MS FABRIC/ Azure
Nous recherchons un Data Engineer AWS - Expertise sur MS Fabric Engineer pour rejoindre une squad Data Platform dynamique. Vous travaillerez avec des Data Engineers et DevOps pour concevoir, maintenir et optimiser une plateforme de données cloud , incluant la gestion de Data Lake, le développement de microservices et l’automatisation des déploiements. Missions Développer et gérer des solutions de Data Lake (ADLS Gen2, AWS S3). Concevoir et maintenir des processus de déploiement automatisé avec Terraform. Développer des microservices en Python (C# un plus). Assurer le monitoring et l’exploitation de la plateforme. Participer aux flux ETL et à l’amélioration continue de la plateforme. Collaborer avec les parties prenantes pour proposer des solutions robustes et évolutives. Maintenir la documentation technique et les artefacts de production. Être force de proposition sur les bonnes pratiques SRE, sécurité, qualité et FinOps . Profil recherché Expérience significative en Data Platform et Data Lake (AWS S3, ADLS Gen2). Maîtrise du développement Python (C# un plus) et des environnements cloud (AWS requis, Azure un plus). Compétences en Terraform et automatisation de déploiements. Connaissance des pipelines ETL , du monitoring et des bonnes pratiques SRE . Méthodologie Agile , orientation user-centric et forte capacité de collaboration. Autonomie, rigueur et esprit proactif . Pourquoi nous rejoindre ? Travailler sur des projets innovants autour de la data et du cloud . Collaborer avec des experts techniques dans un environnement Agile. Contribuer à l’ optimisation et l’évolution d’une plateforme moderne et scalable.
Offre d'emploi
Ingénieur de production - Devops
Contexte de la mission Dans le cadre d’un projet de modernisation des environnements de production, notre client basé à Lyon recherche un(e) Ingénieur Production / DevOps pour intervenir sur des sujets d’automatisation, de fiabilisation et de déploiement continu. Mission Freelance – Ingénieur Production / DevOps Localisation : Lyon Disponibilité : Immédiate Expérience : 3 ans minimum Environnement technique Cloud : AWS / Azure / GCP CI/CD : GitLab CI, Jenkins, ArgoCD Conteneurisation : Docker, Kubernetes Infrastructure as Code : Terraform, Ansible Monitoring : Prometheus, Grafana, ELK Scripting : Python, Bash Profil recherché Minimum 3 ans d’expérience en environnement DevOps ou production Bonne maîtrise des outils d’automatisation et de déploiement Capacité à intervenir sur des environnements critiques Autonomie, rigueur et esprit d’équipe
Mission freelance
Tech Lead Tanzu Kubernetes
Contexte: Le client recherche un Tech Lead Kubernetes expérimenté dans l’administration de clusters Kubernetes et l’intégration de Tanzu Kubernetes Grid (TKG) au sein de VMware Cloud Foundation (VCF), afin d’accompagner la gestion et l’évolution des infrastructures critiques du groupe. Périmètre On-Premises Le Tech Lead interviendra sur la plateforme Kubernetes interne, supportant les applications digitales et les composants d’intermédiation essentiels (API Management). Ses missions principales seront de : - Assurer l’administration, la maintenance et l’évolution des clusters Tanzu Kubernetes Grid (TKG). - Apporter une expertise avancée sur les problématiques Kubernetes (performance, résilience, sécurité). - Préparer et piloter la migration vers TKG 2.x intégré à VCF 9. - Accompagner la montée en compétences des équipes internes sur l’exploitation de TKG. - Contribuer à l’intégration et à la fiabilisation des pipelines CI/CD, dans une approche Infrastructure as Code (IaC) et GitOps. Périmètre AWS Sur la partie AWS, le Tech Lead sera responsable de l’administration et de l’optimisation des clusters Amazon EKS utilisés pour les applications data du groupe. Les missions incluent : - Administrer et faire évoluer les clusters EKS. - Accompagner la reprise des clusters actuellement gérés par les équipes Data Cloud. - Fournir un support expert sur les incidents, la performance et la sécurité Kubernetes. Description: Assurer la disponibilité des socles techniques Cloud Internes et Publiques, de Virtualisation et leur maintien en condition opérationnelle. - Administration et maintenance des plateformes Kubernetes (On-Prem & AWS) - Administrer, maintenir et faire évoluer les environnements TKG et EKS. - Garantir la résilience, la sécurité et la disponibilité des plateformes. - Fournir un support expert sur les incidents et la performance. - Documenter et mettre à jour les procédures de reprise après incident et d’exploitation TKG. Répondre aux demandes de nouveaux environnements techniques - Participer à la définition du socle commun d’hébergement des applications et composants critiques. - Fiabiliser les pipelines CI/CD dans une approche IaC et GitOps. - Organiser et piloter la transition des clusters EKS sous gestion Data Cloud. - Définir et maintenir les rôles RBAC et la gestion des droits utilisateurs. - Intégrer et optimiser les outils CI/CD (Jenkins, ArgoCD, etc.). - Automatiser le déploiement bout-en-bout des environnements Kubernetes. Développer et promouvoir les usages Cloud au sein du groupe et en assurer le support. - Contribuer à la migration vers TKG 2.x / VCF 9. - Accompagner les équipes d’exploitation et de développement dans la montée en compétences sur Kubernetes et GitOps. - Assurer la continuité de service et le transfert de connaissances. - Améliorer et formaliser les procédures opérationnelles d’exploitation et optimisation - Renforcer la culture GitOps et DevSecOps au sein des équipes. - Support à la conception et automatisation Livrables: Documentation technique complète, en français, mise à jour régulièrement. Référentiel documentaire structuré et à jour. Contributions aux schémas d’architecture des infrastructures Kubernetes et cloud. Modules IaC et pipelines CI/CD déployables. Compétences: Expertise sur Kubernetes (en particulier sur Tanzu Kubernetes Grid (TKG) et Amazon EKS.) Maîtrise des chaînes CI/CD (Jenkins, ArgoCD, etc.). Solide expérience en DevOps et GitOps. Maîtrise des outils Infrastructure as Code. Connaissances avancées en sécurisation, résilience et supervision des environnements Kubernetes. Capacité à transmettre les connaissances et à accompagner la montée en compétences des équipes internes. Compétences clés: Obligatoire: - Kubernetes Important: - Systèmes & OS / LINUX - GitHub - Deploiement via TKGS - VMware VSphere - Tanzu Kubernetes Intéressant: - Jenkins - Méthode agile - G
Mission freelance
DevOps Seniors
Notre client est un acteur majeur des solutions numériques pour la gestion intelligente de l’eau et des services publics. Grâce à ses plateformes digitales et à ses solutions IoT, il permet aux collectivités et entreprises de suivre, analyser et optimiser la consommation d’eau, en assurant fiabilité et performance. L’entreprise opère aujourd’hui plusieurs plateformes stratégiques. Ces solutions critiques collectent et traitent un volume massif de données, déployées sur plusieurs centaines de serveurs. Dans un contexte de forte croissance et de multiplication des projets, l’équipe DevOps doit se renforcer pour maintenir un haut niveau de disponibilité et de fiabilité. Nous recherchons un DevOps Senior capable d’apporter expertise, rigueur et leadership dans un environnement complexe et international.
Mission freelance
Développeur backend Java & DevOps
Mission : Développeur backend Java & DevOps Dans le cadre de la transformation numérique au sein d'un client final dans le domaine d'observation de la terre, nous recherchons un ingénieur senior (6+ ans) pour développer et maintenir les briques logicielles liées à l’administration des socles de la Transfo (User, Customer, etc.). Tâches principales : Conception et développement backend (Java, APIs REST, microservices). Mise en place et exécution des tests (unitaires, intégration). Documentation et participation aux cérémonies agiles (Scrum). Contribution aux activités DevOps : CI/CD, Docker, Helm, Kubernetes, AWS. Support/implémentation sécurité (Keycloak apprécié).
Offre d'emploi
Ingénieur DevOps (Shell ou Python/Ansible/OpenStack)
Intitulé du poste : Ingénieur Automatisation Création d’Images OpenStack Mission : Concevoir, maintenir et automatiser la génération d’images systèmes compatibles OpenStack, en s’appuyant sur des outils standards (Packer, Diskimage-builder, etc.), des scripts customs (Shell, Python), et en intégrant ces processus dans une chaîne CI/CD, afin de garantir des images cohérentes, sécurisées, testées et reproductibles. Responsabilités principales : • Concevoir et maintenir des templates de création d’images Linux (Ubuntu, CentOS, Debian, etc.). • Automatiser les processus de build, test, validation et publication d’images OpenStack via des outils comme : o HashiCorp Packer o OpenStack Diskimage-builder (DIB) o Ansible, Cloud-init o Shell ou Python pour des scripts complémentaires (validation, cleanup, tests) • Intégrer ces workflows dans des pipelines CI/CD robustes et traçables (GitLab CI, Jenkins, etc.). • Implémenter des tests automatisés dans la chaîne CI : o Tests de boot (instance up, SSH, cloud-init) o Tests fonctionnels (paquets, services, accessibilité) o Tests de conformité et sécurité (OpenSCAP, Lynis, hardening) o Tests d’intégration sur environnements OpenStack • Gérer les versions, dépendances, métadonnées et publication dans Glance. • Contribuer à la documentation technique et aux bonnes pratiques. • Être moteur dans l’amélioration continue des processus d’automatisation. Environnement Technique : • Outils de build : Packer, Diskimage-builder, virt-install, QEMU/KVM • Systèmes : Ubuntu, Debian, CentOS • Cloud : OpenStack (Glance, Nova, Horizon, Heat) • CI/CD : GitLab CI • Tests & validation o Boot tests, accessibilité SSH, cloud-init o Testinfra, Goss, Bats, Inspec o Lynis, OpenSCAP pour sécurité • Scripting : Shell (bash), Python (scripts de contrôle, parsing, automatisation) • IaC / Config Management : Ansible, Terraform • Versioning / SCM : Git Livrables attendus : • Templates d’images maintenables, versionnés • Pipelines CI/CD avec étapes de test automatisé • Scripts de validation et de déploiement • Documentation des processus, des tests, des résultats / Reporting Compétences requises : Techniques : • Scripting : Shell (bash) et Python (niveau scripting) • Création et durcissement d’images applicatives • Automatisation via Packer, DIB, Ansible • Mise en place de tests automatisés dans CI/CD • Bonnes pratiques CI/CD (GitLab, artefacts, logs) • Connaissances de l’écosystème OpenStack Transverses : • Capacité à documenter et à produire du code lisible • Sens de la rigueur, de l’automatisation et de la reproductibilité • Collaboration avec équipes Dev, SecOps, Ops • Esprit d’analyse et d’amélioration continue • Autonomie • Bonne capacité de communication Profil recherché : • Bac+3 à Bac+5 en informatique ou équivalent • Expérience de 2 ans minimum dans un rôle DevOps, cloud ou build automation • Certifications appréciées : Linux (LPIC, RHCE), OpenStack, GitLab CI/CD
Mission freelance
Développeur .NET / AWS
Pour l’un de mes clients, je recherche un(e) : Rôle : Développeur .NET / AWS Missions : Participer au développement et à l’évolution des applications, Intervenir sur la conception, le développement et l’optimisation des solutions en environnement .NET et AWS. Contribuer aux bonnes pratiques de code, à l’industrialisation et à la performance des applications. Tech : .NET (C#), AWS (EC2, S3, Lambda, RDS…), CI/CD, API REST, bases de données SQL/NoSQL, bonnes pratiques DevOps. Profil : Développeur confirmé avec minimum 5 ans d’expérience. Solide expertise .NET et bonne maîtrise des environnements AWS. Autonomie, sens du collectif et capacité à travailler dans un contexte agile. Conditions : Freelance, mission longue, basé à Paris (3 à 4 jours de télétravail par semaine). TJM : 450 - 500 € Disponibilité : Immédiate à 15 jours
Mission freelance
DATA Engineer - AWS(H/F)
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.
Offre d'emploi
Développeur iPaaS Azure Junior
Vos missions : Développer des flux d'intégration avec Azure Logic Apps ou Azure Function Créer des Azure Functions en C#/.NET pour des traitements spécifiques Implémenter des pipelines de données avec Azure Data Factory (ADF) Développer en .NET/C# pour les composants personnalisés Participer à la mise en place de l'infrastructure Azure (Terraform) Contribuer aux pipelines DevOps pour le déploiement automatisé Collaborer sur la configuration des environnements Implémenter le monitoring avec Azure Monitor et Application Insights Utiliser ELK Stack pour l'analyse des logs Assurer le support niveau L3 des solutions déployées avec documentation associée
Mission freelance
Ingénieur DevOps
Nous recherchons un ingénieur DevOps motivé pour un projet à court terme (3 mois) axé sur la création et le déploiement d'une fonction réseau virtuelle (VNF) sur OpenStack. L'objectif est de créer un fichier de description VNF entièrement fonctionnel et l'image KVM associée, capable d'exécuter plusieurs services réseau dans un environnement cloud natif. Responsabilités 1) Concevoir et implémenter un descripteur VNF (VNFD) pour un déploiement dans un environnement OpenStack. 2) Créer et personnaliser une image KVM incluant et configurant correctement les services réseau suivants : - HAProxy en mode transparent - Pare-feu NFTable ou IPtable avec Conntrack activé - Service de routage BGP 3) Automatiser les processus de création et de déploiement en utilisant les pratiques DevOps (par exemple, pipelines CI/CD, IaaC). 4) Intégrer le VNFD à la pile d'orchestration OpenStack (par exemple, modèles Heat, TOSCA ou descripteurs conformes à l'ETSI). 5) S'assurer que les fonctions réseau sont correctement testées, documentées et reproductibles. 6) Fournir la documentation technique pour la VNF et les procédures de déploiement. 7) Collaborer avec l'équipe d'ingénierie interne afin de garantir l'adéquation avec les exigences de la plateforme. 8) Mettre en place un environnement OpenStack complet. Compétences et expérience requises : Solide expérience pratique d'OpenStack (Nova, Neutron ou ConnTrail, Glance, Heat). Connaissance des modèles de descripteurs VNF (normes TOSCA/ETSI NFV de préférence). Expérience en création et personnalisation d'images KVM/QEMU. Administration système Linux (Debian/Ubuntu ou CentOS). Solide expérience DevOps : automatisation (Ansible, Terraform ou similaire), pipelines CI/CD, gestion de versions (Git). Maîtrise des concepts réseau (adressage IP, DHCP, routage, BGP, NAT, pare-feu). Excellentes compétences en documentation et communication. Atouts : Expérience en conteneurisation (concepts Docker, Kubernetes, CNF). Connaissance des frameworks ETSI MANO (OSM, ONAP). Expérience avec les environnements réseaux de télécommunications et de fournisseurs d'accès Internet. Lieu de la mission : Région Parisienne Date de début : dès que possible Durée : 3 mois Lieu de la mission : quasiment full remote sauf ponctuellement présentiel à Cergy mais vraiment de manière occasionnelle et notamment pour l'onboarding. Il faut que la personne puisse à minima comprendre et s'exprimer en anglais sachant qu'un DevOps de l'équipe est anglophone et que de toute façon la documentation est en anglais.
Offre d'emploi
Tech Lead DevOps
🎯 Missions principales : En tant que Tech Lead DevOps, tu auras un rôle clé dans la transformation et l’industrialisation des pratiques DevSecOps : Monde Ops (mandatory) : Porter les sujets DevOps sur GitLab CI, Azure, etc. Mettre en place des pipelines et automatisations. Diriger les initiatives DEVSECOPS et de supervision : Définir et piloter la roadmap DevSecOps. Fournir des recommandations et choix d’outils adaptés. Documenter les processus et bonnes pratiques. Piloter et contribuer à l’installation des outils. Former et accompagner les équipes dans leur utilisation. Fournir des tableaux de bord SLA et KPI pour suivre la performance et la qualité.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.