L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 531 résultats.
Mission freelance
Développeur Python Confirmé
CAT-AMANIA
Publiée le
Apache Airflow
DBT
FastAPI
6 mois
Nord, France
Pour un client dans le domaine bancaire, Vous participez à l’évolution du moteur python permettant de réaliser l’analyse des données bancaires du client · Développement en Python et SQL avec une plateforme Big Data Snowflake · Utilisation de DBT, Pandas, MLFlow et Airflow. · Chaine de développement complète (bac à sable – recette – PV recette – mises en productions – suivi de mises en productions) Principaux livrables : · Codes Python, SQL dans Gitlab · Evolutions dans nos Code Base · Analyses Ad Hoc · Test Unitaire / Test Fonctionnel
Offre d'emploi
DevOps Engineer Lead Expert
KEONI CONSULTING
Publiée le
Java
JSON
Python
18 mois
20k-40k €
Paris, France
CONTEXTE : Métiers Fonctions : Production, Exploitation, Infrastructure, Devops Engineer Spécialités technologiques : Infrastructure, Cloud, IA generative, Devops, Transformation digitale Méthodes / Normes TDD Soft skills Leadership Force de proposition Dans le cadre d’une transformation digitale d’envergure internationale, l’organisation développe et opère une plateforme de gestion de contenus de nouvelle génération, basée sur le cloud et intégralement alignée avec les standards groupe en matière d’architecture, sécurité, conformité et résilience. MISSIONS Cette plateforme, propriétaire et stratégique, vise à remplacer des solutions historiques et à fournir des services IT standardisés à l’ensemble des entités du groupe, dans une logique de performance, d’industrialisation et d’innovation continue. Missions principales Développement & outillage - Maintenir, auditer et faire évoluer les outils cœur développés en Python - Refactoriser et stabiliser des scripts existants dans une logique de qualité, performance et maintenabilité - Développer de nouveaux modules traduisant des règles métier en workflows techniques automatisés - Garantir un code propre, testé, documenté et conforme aux standards (PEP8) Innovation & prototypage - Concevoir et piloter des sprints d’innovation courts et ciblés - Prototyper de nouveaux services (ex. : IA générative, tagging automatique, recherche sémantique, contrôle qualité de contenus) - Challenger les besoins métiers, évaluer la faisabilité technique et proposer des trajectoires de mise en production DevOps & industrialisation - Contribuer aux pipelines CI/CD et aux déploiements automatisés - Participer à la mise en œuvre de l’infrastructure as code (Terraform, CloudFormation) - Intervenir sur des environnements cloud et conteneurisés (AWS, Kubernetes, OpenShift) Leadership & bonnes pratiques - Réaliser des revues de code et diffuser les bonnes pratiques d’ingénierie logicielle - Accompagner et mentorer les développeurs sur le TDD, le DevOps et l’architecture propre - Être force de proposition sur les choix techniques et les standards d’équipe Expertise souhaitée Expérience - Environ 10 ans d’expérience en développement Python et ingénierie logicielle - Expérience significative sur des applications data-intensives ou orientées contenus - Positionnement attendu : expert technique / lead, autonome et structurant Compétences techniques - Langages : Python (expert), Bash, Git ; Java et JavaScript (React ou Vue) appréciés - Data & IA : Pandas, regex, parsing JSON/XML, prompt engineering - Bases de données : NoSQL (MongoDB, MarkLogic), graphes, RDF/SPARQL - Cloud & DevOps : AWS (S3, Lambda), CI/CD (Jenkins, GitLab CI), Terraform, Kubernetes, OpenShift, Artifactory - Qualité & tests : Pytest, BDD (Behave/Cucumber), Selenium, revues de code, outils de sécurité (SonarQube, Snyk)
Offre d'emploi
Géomaticien / Expert FTTH
AGH CONSULTING
Publiée le
ArcGIS
Python
6 mois
40k-45k €
320-500 €
Ans, Liège, Belgique
Intitulé du poste : Géomaticien / Expert SIG 1. Mission & tâches à réaliserContexte de la mission Dans le cadre de notre programme de déploiement Fiber to the Home (FTTH) , le consultant interviendra en soutien aux prises de décisions stratégiques et opérationnelles grâce à des analyses géospatiales avancées et à l’exploitation intelligente des données. Dans un environnement télécom concurrentiel et fortement orienté données, le rôle consiste à structurer et analyser différents jeux de données (données de déploiement réseau, couverture concurrentielle, données démographiques et cadastrales open data, indicateurs commerciaux) afin de fournir des données exploitables pour la conception réseau ainsi que des analyses claires et actionnables. Le consultant sera responsable du traitement, de l’import et de l’export des informations géospatiales pertinentes vers et depuis : l’outil interne de gestion du réseau, l’outil de conception réseau, d’autres outils SIG et bases de données, les partenaires externes de conception et de construction. Il sera également responsable de la vérification et du contrôle qualité des données SIG échangées aux différentes étapes du processus de déploiement FTTP. Principales tâches Réaliser des analyses spatiales variées telles que : Analyse de la couverture FTTH concurrente à partir de données réglementaires et open data Clustering spatial et priorisation des zones de déploiement Classification des ménages (éligibilité, densité, type de bâtiment, etc.) Analyses croisées des données réseau, démographiques et commerciales Collecter les données réseau, infrastructures et autres données pertinentes, puis les traiter pour alimenter l’outil de conception. Intégrer dans l’outil SIG les relevés de terrain et études, dans les délais impartis et conformément aux règles techniques, incluant : Mises à jour des bases de données et applications Contrôles de cohérence des données Vérification de l’éligibilité commerciale Concevoir des tableaux de bord interactifs et automatiser les processus de reporting récurrents (KPI de déploiement hebdomadaires / mensuels). Automatiser les processus d’import/export entre différents outils en garantissant la conformité des formats et la cohérence des données. Réaliser des analyses spatiales et produire les rapports associés. Développer et fournir des rapports automatisés à partir des bases de données, établir des diagnostics précis et proposer des actions correctives. Représenter l’activité Géomatique en interne et en externe dans le cadre de la Geodata Factory et soutenir le manager et les équipes grâce à son expertise technique.
Offre d'emploi
Développeur .NET
VISIAN
Publiée le
.NET
Python
1 an
40k-45k €
120-350 €
Paris, France
Descriptif du poste Standardisation mise en œuvre sur le périmètre. Garantir le bon fonctionnement continu de la production et participer en priorité à la résolution des incidents et des problèmes de production. Garantir les builds et la mise en œuvre des actions nécessaires pour revenir à un état stable. Analyse des erreurs et participation à l'amélioration continue (aspects techniques, organisation de l'équipe et processus). Participation aux mises en production, c'est-à-dire contribution aux livrables projets (sécurité, architecture, estimations, etc.). Participation aux estimations. Maintenance des outils développés en interne (ex. : mise à jour des bibliothèques). Garantir et challenger les choix techniques pour qu'ils soient alignés avec : les besoins du client, les normes et standards des équipes d'architecture, l'innovation et les principes de la transformation digitale de l'organisation, la sécurité du système d'information. Remonter les alertes de l'équipe / faire le relais entre l'équipe de développement et le responsable de développement.
Mission freelance
Ingénieur devOps cloud (H/F)
LeHibou
Publiée le
AWS Cloud
DevOps
Kubernetes
6 mois
400-550 €
Montpellier, Occitanie
Notre client dans le secteur Edition recherche un/une Ingénieur DevOps H/F Description de la mission: Notre client, éditeur de logiciel, mène un chantier stratégique de rapatriement de l’ensemble de ses infrastructures Cloud public (AWS / Azure / GCP) vers ses propres Data Centers . L’objectif : Reprendre la maîtrise complète des infrastructures Migrer les environnements cloud vers un modèle hybride / privé Structurer une roadmap de transformation pour les filiales (les plus importantes en priorité) Il s’agit d’un programme de transformation d’envergure, avec plusieurs chantiers structurants déjà lancés.
Mission freelance
Data Architect - Lyon
Sapiens Group
Publiée le
Hadoop
Microsoft Power BI
MySQL
1 an
500-530 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du choix et de la mise en place de la nouvelle plateforme Data régime, le profil interviendra pour définir, concevoir et accompagner la construction de l'architecture cible Data de la fédération. Ses missions principales seront de : Définir l'architecture cible Data : concevoir l'architecture Data cible de la fédération, alignée avec la stratégie globale Data et les principes Data-Centric et définir les patterns d'intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). Concevoir l'architecture de la nouvelle plateforme Data : concevoir l'architecture technique globale de la plateforme, en intégrant l'écosystème existant (Teradata, Hadoop) et la stratégie d'évolution (cloud ou on-prem, gouvernance, scalabilité). Proposer la trajectoire d'évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d'intégration et l'architecture cible. Définition et formalisation des standards Data : définir les standards d'intégration, de transformation, de stockage et d'exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l'écosystème (outils d'ingestion, qualité, orchestrateurs, catalogage, gouvernance).
Mission freelance
DevOps Engineer - SRE (H/F)
STHREE SAS pour HUXLEY
Publiée le
36 mois
600 €
Paris, France
Contexte du poste Au sein de l'équipe Site Reliability Engineering (SRE) , vous serez responsable de la fiabilité, de la performance et de la scalabilité des plateformes Cloud de l'entreprise. Vous jouerez un rôle clé dans la conception, l'automatisation et l'exploitation des environnements de production, avec un focus particulier sur les plateformes OpenShift . Responsabilités principales Opérations & Fiabilité Assurer la stabilité , la résilience et la performance des environnements Cloud et OpenShift. Participer au déploiement , au monitoring , au troubleshooting et à l' optimisation des applications en production. Contribuer à la mise en place et à l'amélioration de SLOs, SLIs et SLAs . Automatiser les opérations de production dans une logique Infrastructure as Code et GitOps . Engineering & Automatisation Développer et maintenir les pipelines CI/CD utilisant GitLab CI . Gérer l'infrastructure via Terraform , Helm , et des pratiques modernes de déploiement. Participer au design et à l'évolution de l'architecture Cloud (Public, Private, Hybrid). OpenShift & Kubernetes Administrer et opérer des clusters OpenShift (installation, upgrades, capacity planning, gestion des opérateurs, sécurité). Améliorer la fiabilité de la plateforme et accompagner les équipes de développement dans la bonne utilisation d'OpenShift. Gérer les problématiques réseau, stockage, logging et monitoring dans un environnement Kubernetes/ OpenShift. Collaboration & Culture SRE Travailler étroitement avec les équipes de développement, sécurité, infrastructure et produit. Documenter et partager les bonnes pratiques, dans une démarche d'amélioration continue. Compétences requises Techniques (Must-Have) Maîtrise avancée de Red Hat OpenShift en environnement de production. Solide expérience avec Kubernetes . Excellente connaissance des pratiquesDevOps et outils associés : GitLab CI/CD Terraform Helm Prometheus / Grafana Argo CD Expertise des environnements Cloud Bonne compréhension : des architectures microservices des API / REST des patterns de résilience (circuit breaker, autoscaling, etc.) Compétences additionnelles (Nice-to-Have) Expérience avec OpenShift en très forte production ou large échelle (HUGE plus). Connaissances en GitOps (ArgoCD, Flux). Expérience en sécurité Cloud (politiques RBAC, secrets management, network policies). Scripting : Python , Bash , Go (optionnel). Profil recherché 5+ ans d'expérience en DevOps / SRE. Expérience démontrée sur des environnements Cloud et Kubernetes. Solide expérience opérationnelle OpenShift (must-have).
Offre d'emploi
Data Engineer AWS expérimenté
UCASE CONSULTING
Publiée le
Apache Spark
AWS Cloud
Python
1 an
50k-60k €
500-600 €
Île-de-France, France
Dans le cadre du renforcement de l'équipe Data de notre client, nous recherchons un(e) Data Engineer AWS expérimenté(e) (5 à 7 ans d’expérience minimum), capable d’intervenir sur des plateformes data à forte volumétrie et à forts enjeux de performance, de sécurité et de coûts. Missions 1️⃣ Maintien en condition opérationnelle de la plateforme Contrôler et garantir la disponibilité des données et des services Assurer le suivi des traitements et la gestion des incidents Répondre aux demandes de données ad hoc et analyser les anomalies Développer des correctifs et des évolutions si nécessaire Contribuer à la qualité des données et à l’industrialisation de la plateforme Communiquer avec les utilisateurs et accompagner les équipes 2️⃣ Design & construction de services et pipelines data Concevoir et mettre en place des flux de données (acquisition, transformation, exposition) Développer des pipelines robustes et performants (batch et temps réel) Réaliser des modélisations de données adaptées aux usages métiers Mettre en place les traitements sur différents formats (CSV, XML, JSON, Parquet) Ordonnancer les traitements et gérer les dépendances (Airflow) Développer et maintenir des flux temps réel via Kafka (MSK) Réaliser les tests unitaires et d’intégration Participer aux revues de code et veiller au respect des standards Gérer les déploiements sur l’ensemble des environnements Enrichir et maintenir la documentation technique Environnement technique AWS : S3, EMR, EKS, EC2, Lambda, Athena Spark (Scala), Python, SQL Kafka Airflow Dataiku GitLab & GitLab CI Terraform
Mission freelance
Dev .NET core expert
Codezys
Publiée le
.NET CORE
Azure DevOps Services
Back-end
12 mois
Bordeaux, Nouvelle-Aquitaine
La prise de référence constitue une étape obligatoire dans le processus de sélection, notamment lorsque les tests de compétences à l’entrée ou les mises à jour du niveau de compétences n’ont pas été fournis ou réalisés récemment. Cette étape permet de valider et de compléter l’évaluation du candidat à travers des retours concrets et vérifiables. Elle doit être effectuée selon l’une des deux modalités suivantes : Via un référent technique rencontré lors d’un entretien en présentiel ou en visioconférence chez l’ESN : dans ce cas, il est nécessaire de préciser le nom, le prénom et l’intitulé exact du poste de ce référent technique (RT). Il est recommandé de préparer une liste de questions portant notamment sur les compétences techniques, la capacité à travailler en équipe, la gestion des délais, ainsi que l’adaptabilité du candidat dans le contexte spécifique de l’ESN. Via un ancien employeur ou un superviseur direct : cette option est à privilégier lorsque la relation de travail est récente et que le référent possède une connaissance approfondie des missions effectuées par le candidat. Il faut fournir impérativement le nom, le prénom ainsi que l’intitulé de poste du contact. Lors de cette démarche, il est recommandé d’obtenir des retours détaillés sur la performance du candidat, sa fiabilité, ses compétences techniques, et sa capacité à évoluer dans un environnement professionnel dynamique. Dans tous les cas, vous devrez inclure un résumé synthétique des retours recueillis lors de la prise de référence. Ce résumé doit être clair, précis et pertinent, donnant une vision globale du profil du candidat et de ses points forts ou axes d’amélioration.
Offre d'emploi
Data Analyst- Part de Marché F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Apache Spark
BigQuery
Python
Boulogne-Billancourt, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Ingénieur DEVOPS - Openshift - MLOps H/F
Insitoo Freelances
Publiée le
Artifactory
Azure Kubernetes Service (AKS)
Openshift
2 ans
295-556 €
Marignane, Provence-Alpes-Côte d'Azur
Habilitation obligatoire Les missions attendues par l' Ingénieur DEVOPS - Openshift - MLOps H/F : La mission consiste à établir, exploiter et améliorer une plateforme AI/MLOps basée sur Kubernetes / OpenShift pour supporter le cycle de vie complet des modèles ML, depuis l'expérimentation jusqu’au déploiement opérationnel. Objectifs principaux (non exhaustif) : Garantir la fiabilité , la scalabilité et la sécurité de la plateforme AI. Fluidifier le passage ML → production , en automatisant au maximum les étapes. Compétences techniques essentielles : Expertise containers Docker , orchestration Kubernetes , avec forte pratique OpenShift . Compétence DevOps : CI/CD , IaC, GitOps. Maîtrise de solutions MLOps : Kubeflow , Elyra , environnements LLM. Connaissances avancées sur les pipelines : Tekton , modèles de déploiement, Artifactory. Compétences en scripting : Python , Go . Connaissance des frameworks de Machine Learning Soft skills & exigences : Autonomie sur un environnement complexe. Capacité à intervenir sur une plateforme AI en production. Aptitude au troubleshooting multi-couches (pods, ressources, pipelines). Rigueur, sécurité et conformité dans les environnements sensibles Maintenance & Opérations Exploitation quotidienne d’une plateforme AI basée sur kube/OCP . Application des mises à jour , correctifs et évolutions des composants plateforme. Déploiement & Supervision Déploiement des modèles ML dans l’environnement OCP. Automatisation des tâches de scaling, monitoring et gestion du cycle de vie. CI/CD & Pipelines Conception, construction et maintenance de pipelines CI/CD avec Tekton ou Kubeflow . Gestion des workflows d’entraînement, réentraînement et inference. Support & Troubleshooting Diagnostic des crashes pods, problèmes de ressources, échecs pipelines. Résolution des incidents liés à la production de modèles. Customisation & Sécurité Rebuild et customisation de composants plateforme (workbenches, runtimes). Garantie de la conformité & sécurité sur l’ensemble des environnements. Teletravail : 2j/5
Mission freelance
DevSecOps Engineer
5COM Consulting
Publiée le
DevOps
DevSecOps
Java
1 an
400-490 €
Guyancourt, Île-de-France
Contexte & mission Au sein d’équipes à forte culture software et sécurité, le profil interviendra sur des environnements en modernisation / migration vers Kubernetes, avec un focus sur l’automatisation, l’intégration continue et la sécurisation de la chaîne logicielle. Responsabilités principales Concevoir, implémenter et maintenir des pipelines CI/CD sécurisés (GitLab/Jenkins) Participer à la migration vers Kubernetes (orchestration, packaging, observabilité, sécurité) Automatiser le provisioning et le déploiement via Ansible et Terraform Renforcer la sécurité applicative & infrastructure dans les phases de build, test et déploiement Contribuer aux bonnes pratiques DevSecOps & SRE (monitoring, scanning, compliance) Industrialiser les environnements Docker / Helm / K8s Participer à l’intégration applicative (Python/Java, REST) Stack / Compétences techniques recherchées DevSecOps / CI-CD : GitLab CI, Jenkins Conteneurisation : Docker, Kubernetes IaC / Automation : Ansible, Terraform Langages : Python, Java ; APIs REST Sécurité : scanning SCA/SAST/DAST, secrets mgmt, supply chain security Infra : Linux, réseau, cloud (selon contexte client, souvent privé / souverain) Soft skills / profil Forte culture software + sécurité Rigueur, posture produit, documentation Capacité à travailler en environnement contraint (sécu, qualité, certification…) Plus Très bonne maîtrise CI/CD sécurisée Environnements sensibles / souverains Langue Français courant
Mission freelance
Ingénieur DevOps (F/H)
ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
DevOps
Kubernetes
12 mois
400-630 €
Paris, France
OBJET Le présent marché a pour objet : - D’industrialiser le déploiement et la gestion des infrastructures cloud via l’Infrastructure as Code et des pipelines CI/CD ; - D’assurer la fiabilité, la sécurité et l’observabilité des plateformes en production (Day‑2 Ops, automatisation) ; - De piloter la maîtrise des coûts (FinOps) et l’intégration des architectures hybrides (on‑prem et AWS). CONTEXTE La prestation concerne les activités nécessaires à une démarche DevOps chez notre client et l’amélioration de l’usine CI/CD dans notre chaine de Delivery. L'équipe en charge de ces activités travaille en étroite collaboration avec les équipes sécurité du SI , développement et exploitation sur la mise en place de cette chaine. L'équipe travaille aussi sur la mise en place de certaines infrastructures d'hébergement, sur les nouveaux projets, en y connectant notre usine logicielle et outils CI/CD mis en place. La mission se déroule au sein de l’équipe DEVOPS. La mission vise ainsi à : Fournir des conseils sur les bonnes pratiques de conception architecturale pour de multiples applications dans le cloud AWS et projets de l'entreprise ; Évaluer les besoins en matière d'applications cloud et à formuler des recommandations architecturales pour la mise en œuvre, le déploiement et l'approvisionnement des applications sur AWS ; Contribuer à réduire les cycles de livraison des solutions applicatives via l'automatisation ; Contribuer à l'amélioration continue de notre usine logicielle (CI/CD) ; OBJECTIFS ATTENDUS • Réalisation et restitution d’études et de PoC ; • Documentation de l’activité et des process ; • Conception et maintien des outils et de services ; • Collaboration aux projets : conseil, fourniture des éléments nécessaire aux chefs de projet, participation et contribution aux instances des projets ; • Collaboration à des projets impliquant une architecture complexe, des systèmes découplés, des interactions entre services gérés par différents acteurs ; • Rédaction de Document d’Exploitation (DEX) ; • Reporting d’activité (fréquences hebdomadaire et mensuelle). Une période de montée en compétence est prévue en début de mission, avec une prise de responsabilité progressive.
Offre d'emploi
Intégrateur technique / applicatif
Deodis
Publiée le
Bash
Python
12 mois
40k-45k €
400-420 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Mission d'un an pour remise à niveau technique de Préproduction et gestion des vérifications. Description Au sein de l’équipe exploitation, il contribue à assurer l’isométrie des environnements du périmètre du service : Faire l’état des lieux entre la préproduction et la production Etablir un plan d’actions pour le redressement de la préproduction Mise en place technique du plan d’actions Participer à l’évolution de notre métier : Être force de proposition sur l’évolution de l’architecture Mise en place d’indicateurs, d’outillage, d’automatisme d’industrialisation Etablir des procédures pour le N1, le N2 Livrables Scripts d'intégration : Développement de scripts et de procédures pour automatiser les processus d'intégration. Documentation technique : Guides et manuels sur l'architecture d'intégration et les protocoles utilisés. Pages web : Intégration des maquettes graphiques en pages web en respectant les standards web et les spécifications du projet. Code HTML/CSS : Production de code HTML/CSS propre, conforme aux normes W3C, optimisé pour le SEO et le temps de chargement. Tests de compatibilité : Réalisation de tests de compatibilité des pages sur différents navigateurs et supports (desktop, mobile, tablette). Documentation : Rédaction de documentation technique sur les choix d'intégration et les bonnes pratiques suivies. Maintenance des interfaces : Mise à jour des pages et correction des bugs au fur et à mesure des évolutions du projet.
Mission freelance
Chef de projet Agile Devop - Paris
Net technologie
Publiée le
DevOps
Gestion de projet
1 an
Paris, France
🚀 Opportunité – Senior IT Project Manager / Tribe Scrum Master (H/F) Dans le cadre d’un programme stratégique de transformation IT au sein d’un grand acteur international des services financiers (Fund Administration), nous recherchons un profil senior pour piloter des projets structurants autour de la modernisation des systèmes (Cloud, API, DevOps, Data & IA). 🎯 Missions clés : Leadership Agile @Scale (Tribe Scrum Master) Pilotage de projets IT complexes (cadrage, architecture, gouvernance) Déploiement DevOps & Cloud (CI/CD, tests automatisés) Contribution aux cas d’usage IA Coordination transverse Business / IT / Architecture
Offre d'emploi
Mission freelance - DevOps SRE – Production & Monitoring Azure / Dynatrace - PARIS
KUBE Partners S.L. / Pixie Services
Publiée le
Azure DevOps
DevOps
Site Reliability Engineering (SRE)
3 ans
Paris, France
Bonjour à tous ! pour renforcer l'équipe de l'un de nos clients, je recherche un(e) : DevOps SRE Production Monitoring Azure Dynatrace Le client recherche un DevOps orienté SRE avec une forte expérience en production et en Run. Il travaillera avec l’équipe projet pour mettre en place le monitoring et assurer le suivi. Missions : Mise en place et suivi du monitoring sur un environnement Azure avec Dynatrace. Gestion des alertes et du suivi liés au monitoring. Compétences : Expérience DevOps/SRE en production. Maîtrise de GitHub, Azure et Dynatrace. Solide expérience en monitoring. Informations complémentaires : Localisation : Paris (2 à 3 jours de télétravail par semaine) Durée : Long terme (3 ans) - démarrage sous 1 mois MAX Statut : Freelance ou portage Profil recherché : DevOps/SRE autonome, orienté production, avec une forte expertise en monitoring sur Azure et Dynatrace. Si vous êtes intéressé(e) et que votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai vers vous rapidement pour échanger. Merci
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1531 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois