Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 739 résultats.
Freelance
CDI

Offre d'emploi
Ingénieur / Intégrateur Observabilité (DataDog)

MGT Conseils
Publiée le
Datadog

1 an
40k-60k €
400-600 €
Hauts-de-Seine, France
Résumé du poste L’ingénieur/intégrateur Observabilité est responsable de la mise en place, de l’industrialisation et de l’optimisation de la plateforme DataDog. Il assure l’intégration et le monitoring des métriques, logs, traces et événements provenant des environnements On-Premise et Cloud (AWS). Il joue un rôle clé dans la structuration des pipelines de logs, leur parsing, leur normalisation et leur enrichissement. Missions principales 1. Intégration & Configuration de DataDog Déployer, configurer et maintenir les agents DataDog (infrastructures, conteneurs, serveurs applicatifs, bases de données…) Intégrer les services AWS : CloudWatch, Lambda, ECS/EKS, API Gateway, S3, RDS… Mettre en place l’APM et instrumenter les applications (traces et profiling) Gérer la collecte et le parsing des logs DataDog : Configuration des pipelines de logs (Grok, Remapper, Processors) Normalisation via les pipelines standards ECS/Datadog Création de règles de parsing (patterns, regex, grok, JSON) Nettoyage, filtrage, réduction du volume (cost control) Mise en place de tags automatiques pour optimiser la recherche et les dashboards 2. Conception & Industrialisation Créer et maintenir les tableaux de bord (dashboards) orientés OPS, métier et SLA/SLO Définir et automatiser les seuils d’alerting intelligents : anomalies, prévisions, monitoring synthétique Structurer la plateforme : tags, naming conventions, auto-découverte Automatiser l’observabilité via Infrastructure as Code (Terraform recommandé) 3. Support & Expertise Accompagner les équipes projets et dev pour instrumenter leurs applications avec les librairies DataDog APM Former les équipes IT (Dev, Ops, SecOps) aux bonnes pratiques d’observabilité Diagnostiquer les problèmes de performance, latence, saturation, erreurs applicatives
Freelance

Mission freelance
Senior Quality Engineer

KUBE Partners S.L. / Pixie Services
Publiée le
C#
Cucumber
Java

6 mois
400-450 €
Lille, Hauts-de-France
🧪 Fiche de Poste — Senior Quality Engineer Freelance (H/F) 📍 Lille — Mission longue 🎯 Contexte Nous accompagnons un acteur international du retail dans la transformation de ses outils digitaux utilisés en magasin. Au sein d’un domaine dédié à l’expérience en point de vente, une équipe produit développe des solutions innovantes permettant : d’optimiser l’agencement des espaces de vente d’améliorer la mise en avant des produits de proposer des expériences interactives et visuelles d’accompagner les équipes terrain dans leurs performances commerciales Dans un contexte de forte croissance et d’usage à grande échelle (déploiement international), nous recherchons un Senior Quality Engineer Freelance pour structurer et piloter l’automatisation des tests d’un produit 3D stratégique. Vous intégrerez une équipe agile composée de développeurs backend et frontend. 🚀 Missions1. Automatisation — Environnement 3D (Unity / C#) Concevoir et maintenir des tests d’intégration via Unity Test Framework Implémenter des tests : Edit Mode Play Mode Vérifier les comportements fonctionnels de l’application 3D 2. Automatisation des APIs Implémenter les tests automatisés sur des APIs backend (Java / Kotlin) Utiliser une approche BDD (Cucumber-based) Rédiger des scénarios en Gherkin Aligner validation technique et besoins métiers 3. CI/CD Intégrer les suites de tests dans les pipelines d’intégration continue Exploiter les rapports de tests Identifier rapidement les régressions Collaborer avec les développeurs pour améliorer la stabilité produit 4. Stratégie Qualité Participer aux phases de conception pour garantir la testabilité Définir et suivre les KPIs qualité : Couverture de tests DRE / DDE Stabilité des builds Contribuer à l’amélioration continue des pratiques QA Structurer les processus qualité de l’équipe Compétences techniques : Stratégie de test Tests automatisés Cucumber / BDD Unity test Framework Java C#
Freelance

Mission freelance
Lead MLOps – Expert Python RAG Conversationnel Production (Azure Cloud – Full Microsoft)

5COM Consulting
Publiée le
Agent IA
Azure AI
IA Générative

1 an
650-700 €
Paris, France
Lead MLOps – Expert PythonRAG Conversationnel Production (Azure Cloud – Full Microsoft) Dans un contexte cabinet / finance / environnement régulé, nous recherchons un Lead MLOps senior , expert Python, ayant déjà mis en production un RAG conversationnel sur Azure . Il ne s’agit pas d’un rôle de Data Scientist ni d’un profil POC. Nous cherchons un Lead Engineering capable d’industrialiser, structurer et opérer un système GenAI en production , dans un environnement complexe et multi-acteurs. Mission Transformer un RAG conversationnel (POC ou existant) en système production-grade . Concevoir et structurer l’architecture technique sur Azure Cloud . Mettre en place les pipelines CI/CD et MLOps adaptés aux systèmes LLM/RAG. Déployer, monitorer et opérer la solution en production. Définir les standards de gouvernance IA, versioning, auditabilité et conformité. Interagir étroitement avec les architectes Azure et équipes Ops Cloud . Être force de proposition, cadrer, arbitrer et assumer les décisions techniques. Passer du POC à la PROD de manière structurée et mesurable . Expertise Azure (indispensable) Maîtrise concrète des environnements Azure : Azure OpenAI Azure AI Search / Vector Search Azure ML / Fabric / Databricks Azure DevOps / GitHub Actions AKS ou services managés Azure Monitoring Azure (logs, métriques, alerting) Capacité à dialoguer techniquement avec les architectes et équipes Ops Azure. RAG Conversationnel – Exigences Architecture modulaire (ingestion / retrieval / génération découplés) Gestion du contexte conversationnel Optimisation retrieval (chunking, reranking, hiérarchisation) Contrôle des hallucinations Monitoring qualité & performance Évaluation automatisée (LLM-as-a-Judge, métriques retrieval, A/B testing) MLOps – Cœur du rôle Pipelines CI/CD pour ML / GenAI Versioning code / data / modèles Tests unitaires & intégration Monitoring technique (latence, coûts, erreurs) Monitoring sémantique (qualité des réponses) Rollback & gestion des incidents Gouvernance IA & standards engineering Engineering Python expert (FastAPI, modularité, clean architecture) Structuration claire du code Gitflow maîtrisé Scalabilité & résilience Documentation et standards d’équipe Profil recherché 7–10+ ans d’expérience Lead MLOps / ML Engineering senior Expérience démontrée de mise en production RAG conversationnel sur Azure Habitué aux environnements cabinet / finance / régulés Leadership affirmé, capacité à s’imposer Capable de proposer des solutions pragmatiques et surtout de les exécuter Environnement de travail Localisation : Paris centre Télétravail partiel possible Environnement exigeant mais agile Culture d’équipe forte, esprit “team spirit” Mode de fonctionnement dynamique, proche d’un esprit startup Forte exposition aux enjeux stratégiques IA Ce que nous ne recherchons pas Profils orientés uniquement Data Science RAG prototype / non production-grade Expérience Azure superficielle Manque d’expérience MLOps réelle Profil incapable de structurer et gouverner
CDI

Offre d'emploi
Data Engineer | Databricks | AWS

Hexateam
Publiée le
AWS Cloud
Databricks
Python

Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Freelance

Mission freelance
Ingénieur / Technicien Essais Vibratoires & NVH (H/F)

TOHTEM IT
Publiée le

1 an
Carrières-sous-Poissy, Île-de-France
Vous souhaitez évoluer au cœur des essais vibratoires et contribuer à la validation de systèmes technologiques complexes ? Rejoignez une équipe reconnue pour son expertise et intervenez sur des campagnes d’essais à forte valeur ajoutée, où rigueur technique, autonomie et esprit d’analyse font la différence. Votre mission Rattaché(e) au Team Leader NVH Test & Validation, vous intervenez principalement sur le périmètre endurance vibratoire , avec un rôle clé dans la préparation, la réalisation et l’analyse des essais. Au quotidien, vous serez amené(e) à : Mettre en œuvre des essais vibratoires sur pots vibrants (sinus, random/DSP, chocs) Instrumenter les spécimens et définir le positionnement des capteurs Assurer les montages mécaniques sur banc d’essai Piloter les équipements et vérifier leur conformité aux exigences d’essai Analyser les mesures et rédiger les rapports techniques Participer aux expertises post-essais avec les équipes techniques Contribuer à l’amélioration des méthodologies et standards d’essais Collaborer avec la maintenance et les équipes atelier Selon votre expérience, vous pourrez également intervenir sur des essais vibro-acoustiques (NVH)
Freelance

Mission freelance
Expert Visioconférence et Audiovisuel – Profil Ingénieur Système/Réseau

LINKWAY
Publiée le
Active Directory
Cisco
Extron

200 jours
400-450 €
Île-de-France, France
Nous recherchons un Expert Visioconférence et Audiovisuel disposant d'un solide bagage technique en Ingénierie Système et Réseau . Dans un contexte où la collaboration à distance et l'hybridation des modes de travail sont devenues critiques, ce rôle est central pour garantir la fluidité, la sécurité et la qualité des échanges au sein de l'organisation. Le consultant intégrera une équipe technique et sera le garant du bon fonctionnement de l'ensemble de l'écosystème audiovisuel (AV) et de visioconférence (VC). Contrairement à un poste de technicien audiovisuel classique, cette mission requiert une véritable expertise IT/Infrastructure . Vous ne vous contenterez pas de gérer les terminaux ; vous devrez comprendre et administrer les flux réseaux sous-jacents qui permettent à ces technologies d'opérer. Ingénierie et Administration des Infrastructures VC : Vous serez responsable de l'administration des plateformes de communication unifiée (type Microsoft Teams Rooms, Zoom Rooms ou infrastructures Cisco/Polycom). Vous devrez configurer, maintenir et optimiser les serveurs de gestion, les gateways et les MCU (Multipoint Control Units). Une compréhension fine des protocoles de signalisation (SIP, H.323) et des enjeux réseaux (QoS, VLAN dédié voix/vidéo, ouverture de ports, traversée de pare-feu) est indispensable pour diagnostiquer les problèmes de latence, de gigue ou de perte de paquets. Maintien en Condition Opérationnelle (MCO) et Support Expert : Vous assurerez le niveau 3 du support technique. En cas d'incident critique impactant des réunions stratégiques (COMEX, Conseil d'Administration), vous devrez intervenir avec rapidité et sang-froid pour rétablir le service. Vous piloterez la supervision des équipements (écrans, dalles tactiles, codecs, systèmes de sonorisation) via des outils de monitoring centralisés, anticipant les pannes avant qu'elles n'affectent les utilisateurs finaux. Gestion de Projets d'Intégration et Évolution du Parc : Le poste inclut une dimension projet significative. Vous participerez à la conception et au déploiement de nouvelles salles de réunion, auditoriums et espaces collaboratifs. Cela implique la validation des architectures techniques, la coordination avec les sous-traitants intégrateurs, et la recette technique des installations. Vous veillerez à l'interopérabilité des nouveaux équipements avec le système d'information existant (Active Directory, Exchange, Réseau d'entreprise). Documentation et Veille Technologique : Dans un secteur en perpétuelle évolution, vous devrez assurer une veille active sur les nouvelles solutions de collaboration et proposer des améliorations pertinentes (automatisation des salles, IoT, affichage dynamique). Vous serez également chargé de rédiger et de maintenir à jour les procédures d'exploitation, les schémas d'architecture et les guides utilisateurs pour faciliter l'adoption des outils.
CDI
Freelance

Offre d'emploi
DevOps streaming Data - (H/F)

SWING-ONE
Publiée le
Ansible
Apache Kafka
DevOps

1 an
Île-de-France, France
CONTEXTE DU POSTE : Nous recherchons pour notre client Grand-Compte un DevOps streaming Data. Vous intégrerez le pôle technologique en charge de concevoir et d’opérer des plateformes « as a service » permettant le déploiement d’architectures modernes, distribuées et hautement résilientes pour l’ensemble des entités du Groupe. MISSIONS PRINCIPALES : Industrialiser et automatiser les déploiements (Ansible) Mettre en production de nouveaux clusters Kafka et faire évoluer les clusters existants (scale horizontal & vertical) Participer à la définition des architectures des futures briques de la plateforme Streaming Apporter une expertise technique aux utilisateurs de la plateforme Développer des prototypes en lien avec les cas d’usage métiers Documenter les offres et démontrer la valeur des solutions Data
Freelance

Mission freelance
Ingénieur Réseaux (LAN/WAN/WIFI) H/F

ADSearch
Publiée le
LAN
SD-WAN
WAN (Wide Area Network)

3 mois
Guyancourt, Île-de-France
Poste Nous recherchons pour l'un de nos client un Ingénieur Réseau H/F, pour travailler au sein de l’équipe Réseau Workplace, Vous intègrerez une équipe BUILD qui a la responsabilité de la conception et de la mise en oeuvre des infrastructures réseau des implantations des entités du groupe (environ 200 bâtiments en France et en Europe). Au sein de cette équipe, vous contribuerez à transformer les infrastructures réseaux Workplace en vous appuyant sur les dernières technologies du marché (Cisco, WIFI 6, SD-WAN…). •Participer à la conception technique pour la mise en oeuvre de ses infrastructures ou produits •Intégrer et mettre en oeuvre des solutions destinées à fournir le service réseau aux entités du groupe •Réaliser l'installation des infrastructures, le paramétrage et la validation des composants •Prendre en compte les règles et procédures d’exploitabilité des infrastructures •Proposer des solutions d'optimisation des systèmes ou des plates formes •Participer au maintien en condition opérationnelle et de sécurité des Infrastructures en apportant un support N3 aux équipes d'exploitation
CDI
Freelance

Offre d'emploi
Ingénieur SAS/QlikSense

OBJECTWARE
Publiée le
Qlik Sense
SAS

3 ans
40k-70k €
400-600 €
Île-de-France, France
Principaux volets de la mission Volet 1 - Analyse et qualité des données Le consultant interviendra sur : • L’analyse de la qualité des données GAG déjà chargées (contrôles de cohérence, complétude, valeurs aberrantes) • La comparaison des agrégats clés (primes, sinistres, contrats, résiliations) avec les sources de référence • L’identification des écarts et anomalies • La contribution à la définition et au suivi d’un plan de remédiation. Volet 2 - Traitements et requêtes SAS Les travaux incluent : • L’analyse et la mise à jour des programmes SAS existants • L’adaptation des traitements pour intégrer les spécificités GAG • La sécurisation des chaînes de traitement (contrôles, traçabilité, reproductibilité) • Le support aux simulations tarifaires réalisées dans des outils externes (SAS ou équivalent). Volet 3 - Restitutions et développements Qlik Le consultant contribuera à : • L’adaptation des restitutions communautaires existantes • Le développement de restitutions Qlik spécifiques GAG lorsque nécessaire • La fiabilisation des référentiels exploités Organisation et gouvernance Le consultant interviendra en étroite collaboration avec : • Les différentes équipes de pilotage du Groupe • Les équipes IT et décisionnelles de l’informatique Groupe (G2S) • Les équipes métiers et data de l’entité GAG. Il s’inscrira dans la gouvernance existante du projet d’intégration GAG : • Comités de pilotage • Comités spécifiques (qualité des données, tarifs, pilotage) • Reporting régulier d’avancement et de risques. Expertises requises Compétences indispensables • Expertise confirmée en SAS (traitements de données, analyses, simulations) • Maîtrise de Qlik Sense (modélisation, QVD, développements de restitutions) • Solide expérience en environnements décisionnels (DWH, datamarts, pilotage) • Capacité à intervenir en contexte multi-acteurs (MOA, IT, métiers). Compétences souhaitées • Connaissance du secteur Assurance IARD / mutualiste • Expérience en projets de migration ou d’intégration d’entités dans un SID groupe • Sensibilité aux enjeux de qualité de données et gouvernance.
CDI

Offre d'emploi
Développeur python (H/F)

STORM GROUP
Publiée le
Python

40k-45k €
Île-de-France, France
Contexte : Prestation au sein de l’équipe Architecture cloud et API composée de collaborateurs experts la mise en œuvre d’architectures orientées services. Missions : En qualité de développeur python / Data Engineer, votre rôle et vos missions consistent à : * Participer à la conception/développement sur le projet Portfolio Clarity pour NIM (python sur lambdas AWS) * Réaliser les tests unitaires et d'intégration * Revue du code et amélioration de l'architecture applicative existante * Documenter les réalisations * Intégrer les développements à la chaine de CI/CD
Freelance
CDI

Offre d'emploi
Ingénieur Cybersécurité (Guacamole/RBAC/SIEM)

AVALIANCE
Publiée le
Active Directory
Cybersécurité
Gestion des accès privilégiés (PAM)

1 an
40k-74k €
400-720 €
Montreuil, Île-de-France
Nous cherchons un profil technico fonctionnel qui puisse nous aider à la mise en place / évolution / durcissement d’un bastion d’administration basé sur Keeper Connection Manager (Guacamole). • Maîtrise technique de KCM / Apache Guacamole : architecture, protocoles (RDP/SSH…), configuration avancée. • Pilotage & change management : gestion des évolutions, mise en production, conduite du changement, documentation et formation. • Modèle de rôles (RBAC avancé) : conception, structuration et mapping des rôles/groupes (AD) vers les permissions KCM, gestion du moindre privilège et des politiques d’accès granulaires.
Freelance
CDI
CDD

Offre d'emploi
Développeur SharePoint Online (M365) – Intranet Refonte | Agile Scrum

RIDCHA DATA
Publiée le
Open Shortest Path First (OSPF)
React
SharePoint

1 an
Paris, France
Contexte de la mission Dans le cadre de la refonte d’un intranet international basé sur SharePoint Online (Microsoft 365) , nous recherchons un Développeur SharePoint Online pour intégrer une équipe Agile dédiée à la conception et au développement de nouvelles fonctionnalités intranet. L’objectif du projet est de mettre en place une plateforme intranet moderne, performante et centrée utilisateur , permettant d’améliorer l’accès à l’information, la collaboration et la communication interne dans un environnement international. Le développeur interviendra au sein d’une équipe Scrum et participera activement aux développements, aux intégrations techniques et aux livraisons incrémentales de la plateforme. Organisation de l’équipe (Scrum) Le consultant intégrera une équipe Agile de 4 personnes : 1 Business Analyst Recueil et formalisation des besoins métiers Rédaction des user stories Priorisation fonctionnelle avec le Product Owner 2 Développeurs SharePoint Online Conception et développement des solutions techniques Implémentation SPFx et intégrations M365 1 Scrum Master Animation des rituels Agile/Scrum Facilitation de l’équipe Suppression des obstacles Amélioration continue des processus L’équipe travaille en sprints de 2 semaines , avec : backlog priorisé rituels Scrum (Daily, Sprint Planning, Review, Rétrospective) logique de livraison incrémentale Objectifs du poste Développer et maintenir les fonctionnalités de l’intranet sur SharePoint Online . Participer activement aux livraisons de l’équipe Scrum . Garantir la qualité, la performance et la maintenabilité des développements. Missions principales Développement & intégration Développer des webparts et extensions SPFx (React / TypeScript). Configurer et personnaliser les sites SharePoint Modern . Concevoir et gérer : listes SharePoint types de contenu métadonnées taxonomies Intégrer des données via : Microsoft Graph API APIs externes si nécessaire Mettre en place des automatisations via Power Automate lorsque nécessaire. Travail en mode Agile / Scrum Participer aux rituels Agile : Sprint Planning Daily Meeting Refinement Sprint Review Rétrospective Estimer les user stories et contribuer au découpage technique. Collaborer étroitement avec : le Business Analyst le Scrum Master Respecter la Definition of Done (tests, documentation, qualité). Qualité & industrialisation Appliquer les bonnes pratiques de développement : revues de code tests unitaires optimisation des performances Participer à la mise en place et à l’amélioration des pipelines CI/CD . Documenter les développements réalisés. Contribuer au support applicatif si nécessaire. Environnement technique SharePoint Online (Modern Experience) SPFx (SharePoint Framework) React / TypeScript PnPjs Microsoft Graph API Azure AD App Registration Power Platform Power Automate Power Apps Azure DevOps ou GitHub Compétences requises Compétences techniques Excellente maîtrise de SharePoint Online Expérience confirmée en : SPFx React TypeScript Bonne compréhension de l’écosystème Microsoft 365 Expérience de développement dans un environnement Agile / Scrum Compétences comportementales Esprit d’équipe et collaboration Autonomie et rigueur Sens des responsabilités Capacité à travailler dans un environnement international Langues Anglais professionnel requis
Freelance

Mission freelance
CONSULTANT(E) EXPERT KUBERNETES

YGL consulting
Publiée le
Ansible
Kubernetes

6 mois
Paris, France
Nous recrutons un( e) consultant( e) ayant des expériences significatives sur Kubernetes On Premise pour intégrer les équipes de notre client parisien. MISSIONS: - Accompagnement des équipes de développement pour Dockeriser leurs applications - Réalisation de script shell et python - Réalisation de playbooks et de rôles ansible - Réalisation de déploiements Terraform - Une solide expérience "on premise" - Réalisation de pipeline groovy sur jenkins - Réalisation de chart Helm - Documentation des script d'automatisation - Assistance et support des équipes de développement - Communication avec les équipes d'infrastructure - Reporting
Freelance

Mission freelance
DevOps Engineer - SRE (H/F)

STHREE SAS pour HUXLEY
Publiée le

36 mois
600 €
Paris, France
Contexte du poste Au sein de l'équipe Site Reliability Engineering (SRE) , vous serez responsable de la fiabilité, de la performance et de la scalabilité des plateformes Cloud de l'entreprise. Vous jouerez un rôle clé dans la conception, l'automatisation et l'exploitation des environnements de production, avec un focus particulier sur les plateformes OpenShift . Responsabilités principales Opérations & Fiabilité Assurer la stabilité , la résilience et la performance des environnements Cloud et OpenShift. Participer au déploiement , au monitoring , au troubleshooting et à l' optimisation des applications en production. Contribuer à la mise en place et à l'amélioration de SLOs, SLIs et SLAs . Automatiser les opérations de production dans une logique Infrastructure as Code et GitOps . Engineering & Automatisation Développer et maintenir les pipelines CI/CD utilisant GitLab CI . Gérer l'infrastructure via Terraform , Helm , et des pratiques modernes de déploiement. Participer au design et à l'évolution de l'architecture Cloud (Public, Private, Hybrid). OpenShift & Kubernetes Administrer et opérer des clusters OpenShift (installation, upgrades, capacity planning, gestion des opérateurs, sécurité). Améliorer la fiabilité de la plateforme et accompagner les équipes de développement dans la bonne utilisation d'OpenShift. Gérer les problématiques réseau, stockage, logging et monitoring dans un environnement Kubernetes/ OpenShift. Collaboration & Culture SRE Travailler étroitement avec les équipes de développement, sécurité, infrastructure et produit. Documenter et partager les bonnes pratiques, dans une démarche d'amélioration continue. Compétences requises Techniques (Must-Have) Maîtrise avancée de Red Hat OpenShift en environnement de production. Solide expérience avec Kubernetes . Excellente connaissance des pratiquesDevOps et outils associés : GitLab CI/CD Terraform Helm Prometheus / Grafana Argo CD Expertise des environnements Cloud Bonne compréhension : des architectures microservices des API / REST des patterns de résilience (circuit breaker, autoscaling, etc.) Compétences additionnelles (Nice-to-Have) Expérience avec OpenShift en très forte production ou large échelle (HUGE plus). Connaissances en GitOps (ArgoCD, Flux). Expérience en sécurité Cloud (politiques RBAC, secrets management, network policies). Scripting : Python , Bash , Go (optionnel). Profil recherché 5+ ans d'expérience en DevOps / SRE. Expérience démontrée sur des environnements Cloud et Kubernetes. Solide expérience opérationnelle OpenShift (must-have).
CDI
Freelance

Offre d'emploi
DBA confirmé Mongo DB - PAAS Azure

SYNAPSYS IT
Publiée le
Azure
Mongodb

3 ans
70k-88k €
550-630 €
Colombes, Île-de-France
Nous recrutons un(e) DBA Expert(e) MongoDB –PaaS Azure (H/F) Paris / Île‑de‑France – Télétravail partiel Démarrage : ASAP Le contexte Nous renforçons notre équipe Data & Cloud dans un contexte de modernisation massive et de migration vers des services managés Azure . Nous recherchons un DBA MongoDB confirmé ou expert , capable d’évoluer dans des environnements critiques, distribués et orientés vous aimez les architectures Cloud, l’optimisation de bases NoSQL et les environnements PaaS à grande échelle, cette mission est faite pour vous. Vos responsabilités Administrer et optimiser les environnements MongoDB (replica sets, sharding, indexation, performance). Gérer les bases en mode PaaS Azure : Cosmos DB API Mongo, MongoDB Atlas. Assurer le MCO , la haute disponibilité et le capacity planning. Mettre en place les bonnes pratiques de sécurité : RBAC, chiffrement, Private Endpoints, Key Vault. Superviser les environnements via Azure Monitor / Log Analytics / Atlas Monitoring . Participer aux projets de migration vers Azure et aux évolutions d’architecture Cloud. Automatiser les déploiements (Terraform, Bicep, CI/CD). Documenter, standardiser et accompagner les équipes internes.
Freelance
CDI

Offre d'emploi
SRE Data et IA

VISIAN
Publiée le
DevOps
Site Reliability Engineering (SRE)

1 an
40k-45k €
400-650 €
Île-de-France, France
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement afin de garantir la disponibilité, la performance et la résilience des services en production. Le/La SRE anticipe les risques, accompagne les équipes Dev/Prod et développe l'automatisation nécessaire pour assurer un fonctionnement optimal des plateformes, avec une spécificité sur la gestion des applications Data et IA. Responsabilités principales Suivi de la fiabilité, l'intégrité et la qualité de la plateforme en production Définition et suivi des SLO/SLI ; rétablissement du service en cas d'incident Participation aux projets dès le cadrage et anticipation des impacts sur la production Automatisation des opérations et réduction du travail manuel Mise en place d'un monitoring, de l'alerting et des dashboards pertinents Pilotage de l'obsolescence et contribution à la sécurité opérationnelle Contribution à la communauté SRE : bonnes pratiques, partage d'expérience Compétences clés Techniques : Connaissances des solutions Data & AI (ex : Airflow, Spark, Starburst, Domino AI …) Linux (RHEL), Docker, Kubernetes / OpenShift Automatisation & IaC : Git, Jenkins (CI/CD), Ansible, Terraform Scripting : Python, Shell, YAML Observabilité & Monitoring : ELK, SysDig, Dynatrace, Grafana Supervision / Scheduling : Control-M Cloud : IBM Cloud
2739 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous