Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 803 résultats.
Freelance
CDI

Offre d'emploi
DATA ANALYST GCP (420€ MAX)

BEEZEN
Publiée le
Google Cloud Platform (GCP)

3 mois
40k-80k €
290-420 €
Île-de-France, France
Maîtriser SQL et BigQuery, rédiger et optimiser des requêtes complexes pour extraire et analyser des données • Gérer et modéliser les données, concevoir des pipelines optimisés dans BigQuery en garantissant qualité, fiabilité et cohérence des analyses • Appliquer Python et ses bibliothèques analytiques (Pandas, NumPy, PySpark) pour les traitements et le prototypage de solutions data • Créer et optimiser des dashboards interactifs sous Looker Studio et Lokker, identifier et suivre les KPIs critiques pour le pilotage métier • Exploiter les bases de données relationnelles et NoSQL (PostgreSQL, MongoDB, DBL, etc.) • Comprendre et appliquer les architectures data modernes : Data Lake, Data Warehouse • Utiliser les environnements Cloud, notamment GCP ou Azure • Mettre en œuvre CI/CD avec GitLab CI et gérer le versionning avec Git • Appliquer les principes DevOps pour améliorer la fiabilité et l’efficacité des traitements • Travailler en méthodologies agiles, notamment Scrum, Sprint Planning et Backlog Refinement • Collaborer efficacement avec les équipes métiers et techniques pour produire des analyses fiables et exploitables
Freelance
CDI

Offre d'emploi
Data Engineer Senior Snowflake (Lead / Mentoring)

UCASE CONSULTING
Publiée le
AWS Cloud
Qlik
Snowflake

1 an
40k-45k €
400-650 €
Lyon, Auvergne-Rhône-Alpes
Bonjour à tous 😃 🔎 Contexte Dans le cadre du déploiement de Snowflake au sein de l’équipe Data, notre client recherche un Data Engineer expérimenté pour accompagner la montée en compétence des équipes, structurer l’architecture cible et intervenir sur des chantiers clés (migration & ingestion) 🎯 Objectifs de la mission 1. Accompagnement & montée en compétence Accompagner les équipes dans la prise en main de Snowflake Animer / coanimer des ateliers et diffuser les bonnes pratiques Faciliter l’appropriation des nouveaux workflows et outils 2. Architecture & structuration Concevoir et documenter l’architecture cible Snowflake Mettre en place et optimiser les pipelines d’ingestion et de transformation Garantir la performance, la scalabilité et la robustesse des traitements 3. Gouvernance & qualité de données Définir les règles de gouvernance (rôles, accès, organisation des environnements) Mettre en place des standards de développement (naming, versionning, documentation) Implémenter des processus de data quality (tests automatisés, contrôles de cohérence, fraîcheur…) Mettre en place des mécanismes de data observability et d’alerting Documenter les processus de gestion des incidents 4. Missions opérationnelles Participer à la migration de data products (Athena → Snowflake) Contribuer à l’ingestion et la structuration de nouvelles sources de données 🔧 Must have Expérience significative en tant que Data Engineer Expertise Snowflake (indispensable) Solide maîtrise SQL (optimisation, performance) Expérience en ingestion de données et/ou migration de plateformes data Connaissances en data quality et gouvernance Capacité à accompagner des équipes (pédagogie, mentoring) ➕ Nice to have Expérience sur AWS Connaissance de Qlik Expérience en environnement data moderne (pipelines, orchestration, CI/CD…) Contexte conseil / ESN Expérience sur des sujets de data observability 📍 Modalités Démarrage : Avril 2026 Localisation : Lyon Télétravail : 3 jours sur site/2 jours de TT
CDI

Offre d'emploi
Développeur Data GCP / BI (H/F)

CELAD
Publiée le

45k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Développeur Data pour intervenir chez un de nos clients, dans le secteur bancaire. Au quotidien, tu vas : Participer à la migration des rapports Power BI Transformer les flux existants (SSIS) vers des solutions modernes sur GCP Développer et orchestrer les pipelines de données avec Python, dbt et Composer Assurer la fiabilité, la performance et la stabilité des traitements Travailler en lien étroit avec les équipes métiers pour bien comprendre les besoins Contribuer à l'amélioration continue des pratiques et de la delivery data
Freelance

Mission freelance
Développeur Data GCP/BI (H/F)

CELAD
Publiée le

1 an
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Développeur Data pour intervenir chez un de nos clients, dans le secteur bancaire. Au quotidien, tu vas : Participer à la migration des rapports Power BI Transformer les flux existants (SSIS) vers des solutions modernes sur GCP Développer et orchestrer les pipelines de données avec Python, dbt et Composer Assurer la fiabilité, la performance et la stabilité des traitements Travailler en lien étroit avec les équipes métiers pour bien comprendre les besoins Contribuer à l’amélioration continue des pratiques et de la delivery data
Freelance

Mission freelance
Data engineer GCP

ESENCA
Publiée le
Apache Kafka
CI/CD
ETL (Extract-transform-load)

1 an
400-440 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution d’une plateforme de data analytics , nous recherchons un Data Engineer afin de participer à la conception, au développement et à la maintenance des solutions data. Au sein d’une équipe agile, vous contribuerez à la mise en place et à l’amélioration des pipelines de données, à la structuration des modèles analytiques et à l’optimisation des solutions existantes. Vous participerez également à la construction et à l’évolution de la plateforme data sur un environnement cloud moderne. Présence sur site requise 3 jours par semaine . Vos missions Participer aux rituels agiles de l’équipe (daily, sprint planning, rétrospectives). Analyser les besoins métiers et proposer des solutions data adaptées et innovantes . Concevoir et développer les pipelines de données : ingestion, transformation, stockage et restitution. Modéliser les données et contribuer à la construction des modèles analytiques . Assurer la qualité et la fiabilité des développements data . Maintenir et faire évoluer les solutions existantes (run et optimisation). Participer à la construction et à l’amélioration de la plateforme data sur Google Cloud . Contribuer à la diffusion des bonnes pratiques d’exploitation et de valorisation de la data auprès des équipes métiers. Compétences techniques requises SQL et ETL (expert – impératif). Outils et pratiques CI/CD . GitHub, Terraform, Kafka (confirmé – important). Outils de data visualisation : Power BI, Looker (confirmé – important). Environnement Google Cloud Platform (GCS, BigQuery) – souhaitable.
CDI

Offre d'emploi
Senior Data Engineer F/H

Atecna
Publiée le
Apache Airflow
DBT
ETL (Extract-transform-load)

Lille, Hauts-de-France
Des missions data à fort impact, une communauté en pleine expansion. Tu arrives au bon moment ! Atecna, c'est une agence d'expérience digitale avec une mission claire : intégrer l'innovation technologique de manière responsable pour assurer la compétitivité et la performance de nos clients. Un ensemble d'experts qui couvrent toute la chaîne de valeur du digital : du cadrage à l’adoption. Et derrière tout ça, près de 200 Atecniens répartis sur 6 agences. 👥 Ta future équipe Tu rejoins la communauté Data, animée par Steve et une équipe d'experts passionné·es en pleine structuration. Une équipe qui capitalise sur ses expériences projets et partage activement ses bonnes pratiques et sa veille sur l'écosystème data. Tu es en mission chez nos clients, mais tu contribues aussi à quelque chose de plus grand : faire grandir l'expertise Data d'Atecna de l'intérieur. ⚡ Ton impact au quotidien Grâce à toi, nos clients cessent de subir leurs données et commencent à en faire un vrai levier de décision. Tu conçois et industrialises des pipelines data robustes (ETL/ELT, batch, streaming) Tu orchestres les flux avec les bons outils (Airflow, dbt…) dans des environnements cloud (GCP en priorité) Tu modélises et optimises des bases de données pour des usages métiers concrets Tu contribues à la structuration de la communauté Data Atecna : pratiques, standards, montée en compétences Bonus : tu as déjà monté une plateforme data from scratch ou tu as une appétence pour le mentorat ? Ce serait un vrai atout pour nous.
Offre premium
Freelance
CDI

Offre d'emploi
Expert Datadog/kubernetes/ AWS/ OBSERVABILITE

Sapiens Group
Publiée le
AWS Cloud
Datadog
Kubernetes

1 an
Paris, France
Mission : Accompagner l’équipe dans la mise en place de Datadog et des pratiques DevOps, automatiser les processus et maintenir l’infrastructure cloud Responsabilités principales : Déploiement CI/CD sur serveurs Windows, containers ECS et clusters EKS Maintenance et amélioration des plateformes de production Développement et optimisation de modules Terraform/Terragrunt Création de Lambdas pour administration et automatisation Mise en place d’ArgoCD et accompagnement des développeurs sur l’observabilité Coordination de comptes AWS et Landing Zones PoC Talos sur environnement on-prem Proxmox Profil : Expérience solide en DevOps, cloud et IaC Autonome, rigoureux et orienté optimisation Capacité à travailler avec les équipes de développement et à vulgariser les concepts DevOps Environnement technique : DATADOG / KUBERNETES / AWS (EKS, Lambda, Landing Zones), Azure DevOps, AKS, Terraform, Terragrunt, Helm, Docker, ArgoCD, Python, Bash, Linux/Windows, Git/GitHub/GitLab, Datadog, Trivy, Falco, SonarQube, Talos (PoC).
Freelance

Mission freelance
Ingénieur Système / GCP - LYON (Ou Tours)

Atlas Connect
Publiée le
Administration linux
Ansible
Bash

12 mois
540-620 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du renforcement de l’équipe Messaging de notre client à LYON, nous recrutons un Ingénieur Système chargé d’assurer : L’exploitation des environnements UNIX/Linux La stabilité, la sécurité et la performance des systèmes La gestion des services applicatifs Vous interviendrez en collaboration avec les équipes réseau, sécurité, développement et support. 🛠️ Vos missions principales🔧 Administration systèmes UNIX/Linux Administrer les serveurs Linux (RHEL/CentOS) Installer, configurer et maintenir les environnements Gérer les comptes, droits et politiques de sécurité Concevoir et maintenir des scripts d’automatisation 🚀 Déploiement & Automatisation Participer aux déploiements et migrations via des outils d’IaC Automatiser les tâches opérationnelles (Bash, Python) Utiliser des outils comme Ansible, Puppet, Chef ou Terraform 📊 Supervision & Performance Mettre en place et gérer les outils de monitoring (Zabbix, Nagios, Prometheus/Grafana) Analyser les incidents et optimiser les performances systèmes Assurer le tuning (CPU, mémoire, I/O, réseau) 🤝 Support & Collaboration Assurer le support N2/N3 Collaborer avec les équipes techniques Rédiger la documentation technique Participer au partage de connaissances 🧰 Environnement technique OS : Linux/Unix (RHEL, CentOS) Scripting : Bash, Python Automation / IaC : Ansible, Puppet, Chef, Terraform Monitoring : Zabbix, Nagios, Prometheus, Grafana Cloud : GCP
Freelance

Mission freelance
Tech Lead Java / GCP / DevOps (H/F)

CELAD
Publiée le

1 an
Lille, Hauts-de-France
Vous interviendrez en transverse sur plusieurs squads, avec un rôle clé de coordination technique et d’accompagnement des équipes sur les sujets backend, cloud et DevOps. Vos missions - Accompagner les équipes de développement sur les bonnes pratiques techniques - Participer aux choix d’architecture et à leur mise en œuvre - Intervenir sur des sujets Java (conception, développement, optimisation) - Contribuer aux problématiques cloud (GCP) et aux sujets DevOps - Assurer la cohérence technique entre les différentes squads - Apporter de la séniorité sur les enjeux de performance, scalabilité et qualité
Freelance

Mission freelance
Data Engineer-Scientist AWS

INSYCO
Publiée le
AWS Cloud
Gitlab
Large Language Model (LLM)

3 ans
500-550 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Data Engineer-Scientist AWS. Nous étudions prioritairement les candidatures adressées par mail à freelance à insyco . fr avec : · Un argumentaire écrit répondant de façon ciblée au besoin ci-dessous · Un CV à jour au format Word · Une date de disponibilité · Un tarif journalier · Merci d’indiquer la référence MDE/DATA/5161 dans l'objet de votre mail Vos responsabilités · Contribuer aux phases d’idéation et de définition de nouveaux concepts innovants, notamment en évaluant leur faisabilité technique · Modéliser et développer des Proofs of Concept (POC) et des prototypes pour matérialiser ces concepts et les tester auprès d’utilisateurs finaux · Prendre une part active aux choix techniques et technologiques des projets innovation de son portefeuille · Évaluer les solutions technologiques proposées par des acteurs externes (startups, ...) qui permettraient de réaliser les projets en Open Innovation · Veiller à ce que les prototypes et projets réalisés puissent être transmis à d’autres équipes de la DSI et industrialisés avec un effort minimum · S’assurer que les projets innovation respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI interne · Effectuer les ateliers de passation vers d’autres équipes, réaliser le support le cas échéant · Effectuer une veille sur les nouvelles technologies et solutions logicielles pertinentes dans le cadre des priorités du Lab · Participer à la définition et à l’amélioration des processus de l’équipe Lab · Solide culture DevOps : CI/CD, conteneurisation (Docker, Kubernetes, Gitlab) · Bases solides en data engineering (Python / SQL) & cloud PaaS/IaaS (AWS, API Gateway, Terraform) · Expériences en data processing / engineering (Panda, Pyspark, multi-threading, AWS batch) · Curiosité et pratique des outils d’IA générative et d’automatisation (ex. GitHub Copilot, Claude Code, LLM, NLP, AWS Bedrock) pour identifier les véritables opportunités d’amélioration · Expérience de travail en méthodes agiles (Scrum, SaFe, Kanban)
CDI
Freelance

Offre d'emploi
Data Engineer (3+ ans d'exp)

WINSIDE Technology
Publiée le
API
DBT
Google Cloud Platform (GCP)

1 an
43k-57k €
360-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer pour une grande entreprise française sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 3 ans d'expérience professionnelle à minima en tant que Data Engineer. tu as 2 ans d'expérience professionnelle à minima en dbt, Snowflake ET Semarchy. Missions : Concevoir et développer des pipelines pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Les petits plus du candidat idéale : Connaissances IPAAS Familiarité avec les outils de workflow (Airflow, PubSub). Connaissance développement IA (Python, RAG...) Connaissance GCP (Cloud Provider, nous n'avons pas de Big Query) Démarrage : rapide. TT : 1 jour par semaine. Durée : longue. Localisation : métropole lilloise. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
Freelance

Mission freelance
Lead Data Architecte Sénior

Nicholson SAS
Publiée le
CRM
Google Cloud Platform (GCP)
SQL

9 mois
400 €
Massy, Île-de-France
Lead Data Architect Senior – Supply Chain Analytics Lieu : Massy (91) – Hybride (2 jours sur site / semaine) Durée : ASAP jusqu’au 31/12/2026 TJM : 400 € 🎯 Le Rôle : Pivot Stratégique & Technique Au cœur de l’ Analytics Factory , véritable moteur de la transformation numérique du groupe, vous rejoignez l’équipe Data Translation Supply Chain . Votre mission est cruciale : être le trait d’union entre les enjeux métier de la Supply Chain (prévisions de ventes, optimisation des flux, planification entrepôts) et l'excellence technique des équipes Data (Scientists, Engineers, Gouvernance). Vous ne vous contentez pas d'analyser ; vous guidez les décisions stratégiques du nouveau Directeur de la Supply Chain. Vos principales responsabilités : Data Translation : Traduire les problématiques business complexes en solutions analytiques concrètes. Analyse & Modélisation : Piloter des analyses approfondies nécessitant une forte agilité et un esprit critique pour challenger les demandes métier. Restitution de haut vol : Assurer la communication et la vulgarisation des résultats auprès du Top Management. Amélioration Continue : Évaluer la qualité du code, optimiser les solutions existantes et garantir le respect des standards élevés du groupe. 🛠 Environnement Technique & Expertises Nous recherchons un profil capable de manipuler de larges volumétries de données avec une aisance absolue. Maîtrise incontournable : SQL (BigQuery), outils de Datavisualisation (Tableau, Google Looker Studio). Les "Plus" : Maîtrise de Python et GitLab . Data Science : Solide compréhension des principes de modélisation pour interagir efficacement avec les Data Scientists. Infrastructure : Expertise en Architecture de données et environnement Google Cloud Platform (GCP) . 🎓 Profil recherché Formation : Diplôme d’Ingénieur ou équivalent Bac+5 de haut niveau en Maths/Stats). Expérience : +7 ans d’expérience en Data, dont au moins 2 ans dans le secteur du Retail (ou conseil spécialisé) et 2 ans spécifiquement sur des sujets Supply Chain . Soft Skills : * Posture "Top Management" : excellente communication orale et écrite. Capacité de vulgarisation de sujets complexes. Rigueur, autonomie et proactivité. 💻 Cadre de travail & Moyens Équipement : Laptop professionnel haut de gamme (i7/Ryzen 7, 16 Go RAM, SSD) fourni. IA Générative : Accès aux solutions d'IA sécurisées internes du groupe (usage d'IA externes proscrit pour garantir la sécurité des données). Culture : Intégration dans une équipe agile, mature et experte, favorisant l'apprentissage continu.
CDI

Offre d'emploi
Cloud Engineer Azure / GCP

Everwise
Publiée le
Azure
DevSecOps
Github

2 ans
40k-55k €
400-550 €
Île-de-France, France
Fiche de poste – Cloud Engineer Azure / GCP (Freelance / Mission) Contexte Dans le cadre du renforcement des équipes Cloud, nous recherchons des profils Cloud Engineer spécialisés sur les environnements Azure et/ou GCP , avec une forte orientation DevOps et sécurité. Le marché étant concurrentiel sur ce type de profils, nous recherchons des consultants efficaces, rapidement opérationnels et capables de s’intégrer dans des environnements exigeants. Missions principales Concevoir, déployer et maintenir des infrastructures Cloud (Azure / GCP) Automatiser les déploiements via des outils DevOps (CI/CD) Développer des scripts et outils en Python Gérer le versioning et la collaboration via GitHub Mettre en place et maintenir des pratiques de sécurité (DevSecOps) Utiliser des outils de sécurité type Snyk et Checkmarx Participer à l’optimisation des performances et des coûts Collaborer avec les équipes techniques (Dev, Ops, Sec) Compétences requises Techniques Cloud : Microsoft Azure et/ou Google Cloud Platform (GCP) DevOps : CI/CD, GitHub Langages : Python Sécurité : Outils : Snyk, Checkmarx Bonnes pratiques DevSecOps Infrastructure as Code (Terraform apprécié) Fonctionnelles Bonne autonomie Capacité à travailler dans des environnements agiles Esprit d’analyse et de résolution de problèmes Profil recherché Expérience : 5 à 7 ans minimum en environnement Cloud Profil opérationnel, capable de délivrer rapidement Bonne communication avec les équipes techniques
CDI

Offre d'emploi
Data Engineer (H/F)

OBJECTWARE
Publiée le
DBT
Google Cloud Platform (GCP)
Reporting

50k-60k €
Bordeaux, Nouvelle-Aquitaine
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Engineer avec une forte appétence pour le reporting et la valorisation de la donnée. L’objectif est de structurer, industrialiser et exploiter les données afin de produire des indicateurs fiables et utiles aux métiers. Missions Concevoir, développer et maintenir des pipelines de données robustes et scalables Assurer la collecte, transformation et mise à disposition des données Participer à la modélisation des données (datawarehouse / datamart) Mettre en place et optimiser les flux via des outils d’orchestration Collaborer avec les équipes métiers pour comprendre les besoins en reporting Développer et alimenter des tableaux de bord et reportings Garantir la qualité, la fiabilité et la performance des données Participer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Environnement technique Cloud : GCP (idéalement) ETL / Orchestration : Airflow, DBT Langages : Python BI / Reporting : Power BI, Tableau ou équivalent Data : SQL, modélisation data
Freelance

Mission freelance
IT Data & Integration Manager

EBMC
Publiée le
Google Cloud Platform (GCP)

6 mois
400-700 €
Paris, France
Dans le cadre de l’implémentation d’une solution d’Integrated Business Planning (IBP), nous recherchons un IT Data & Integration Manager afin de piloter le stream Data & Intégration au sein d’un programme de transformation à forte dimension métier. Le consultant interviendra dans un contexte complexe impliquant plusieurs systèmes (ERP, outils de planification, plateformes data) et une solution IBP cible, avec un rôle clé dans la définition, la coordination et la mise en œuvre des flux de données. Il sera responsable de la stratégie de data sourcing, des choix d’ingestion, de l’alignement entre besoins fonctionnels et contraintes techniques, ainsi que de la qualité et de la robustesse des intégrations. Le rôle combine pilotage transverse et implication opérationnelle, avec une responsabilité directe sur la production des spécifications fonctionnelles (API, flux fichiers) et la supervision des équipes data et intégration.
Freelance

Mission freelance
Ingénieur DevOps GCP/GKE

CAT-AMANIA
Publiée le
Google Cloud Platform (GCP)
Google Kubernetes Engine (GKE)

12 mois
400-510 €
Paris, France
Vous interviendrez dans le cadre de la mise en production et industrialisation des projets sous GCP. Vos missions consisteront à contribuer: Construire les scripts terraform de provisionning des ressources GCP Construire ou supporter les équipes de développement sur les pipelines Gitlab CI ou scripts de configurations GITOPS Construire les pipelines de synchronisations d’artifacts entre le repo source & GCP Supporter les équipes projets sur les problématiques techniques & de performances Administrer et optimiser les configurations NGINX pour le relais des flux depuis le réseau Corporate Gérer les configurations Private Service Connect (PSC) pour les clusters Confluent Cloud Assurer la conformité avec les standards réseaux de sécurité Participer à la mise en oeuvre du plan DRP (Disaster Recovery Plan) Contribuer à la migration vers une architecture PSC unifiée Mettre en place et améliorer les solutions de monitoring de la plateforme Confluent Cloud (métriques, alertes, dashboards) Configurer et optimiser la remontée des logs et traces dans Dynatrace Développer des tableaux de bord pertinents pour le suivi opérationnel Mettre en place des alertes proactives sur les métriques critiques Garantir la conformité des accès selon les standards de sécurité Superviser les mécanismes d'authentification (Service Accounts, API Keys, OIDC) Contribuer à l'audit et à la gouvernance des ressources Confluent Mettre en oeuvre les bonnes pratiques de sécurité réseau Participer aux revues de sécurité périodiques Maintenir et enrichir les pipelines CI/CD pour le déploiement de l'infrastructure Contribuer au développement des modules Terraform pour la gestion de la plateforme Automatiser les tâches opérationnelles récurrentes Optimiser les processus de déploiement et de rollback
2803 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous