Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 987 résultats.
CDI

Offre d'emploi
ALTERNANCE - Assistant(e) Chef de Projet Outils et Data Contrôle Interne (H/F)

█ █ █ █ █ █ █
Publiée le
Laravel
Microsoft Excel

Le Pré-Saint-Gervais, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Proxy Product Owner Data (RUN & BUILD) – Full Remote

Signe +
Publiée le
Snowflake

12 mois
330-340 €
Paris, France
Proxy Product Owner Data – RUN focus / BUILD focus Contexte Mission au sein d’un datalake cybersécurité (Security Analytics) dans un environnement grand compte. Le client a ouvert la possibilité de réaliser la mission en full remote afin d’élargir le sourcing et sécuriser un profil compétent. Durée 6 mois minimum (renouvelable) Mode de travail Full remote Responsabilités – RUN focus Piloter la transition Build → Run et stabiliser l’exploitation Gérer et prioriser le backlog incidents ServiceNow (arbitrage risques / impacts métier) Analyser, coordonner et suivre les incidents avec les équipes de développement Communiquer auprès des utilisateurs et parties prenantes Rédiger des SOP (Standard Operating Procedures) pour les incidents récurrents Mettre en place le monitoring et l’alerting (fraîcheur, qualité, disponibilité des données) Garantir la performance et la fiabilité opérationnelle des solutions data Contribuer au support et à la montée en compétence des utilisateurs (Power BI, modèles de données) Responsabilités – BUILD focus Participer aux cérémonies agiles et assister le Product Owner Enrichir le backlog Jira (spécifications data, règles de transformation, critères d’acceptation) Réaliser les UAT avec les parties prenantes cybersécurité Analyser les sources de données nécessaires à la construction des KPI Optimiser la logique de calcul des indicateurs Concevoir les modèles de données sous Snowflake et Power BI Superviser l’orchestration et les planifications des flux Maintenir la documentation fonctionnelle Gérer et opérer le backlog BUILD Compétences requises Forte expérience sur des projets Data / BI Maîtrise de Azure Data Factory, Snowflake, Power BI Très bon niveau SQL (analyse, contrôle, optimisation) Expérience confirmée en tant que Product Owner / Proxy PO en environnement Agile (Scrum, Jira) Bonne culture IT générale (API, réseaux, protocoles) Anglais courant obligatoire Soft skills Excellente communication et capacité de vulgarisation Forte autonomie (contexte full remote) Capacité d’arbitrage et sens du résultat Aisance avec des environnements complexes et contraints (cybersécurité)
Freelance

Mission freelance
[FBO] Architecte Flux / Expert Middleware – CFT & MQ (N3) - Saint Denis - 1265

ISUPPLIER
Publiée le

11 mois
500-580 €
Saint-Denis, Île-de-France
L’objectif de la mission : • Assister et conseiller les équipes projets sur les différentes solutions référencés au catalogue pour la mise en place des flux. • Définir avec les architectes techniques les meilleures architectures techniques pour les plateformes flux (CFT, MQ…) • Définition / suppression / modification des flux sur les environnements d’intégration et documenter pour la mise en place sur la production • Être en support N3 des équipes de production • Définir les règles de transfert des flux à l’intérieur et entre les différentes lignes de service Flux. • Garantir la cohérence des flux inter-applicatif • Participation à la conception des feuilles de route techniques • Suivre l’obsolescence des composants • Assure la veille technologique • Assurer le maintien de la cartographie des flux techniques/flux logiques Environnement fonctionnel et technique : Environnement : Hébergement Datacenter et cloud (Aws, Azure, …) SGBD Oracle, Micrososft Sql Server, Postgresql, Ingres 9.2 sur Solaris , NoSQL Couchbase, Redis, MONGODB, PAAS SGBD (AWS et Azure) Serveurs Unix Solaris / AIX, Linux Suse / Red Hat / Centos / Ubuntu, Windows Server Middlewares Apache, Tomcat, Weblogic, CFT, MQ Server, SFTP, JMS ,VTOM, suite logicielle TIBCO, Networker, Oracle Tuxedo Plateformes/ logiciels Teraform, Jenkins, Ansible, squash TM, Postman, Docker, Kubernetes, Databricks Supervision Nagios, Datadog, Splun Connaissances, compétences obligatoires Expérience sur un poste similaire Expertise CFT , MQ Une maitrise de Kafka serait un plus. Maitrise sur les OS Linux (Ubuntu) Maitrise en développement de scripts Shell et un autre langage Maitrise des technologies autour du cloud serait un plus
Freelance

Mission freelance
Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier

WorldWide People
Publiée le
Microsoft SSIS

6 mois
320-350 €
Montpellier, Occitanie
Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier Recherche un profil expérimenté - SSIS + SQL Construire un package SSIS pour migrer les données déjà présente de Apollo vers SoPred Construire un package SSIS pour extraire les données SIDv2 vers SoPred Réécrire l'ensemble des procédures stockés des Tables Socle pour se sourcer sur les tables extraites par SSIS. Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier Recherche un profil expérimenté - SSIS + SQL Construire un package SSIS pour migrer les données déjà présente de Apollo vers SoPred Construire un package SSIS pour extraire les données SIDv2 vers SoPred Réécrire l'ensemble des procédures stockés des Tables Socle pour se sourcer sur les tables extraites par SSIS.
Freelance

Mission freelance
Expert Linux RedHat H/F

Insitoo Freelances
Publiée le
Administration linux
Ansible
CentOS

2 ans
334-439 €
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Expert Linux RedHat H/F à Sophia Antipolis, France. Contexte : Dans le cadre d’un environnement de production critique à haute disponibilité, notre client grand compte recherche un profil Expert Linux RedHat avec une forte expertise sur les architectures de clusters physiques. Le profil attendu interviendra en tant que référent technique Linux N3 sur des infrastructures critiques et jouera un rôle clé dans la stabilité, la performance et la sécurisation des plateformes. Les missions attendues par le Expert Linux RedHat H/F : - Assurer le maintien en condition opérationnelle des plateformes Linux critiques - Intervenir sur les incidents complexes N3, notamment sur les clusters Linux - Réaliser les analyses de causes racines (RCA) - Participer aux cellules de crise - Contribuer aux projets d’évolution des infrastructures Linux - Mettre en place des automatisations via Ansible - Produire et maintenir la documentation technique Livrables: - Documentation technique des infrastructures Linux et des clusters (DAT, procédures d’exploitation) - Rapports d’incidents majeurs et analyses de causes racines (RCA) - Playbooks Ansible et scripts d’automatisation - Recommandations d’amélioration et d’optimisation des plateformes Linux Compétences: - Expertise confirmée sur les architectures de clusters Linux physiques (haute disponibilité) * Mise en œuvre * Administration * Troubleshooting * Gestion d’incidents - Expertise Linux RedHat / CentOS en environnement de production critique - Bonne maîtrise de l’automatisation via Ansible - Expérience avancée en troubleshooting Linux N3 : * Analyse CPU / mémoire / I/O / réseau * Analyse et corrélation de logs * Diagnostic de problématiques de performance ou de stabilité - Expérience en gestion d’incidents majeurs et cellules de crise Compétences clés: SYS LINUX / UNIX
Freelance

Mission freelance
Senior Google Workspace, Data & IA

OPTIPARK
Publiée le
BigQuery
Google Cloud Platform (GCP)
Google Sheets

1 an
100-470 €
Niort, Nouvelle-Aquitaine
Dans le cadre d’un programme stratégique de transformation digitale, nous recherchons un Expert Senior Google Workspace / Data & IA capable d’assurer l’interface entre l’expertise technique et les enjeux métiers. Il s’agit d’un rôle hybride à forte valeur ajoutée, combinant : Administration avancée de l’environnement Google Workspace Exploitation et analyse des données d’usage (BigQuery / Looker) Développement de solutions d’automatisation (AppSheet / Apps Script) Pilotage et diffusion des usages IA (Gemini, adoption, innovation) Accompagnement des directions métiers dans la transformation numérique Vos missions 🔹 Volet Data & Analytics Concevoir et maintenir des modèles LookML complexes Développer des dashboards stratégiques (adoption, performance, indicateurs RSE) Exploiter les données via BigQuery (SQL avancé) Structurer les tables et optimiser les coûts de calcul et stockage Définir des indicateurs liés à la sobriété numérique et à la qualité de vie au travail 🔹 Volet IA Générative & Innovation Contribuer à la structuration d’un Centre d’Expertise IA Être référent technique et fonctionnel sur les solutions IA (Gemini) Animer une communauté d’ambassadeurs IA Identifier et déployer des cas d’usage métiers à forte valeur ajoutée Concevoir supports de formation et référentiels de prompts 🔹 Volet Google Workspace (Technique & Fonctionnel) Administrer et sécuriser l’environnement Google Workspace (DLP, Context-Aware Access) Développer des applications métiers via AppSheet Créer des automatisations via Google Apps Script Accompagner la migration d’Excel/VBA vers Google Sheets / BigQuery Assister le Product Owner dans la roadmap, les User Stories et la conduite du changement
Freelance

Mission freelance
Data domain lead

Codezys
Publiée le
Python
SQL

6 mois
450-550 €
Aubervilliers, Île-de-France
Aligner et renforcer les capacités des équipes IS&T, Data & Digital en coordination avec les parties prenantes du groupe. Accélérer, industrialiser et déployer des services numériques et de la valorisation des données, en s'appuyant sur des modèles de livraison basés sur les services, expertises métiers et logiciels. Développer, maintenir et soutenir des offres technologiques, data et digital pour créer de la valeur, en interne comme en externe. Chaque département doit se concentrer sur ses compétences clés tout en créant des synergies et en optimisant les interactions. Rôle du département DATA : Valoriser le potentiel des données en en faisant un actif stratégique pour renforcer la prise de décision basée sur les données. Renforcer la chaîne de valeur Data, en appliquant une stratégie de source unique de vérité, simplifier l’écosystème data et favoriser une approche centrée sur les données dans la stratégie applicative. Devenir un leader en Ecological AI en co-concevant un portefeuille de solutions Data. Équipe Data Transformation : Créer et dispenser des formations sur la data aux différents segments du personnel data. Réaliser des projets data avec les départements et Business Units (BU), notamment en automatisant les processus de reporting (projet KISS). Mettre en place une organisation Data à l’échelle du groupe et des BU pour améliorer la gouvernance et le reporting, en animant une communauté de responsables de la transformation data. Objectifs et livrables : En tant que responsable du domaine Data, vous gérez des missions de transformation, construisez des cas d’usage en analytics, supportez les initiatives d’automatisation et de changement, et garantissez l’alignement stratégique des produits data. Responsabilités clés : Vision et stratégie produit : Définir la vision et la feuille de route des produits data, agir comme point de contact unique pour les besoins métiers et aligner les solutions sur les objectifs opérationnels. Mise en œuvre & standards : Développer des solutions data (pipelines, datamarts, visualisations) conformes aux standards architecturaux, avec une expertise en modélisation sémantique et gestion des Master Data. Analyse & insights : Identifier des tendances via l’analyse de données, créer des dashboards et rapports stratégiques, soutenir les analystes citoyens en identifiant des opportunités à forte valeur ajoutée. Transformation et autonomisation : Promouvoir la maturité data par la formation (ex. Data Passport), faire évoluer la culture data et animer une communauté de Data Owners. Partenariats et adoption : Gérer attentes et besoins des parties prenantes, promouvoir et faciliter l’adoption des solutions data par les BU, en soutenant leur connexion à la plateforme.
Freelance
CDI

Offre d'emploi
AI/ML Product Engineer

Codezys
Publiée le
Data science
Deep Learning
IA Générative

12 mois
Aubervilliers, Île-de-France
Support aux unités opérationnelles dans la conception, le développement et l’industrialisation de solutions d’intelligence artificielle (IA) à travers tous les segments de l’énergie (bâtiments, sites industriels, réseaux, production). En s’appuyant sur une expertise approfondie du domaine de l’énergie et de solides compétences en AI/ML, le but est de transformer les problématiques opérationnelles en produits IA prêts pour la production, évolutifs et performants. L’objectif est de se concentrer sur des cas d’usage à fort impact, susceptibles de générer des résultats mesurables en termes de performance énergétique et de décarbonation, tout en créant des composants ML/AI robustes, explicables et réutilisables, intégrés à la plateforme de données du Groupe et déployables dans plusieurs unités opérationnelles. Objectifs et livrables Concevoir, développer et déployer des solutions IA/ML évolutives pour optimiser la performance énergétique et accélérer la décarbonation dans toutes les unités d’énergie. Transformer les défis opérationnels liés à l’énergie en produits IA prêts pour la production, en collaborant étroitement avec les équipes de Data Science et IT. Construire et maintenir une bibliothèque réutilisable de composantes IA explicables, intégrées à la plateforme de données du Groupe pour un déploiement cross-BU. Piloter la livraison complète des solutions, de la phase de proof of concept (POC) à la mise en production, en garantissant la faisabilité technique, la qualité des données et un impact métier mesurable. Favoriser le partage des connaissances et la réplication des solutions grâce à une documentation complète, des modèles et des guides de déploiement. Faciliter la collaboration inter-fonctionnelle entre les unités opérationnelles, la Data Science, l’IT et les fonctions centrales pour prioriser et exécuter les cas à fort impact.
CDI

Offre d'emploi
CONSULTANT SECURITE CLOUD (H/F)

CyberTee
Publiée le
Cloud

40k-70k €
Paris, France
🚀 Vos missions Intervenir sur des environnements Cloud Public : Amazon Web Services (AWS), Microsoft Azure, Google Cloud Platform (GCP) Réaliser des missions de consulting en cybersécurité Cloud Conduire des audits de sécurité techniques et organisationnels Assurer l’assistance technique auprès des équipes clients Réaliser des analyses de vulnérabilités et piloter les plans de remédiation Auditer la sécurité des accès et des identités Cloud (IAM) Définir et mettre en œuvre des politiques de sécurité Cloud Déployer et intégrer des solutions de sécurité (CNAPP, CSPM, CWPP) Animer des formations et actions de sensibilisation à la sécurité Cloud Intervenir sur des environnements Web, Linux, Windows, VMware, Android et iOS 👤 Profil recherché Diplôme d’école d’ingénieur en informatique, télécommunications ou équivalent Minimum 4 ans d’expérience en tant que Consultant ou Expert sécurité (ESN ou grande entreprise) Maîtrise des environnements Cloud : AWS, Azure, GCP Compétences en architecture sécurisée des environnements Cloud Bonne connaissance des solutions CNAPP, CSPM, CWPP Expérience en audit de sécurité et gestion des vulnérabilités Anglais opérationnel à l’écrit et à l’oral Excellentes capacités rédactionnelles 🎓 Certifications appréciées AWS Certified Solutions Architect AWS Security Specialty Microsoft AZ-305 Microsoft AZ-104 Microsoft AZ-500 Microsoft SC-100 Google Cloud Architect Google Cloud Security
Freelance
CDI

Offre d'emploi
Administrateur Systèmes et Déploiement Junior

R&S TELECOM
Publiée le
Ansible
Bash
Docker

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte de la mission : Produit : EMS API Platform (API Gateway) sécurise et optimise le trafic API vers divers backends SD-WAN/SD-LAN. Contexte de l’équipe : Mode Kanban, équipe pluridisciplinaire. Objectifs : Soutenir l'expert DevOps, automatiser les tâches et renforcer l'autonomie. Tâches à réaliser : Renforcer la montée en compétences de l’équipe sur la gestion des systèmes, le déploiement, et la configuration des infrastructures. Développer l’autonomie de l’équipe pour la gestion quotidienne des opérations, afin de réduire la dépendance à une seule personne. Favoriser une équipe plus résiliente, capable d’assurer la stabilité, la sécurité, et la performance des environnements en mode autonome.
Freelance

Mission freelance
Ops Engineers

Hanson Regan Limited
Publiée le
Ansible
Linux Debian

12 mois
450-650 €
Paris, France
Hanson Regan recherche un Ops Engineers pour une de 12 mois renouvelable, basé à Paris le profil doit être titulaire d'un passeport français Ingénieurs opérationnels Mission : Au sein d'une équipe Ops, vous serez responsable du maintien et de l'évolution des opérations et de l'exploitation d'un portefeuille applicatif au service de différentes divisions d'affaires. Paris 14ème Mode de travail : 3 jours sur site (probablement à temps plein lors de l'intégration) Durée : 12 mois renouvelable Technologies requises : • Ansible • Administrateur système Linux (Debian) • Scripts Bash/Python • CI/CD GitLab • Docker Compétences bonus : • OpenStack • Terraforme • Kubernetes Conformément aux exigences du client, les freelances doivent pouvoir travailler via leur propre entreprise. Nous ne pouvons malheureusement pas accepter les candidatures via des sociétés de portage salarial pour ce poste. Merci de nous contacter au plus vite si ce message vous intéresse.
CDI
Freelance

Offre d'emploi
Data Engineer DBT/Snowflake/Tableau/Airflow

OBJECTWARE
Publiée le
Apache Airflow
DBT
Snowflake

3 ans
40k-66k €
270-500 €
Île-de-France, France
Objectif de la mission Objectif global : Construire et maintenir les produits DATA Loyalty Présentiel 2j / semaine au siège SQL / Snowflake - Confirmé - Impératif DBT / Airflow / Astronomer - Confirmé - Impératif Data modeling / Data Quality - Confirmé - Important Tableau / Data Viz - Junior - Souhaitable Français Courant (Impératif) Anglais Professionnel (Impératif) Prestations demandées Sous la responsabilité du Tech Lead, vous êtes l'acteur clé en charge des chaînes d'approvisionnement, de transformation et de mise en valeur des données, participant à la conception et modélisation des produits, assurant la conformité et la maintenabilité des solutions développées, et relevant les défis techniques liés à la volumétrie et à la qualité du patrimoine de données. Au quotidien, vos missions sont de : - Concevoir, développer et déployer les solutions de gestion des données "Cloud-Native" - Assurer la conformité et la maintenabilité du code (TDD, commentaires, etc.) - Détecter, analyser et résoudre les incidents ou anomalies survenant sur les produits de l'équipe - Contribuer aux chantiers transverses (usine logicielle-CI/CD, supervision, catalogue, etc.) - Comprendre la finalité métiers des produits, et surtout la complexité fonctionnelle des données manipulées - Assurer la cohérence de la modélisation des données du patrimoine avec l'aide des Data Managers - Accompagner les profils Produit ou Data Science dans le cadrage des besoins de données métiers (disponibilité, qualité, etc.) - Participer à l'animation de la communauté "Data Tech" (diffusion bonnes pratiques, capitalisation code, veille techno, etc.) - Sensibiliser nos différents interlocuteurs aux enjeux et bénéfices 'data' Qualifications Compétences Data & Analytics requises : - Utilisation de la « Modern Data Stack » (Snowflake, dbt, Tableau, Airflow, etc.) - Intégration & manipulation de données massives (SQL, Python, etc.) - Connaissances des architectures « Data » opérationnelles ou analytiques - Mise en place de supervision de données (contrôle qualité, rejets, alertes) - Connaissances des réglementations sur les données, notamment personnelles (ex : RGPD) Compétences générales attendues : - Connaissances et mise en œuvre des méthodologies Agile : Scrum & Kanban - Culture & techniques DevOps - Collaboration et travail en équipe - Bonne communication orale et écrite - Autonomie et proactivité - Gestion des priorités, risques et alertes - La connaissance du monde de l’hôtellerie est un plus. - Anglais opérationnel requis.
Freelance

Mission freelance
Ingénieur Production Cloud & DevOps (F/H)

ADSearch
Publiée le
Ansible
Cloud
Cloud privé

3 mois
France
En Bref : Rouen/Bercy/Lille/Strasbourg – Mission – Cloud – DevOps – Coaching Adsearch, société de conseil en recrutement spécialisé vous accompagne dans votre carrière pour vous trouver LE poste idéal. Younesse, notre spécialiste Cloud & Infrastructure, recrute pour l'un de ses clients, un acteur majeur de l'administration publique engagé dans une transition Cloud d'envergure , un Ingénieur Production Cloud (F/H) . Votre futur environnement de travail Établissement de services informatiques pilotant le déploiement sur le Cloud de l’État (Nubo). Centres Ops dynamiques localisés à Lille, Strasbourg, Rouen ou Bercy. Travail en binôme avec une forte dimension de transmission de savoir (coaching). Le contexte du poste En tant qu' Ingénieur Production Cloud (F/H) , vous intervenez dès le démarrage des projets pour définir l'architecture cible. Votre rôle est double : assurer la montée en compétence des équipes internes via un accompagnement pratique et prendre en charge les activités de BUILD et de RUN. Vos missions au quotidien Construire les environnements via Terraform sur des clusters OpenStack. Automatiser les déploiements d'outils à l'aide d'Ansible. Mettre en place et optimiser les pipelines CI/CD (Jenkins, GitLab, Maven). Assurer la supervision et le monitoring des systèmes (Prometheus, Grafana, Loki). Échanger régulièrement avec les équipes de développement pour fluidifier les déploiements.
CDI

Offre d'emploi
DevOps Kubernetes H/F

HAYS France
Publiée le

45k-50k €
Strasbourg, Grand Est
Les missions sont les suivantes : Réaliser les audits qualité, les analyses et tests de code produits par les développeurs Déployer des infrastructures Concevoir, planifier et gérer des applications Élaborer des méthodes d'unification et d'automatisation Identifier des problèmes et la recherche de solutions et axes d'optimisation Sécuriser des systèmes et des services numériques Orchestrer les différentes phases des projets digitaux en s'assurant de la bonne collaboration entre les développeurs, les administrateurs réseaux et les profils opérationnels
Freelance

Mission freelance
Responsable d’Application (RUN & DATA GCP)

Codezys
Publiée le
Git
Reporting
Shell

6 mois
Lille, Hauts-de-France
Localisation : Lille Contexte : International 1) Description de la mission Située dans un contexte international, cette mission concerne la gestion de plusieurs produits digitaux récemment déployés, avec des enjeux clés tels que : la fiabilité la continuité de service la qualité des données la performance opérationnelle Le poste de Responsable d’Application combine une responsabilité majeure dans le domaine du RUN applicatif (support, gestion des incidents, maintien en conditions opérationnelles, performance) et une contribution technique liée aux composants DATA sur GCP. Il s’inscrit dans une démarche d’amélioration continue et de développement progressif des compétences sur la stack technologique. Le profil recherché doit être à la fois technico-fonctionnel, avec une orientation vers le pilotage du RUN et du support applicatif, plutôt que vers un rôle exclusivement de développement. 2) Objectifs & responsabilités principales Pilotage du RUN applicatif Assurer la gestion des incidents et des problèmes Garantir le maintien en conditions opérationnelles (MCO) Suivre la performance à l’aide de KPI et produire un reporting régulier Maintenir la stabilité et la continuité du service pour le périmètre concerné Pilotage opérationnel & coordination transverse Animer les instances de projet et de run : COMOP / COPIL Coordonner les différentes parties prenantes : équipes IT, métiers, TMA, éditeurs, pays Gérer le pilotage opérationnel global et assurer le suivi des actions Mise en production & évolutions Accompagner les mises en production (MEV) Suivre l’avancement des projets et évolutions du périmètre Garantir la maîtrise à la fois fonctionnelle et technique des outils Assurer la maintenance évolutive Contribution DATA (GCP) Analyser et comprendre les flux de données et leurs usages Intervenir techniquement sur des aspects tels que SQL ou troubleshooting data Développer ou faire évoluer certains composants sous GCP si nécessaire Participer activement à l’amélioration continue et à la montée en compétences sur la stack DATA 3) Livrables attendus Suivi du RUN avec : – Tableaux de bord KPI – Reporting régulier (incidents, performance, disponibilité) Comptes rendus et supports d’instances : – COMOP / COPIL – Plan d’actions pour le RUN et l’amélioration continue Suivi des mises en production (MEV) : – Préparation, coordination, validation et accompagnement Documentation opérationnelle et technique du périmètre Analyses des flux DATA et résolution d’anomalies
Freelance

Mission freelance
Devops SRE

Ness Technologies
Publiée le
Argo CD
GitLab CI
Grafana

6 mois
Île-de-France, France
Contexte du poste Au sein de l’équipe Site Reliability Engineering (SRE) , vous intervenez sur des plateformes Cloud critiques avec un rôle central dans la fiabilité, la performance et la scalabilité des environnements de production. Le poste est fortement orienté RUN, automatisation et excellence opérationnelle , avec un focus majeur sur OpenShift en production . Vous participez activement à la conception, à l’exploitation et à l’amélioration continue des plateformes Cloud (public, privé ou hybride), dans une logique SRE et DevOps avancée. Missions principalesOpérations & Fiabilité Garantir la stabilité, la résilience et les performances des environnements Cloud et OpenShift. Participer au déploiement, au monitoring, au troubleshooting et à l’optimisation des applications en production. Définir, mettre en œuvre et améliorer les SLO, SLI et SLA . Automatiser les opérations de production dans une approche Infrastructure as Code et GitOps . Engineering & Automatisation Concevoir, développer et maintenir des pipelines CI/CD (GitLab CI). Gérer l’infrastructure via Terraform et Helm . Contribuer au design et à l’évolution des architectures Cloud (Public / Private / Hybrid). OpenShift & Kubernetes Administrer et exploiter des clusters OpenShift : installation, mises à jour, capacity planning gestion des opérateurs sécurité et durcissement des plateformes Améliorer la fiabilité de la plateforme OpenShift et accompagner les équipes de développement dans son usage. Gérer les sujets réseau, stockage, logging et monitoring en environnement Kubernetes / OpenShift. Collaboration & Culture SRE Travailler en étroite collaboration avec les équipes Développement, Sécurité, Infrastructure et Produit . Documenter, partager les bonnes pratiques et contribuer à une démarche d’amélioration continue . Compétences requisesCompétences techniques – Must Have Maîtrise avancée d’OpenShift en environnement de production . Solide expérience sur Kubernetes . Très bonne connaissance des pratiques DevOps / SRE et des outils associés : GitLab CI/CD Terraform Helm Prometheus / Grafana Argo CD Bonne expertise des environnements Cloud . Excellente compréhension : des architectures microservices des API REST des patterns de résilience (autoscaling, circuit breaker, etc.). Compétences complémentaires – Nice to Have Expérience OpenShift à grande échelle / très forte production . Pratiques GitOps avancées (Argo CD, Flux). Connaissances en sécurité Cloud : RBAC gestion des secrets network policies Scripting : Python, Bash, Go (optionnel).
4987 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous