Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 550 résultats.
Offre d'emploi
Ingénieur SysOps (H/F)
Publiée le
Ansible
AWS Cloud
Azure
12 mois
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Tu es comme un poisson dans l’eau dans l’environnement Linux et tu es convaincu que l’automatisation est LA solution pour une meilleure productivité ? C’est le projet idéal pour toi ! Rejoins notre équipe en tant qu’ Ingénieur SysOps . 🚀 Ton challenge si tu l’acceptes : Assurer la disponibilité et la fiabilité de l’infrastructure Gérer les incidents et demandes de niveau 2 et 3 Automatiser les processus pour assurer la répétabilité et la qualité Développer et garantir la pérennité des processus d’intégration et de déploiement Participer activement aux projets d’amélioration continue Accompagner la mise en place de nouvelles solutions
Mission freelance
Data Engineer azure (SQL / ADF /Power BI)
Publiée le
Azure Data Factory
Azure DevOps
CI/CD
10 mois
Île-de-France, France
Télétravail partiel
Au sein d’un Centre de Compétences Data, le Data Engineer participe à des projets de transformation digitale. Il conçoit, développe et déploie des solutions Data et BI pour permettre aux utilisateurs métiers de suivre et analyser leurs activités. Il met en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts), développe des pipelines ETL/ELT automatisés avec Azure Data Factory et SSIS, assure la qualité, la sécurité et la performance des données, et collabore avec les équipes DevOps, Product et Data pour garantir la cohérence technique et fonctionnelle des solutions. Compétences attendues : Langages : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Outils : GitLab, Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning
Mission freelance
Ingénieur DevOps Sénior | Linux & Windows (H/F)
Publiée le
CI/CD
Linux
Windows Server
12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’un projet autour du Global Trade & Cash Management (gestion de trusts, comptabilité, financements, crédits, garanties, suivi de marchandises, virements et paiements), nous recherchons un Ingénieur de Production Senior . Environnement corporate intégrant des développements internes et des progiciels métiers . Collaboration avec des équipes MOE/MOA et forte transversalité. Objectifs : assurer la production , le suivi de l’écosystème applicatif , l’ intégration de projets et le support opérationnel (demandes, incidents). Responsabilités principales Préparer, administrer et maintenir les environnements & infrastructures. Définir et gérer les pipelines CI/CD . Suivre et traiter les demandes et incidents de production . Participer aux intégrations architecture / sécurité / réseau . Assurer le support et l’intégration de solutions liées à la finance du commerce international .
Mission freelance
Devops VITROLLES Kafka connect - Avancé, AWS - Expert, AWS S3 - Avancé, Gitlab CI/CD - Expert
Publiée le
Apache Kafka
AWS Cloud
DevOps
6 mois
400-420 €
Vitrolles, Provence-Alpes-Côte d'Azur
Télétravail partiel
Devops VITROLLES Kafka connect - Avancé, AWS - Expert, AWS S3 - Avancé, Gitlab CI/CD - Expert, Certificat SSL - Avancé, Helm Charts - Avancé, Programmation Python - Avancé Objectifs et livrables L’expertise technique Devops cloud public/privé sur le Datalake (plateforme Big Data) consistera à : • Designer des modèles de CI et CD stratégiques pour permettre des déploiements sur tous les environnements (dev, int, preprod et prod) • Développer les pipelines gitlab de CI et CD pour assurer le build, déploiement et configuration des composants du datalake sur le cloud public AWS et du datalake sur cloud privé • Documenter les modes opératoires associées à ces pipelines • Accompagner et assurer un support niveau 2 aux ROA lors des déploiements sur les différents environnements • Contribuer à l’amélioration continue des outils de déploiement • Communication auprès des utilisateurs finaux Compétences demandées Devops VITROLLES Kafka connect - Avancé AWS - Expert AWS S3 - Avancé Gitlab CI/CD - Expert Certificat SSL - Avancé Helm Charts - Avancé Programmation Python - Avancé
Mission freelance
Staff/Principal Infrastructure Engineer
Publiée le
Cloud
Cloud privé
DevOps
3 ans
700-800 €
La Défense, Île-de-France
Télétravail partiel
Staff Infrastructure Engineer - La Défense Le Profil que nous cherchons Nous recherchons LE technicien d'exception - pas un architecte qui reste dans sa tour d'ivoire, mais le praticien ultra-smart qui transforme les visions techniques en réalité concrète. Vous êtes celui qui : Comprend instantanément les directions de l'architecte et les traduit en implémentations pragmatiques Embarque naturellement les équipes techniques dans sa vision Monte en compétences à vitesse grand V sur n'importe quel sujet technique Possède un mindset de problem-solver face à tous les défis techniques Votre Terrain de Jeu Technique Infrastructure & Production Classique Mainframe (un vrai plus qui vous démarquera !) Virtualisation (VMware, Hyper-V) Systèmes Linux/Windows en environnement enterprise Sauvegarde & disaster recovery Cloud & Modernisation Multi-cloud et cloud privé Conteneurisation (Docker, Kubernetes) Infrastructure as Code (Terraform, Ansible) Observabilité & Monitoring Instana, Grafana, Prometheus ELK Stack, Datadog APM et troubleshooting avancé Sécurité & Conformité Sécurisation d'infrastructures complexes IAM, chiffrement, audit de sécurité Mise en conformité réglementaire DevOps & Automatisation CI/CD (Jenkins, GitLab, GitHub Actions) Orchestration et automatisation Pratiques SRE et engineering de fiabilité Vos Missions L'Exécutant Technique d'Excellence Concrétiser les orientations architecturales en solutions opérationnelles Piloter techniquement les implémentations complexes Résoudre les défis techniques les plus ardus avec pragmatisme Le Fédérateur d'Équipes Embarquer les équipes sur les nouvelles technologies Transmettre votre expertise et montée en compétences express Collaborer étroitement avec architectes, dev et ops L'Adaptateur Rapide S'approprier rapidement de nouveaux domaines techniques Anticiper les besoins d'évolution technologique Proposer des améliorations continues Votre Profil Idéal Expérience 8-12 ans d'expérience en infrastructure/production Parcours démontrant une évolution technique constante Expérience en environnements critiques et complexes Mindset & Soft Skills Curiosité technique insatiable et apprentissage ultra-rapide Leadership naturel et capacité à fédérer Pragmatisme et orientation solution Communication fluide avec tous les niveaux techniques Compétences Techniques Base solide sur systèmes, réseaux et sécurité Polyvalence sur les technologies cloud et on-premise Expérience mainframe (un vrai atout différenciant) Maîtrise des outils d'observabilité modernes Ce que nous offrons Impact technique majeur sur des systèmes critiques Environnement technologique riche et en constante évolution Autonomie technique et liberté d'innovation Équipe passionnée et challenges techniques stimulants Localisation : La Défense (RER A) 3 jours de présentiel par semaine
Mission freelance
Support Engineer (Analyste / Technicien d’exploitation confirmé)
Publiée le
Azure
Bash
DevOps
6 mois
100-400 €
Nord, France
Télétravail partiel
🎯 Missions principales Gérer les incidents d’exploitation N1/N2 et assurer la maintenance (systèmes, réseaux, sauvegardes). Réaliser la mise en production et le déploiement d’applications. Gérer les utilisateurs (Active Directory, Gmail). Créer et administrer des serveurs (nouveaux magasins). Suivre les applications et flux applicatifs, détecter et résoudre les incidents ou escalader selon procédures. Contribuer à l’amélioration continue et à l’automatisation des processus. Assurer l’astreinte hebdomadaire (soir et week-end). ✅ Résultats attendus Garantir la disponibilité et la sécurité de l’exploitation. Maintenir les infrastructures informatiques et applicatives en conditions opérationnelles. Produire et mettre à jour la documentation technique. Participer activement à l’amélioration continue (process, supervision, automatisation).
Mission freelance
Développeur MSBI - Power BI Ms Consultant (Secteur bancaire)
Publiée le
Azure Data Factory
Azure DevOps
BI
12 mois
500-560 €
Île-de-France, France
Télétravail partiel
Au sein de la Direction des Données et des Services Analytiques, le service Analytic assure la mise en œuvre et le support des solutions analytiques et de Business Intelligence de la Banque. L’équipe DEV Rapide MSBI intervient sur des projets de développement agiles et rapides (moins de 20 jours de développement) pour répondre aux besoins métiers en matière d’analyse, de reporting et de visualisation de données. Le consultant interviendra sur l’ensemble du cycle de vie des projets BI : du recueil de besoin jusqu’à la mise en production, tout en accompagnant les utilisateurs et en participant à la promotion de l’offre de services BI. 🎯 Missions Recueil des besoins auprès des équipes métiers et participation aux ateliers techniques et fonctionnels. Conception et développement de solutions BI agiles (SQL, SSIS, SSRS, SSAS, Power BI). Mise en œuvre de prototypes et POC pour valider les choix fonctionnels et techniques. Accompagnement des utilisateurs dans la prise en main des solutions et des outils de datavisualisation. Maintenance et évolution des solutions BI déployées. Avant-vente et conseil : participation à la présentation de l’offre de services BI, réalisation de démonstrations et supports de communication. Animation de communautés BI et partage des bonnes pratiques. Mise à jour documentaire (SharePoint) et suivi des activités (reporting hebdomadaire). Veille technologique sur l’écosystème Microsoft BI et les outils complémentaires.
Mission freelance
Développeur Flutter Senior (H/F)
Publiée le
Azure
Dart (langage)
DevOps
6 mois
400-580 €
Île-de-France, France
Télétravail partiel
TEKsystems recherche pour le compte de son client : Un developpeur Flutter Senior TOP SKILLS : Dart, Flutter Firebase, Azure, Git Connaissance de Swift serait appréciée Anglais (courant, écrit et oral) – Français (préféré) Compétences clés & Outils Solide connaissance des outils et méthodes de développement logiciel ; des langages logiciels associés ; de la conception et de la configuration des tests ; des systèmes, applications, produits et services associés. Bonnes compétences en communication écrite et orale. Capacité à tester et analyser des données et fournir des recommandations ; à organiser les tâches et déterminer les priorités ; capacité à fournir des conseils aux personnels moins expérimentés. Compétences éprouvées en débogage et résolution de problèmes (mémoire, performance, utilisation de la batterie, optimisation de l'utilisation du réseau, etc.) Expérience extensive en backend Node et application Flutter. Connaissance DevOps. Collaboration interculturelle.
Offre d'emploi
Senior / Tech Lead Java - Market Risk (Cloud-native, DDD, Event-Driven)
Publiée le
Architecture
Cloud privé
DevOps
60k-80k €
Île-de-France, France
Télétravail partiel
Nous accompagnons notre client pour la refonte d’une application Market Risk afin de passer d’un système historique à une plateforme cloud-native (Java). L’objectif à court terme est de réussir un POC pour poser le socle fonctionnel et technique, puis industrialiser. Ce qui doit être construit : une application structurée en DDD, pilotée par un moteur d’orchestration / workflow, avec une GUI dédiée à la traçabilité des données tout au long des processus métier. La base cible est SingleStore (ou équivalent SQL distribué). Le déploiement se fera sur cloud interne ou Google Cloud Platform (GCP). Pendant la transition, le nouveau système cohabitera avec le legacy : la capacité à réaliser le branchement est donc essentielle pour livrer vite sans perturber l’existant. Pour cela, nous recrutons un profil capable de tenir la vision d’architecture et de livrer le code : un(e) ingénieur(e) expérimenté(e). Il/elle travaillera de concert avec un(e) DevOps pour la chaîne CI/CD et l’environnement cloud-native. Les missions du poste : Architecture cible & transition : définir les bounded contexts (DDD), conduire les ateliers , sélectionner les patterns d’intégration ; orchestrer la transition legacy vers la nouvelle application. Delivery & code : concevoir et développer des microservices Java de production (état de l’art), implémenter la mécanique évènementielle, modéliser et exécuter les workflows métier, contribuer à la GUI. Standards & fiabilité : poser les normes d’ingénierie (sécurité, observabilité, performance, testabilité), mettre en place les contrats de données et le versioning de schémas. Collaboration DevOps : travailler au quotidien avec le/la DevOps pour une chaîne CI/CD robuste, IaC, Kubernetes, observabilité et déploiements progressifs. Branchement au legacy : concevoir/maintenir les adapters, data contracts et synchronisations nécessaires pendant toute la phase de transition.
Offre d'emploi
Data Architect
Publiée le
AWS Cloud
Azure
BI
65k-80k €
Paris, France
Télétravail partiel
Rejoignez la Data Fabric d'INVENTIV IT pour concevoir et faire évoluer des Platform Data et Data Market Place complexes pour nos clients internationaux. En tant qu'Architecte Solution Data Senior, vous serez le garant de l'architecture Cloud Hybride (AWS/Azure) , de la performance Big Data et de la Gouvernance de nos solutions. 🎯 Vos Missions et Livrables Clés (Alignement Technique) 1. Architecture Cloud Hybride et Stratégie Conception Hybride : Définir et concevoir l'architecture de la plateforme Cloud Data cible en tirant parti des services de données d' AWS et AZURE . Feuille de Route : Élaborer la roadmap d'implémentation et de migration vers ces plateformes en intégrant les solutions Snowflake et Databricks . Gouvernance Data : Définir et implémenter la Gouvernance des Données (qualité, sécurité, accès) au sein de la Data Fabric et du Data Market Place. BI & Analytics : Auditer les systèmes BI historiques et concevoir des solutions modernes d'analyse et de BI sur la nouvelle plateforme. 2. Industrialisation et Ingénierie Avancée DataOps & DataSecOps : Mettre en œuvre et garantir les meilleures pratiques DevOps et DataSecOps dans le cycle de vie des données (CI/CD, sécurité par conception). Transformation Modulaire : Standardiser et industrialiser les transformations de données critiques en utilisant l'outil DBT ( Data Build Tool ). Augmentation/ML : Évaluer et intégrer des outils d'aide à la conception ou d'analyse avancée comme Dataiku dans l'écosystème du Datalab. FinOps : Intégrer les pratiques FinOps pour optimiser les coûts sur les plateformes AWS et AZURE . 3. Leadership, Conseil et Design Animation : Mener des ateliers collaboratifs et de Design Thinking pour traduire les besoins métier en architectures techniques précises. Support & Référentiel : Être le référent technique Snowflake/Databricks et fournir un support d'expertise aux Data Engineers et aux équipes Sécurité Cloud. Audit et Documentation : Réaliser des audits complets et garantir une restitution documentaire de haut niveau (normes, architectures cibles). 🛠️ Environnement Technique Vous évoluerez sur un environnement Cloud et Big Data complet : DomaineTechnologies et Concepts Cloud PublicAWS (Architecture) & AZURE (Architecture) Plateformes DataSnowflake (Data Warehouse), Databricks (Engineering/ML), DBT (Transformation) Outils AvancésDataiku , Big Data , Solutions BIMéthodes & OpsDevOps , DataSecOps , Gouvernance , FinOps
Mission freelance
Data Engineer - Azure
Publiée le
Architecture
Azure
Azure Data Factory
1 an
400-570 €
Île-de-France, France
Télétravail partiel
Missions principales : Contribuer à l’évolution de l’offre de service de la plateforme Big Data & ML. Définir et maintenir le cadre de référence des principes d’architecture. Accompagner les développeurs dans l’appropriation de ce cadre. Définir les solutions d’exposition, de consommation et d’export des données métiers. Accompagner les équipes dans la mise en œuvre des solutions proposées. Participer à la mise en place d’API LLM dans le cadre du socle LLMOPS. Expertise technique attendue : Architecture & Cloud Azure Définition d’architectures cloud et Big Data distribuées. Automatisation des ressources Azure via Terraform et PowerShell. Connaissance avancée d’Azure Databricks, Azure Data Lake Storage, Azure Data Factory. Administration réseau : vNet Spoke, Subnets Databricks. Sécurité : RBAC, ACLs. Data & IA Platform Maîtrise de la chaîne d’ingestion de données : pipelines ADF (Collecte, Routage, Préparation, Refine…). Études d’architecture en lien avec l’évolution de la plateforme. Administration ADF : Link Services, Integration Runtime. Administration Databricks : Tokens, Debug, Clusters, Points de montage. Administration Azure Machine Learning : Datastores, accès, debug. CI/CD & DevOps Configuration Azure DevOps : droits, connexions de service. Développement de pipelines CI/CD avec Azure Pipelines. Gestion des artefacts avec Azure Artifact et Nexus. Automatisation des déploiements. Pratiques FinOps et optimisation des coûts cloud. Agilité & Delivery Utilisation de Jira : création d’US/MMF, configuration de filtres, Kanban. Participation active aux cérémonies Agile : Sprint, Revue, Démo. Développement & Collaboration Développement Python : modules socle, code optimisé, tests unitaires. Développement PowerShell : déploiement de ressources Azure. Maîtrise de Git : push, pull, rebase, stash, gestion des branches. Pratiques de développement : qualité, tests unitaires, documentation.
Mission freelance
Cloud engineer
Publiée le
Automatisation
CI/CD
DevOps
3 mois
Lille, Hauts-de-France
Télétravail partiel
A la recherche d'un Cloud Engineer expérimenté ayant participé à des projets de modernisation d'outils / pratiques et de migration Cloud : - automatisation d'outils et de process, de création / évolution de pipelines CI/CD - déploiement d’environnements applicatifs complets dans le Cloud - accompagnement des équipes sur des sujets DevOps / techniques - formation/acculturation sur les bonnes pratiques. Environnement cloud GCP / Kubernetes GCP/Kubernetes - Confirmé - Impératif CI/CD - Confirmé - Impératif Français Courant (Impératif) Anglais Professionnel (Impératif)
Mission freelance
Devops senior - Azure/OVH/Linux - Full remote - H/F
Publiée le
Ansible
Azure
Grafana
90 jours
480-520 €
France
Télétravail 100%
Contexte de la mission Rejoignez une entreprise innovante dans le secteur digital, en pleine transformation et croissance de son infrastructure. Basée à distance avec des activités de production hébergées principalement sur OVH et des environnements non-produits sur Azure, notre société recherche un DevOps Senior pour intégrer une équipe dynamique. Actuellement composée d'un junior, six administrateurs systèmes avec un accent sur l'automatisation, et soutenue par un DBA, l'équipe est en expansion. Le départ imminent d'un expert senior crée une opportunité unique d'apporter vos compétences techniques pointues à cette mission critique. Votre rôle sera central pour soutenir l'évolution de l'infrastructure et assurer la stabilité des projets en cours. Cette mission DevOps Senior est idéale pour les professionnels aimant les challenges techniques et ayant une forte autonomie. Missions principales : - Prendre en charge la réarchitecture de l'infrastructure sur OVH - Assurer la passation avec le profil sortant - Participer activement à l'automatisation des opérations, incluant gestion des certificats et secrets. - Développement et optimisation d'outils internes en Python - Evolutions Ansible et Terraform - Collaborer avec l'équipe existante pour raffiner le monitoring et éviter les alertes inutiles. - Soutenir le DBA dans l'amélioration de l'hébergement des bases de données. Environnement technique : - Plateformes : OVH pour la production, Azure pour les environnements hors production. - Intégrations : HAProxy, Prometheus, Loki, Grafana, PostgreSQL.
Mission freelance
Développeur GO
Publiée le
API
Azure
CI/CD
1 an
400-440 €
Lille, Hauts-de-France
Télétravail partiel
L'équipe a pour mission d’opérer et de faire évoluer plusieurs briques stratégiques : - CloudCraft, l’outil interne d’Infrastructure-as-Code (provisionnement multi-cloud via Terraform et backend Golang), - Turbine, la solution interne de Continuous Delivery sur Kubernetes, - ainsi qu’une partie des infrastructures cloud mutualisées. Votre rôle principal sera de renforcer l’équipe de développement et d’apporter de nouvelles capacités aux utilisateurs internes du Groupe. Objectifs de la mission - Concevoir et développer de nouvelles fonctionnalités backend dans les outils de l’équipe, - Améliorer l’expérience développeur dans la gestion de l’Infrastructure-as-Code, - Accompagner les équipes utilisatrices dans l’adoption et la bonne utilisation de l’outil. Activités principales Analyse & Conception - Participer à la définition des spécifications générales. - Réaliser les analyses techniques détaillées. - Concevoir les évolutions sur l’architecture backend des outils de la CD Développement - Développer des fonctionnalités backend en Golang. - Intégrer et étendre des modules Terraform pour le provisioning multi-cloud. - Documenter le code et les composants développés. - Être force de proposition sur l’évolution des patterns IaC. - Savoir Utiliser les outils IA du marché (ex: Copilot) Qualification - Écrire et exécuter les tests unitaires et d’intégration. - Identifier, corriger et documenter les dysfonctionnements. Maintenance & Support - Assurer la maintenance corrective et évolutive de nos outils. - Administrer et enrichir la librairie de modules Terraform. - Participer au support utilisateurs sur les fonctionnalités IaC. Livrables attendus - Code backend documenté et conforme aux standards internes. - Modules Terraform validés et industrialisés. - Jeux de tests automatisés et résultats associés. - Documentation technique et utilisateur à jour. Répartition de la mission - 80% : Conception & Développement backend (Golang, Terraform, IaC). - 20% : Support et accompagnement utilisateurs.
Offre d'emploi
Data Engineer
Publiée le
AWS Cloud
Azure
Databricks
45k-65k €
Paris, France
Télétravail partiel
Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).
Offre d'emploi
Ingénieur Systèmes d'Hébergement Web & Sécurité (Nginx/WordPress/Ansible)
Publiée le
Administration linux
Administration système
Ansible
24 mois
Saint-Denis, Île-de-France
Télétravail partiel
Le Contexte et l'Équipe Rejoignez l'équipe Hébergement de notre client, composée de 5 experts , où vous serez l'un des deux référents dédiés à l'infrastructure web. Vous gérerez un parc critique de plus de 600 sites et 2000 domaines , majoritairement basés sur des environnements mutualisés (Linux, Nginx, PHP, MySQL, WordPress). L'objectif : garantir la performance , la sécurité et la stabilité des services. Vos Missions Principales En tant qu'Ingénieur Hébergement, vos responsabilités s'articuleront autour de trois axes : Administration et Optimisation (Run & Build) : Assurer la maintenance, l'upgrade et l'optimisation des services web (Nginx, Apache, PHP-FPM, MySQL) sous Linux . Gérer les aspects réseau cruciaux : DNS , Load Balancer et Healthcheck . Mettre en œuvre des solutions d'amélioration continue et d'automatisation des tâches répétitives. Sécurité et Industrialisation (DevOps) : Déployer et maintenir les solutions de sécurité web, notamment le WAF (type Nginx App Protect ), et la gestion des certificats SSL ( Let's Encrypt ). Intégrer et optimiser les outils DevOps : utilisation de Gitflow , mise en place et gestion des pipelines GitLab et des playbooks Ansible pour le déploiement et la configuration. Support, Documentation et Projet : Participer à la chefferie de projet pour la communication des évolutions et le suivi de tâches. Assurer le suivi des tâches et le Reporting régulier (PowerPoint) de l'activité. Créer et mettre à jour la documentation technique et les supports d'aide/formation pour les équipes et les clients.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
550 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois