L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 578 résultats.
Mission freelance
Chef de projet BI H/F
GROUPE ARTEMYS
Publiée le
Microsoft Fabric
Microsoft Power BI
Microsoft SQL Server
3 mois
Rouen, Normandie
Informations : TJ en fonction de votre expertise et expérience sur un poste similaire. Le poste propose 1 journée de télétravail / semaine (non négociable). Contrat freelance de 3 mois renouvelable. Votre mission (si vous l’acceptez) : - Cadrer les besoins métiers et formaliser les règles de gestion associées aux KPI de pilotage. - Assurer la cohérence et la qualité des indicateurs produits. - Piloter les projets BI : coordination, suivi, planification, communication. - Travailler en lien étroit avec les équipes techniques et les métiers pour garantir la bonne compréhension et la bonne mise en œuvre des besoins. L’environnement technique : Maîtrise de la stack Microsoft BI, en particulier : - SQL Server (modélisation, optimisation, ETL ) - Power BI (Datasets, modèles tabulaires, DAX, gouvernance) - Une connaissance de Microsoft Fabric serait un réel plus.
Offre d'emploi
Architecte Cloud GCP (H/F)
Le Groupe SYD
Publiée le
CI/CD
Git
IAM
24 mois
50k-60k €
400-450 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes 🏠 Télétravail : 2 à 3 jours par semaines 👉 Contexte client : L’entreprise pour laquelle tu interviendras place désormais le Cloud au cœur de sa stratégie. Tous les nouveaux projets sont conçus nativement sur GCP, et l’équipe architecture joue un rôle clé dans la structuration, l’amélioration continue et l’industrialisation des environnements Cloud. Tu rejoindras une équipe d’architectes experte en GCP, en architectures techniques et applicatives, et maîtrisant les enjeux. Tu auras pour missions de : Concevoir des architectures Cloud GCP robustes, sécurisées, évolutives et optimisées FinOps. Améliorer en continu les environnements Cloud : performance, sécurité, résilience, gouvernance. Réaliser des études d’architecture : cadrage, design, analyse d’impacts et recommandations techniques. Jouer le rôle d’interface entre les besoins métiers et les solutions Cloud. Définir et industrialiser des standards, patterns et bonnes pratiques. Contribuer à l’automatisation et à l’industrialisation des plateformes Cloud. Sensibiliser, former et accompagner les équipes internes sur les usages GCP. Participer activement à la gouvernance Cloud (sécurité, coûts, organisation, cohérence technique). Travailler dans un écosystème composé d’experts internes et externes, avec une forte dynamique de partage et de montée en compétence collective. Stack technique : GCP, Kubernetes/GKE, Terraform, Git, CI/CD, Cloud Monitoring, IAM, VPC, Cloud Armor, Security Command Center, pratiques FinOps...
Mission freelance
Chef de projet BI H/F
GROUPE ARTEMYS
Publiée le
Microsoft Fabric
Microsoft Power BI
Microsoft SQL Server
3 mois
Rouen, Normandie
L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail Votre mission (si vous l’acceptez) : - Cadrer les besoins métiers et formaliser les règles de gestion associées aux KPI de pilotage. - Assurer la cohérence et la qualité des indicateurs produits. - Piloter les projets BI : coordination, suivi, planification, communication. - Travailler en lien étroit avec les équipes techniques et les métiers pour garantir la bonne compréhension et la bonne mise en œuvre des besoins. L’environnement technique : Maîtrise de la stack Microsoft BI, en particulier : - SQL Server (modélisation, optimisation, ETL ) - Power BI (Datasets, modèles tabulaires, DAX, gouvernance) - Une connaissance de Microsoft Fabric serait un réel plus.
Offre d'emploi
Data Domain Lead (H/F)
RIDCHA DATA
Publiée le
Data visualisation
Microsoft Fabric
PowerBI
1 an
Paris, France
Nous recherchons un Data Domain Lead expérimenté pour accompagner des projets de transformation data au sein d’une organisation de grande envergure et à dimension internationale. La mission consiste à concevoir et déployer des cas d’usage data et reporting de bout en bout , à accompagner les entités métiers dans leurs initiatives d’ automatisation , et à jouer un rôle clé dans la montée en maturité data des équipes. Responsabilités principales Définir et porter la vision et la roadmap des produits data , en tant que point de contact principal entre les équipes métiers et data. Concevoir et mettre en œuvre des domaines data et solutions analytiques , depuis les pipelines d’acquisition jusqu’aux tableaux de bord et reportings orientés métier. Construire et maintenir des modèles de données sémantiques , des datamarts et des solutions de reporting via Microsoft Fabric et Power BI . Recueillir et traduire les besoins métiers en vision produit, epics et user stories fonctionnelles , et piloter la priorisation du backlog selon la valeur et le ROI. Analyser les données afin de produire des insights actionnables à travers des dashboards et data products destinés aux fonctions corporate et aux entités métiers. Identifier, structurer et piloter des cas d’usage analytiques , accompagner les citizen data analysts et promouvoir la culture data. Contribuer aux sujets de gouvernance data , de standards et de Master Data Management. Accompagner le change management , la data literacy et l’animation de communautés data.
Offre d'emploi
Senior Data Engineer AWS
KLETA
Publiée le
Amazon Redshift
Apache Airflow
Automatisation
2 ans
Paris, France
Missions principales Concevoir et faire évoluer des architectures data cloud sur AWS Développer et maintenir des pipelines data fiables et performants (batch & orchestration) Industrialiser les traitements data et API de services data Participer aux choix d’architecture, aux bonnes pratiques et à la gouvernance data Collaborer étroitement avec les équipes Analytics, BI et IA Contribuer à l’automatisation, à la qualité et à l’observabilité des chaînes data Cloud & Data AWS (Redshift, services managés) Terraform (Infrastructure as Code) Airflow (orchestration) Développement Python FastAPI Docker Atouts bonus Expérience GCP (BigQuery, services data) Exposition ou projets autour de l’ IA agentique (LLM, agents, automatisation intelligente, pipelines IA)
Offre d'emploi
Administrer Réseau LAN/WAN et Landing Zone Cloud
IT CONSULTANTS
Publiée le
Méthode Agile
12 mois
Parc de Tréville, Île-de-France
Dans un contexte de migration du réseau de notre centre de données et des projets cloud, nous recherchons un(e) ingénieur(e) pour renforcer l'équipe en charge de la gestion du réseau du Datacenter et cloud: En plus de l'administration réseau, votre livrable principal sont les Schémas et principes des zones d'acostage Datacenter et Cloud IMPORTANTS : niveaux EXPERTS requis sur - Fabric VXLAN (Arista) - Protocole L2 (SPB, ...) et L3 (BGP, ...) - Cloud Landing Zone (AWS, GCP, Azure) La maitrise des Firewall (Palo Alto, Fortinet, ...) et F5 LTM est requises, sans obligation d'une expertise forte. Mission - Concevoir, planifier et mettre en œuvre des architectures réseau complexes répondant aux besoins opérationnels de l'entreprise. - Participer aux traitements des demandes ou projets des différents métiers et dans une approche de service - Contribuer à la mise à jour des outils, de la documentation interne et à l’automatisation des tâches récurrentes afin de réduire le RUN. - Suivre les tendances technologiques et proposer des améliorations continues pour optimiser ou réduire l'infrastructure réseau - Fournir un support technique et une expertise aux équipes internes en cas de problèmes complexes. Domaine de compétences - Maîtrise des couches L2, L3 (MPLS, BGP, VxLAN,SDWAN), F5 LB, DNS - Expertise sur la partie sécurité : FW PaloAlto/Fortinet - Expertise sur la partie Cloud (AWS, GCP, Azure) - Connaissance avancée sur les outils d'automatisation (netbox, ansible, …) Vos atouts : Vous faites preuve d’organisation, de rigueur et appréciez le travail d’équipe et collaboratif Votre bon sens du relationnel sera un atout pour communiquer avec une grande diversité d’interlocuteurs Vous avez un sens de l’innovation et de la créativité.
Offre d'emploi
Administrer Réseau LAN/WAN et Landing Zone Cloud
IT CONSULTANTS
Publiée le
Méthode Agile
12 mois
Parc de Tréville, Île-de-France
Dans un contexte de migration du réseau de notre centre de données et des projets cloud, nous recherchons un(e) ingénieur(e) pour renforcer l'équipe en charge de la gestion du réseau du Datacenter et cloud: En plus de l'administration réseau, votre livrable principal sont les Schémas et principes des zones d'acostage Datacenter et Cloud IMPORTANTS : niveaux EXPERTS requis sur - Fabric VXLAN (Arista) - Protocole L2 (SPB, ...) et L3 (BGP, ...) - Cloud Landing Zone (AWS, GCP, Azure) La maitrise des Firewall (Palo Alto, Fortinet, ...) et F5 LTM est requises, sans obligation d'une expertise forte. Mission - Concevoir, planifier et mettre en œuvre des architectures réseau complexes répondant aux besoins opérationnels de l'entreprise. - Participer aux traitements des demandes ou projets des différents métiers et dans une approche de service - Contribuer à la mise à jour des outils, de la documentation interne et à l’automatisation des tâches récurrentes afin de réduire le RUN. - Suivre les tendances technologiques et proposer des améliorations continues pour optimiser ou réduire l'infrastructure réseau - Fournir un support technique et une expertise aux équipes internes en cas de problèmes complexes. Domaine de compétences - Maîtrise des couches L2, L3 (MPLS, BGP, VxLAN,SDWAN), F5 LB, DNS - Expertise sur la partie sécurité : FW PaloAlto/Fortinet - Expertise sur la partie Cloud (AWS, GCP, Azure) - Connaissance avancée sur les outils d'automatisation (netbox, ansible, …) Vos atouts : Vous faites preuve d’organisation, de rigueur et appréciez le travail d’équipe et collaboratif Votre bon sens du relationnel sera un atout pour communiquer avec une grande diversité d’interlocuteurs Vous avez un sens de l’innovation et de la créativité.
Mission freelance
Développeur Python Confirmé – Cloud Databases
HAYS France
Publiée le
Datadog
FinOps
Google Cloud Platform (GCP)
1 mois
350-450 €
Lille, Hauts-de-France
Nous recherchons un Développeur Python confirmé pour renforcer l’équipe en charge du développement de DBAPI , la plateforme interne permettant le déploiement et le management des bases de données Cloud. Le rôle consiste à développer et faire évoluer cette solution, tout en participant au Build & Run de la plateforme. L’objectif est d'améliorer l’automatisation, la gestion du finops, la sécurité, la performance et l’ensemble des processus autour des BDD Cloud. Vous travaillerez au sein d’un environnement moderne, en étroite collaboration avec les équipes Cloud et DBA.
Offre d'emploi
Ingénieur DevOps H/F
Le Groupe SYD
Publiée le
Ansible
Azure DevOps Services
Docker
12 mois
42k-52k €
450-500 €
Niort, Nouvelle-Aquitaine
🌟 Quel sera ton poste ? 🌟 📍Lieu : Niort (79) 🏠 Télétravail : 3 jours par semaine 📝Contrat : CDI ou Freelance 👉 Contexte client : Tu rejoins un acteur majeur du secteur Assurance , engagé dans une transformation digitale ambitieuse pour moderniser ses plateformes et accélérer la livraison de services. L’objectif : automatiser, sécuriser et fiabiliser les déploiements applicatifs dans un environnement Cloud et hybride. En tant qu’ Ingénieur DevOps , tu seras au cœur des projets d’industrialisation et d’automatisation, en collaboration avec les équipes de développement et d’exploitation pour fluidifier les livraisons et garantir la performance des environnements. Tu auras pour missions de : Concevoir et mettre en œuvre des pipelines CI/CD robustes Automatiser les déploiements et les opérations via des scripts et outils DevOps Superviser et optimiser les environnements Cloud et On-Premise Garantir la sécurité et la conformité des infrastructures Collaborer avec les équipes de développement et d’exploitation pour fluidifier les livraisons Participer à l’amélioration continue des processus et des outils Stack technique : GitLab CI, Jenkins, Azure DevOps, Docker, Kubernetes, Terraform, Ansible, Linux, Cloud (Azure/AWS/GCP)
Offre d'emploi
Full-Stack Engineer - Data Plateform - Aix-en-Provence (H/F)
EASY PARTNER
Publiée le
Google Cloud Platform (GCP)
Mongodb
Node.js
50k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Contexte du poste Dans le cadre du renforcement d’une équipe Data & Engineering, notre client final recrute un Développeur Full-Stack confirmé en CDI. Le poste s’inscrit dans l’évolution d’une application interne critique de gestion d’actifs. Cette plateforme constitue la source unique de vérité pour la gestion des actifs physiques, supportant directement les processus opérationnels, commerciaux et financiers du groupe. L’environnement est international, multiculturel et fortement orienté data-driven decision making . Missions principales Concevoir, développer et maintenir les fonctionnalités full-stack de l’application métier Optimiser la performance et la scalabilité du back-end (API, cache, base de données) Garantir la qualité, la fiabilité et l’intégrité des données Implémenter des fonctionnalités métier stratégiques (prévisions, transferts, modifications d’actifs, etc.) Développer et maintenir les API permettant l’interconnexion avec les systèmes tiers et plateformes cloud Traduire les besoins métier en spécifications techniques exploitables Améliorer en continu l’expérience utilisateur des outils internes Missions secondaires Participer au maintien en conditions opérationnelles de la plateforme (RUN) Identifier, analyser et corriger les anomalies complexes Gérer et réduire la dette technique Maintenir la stack technologique à jour Participer activement aux code reviews et aux standards qualité Contribuer à la documentation technique Collaborer étroitement avec les équipes métier, data et produit Participer aux cérémonies Agile Stack technique Front / Full-Stack Nuxt.js Vue.js TypeScript JavaScript ES6+ HTML5 / CSS3 / Sass / Less Back / Data Node.js (via Nuxt API) MongoDB Atlas (NoSQL) Redis (cache) Cloud / DevOps Cloud PaaS / IaaS (Clever Cloud, GCP ou équivalent) Git Docker (apprécié)
Mission freelance
[LFR] Senior Expert CyberArk / PAM - Full remote - 1191
ISUPPLIER
Publiée le
10 mois
350-500 €
Nice, Provence-Alpes-Côte d'Azur
Contexte Dans un contexte de renforcement des exigences en matière de sécurité des accès à privilèges, nous recherchons un Senior Expert CyberArk pour intervenir sur la conception, le déploiement et l’exploitation de solutions Privileged Access Management (PAM) en environnements on-premise et cloud. Vous interviendrez comme référent technique, avec un rôle central dans la sécurisation des accès sensibles et l’évolution des architectures PAM. Missions principales Architecture et conception : Définir et mettre en œuvre l’architecture CyberArk (on-premise et cloud). Garantir la haute disponibilité, la résilience et les plans de reprise d’activité. Contribuer aux choix d’architecture et à la roadmap sécurité. Déploiement et intégration : Installer, configurer et maintenir les composants CyberArk : Vault, PVWA, CPM, PSM, CCP. Assurer l’intégration avec Active Directory, les SIEM et les plateformes cloud (Azure, AWS, GCP). Piloter les montées de version et évolutions techniques. Exploitation et administration : Administrer les safes, plateformes et politiques de comptes à privilèges. Superviser la performance, la disponibilité et la conformité des environnements PAM. Mettre en place des améliorations continues et des optimisations opérationnelles. Automatisation : Développer des scripts et automatisations via REST API, PowerShell, Terraform ou Python. Industrialiser l’onboarding des comptes et la gestion des secrets. Sécurité et conformité : Veiller au respect des exigences réglementaires et des bonnes pratiques sécurité (PCI). Participer aux audits et aux démarches de conformité. Support et expertise : Assurer le support niveau 3 sur les incidents CyberArk. Réaliser des analyses de causes racines et définir des actions correctives. Travailler en collaboration avec les équipes sécurité, infrastructure et cloud. Profil recherché Compétences techniques Minimum 5 ans d’expérience sur les solutions CyberArk PAM. Maîtrise des composants Vault, PVWA, CPM, PSM, CCP. Solide expérience en automatisation et intégration API. Bonne connaissance des environnements Windows, Linux, réseaux et cloud (Azure, AWS). Sécurité Forte expertise en gestion des accès à privilèges, IAM et mécanismes de chiffrement. Certifications appréciées CyberArk Trustee, Defender, Sentry ou Guardian. Qualités professionnelles Capacité à travailler en autonomie et à piloter des sujets complexes. Rigueur, sens de l’analyse et qualité de la documentation. Bon niveau de communication et esprit collaboratif. Atouts complémentaires Expérience avec les HSM et les mécanismes de chiffrement avancés. Connaissance d’autres solutions PAM et capacité d’analyse comparative.
Mission freelance
Full Stack C#/React Developer
Phaidon London- Glocomms
Publiée le
.NET
.NET Framework
C#
6 mois
600-700 €
Paris, France
Intitulé du poste : Développeur Full Stack C# / React Localisation : Paris, France (Hybrid) Type de contrat : Mission de 6 mois Contexte Nous recherchons un Développeur Full‑Stack C# / React pour concevoir et développer, à partir de zéro, une nouvelle génération d’outils ainsi qu’un portail web permettant aux équipes Sales et Structuration de tarifer, commercialiser et suivre en continu (24/7) les offres énergétiques. Ces offres garantissent une correspondance horaire entre production renouvelable et consommation, une étape clé vers une véritable décarbonation. Vous jouerez un rôle central dans la création d’une plateforme cloud‑native, sécurisée, évolutive, destinée à devenir un élément stratégique pour l’organisation. Responsabilités : Concevoir et développer des applications full‑stack en C#/.NET Core et React Créer un portail web robuste permettant la tarification, l’établissement de devis et le suivi des offres décarbonées 24/7 Développer des API sécurisées et structurées pour les équipes internes et les partenaires externes (TPIs) Mettre en œuvre des flux de données en temps réel ou quasi temps réel pour l’appariement horaire énergie‑production Traduire les besoins métiers en solutions techniques évolutives et maintenables Construire des composants cloud‑native en utilisant les services Microsoft Azure (App Services, AKS, Azure SQL, Storage, Key Vault, Monitor) Concevoir et maintenir des pipelines CI/CD selon les meilleures pratiques Collaborer avec les architectes, data engineers et autres développeurs au sein de l’équipe IS Sales & Customers Documenter les solutions et contribuer au partage des connaissances Faire preuve d’autonomie, de proactivité et d’efficacité dans un environnement dynamique Compétences techniques requises : Expertise en développement backend C#/.NET Core Maîtrise de React avec les outils frontend modernes (TypeScript, Hooks, gestion d’état) Développement cloud‑native sur Azure, notamment : App Services ou Kubernetes (AKS) Azure SQL & Storage Key Vault Monitor / Application Insights Conception d’API (REST, GraphQL apprécié) Connaissance des architectures sécurisées et de la gestion des identités (OAuth2, Azure AD, MSAL) Solide expérience dans la construction de pipelines CI/CD (Azure DevOps ou GitHub Actions) Veuillez postuler directement ou me contacter à l’adresse suivante :
Offre d'emploi
Senior Data Analyst - CDI Uniquement
AEROW
Publiée le
DAX
KPI
Microsoft Fabric
40k-58k €
Bruxelles, Bruxelles-Capitale, Belgique
ATTENTION, CDI UNIQUEMENT, POUR PERSONNE HABITANT OU SOUHAITANT S'ETABLIR A BRUXELLES OU PROCHE BRUXELLES: Le/La Senior Data Analyst analyse les besoins métier, transforme les données brutes en informations exploitables et contribue à la construction d’un environnement data fiable, structuré et orienté produits. Il/elle opère dans une architecture Medallion et participe activement à la qualité, la gouvernance et la valorisation des données au sein de la plateforme (incluant MS Fabric Lakehouse). Analyse & compréhension métier Analyser les questions et besoins des équipes métier. Définir des KPI pertinents et alignés avec les objectifs business. Travailler en mode data product & data mesh . Data engineering & transformation Réaliser des transformations de données (structurées, semi-/non-structurées) via SQL. Construire et maintenir des datasets fiables conformes à l’architecture Medallion (Bronze/Silver/Gold) . Appliquer des contrôles qualité pour garantir l’intégrité des données. Data visualisation & reporting Concevoir des tableaux de bord et rapports dans Power BI . Développer des mesures et modèles via DAX . Présenter les insights de manière claire et exploitable. Utilisation de MS Fabric Lakehouse Interpréter et situer correctement les données dans l’environnement Lakehouse. Comprendre les principes d’architecture de la plateforme. Collaboration & communication Travailler en méthodologie Agile avec les équipes ICT. Collaborer étroitement avec les équipes métier, IT et Data. Fournir une communication claire, structurée et proactive.
Offre d'emploi
Ingénieur de production Linux RHEL (F/H)
Experis France
Publiée le
Ansible
AWS Cloud
Azure
1 an
Île-de-France, France
Nous cherchons pour le compte d'un client, grand groupe du secteur bancaire un ingénieur systèmes Linux, qui aura comme responsabilité d'assurer l’administration système avancée, la supervision, et la gestion opérationnelle d’un environnement Linux (principalement Red Hat Enterprise Linux) dans un contexte bancaire exigeant. Le rôle inclut : Production (run/ops) avec forte volumétrie, Supervision Dynatrace, Automatisation et industrialisation, Gestion des flux CFT et batchs critiques, Intégration Cloud (Azure/AWS/GCP), Respect des normes de sécurité et conformité bancaire. Compétences demandées : Administration Système Linux (RHEL) : MCO/MCS, patching, durcissement (CIS/OpenSCAP), gestion des comptes et permissions. Supervision Dynatrace : déploiement agents, configuration dashboards, alerting, RCA. Gestion CFT & Batch : configuration, surveillance, troubleshooting des flux inter-applicatifs et batchs critiques. Automatisation & Industrialisation : Ansible, Bash, Python, CI/CD (Git, Jenkins/GitLab). Cloud : interventions hybrides (Azure/AWS/GCP), IAM, bastions, intégration sécurité. Sécurité & Conformité bancaire : RGPD, ISO 27001, DORA, audits, traçabilité. Support L3 & gestion des incidents majeurs : coordination P1, RCA, post-mortem. Collaboration transverse : réseau, sécurité, applicatif, risk management. Indicateurs de performance Disponibilité des systèmes (SLA/SLO). MTTR incidents critiques. Taux de patch et conformité sécurité. Qualité des alertes Dynatrace. Taux d’automatisation des tâches récurrentes. Fiabilité des flux CFT et batchs. Astreintes et interventions HNO. Contexte bancaire régulé (audits fréquents). Coordination multi-équipes.
Offre d'emploi
Ingénieur Support Fonctionnel et Technique DevOps
VISIAN
Publiée le
Ansible
Terraform
1 an
40k-45k €
400-580 €
Île-de-France, France
Descriptif du poste Dans le cadre de l'offre Electronic Banking International (Connexis Cash), intégration de l'équipe support fonctionnel et technique (niveaux 2 et 3) d'une application de Cash Management international destinée aux grandes entreprises corporate. Missions principales Gestion quotidienne des incidents de production : analyse, résolution, suivi des tickets, escalade et coordination vers le support niveau 4. Investigations techniques et fonctionnelles approfondies, avec diagnostic des logs et corrélation d'événements via Splunk. Gestion du cycle de vie des changements : validation, suivi et déroulement des mises en production (roadmaps techniques, recettes en pré production). Communication multilingue : échanges oraux et écrits en anglais avec les chargés d'affaires européens, les équipes support niveau 3 (Hong Kong, Montréal) et la maintenance à Hong Kong. Rédaction et mise à jour de la documentation (processus, procédures de support, guides d'exploitation). Interface transversale : collaboration avec les MOA, le support niveau 1, les équipes métiers, la production et les équipes de développement en Asie. Gestion d'infrastructure as code : conception, évolution et maintenance des environnements avec Terraform (modules réutilisables, gestion du state, provisionnement de réseaux, bases de données, services de monitoring, etc.) à construire dans le cadre d'une évolution de l'application. Chaîne DevOps : automatisation de la configuration et des déploiements avec Ansible (playbooks complexes, inventaires dynamiques, vault pour les secrets) ; création, optimisation et monitoring des pipelines CI/CD avec Jenkins (pipelines déclaratifs ou scriptés, intégration Git, stratégies de rollback). Assurance du support technique des sites déployés. Coordination des relations avec les entités de développement et de maintenance applicative à Hong Kong, l'infrastructure et la production. Gestion de la communication autour des incidents de production. Gestion des tests de correctifs (patches ou hot fixes) correspondants aux incidents escaladés. Suivi de problèmes, de risques et d'actions préventives post incidents (10 % de l'activité globale de l'entité). Gestion de projets d'optimisation et d'industrialisation (DevOps : Jenkins, Ansible). Coordination des mises en production en week-end (communications, tests fonctionnels de non-régression, suivi de roadmaps). Astreintes de production en week-end et jours fériés France. Expertise technique requise Maîtrise de Terraform et de l'approche Infrastructure as Code : rédaction de fichiers .tf, utilisation de modules, gestion du state (remote backend, workspaces), déploiement automatisé d'infrastructures cloud ou on premise. Expérience avec Ansible : conception de playbooks complexes, gestion d'inventaires dynamiques, sécurisation des secrets. Expertise en Jenkins : architecture de pipelines, intégration avec les systèmes de gestion de code, suivi des builds et des déploiements, mise en place d'alertes et de mécanismes de rollback. Compétences avérées sur Splunk : création de requêtes de recherche avancées, tableaux de bord opérationnels, alertes automatisées et corrélation d'événements pour le monitoring et le troubleshooting. Analyse rapide des incidents, production des rapports détaillés et proposition des actions préventives. Anglais professionnel.
Mission freelance
DevOps Engineer
DEVIK CONSULTING
Publiée le
DevOps
3 mois
400-600 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un DevOps Engineer pour exploiter et améliorer en continu des environnements applicatifs, incluant les serveurs, bases de données, services cloud, outils de monitoring et de logging. Mission principale : L’objectif est de garantir une infrastructure hautement disponible, sécurisée et scalable, tout en optimisant les performances, les processus de déploiement et de tests, ainsi que la documentation. Le rôle inclut également l’animation d’initiatives de partage de connaissances au sein de l’équipe et l’application de bonnes pratiques en gestion de projet afin de renforcer la collaboration et l’efficacité. Les tâches de la mission : L’ingénieur DevOps sélectionné sera en charge de : Mettre en place, exploiter et maintenir la plateforme data régionale, incluant Azure, Databricks et Unity Catalog Garantir que l’infrastructure data soit hautement disponible, scalable, sécurisée et robuste Accompagner l’équipe Data & IA en promouvant les bonnes pratiques DevOps, l’automatisation et l’amélioration continue. Collaborer étroitement avec les data engineers et les parties prenantes à l’échelle régionale Compétences requises : Diplôme Bac+3/Bac+5 en informatique, électronique, mathématiques ou équivalent Plusieurs années d’expérience pratique dans la conception et l’exploitation d’environnements cloud Forte expertise des technologies cloud, notamment Microsoft Azure (Databricks, Unity Catalog) Expérience pratique en SQL et Python Bon niveau d’anglais pour une collaboration efficace dans un contexte international Lieu : Paris
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1578 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois