L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 151 résultats.
Mission freelance
SRE AWS H/F
Publiée le
AWS Cloud
GitLab CI
Go (langage)
5 mois
Paris, France
Vous aurez pour principales missions : Être responsable de la plateforme AWS et participer aux évolutions futures Assurer la stabilité, la fiabilité et la performance des applications Soutenir les développeurs et aider à concevoir conjointement les services applicatifs Développer et maintenir notre pipeline de déploiement et CI/CD Contribuer aux discussions techniques sur l'intégration de nouvelles ressources ou standards Améliorer constamment les processus et communiquer les normes et les bonnes pratiques de notre plateforme AWS Participer à l'évolution des outils transverses Etre capable de prendre du recul sur les besoins de l'équipe et de faire le lien avec la gouvernance pour mettre en place des solutions globales plutôt que des solutions spécifiques La stack technique : Coding : Go, Python, PHP, NodeJS, Shell DevOps : Gitlab, Terraform, Ansible Infra : AWS serverless
Offre d'emploi
Ingénieur DevOps/ SysOps
Publiée le
AWS Cloud
Docker
Jenkins
42k-56k €
Rouen, Normandie
Télétravail partiel
Bonjour, nous c'est TerraOps! Pure Player DevOps/Cloud à Rouen, Notre mission ? Accompagner les entreprises dans la conception, le déploiement et l’optimisation de leurs infrastructures numériques, en alliant fiabilité, résilience opérationnelle et engagement pour un numérique responsable. Pour une mission chez un de nos clients dans le secteur de l’aéronautique, nous recherchons un Ingénieur DevOps. Développement du code IaC pour déployer et maintenir des services pour des applications déployées sur AWS Prendre en charge les tâches liées à la CI/CD, au provisionnement de l’infrastructure et au déploiement applicatif ; en estimer la complexité et les réaliser Appliquer les bonnes pratiques définies au sein de l’équipe et de la communauté de pratique DevOps Rédiger et maintenir la documentation technique Participer à l’amélioration continue des outils et processus Présenter les résultats des travaux réalisés aux parties prenantes (Business Owner, Product Management, Product Owner) lors des démonstrations Concevoir ou améliorer les chaînes de packaging et de livraison du produit Relire le code produit par les autres membres de l’équipe (code review) Contribuer activement à la communauté de pratique DevOps Résoudre les problématiques techniques liées aux systèmes et aux réseaux
Mission freelance
Senior Ops Engineer - Lille
Publiée le
AWS Cloud
Docker
Github
6 mois
350-450 €
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission Tu intégreras l’équipe Ops du domaine. Notre mission est d’accompagner les équipes sur : l’architecture, le capacity planning, la sécurité, la Finops, le build, l’observabilité et l’automatisation de leurs projets. Nos enjeux sont mondiaux et nos plateformes ne dorment jamais. Objectifs et livrables TES RESPONSABILITES Assurer la bonne santé des infras techniques du domaine Accompagner les équipes dans les nouveaux besoins Accompagner les équipes dans le RUN quotidien Accompagner les équipes sur l’amélioration continue des projets Aider à la résolution des incidents de production Assurer la mise en place d’automatisation Accompagnement à la mise en place des DRP Assurer la montée en compétence des développeurs sur les sujets Ops Environnement technique de la BU : Java - Framework Spring Boot, Quarkus, Angular, Python PHP - API Platform, Symfony Industrialisation de l’hébergement (Docker, Kubernetes) Monitoring de la solution et de son infrastructure (Datadog) Kubernetes, Helm, Flux Kafka Outils collaboratifs: Confluence, Jira
Offre d'emploi
Security Referent – Paiement & PCI DSS (H/F) - (Profil très technique)
Publiée le
AWS Cloud
Azure
PCI DSS
3 ans
France
Télétravail 100%
CLIENT JEUX ARGENT : Nous recherchons un Security Referent spécialisé dans les environnements paiement pour accompagner les équipes techniques sur la sécurisation de l’ensemble des flux sensibles : traitement carte, autorisations, wallet, transactions, gestion de la fraude et conformité PCI DSS . Intégré directement au sein des squads produit, vous serez responsable de la définition et du suivi des bonnes pratiques de sécurité applicative et cloud sur des piles techniques incluant Rust, Kotlin, Angular, .NET , ainsi que sur une architecture microservices fortement distribuée. Vous interviendrez à la fois sur la révision des implémentations sensibles , la conception sécurisée des API de paiement, la validation des IAC ( Terraform , pipelines CI/CD) et la sécurisation des environnements AWS / Azure . Vous analyserez les points de fragilité, proposerez des améliorations, et piloterez les chantiers de remédiation nécessaires pour garantir un haut niveau de résilience, la réduction des risques fraude et le maintien de la conformité réglementaire. En tant que référent, vous serez également le point d’entrée privilégié entre les équipes dev, les équipes plateforme et les autres pôles sécurité (offensif, SOC, compliance).
Offre d'emploi
NV - Ingénieur cloud AWS et Réseaux
Publiée le
AWS Cloud
Cisco
IAC
3 mois
Paris, France
Télétravail partiel
Bonjour, Je recherche un profil cloud AWS avec des compétences Infra as Code pour travailler sur des sujets de Réseaux/Sécurité. CONTEXTE Dans le cadre du projet "IT Network Segmentation" et d'un audit Global des recommandations ont été faite afin de redéfinir le périmètre Network. Il faut désormais implémenter et déployer les recommandations afin de poursuivre le projet et prendre en charge la conception, le déploiement et le support réseau, tout en contribuant à l’évolution de l'infrastructure cloud. PROFIL Ingénieur Cloud AWS et NON INGENIEUR RESEAUX SECURITE 5+ ans d'expérience MISSION Déployer et gérer les services AWS Cloud, notamment VPC, EC2, ELB, S3, Route 53 et IAM. Mettre en œuvre une connectivité sécurisée entre les environnements sur site et cloud AWS. Collaborer avec les équipes DevOps et sécurité pour optimiser les architectures réseau et cloud. Participer aux projets de mise à niveau et de migration réseau. Créer et maintenir la documentation relative à la conception, la configuration et les processus réseau. Surveiller l’infrastructure réseau et cloud à l’aide d’outils appropriés et réagir de manière proactive aux incidents. Garantir la conformité avec les politiques de sécurité et d’exploitation. COMPETENCES TECHNIQUES AWS (Certification AWS Certified SysOps Administrator ou Solutions Architect – Associate), ou équivalent.) CISCO (Certification CCNP – Routing & Switching ou Enterprise, ou équivalent est un plus) ANGLAIS INDISPENSABLE Must Have Expérience avérée en administration AWS Cloud, y compris la gestion et l’intégration des services AWS. Connaissance des outils d’infrastructure-as-code (ex. : Cloud Formation, Terraform) Solide compréhension des protocoles réseau : BGP, OSPF, EIGRP, VLANs, STP, NAT, ACLs, IPsec, 802.1x. Expérience avec des outils de surveillance et de sécurité réseau. Maîtrise des bonnes pratiques de sécurité pour les environnements réseau et cloud. Familiarité avec les systèmes Cisco Meraki SD-WAN, de commutation et de réseau sans fil. Expérience dans des environnements hybrides et multicloud. Certification AWS (par exemple : AWS Certified SysOps Administrator ou Solutions Architect – Associate), ou équivalent. Nice to Have Expérience en automatisation et Scripting (Python, Bash ou PowerShell). SOFT SKILLS Solides compétences en résolution de problèmes et en analyse. Excellentes capacités de communication et de documentation. Capacité à travailler de manière autonome et en équipe. À l’aise dans un environnement de travail dynamique et rapide. Démarrage : ASAP Durée : 3 mois renouvelable (longue visibilité jusqu'à 3 ans) Remote : 2 jours par semaine Nous sommes en exclusivité sur la demande et les entretiens peuvent avoir lieu dès cette semaine. Pour tout intérêt, merci de m'envoyer votre cv en format word et n'hésitez pas à me communiquer vos disponibilités pour l'entretien qui se déroulera totalement en anglais. Cordialement, Nathalie
Offre d'emploi
Developpeur fullstack basé à Lille
Publiée le
AWS Cloud
Kubernetes
Node.js
2 ans
40k-55k €
100-500 €
Lille, Hauts-de-France
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Developpeur Fullstack Node/React basé à Lille Le consultant intégrera une entité dédiée à la conception, l’évolution et l’industrialisation des produits techniques à destination des équipes de développement et DevOps. Il interviendra en lien étroit avec les équipes techniques transverses et les équipes produit, dans un environnement agile et collaboratif. Description Participer à la définition et à la mise en œuvre des solutions techniques de la plateforme. Contribuer à la conception, au développement et à l’intégration des composants techniques. Développer des interfaces et des services backend pour les produits de la plateforme. Accompagner les équipes DevOps et développement via des ateliers techniques et des sessions de partage. Documenter les solutions mises en place et assurer leur maintenabilité.
Offre d'emploi
Expert Big Data / Data Engineer Senior (H/F)
Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)
6 mois
80k-85k €
500-550 €
Guyancourt, Île-de-France
Télétravail partiel
VOS RESPONSABILITES PRINCIPALES : Build – Modernisation & migrations Data Participer au design et à la construction de nouvelles plateformes Data (on-prem Cloudera / Spark / Kafka & cloud AWS/GCP). Configurer, optimiser et sécuriser les environnements Big Data (Spark tuning, Kafka connecteurs…). Travailler avec les architectes et les CloudOps sur les architectures distribuées. Mettre en place des bonnes pratiques : backup, restauration, performance, haute dispo, PCA/PRA . Intégrer pipelines & automatisations (Terraform, GitOps, ArgoCD). Animer ateliers, documentation et transfert de compétences. Run – Support N2/N3 & performance Résolution d’incidents techniques Big Data (HDFS, Spark, Kafka, Flink…). Support aux projets : création de topics Kafka, scheduling Airflow, jobs Spark, optimisation. Montée de version, patching, maintenance préventive. Participation aux astreintes (rotation). Amélioration continue & fiabilisation des environnements critiques. Application stricte du cadre ITIL V4 (incidents / problèmes / demandes).
Mission freelance
Profil expérimenté DBT/Snowflake
Publiée le
AWS Cloud
DBT
Pandas
6 mois
370-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Nous recherchons un profil expérimenté DBT/Snowflake. Voici les caractéristiques : Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer Localisé sur Bordeaux avec 3 jours de TT/semaine
Offre d'emploi
Architecte Data (AWS / Databricks / GénIA)
Publiée le
Architecture
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du développement de ses activités autour de la Data Platform et de l’Intelligence Artificielle Générative , Hextaem recherche un(e) Architecte Data pour intervenir sur la conception, l’industrialisation et la modernisation d’une plateforme Big Data Cloud bâtie sur AWS , Databricks et des services IA avancés. L’objectif est de définir et de mettre en œuvre une architecture scalable, sécurisée et orientée IA , capable de supporter les cas d’usage analytiques, data science et génAI (RAG, copilotes, modèles internes). Missions principales 1. Conception et architecture de la plateforme Data Définir l’architecture cible sur AWS (S3, Glue, Athena, Lambda, Redshift, etc.). Concevoir les pipelines de données dans Databricks (ingestion, transformation, orchestration). Définir les standards de data quality, gouvernance et sécurité (IAM, encryption, lineage). Structurer les environnements (bronze / silver / gold) selon les meilleures pratiques Lakehouse. 2. Gouvernance et performance Mettre en place des patterns de développement et d’industrialisation (CI/CD Data). Superviser la performance des jobs et optimiser les coûts de la plateforme. Assurer la traçabilité et la conformité des données (RGPD, ISO, sécurité). 3. Génération d’intelligence et IA générative Participer à la conception d’architectures hybrides Data + IA Générative (RAG, embeddings, vector stores). Intégrer des modèles LLM (OpenAI, Anthropic, Hugging Face, Bedrock, etc.) aux pipelines existants. Collaborer avec les Data Scientists pour industrialiser les use cases IA. Évaluer la pertinence d’outils de nouvelle génération (LangChain, LlamaIndex, VectorDB, etc.). 4. Conseil, accompagnement et expertise Être le référent technique sur la plateforme Data pour les équipes internes et clients. Accompagner les Data Engineers et Data Scientists dans la mise en œuvre des bonnes pratiques. Participer aux phases d’avant-vente et d’architecture auprès des clients Hextaem. Assurer une veille technologique active sur les sujets Cloud, Big Data et GénIA. Compétences techniques : Cloud & Data Platform: AWS (S3, Glue, Athena, Redshift, Lambda, IAM, CloudFormation/Terraform) Data Engineering: Databricks (Spark, Delta Lake, MLflow), ETL/ELT, orchestration (Airflow, ADF) Gouvernance & Sécurité: Data lineage, catalog (Glue Data Catalog, Unity Catalog), RBAC, encryption Langages: Python, SQL, PySpark CI/CD & DevOps: Git, Docker, Terraform, GitHub Actions / Jenkins IA Générative (bonus) L:LMs (OpenAI, Bedrock, Hugging Face), LangChain, VectorDB, RAG patterns
Offre d'emploi
Lead Tech FullStack
Publiée le
Angular
AWS Cloud
Gitlab
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un Lead Développeur FullStack expérimenté pour piloter techniquement une équipe de développement au sein d'une grande organisation locale. Cette mission représente une opportunité unique de leadership technique sur un projet d'envergure avec des exigences métier complexes et ambitieuses. Vos principales responsabilités : Assurer l'encadrement technique et l'architecture globale de l'équipe de développement Concevoir et développer des fonctionnalités robustes, performantes et évolutives Valider et garantir la qualité du code : revues technique, respect des standards, mise en place de CI/CD, optimisation des performances Collaborer étroitement avec les équipes UX/UI et les analystes pour transformer les livrables de conception en solutions techniques d'excellence Mettre en place et maintenir des pipelines CI/CD performants Automatiser l'infrastructure via Terraform Participer à la configuration et l'optimisation des outils de visualisation de données Travailler en synergie avec le pilote de programme, les analystes métier et les Product Owners dans une approche résolument agile et orientée produit Conditions de la mission : Localisation : Saint-Herblain (Loire-Atlantique) Présence sur site : 2 jours par semaine Environnement structuré, ambitieux et techniquement stimulant.
Mission freelance
Développeur Python AWS - Data & Gen AI ( Databricks)
Publiée le
Amazon DynamoDB
Amazon S3
API
12 mois
550-680 €
Paris, France
Télétravail partiel
Missions principales : Participer à la conception, au développement et à la mise en œuvre de nouvelles fonctionnalités du plan de travail (workplan). Contribuer à la rédaction des spécifications techniques et à la documentation associée. Prendre part à la construction et à l’évolution d’une plateforme data intégrant la gouvernance, l’ingestion, la transformation, le stockage, l’exposition et l’analytique. Intervenir sur les aspects RUN et BUILD de la plateforme en soutien à l’équipe existante. Garantir la sécurité, la performance et la scalabilité des solutions déployées sur le Cloud AWS. Participer à la mise en place de solutions Gen AI au sein de l’écosystème Data/Cloud. Compétences techniques requises : Cloud AWS : maîtrise approfondie des services IAM, S3, DynamoDB, Lambda, API Gateway . Databricks et sa composante AI (Genie) . Développement Backend Python , avec une solide expérience en API / webservices / routes . Maîtrise d’un framework Python (idéalement AWS Powertools for Lambda , Flask ou FastAPI ). Infrastructure as Code : expertise en Terraform et bonne culture DevOps . Expérience dans la mise en œuvre de plateformes data (gouvernance, ingestion, transformation, stockage, exposition, analytics). Excellente capacité de communication écrite et orale en anglais . Compétences appréciées : Certifications AWS : Solutions Architect Associate , Data Engineer Associate et/ou Developer Associate . Connaissances en Power BI , services réseau , Collibra ou React . Sens de la collaboration, autonomie et approche orientée solution. Objectifs et livrables : Contribution à la définition et au développement des features du workplan. Livraison de composants applicatifs fiables et documentés . Participation active aux revues techniques et réunions d’équipe . Support dans la gestion opérationnelle (RUN) et l’ amélioration continue (BUILD) des solutions Cloud & Data.
Mission freelance
DBA & Cloud (AWS)
Publiée le
AWS Cloud
dBase
36 mois
650-660 €
La Défense, Île-de-France
Je cherche pour l'un de nos clients un DBA avec une forte culture DevOps/Cloud . le Client est basé à la défense. Missions: Ce rôle va au-delà des missions classiques d’administration : il s’agit d’apporter une expertise sur les bases de données, d’accompagner la migration vers AWS, d’optimiser les performances et d’automatiser la gestion des environnements. Missions principales Administrer et optimiser les bases de données OnPrem : PostgreSQL, Vertica, MariaDB, Oracle (11g, 19c – sortie progressive en cours). Accompagner la migration et la gestion des bases sur AWS (RDS, Aurora MySQL, Redshift, Glue). Concevoir et maintenir des pipelines ETL/ELT robustes et industrialisés. Mettre en place les standards de gouvernance des données (qualité, sécurité, conformité). Optimiser les performances (requêtes SQL, tuning, architectures de stockage). Garantir la haute disponibilité , le PRA et la continuité de service. Automatiser la gestion des environnements via IaC (Terraform, Ansible) et intégrer la donnée dans les chaînes CI/CD . Contribuer au monitoring et à l’ observabilité (Prometheus, Grafana, ELK). Collaborer avec les équipes Data, BI et IT pour fournir des données fiables et performantes. Effectuer une veille sur les évolutions technologiques (Cloud, Data Lake, Big Data). Gérer l’ évolution des schémas BDD via des outils de migration comme Liquibase .
Offre d'emploi
Ingénier Devops basé à Lille
Publiée le
AWS Cloud
Datadog
FLUXCD
2 ans
40k-61k €
100-500 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Ingénieur Devops basé à Lille. Objectif : L'objectif de la mission sera : - d'assurer l'exploitation des applications - de répondre aux demandes d'installation des livrables fournit par notre CDS - d'aider au diagnostic lors d'incidents ou de debug - En parallèle, il participera et travaillera en partenariat avec le PO technique sur le rebuild/refactoring afin de répondre à des enjeux de scalabilité et d'optimisation des coûts de l'architecture. - d'assurer les astreintes PIV & SIDH (1 semaine par mois) La mission nécessite un réel investissement tant le projet est vaste et pluriel dans sa partie technique. Il y a beaucoup à apprendre et on sort souvent de sa zone de confort pour répondre efficacement aux exigences des clients. Livrables • Garant de la bonne application des processus de production en transverse : évolutions et créations des stacks techniques • Garant de la cohérence de bout en bout des différents environnements • Organisation et pilotage de la gestion des événements impactant la production • Porte une vision auprès du domaine sur le RUN et facilite la priorisation de sujets d'amélioration • Accompagnement des équipes sur le delivery/recette, analyse des anomalies et facilitateur sur la communication inter-domaine au sein du domaine • Pilotage les incidents majeurs • Accompagne la réalisation de ces sujets ou les porte opérationnellement en fonction des besoins Activités détaillées : - Contribuer au développement, à l'évolution et à la maintenance des outils d'industrialisation - Assurer le déploiement en environnement de préproduction et production des livrables fournit par notre CDS - Assurer le run de l'application en production (suivi de la QoS, monitoring, supervision, Incidentologies, debug et analyses) - Accompagner notre CDS dans leur intégration de livrable sous AWS - Accompagner les équipes support clients dans l'analyse et la résolution des incidents - En véritable devops, augmenter l’autonomie de l’équipe sur la partie exploitation en automatisant au maximum les processus - Dans un contexte agile, être dans un esprit d’amélioration continue. - Vous concevez et développez les outils DEVOPS adaptés au produit à délivrer en respectant les choix et les bonnes pratiques de l’entreprise. - Vous êtes référent sur l’infrastructure, les plateformes applicatives, l’usine logicielle et l’industrialisation des déploiements - Vous accompagnez l’équipe sur l’adoption des bonnes pratiques et nos outils DEVOPS
Offre d'emploi
Consultant SysOps
Publiée le
AWS Cloud
SecOps
Terraform
6 mois
40k-45k €
400-550 €
Corbeil-Essonnes, Île-de-France
Bonjour Au sein d'un client grand compte, nous recherchons un profil Expert SysOps Les prestations attendues incluent : • Supervision et maintien en conditions opérationnelles des infrastructures sur AWS Utilisation des solutions de monitoring (CloudWatch, Dynatrace, Centréon), définition des seuils d’alerte, gestion des logs et automatisation des réponses aux incidents. Gestion des incidents, analyse des causes racines, et application des plans d’action correctifs. Gestion de l’obsolescence des services AWS Gestion des sauvegardes, restauration et plans de reprise d’activité (PRA). Gestion des accès et sécurité via IAM, suivi des logs via CloudTrail, audit de conformité • Automatisation des opérations récurrentes Automatisation des tâches opérationnelles avec les outils natifs AWS (Systems Manager, Lambda) et scripts. Création de scripts et de templates (Terraform, Ansible) pour industrialiser les tâches d’exploitation : sauvegardes, déploiements, nettoyage, mises à jour. Constructions de pipelines pour les actions AWS (restart, up/down scaling) • Documentation des procédures opérationnelles et reporting régulier Rédaction des procédures d’exploitation, des guides d’administration et des plans de reprise d’activité. • Optimisation des performances et des coûts Analyse des usages, recommandations sur le dimensionnement, mise en œuvre de bonnes pratiques pour réduire les coûts tout en garantissant la qualité de service. Support aux migrations effectuées par les équipes de Migration SAE en préparation du Run (M2C & G2C) Pré-Requis : • Expert SysOps AWS (4 ans d’expérience minimum sur le Cloud AWS) : certification AWS Certified CloudOps Engineer ou AWS Certified DevOps Engineer. Maîtrise des opérations sur les environnements AWS (EC2, CloudWatch, S3, RDS, etc.), gestion des incidents, optimisation des performances, sécurité et conformité. Expérience en administration de systèmes Linux/Windows dans le cloud, gestion des environnements multi-comptes et automatisation des tâches récurrentes. • Compétences en monitoring & alerting : mise en place de solutions de supervision (CloudWatch, Dynatrace, Centréon), gestion des logs (CloudTrail, ELK), définition de seuils et alertes, gestion proactive des incidents. • Compétences en automatisation & IaC : utilisation de Terraform, ou Ansible pour le déploiement et la gestion des infrastructures. Capacité à industrialiser les processus d’exploitation. • Compétences transverses : anglais courant, capacité à collaborer avec les équipes Dev, SecOps et métiers. Rédaction de documentation technique et procédures d’exploitation. Poste à pourvoir sur Corbeil pour une mission longue durée. Anglais requis
Offre d'emploi
Product Owner Plateforme Big Data (AWS / Databricks)
Publiée le
Agile Scrum
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Mission freelance
DevOps Senior
Publiée le
AWS Cloud
Gitlab
Helm
3 mois
550-730 £GB
Rennes, Bretagne
Télétravail partiel
🚀 DevOps Senior – Migration Cloud AWS / Kubernetes / Cloud Privé – Rennes / Bretagne – Freelance 🚀 Dans le cadre d’un projet stratégique de transformation Cloud au sein d’un leader européen de l’identité numérique, je recherche en priorité un expert AWS & Kubernetes pour accélérer la migration d’un environnement cloud privé open source (Proxmox / Ceph / Kubernetes Debian) vers AWS (EKS, services managés) . 🎯 Missions principales • Contribuer à la migration vers AWS (EKS, VPC, RDS/Aurora, sécurité, networking) • Industrialiser l’Infrastructure-as-Code ( Terraform : modules, bonnes pratiques) • Participer à la migration MongoDB / MariaDB vers des services managés AWS • Optimiser les pipelines CI/CD ( GitLab , Helm) • Maintenir et faire évoluer un environnement cloud hybride critique • Collaborer avec l’équipe R&D sur l’ authentification automatisée et la signature dématérialisée • Apporter des recommandations pour garder un coup d’avance technologique (dont IA générative) 🛠️ Compétences techniques attendues • Expertise AWS (EKS, RDS/Aurora, VPC, services managés) • Expertise Kubernetes (production, scaling, sécurité, troubleshooting) • Terraform ( autonomie complète indispensable ) • GitLab CI / Helm • Migration de données (MongoDB, MariaDB) • Connaissance des environnements réglementés appréciée (finance, identité, etc.) 👤 Profil recherché • Expérience solide en migration cloud d’applications critiques • Capacité à challenger, structurer et accélérer les décisions d’architecture • Anglais opérationnel (contexte européen) • Excellent niveau de communication & leadership technique 💼 Conditions de mission 📍 Localisation : mission basée à Rennes (35) 💬 Full remote envisageable uniquement si le profil coche réellement toutes les cases (expertise démontrée & forte autonomie), ➡️ Sinon : 3 jours de présentiel par semaine sur site. • Statut : Freelance • Durée : 3 mois renouvelables (stratégie cloud jusqu’en 2027) • Démarrage : ASAP — idéalement dès la semaine prochaine • TJM : selon niveau d’expertise 📩 Candidatures & Recommandations 👉 Envoyez CV / LinkedIn / GitHub à : Confidentialité garantie, réponse rapide.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- Facturation électronique 04 : Factures erronées / fausses factures…
- Facturation électronique 01 : Rappel du calendrier !
- ARE terminée + dividendes versés après fin de droits : risque de régularisation ? (SASU)
- ARE terminée et dividendes après fin de droits
- ARE terminée + dividendes après fin de droits : risque de régularisation ? (SASU)
151 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois