Trouvez votre prochaine offre d’emploi ou de mission freelance Web service
Votre recherche renvoie 482 résultats.
Offre d'emploi
Développeur backend Java/Kotlin
Publiée le
AWS Cloud
Gitlab
Java
3 ans
40k-58k €
350-490 €
Nantes, Pays de la Loire
Télétravail partiel
Dans le cadre d'un renforcement , nous recherchons un développeur backend senior à Nantes. Le profil attendu doit être techniquement solide, avec une capacité de recul et d'accompagnement sur son métier. Vous rejoindrez une équipe en cours de formation avec 1 PO, 4 développeurs dont 1 lead, 1 QA, 1 Scrum Master, accompagné d'un expert fonctionnel et d'un ops. Les principales missions : - S’investir dans la vie de l’équipe, dans un cadre agile, et accompagner les autres membres grâce à votre expertise. - Concevoir, développer et livrer des solutions robustes, performantes et sécurisées. - Traduire des exigences fonctionnelles complexes en solutions techniques et les challenger si nécessaire. - Développer et améliorer les fonctionnalités en lien avec les besoins des applications clientes de distribution de mobilités. - Travailler en autonomie sur tout type de sujet backend. - Garantir la qualité et l’exploitabilité en production (tests, monitoring, alerting, résolution d’incidents). - Participer activement à l’intégration continue, aux déploiements et à l’usine logicielle. - Accompagner les autres développeurs de l’équipe. - Collaborer efficacement avec les équipes techniques, produit et architecture, ainsi qu’avec l’écosystème transverse (sécurité, enterprise architects, autres équipes de delivery) afin d’assurer la cohérence technique et fonctionnelle. - S’approprier les enjeux métier liés au marché des mobilités afin de concevoir des solutions pertinentes dans un environnement fonctionnel et technique complexe.
Offre d'emploi
NV - Ingénieur cloud AWS et Réseaux
Publiée le
AWS Cloud
Cisco
IAC
3 mois
Paris, France
Télétravail partiel
Bonjour, Je recherche un profil cloud AWS avec des compétences Infra as Code pour travailler sur des sujets de Réseaux/Sécurité. CONTEXTE Dans le cadre du projet "IT Network Segmentation" et d'un audit Global des recommandations ont été faite afin de redéfinir le périmètre Network. Il faut désormais implémenter et déployer les recommandations afin de poursuivre le projet et prendre en charge la conception, le déploiement et le support réseau, tout en contribuant à l’évolution de l'infrastructure cloud. PROFIL Ingénieur Cloud AWS et NON INGENIEUR RESEAUX SECURITE 5+ ans d'expérience MISSION Déployer et gérer les services AWS Cloud, notamment VPC, EC2, ELB, S3, Route 53 et IAM. Mettre en œuvre une connectivité sécurisée entre les environnements sur site et cloud AWS. Collaborer avec les équipes DevOps et sécurité pour optimiser les architectures réseau et cloud. Participer aux projets de mise à niveau et de migration réseau. Créer et maintenir la documentation relative à la conception, la configuration et les processus réseau. Surveiller l’infrastructure réseau et cloud à l’aide d’outils appropriés et réagir de manière proactive aux incidents. Garantir la conformité avec les politiques de sécurité et d’exploitation. COMPETENCES TECHNIQUES AWS (Certification AWS Certified SysOps Administrator ou Solutions Architect – Associate), ou équivalent.) CISCO (Certification CCNP – Routing & Switching ou Enterprise, ou équivalent est un plus) ANGLAIS INDISPENSABLE Must Have Expérience avérée en administration AWS Cloud, y compris la gestion et l’intégration des services AWS. Connaissance des outils d’infrastructure-as-code (ex. : Cloud Formation, Terraform) Solide compréhension des protocoles réseau : BGP, OSPF, EIGRP, VLANs, STP, NAT, ACLs, IPsec, 802.1x. Expérience avec des outils de surveillance et de sécurité réseau. Maîtrise des bonnes pratiques de sécurité pour les environnements réseau et cloud. Familiarité avec les systèmes Cisco Meraki SD-WAN, de commutation et de réseau sans fil. Expérience dans des environnements hybrides et multicloud. Certification AWS (par exemple : AWS Certified SysOps Administrator ou Solutions Architect – Associate), ou équivalent. Nice to Have Expérience en automatisation et Scripting (Python, Bash ou PowerShell). SOFT SKILLS Solides compétences en résolution de problèmes et en analyse. Excellentes capacités de communication et de documentation. Capacité à travailler de manière autonome et en équipe. À l’aise dans un environnement de travail dynamique et rapide. Démarrage : ASAP Durée : 3 mois renouvelable (longue visibilité jusqu'à 3 ans) Remote : 2 jours par semaine Nous sommes en exclusivité sur la demande et les entretiens peuvent avoir lieu dès cette semaine. Pour tout intérêt, merci de m'envoyer votre cv en format word et n'hésitez pas à me communiquer vos disponibilités pour l'entretien qui se déroulera totalement en anglais. Cordialement, Nathalie
Offre d'emploi
Data Engineer H/F
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
6 mois
Rouen, Normandie
Télétravail partiel
Description du poste : Nous recherchons un Data Engineer pour rejoindre une équipe Data moderne et orientée traitement de données volumétriques. Vous participerez au design, à la mise en place et à l’optimisation des pipelines de données. Missions : Développement de pipelines ETL / ELT Modélisation et structuration de data warehouses / data lakes Optimisation des performances et qualité des données Participation à la mise en place de frameworks DataOps Collaboration étroite avec Data Analysts / Data Scientists
Mission freelance
DBA & Cloud (AWS)
Publiée le
AWS Cloud
dBase
36 mois
650-660 €
La Défense, Île-de-France
Je cherche pour l'un de nos clients un DBA avec une forte culture DevOps/Cloud . le Client est basé à la défense. Missions: Ce rôle va au-delà des missions classiques d’administration : il s’agit d’apporter une expertise sur les bases de données, d’accompagner la migration vers AWS, d’optimiser les performances et d’automatiser la gestion des environnements. Missions principales Administrer et optimiser les bases de données OnPrem : PostgreSQL, Vertica, MariaDB, Oracle (11g, 19c – sortie progressive en cours). Accompagner la migration et la gestion des bases sur AWS (RDS, Aurora MySQL, Redshift, Glue). Concevoir et maintenir des pipelines ETL/ELT robustes et industrialisés. Mettre en place les standards de gouvernance des données (qualité, sécurité, conformité). Optimiser les performances (requêtes SQL, tuning, architectures de stockage). Garantir la haute disponibilité , le PRA et la continuité de service. Automatiser la gestion des environnements via IaC (Terraform, Ansible) et intégrer la donnée dans les chaînes CI/CD . Contribuer au monitoring et à l’ observabilité (Prometheus, Grafana, ELK). Collaborer avec les équipes Data, BI et IT pour fournir des données fiables et performantes. Effectuer une veille sur les évolutions technologiques (Cloud, Data Lake, Big Data). Gérer l’ évolution des schémas BDD via des outils de migration comme Liquibase .
Offre d'emploi
Développeur Fullstack Python & React / AWS
Publiée le
Apache Maven
AWS Cloud
CI/CD
45k-55k €
Île-de-France, France
Télétravail partiel
Secteur d'activité : Energie Mission(s) : Dévelopement et maintenance d'un portail web et d'une plateforme web regroupant plusieurs sites. Attendu(s) : Développements de nouvelles fonctionnalités backend Python et front ReactJS, la mise en place de maintenance corrective et la migration des services On premise vers des solutions Cloud AWS ainsi que des déploiements. Collaboration avec les Product Owners et intervention sur les développements en s’appuyant sur les besoins Métiers. Profil (s) : Developpeur Fullstack Python/ReactJS/AWS Méthodologie : agile Scrum Télétravail : 60%
Offre d'emploi
Architecte Data (AWS / Databricks / GénIA)
Publiée le
Architecture
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du développement de ses activités autour de la Data Platform et de l’Intelligence Artificielle Générative , Hextaem recherche un(e) Architecte Data pour intervenir sur la conception, l’industrialisation et la modernisation d’une plateforme Big Data Cloud bâtie sur AWS , Databricks et des services IA avancés. L’objectif est de définir et de mettre en œuvre une architecture scalable, sécurisée et orientée IA , capable de supporter les cas d’usage analytiques, data science et génAI (RAG, copilotes, modèles internes). Missions principales 1. Conception et architecture de la plateforme Data Définir l’architecture cible sur AWS (S3, Glue, Athena, Lambda, Redshift, etc.). Concevoir les pipelines de données dans Databricks (ingestion, transformation, orchestration). Définir les standards de data quality, gouvernance et sécurité (IAM, encryption, lineage). Structurer les environnements (bronze / silver / gold) selon les meilleures pratiques Lakehouse. 2. Gouvernance et performance Mettre en place des patterns de développement et d’industrialisation (CI/CD Data). Superviser la performance des jobs et optimiser les coûts de la plateforme. Assurer la traçabilité et la conformité des données (RGPD, ISO, sécurité). 3. Génération d’intelligence et IA générative Participer à la conception d’architectures hybrides Data + IA Générative (RAG, embeddings, vector stores). Intégrer des modèles LLM (OpenAI, Anthropic, Hugging Face, Bedrock, etc.) aux pipelines existants. Collaborer avec les Data Scientists pour industrialiser les use cases IA. Évaluer la pertinence d’outils de nouvelle génération (LangChain, LlamaIndex, VectorDB, etc.). 4. Conseil, accompagnement et expertise Être le référent technique sur la plateforme Data pour les équipes internes et clients. Accompagner les Data Engineers et Data Scientists dans la mise en œuvre des bonnes pratiques. Participer aux phases d’avant-vente et d’architecture auprès des clients Hextaem. Assurer une veille technologique active sur les sujets Cloud, Big Data et GénIA. Compétences techniques : Cloud & Data Platform: AWS (S3, Glue, Athena, Redshift, Lambda, IAM, CloudFormation/Terraform) Data Engineering: Databricks (Spark, Delta Lake, MLflow), ETL/ELT, orchestration (Airflow, ADF) Gouvernance & Sécurité: Data lineage, catalog (Glue Data Catalog, Unity Catalog), RBAC, encryption Langages: Python, SQL, PySpark CI/CD & DevOps: Git, Docker, Terraform, GitHub Actions / Jenkins IA Générative (bonus) L:LMs (OpenAI, Bedrock, Hugging Face), LangChain, VectorDB, RAG patterns
Mission freelance
Product Owner Cloud & FinOps
Publiée le
AWS Cloud
FinOps
Site Reliability Engineering (SRE)
12 mois
530-580 €
Saint-Denis, Île-de-France
Télétravail partiel
Dans le cadre d’un vaste programme de transformation technologique, notre client modernise ses infrastructures et renforce ses capacités Cloud, Observabilité, Automatisation et FinOps . Vous intégrerez une équipe Platform Engineering dont la mission est de fournir aux squads de développement internes des services permettant d’assurer la fiabilité, la performance et la maîtrise des coûts de leurs applications. Notre client recherche un Product Owner Technique Senior , orienté SRE/Cloud, capable de piloter une plateforme stratégique supportant des produits à forte volumétrie et exigences de disponibilité élevées. Missions Rattaché(e) à une plateforme interne dédiée, vos responsabilités s’articulent autour de 5 axes : Pilotage de la plateforme Résilience / Robustesse / FinOps Recueillir les besoins techniques et construire la vision produit Prioriser un backlog technique orienté fiabilité, sécurité et coûts Garantir l’adéquation des capacités de développement avec les enjeux de valeur Performance & optimisation continue Suivi des incidents et pilotage des actions post-mortems Définir et suivre les indicateurs clés : SLI/SLO, DORA, DevEx, KPIs FinOps, OKRs Proposer des optimisations basées sur la donnée (performance, coûts Cloud) Collaboration & communication transverse Travailler en proximité avec développeurs, SRE, Ops, architectes, managers Favoriser l’adoption et la compréhension de la plateforme au sein des équipes internes Vision stratégique & Roadmap Produit Définir les orientations techniques à moyen/long terme Construire une roadmap alignée sur les enjeux de fiabilité, scalabilité et maîtrise des coûts 5️⃣ Amélioration des pratiques internes Veille technologique SRE/Cloud continue Partage de bonnes pratiques, REX, benchmarks d’outils
Mission freelance
POT8733 - Un développeur Springboot/Angular sur Grenoble
Publiée le
AWS Cloud
6 mois
330-420 €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un développeur Springboot/Angular sur Grenoble. Tâches & Missions : Réaliser pour l’un de nos clients différentes évolutions sur une application stratégique dans le domaine de la performance énergétique. Front : Angular Back : micro services SpringBoot Cloud : AWS, services managés AWS (Lambda, Bucket S3, SQS, RDS, etc.) DevOps : (ansible, …) Prérequis : 4 ans d’expériences attendus sur Angular & Spring Boot Une présence à Grenoble en Full time (5 jours/sem) Almatek recherche pour l'un de ses clients, un développeur Springboot/Angular sur Grenoble. Tâches & Missions : Réaliser pour l’un de nos clients différentes évolutions sur une application stratégique dans le domaine de la performance énergétique. Front : Angular Back : micro services SpringBoot Cloud : AWS, services managés AWS (Lambda, Bucket S3, SQS, RDS, etc.) DevOps : (ansible, …) Prérequis : 4 ans d’expériences attendus sur Angular & Spring Boot Une présence à Grenoble en Full time (5 jours/sem).
Mission freelance
Administrateur Bases de Données PostgreSQL Expert – Azure / AWS
Publiée le
AWS Cloud
Azure
12 mois
Paris, France
Télétravail partiel
Contexte Nous recherchons pour notre client, un grand groupe international du secteur de l’énergie, un DBA PostgreSQL Expert afin de renforcer l’équipe DBA du département Infrastructure, dans un contexte cloud first basé sur Azure et AWS. La mission s’inscrit dans un environnement à haute criticité, lié à des activités de trading et de gestion de portefeuille énergie, avec un parc d’environ 3000 serveurs répartis entre Azure, AWS et deux datacenters on-premise. Le consultant interviendra au sein de l’équipe CORE IS INFRA Database Administrators, en collaboration directe avec les équipes de développement et les équipes infrastructure (systèmes, réseau, production excellence et gouvernance). Missions principales En tant que référent PostgreSQL, le consultant assurera l’administration N3 des environnements PostgreSQL, aussi bien on-premise que cloud. Il participera au design des solutions, à leur mise en exploitation et à la gestion des serveurs de données. Son rôle couvrira notamment l’automatisation des opérations, la gestion des droits, la sécurité, ainsi que l’optimisation des traitements et des requêtes. Il devra garantir l’intégrité, la disponibilité et la résilience des bases à travers les procédures de sauvegarde, de restauration, de journalisation ou de PRA. La mission inclut également la définition et la mise en œuvre de standards d’exploitation, l’automatisation des déploiements avec Ansible, Git et du scripting (Bash, Python ou PowerShell), ainsi que l’intégration de PostgreSQL dans l’écosystème Azure, notamment via Bicep, Log Analytics et Azure Monitor. Le consultant contribuera aussi à la création et à l’amélioration de dashboards techniques utilisant des outils tels que Grafana, Prometheus ou Zabbix. L’expert travaillera dans un environnement hybride combinant Microsoft OnPrem, Azure et AWS. Il prendra en charge les demandes techniques des équipes applications et développement, s’intégrera aux processus agiles des Delivery Teams, et accompagnera les équipes projets sur les choix d’architecture et de composants d’infrastructure. La mission comporte également la rédaction de la documentation technique (HLD, LLD, spécifications, procédures d’exploitation), la participation à la démarche DevOps DBA (CI/CD, bonnes pratiques, outillage) et l’intégration progressive dans le dispositif d’astreintes. Des déplacements réguliers à Bruxelles sont prévus afin de collaborer avec les équipes locales
Mission freelance
Data Engineer AWS - PySpark/Databricks
Publiée le
Amazon S3
Apache Spark
AWS Cloud
12 mois
550-600 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
Offre d'emploi
Expert Réseau & Automation AWS
Publiée le
Automatisation
AWS Cloud
IAC
6 mois
Paris, France
Télétravail partiel
Le poste d’ Ingénieur Réseau & Automation AWS consiste à intégrer une équipe en charge des infrastructures cloud AWS et Outscale , avec pour mission de renforcer les compétences réseau et cloud au sein du groupe. L’ingénieur participe à la mise en place, l’automatisation, la sécurisation et la maintenance des environnements internes et clients. Il conçoit et gère des architectures réseau complexes (VPC, routage, VPN, sécurité, DNS) et développe des solutions d’ Infrastructure as Code (Terraform ou outils internes) pour fiabiliser les déploiements. Il contribue activement aux environnements de production et développement sous Linux , collabore étroitement avec les équipes Cloud et Dev pour optimiser la performance et la résilience, et rédige la documentation technique associée
Offre d'emploi
Tech Lead Snowflake
Publiée le
Apache Airflow
AWS Cloud
Snowflake
2 ans
40k-81k €
400-640 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Tech Lead Snowflake : le Tech Lead « aura donc la charge de: 1)Co-piloter la Feature Team 2)Créer un binôme fort avec son homologue ‘Produit’ (Product Owner déjà présent). 3)Encadrer les Data Engineers : 4 externes + 1 interne 4)Assurer la mise en oeuvre des bonnes pratiques de développements (DevOps, Qualité, FinOps, etc.) 5)Contribuer au cadrage, découpage & macro-estimation des nouveaux sujets. 6)Orienter les choix techniques et de modélisation (urbanisation Snowflake, patterns Archi, etc.) 7)Livrer les produits Data (Analytics & IA) suivant les engagements de qualité et de délais pris. 8)Gérer la communication et la résolution en cas d’incidents. 9)Tenir informés ses supérieurs, voir les alerter ou demander de l’aide en cas de risque ou pb. 10)Participer aux évènements organisés à l’échelle de la DATA ou de la verticale ENGINEERING.
Mission freelance
Ingénieur DevOps
Publiée le
AWS Cloud
DevOps
DevSecOps
6 mois
320-430 €
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un Ingénieur DevOps Objectif global : Dév(Sec)Ops, environnement AWS Compétences techniques: Kubernetes - Expert - Impératif fluxCD helm, terraform - Expert - Impératif Description détaillée: Dans le cadre d’un grand compte, nous recherchons un devops expérimentés Le cadre est le suivant : - Méthodologie agilité à l’échelle (SAFE) - Architecture fonctionnant dans le cloud AWS (EKS / S3 / EC2 / EBS / EFS / RDS / OpenSearch / WAF / ALB ) Activités attendues : - MCO/RUN de la plaforme actuelle, - Evolutions : ex : amélioration continue de la partie CI/CD (automatisation de tests, …), - Support : o Accompagnement des équipes projets agiles, o Construction de solutions Compétences et technologies : - Kubernetes (csi driver, datadog agent, prometheus, external-secret, external dns, etc ). - fluxCD helm, terraform - Gitlab, jenkiins, artifactory sonarQube, atlantis - AWS (EKS / S3 / EC2 / EBS / EFS / RDS / OpenSearch / WAF / ALB )
Mission freelance
Senior Cloud security architect
Publiée le
AWS Cloud
Azure
Cybersécurité
1 an
500-630 €
Paris, France
Télétravail partiel
Pour un de nos grand compte client, nous recherchons activement un·e Architecte Sécurité Cloud expérimenté·e , spécialiste d’ OpenShift , pour rejoindre l’équipe projet. Ce poste est au cœur de la stratégie de sécurité cloud et plateforme de l’organisation. Il offre l’opportunité de définir des standards, concevoir des architectures d’entreprise et influencer les décisions de modernisation à grande échelle. Missions clés : Piloter l’architecture de sécurité pour un environnement hybride cloud ( AWS/Azure ) à grande échelle Définir et mettre en œuvre des contrôles de sécurité pour les plateformes OpenShift et conteneurisées Structurer la gouvernance autour de l’IAM, de la segmentation, du chiffrement, du zero-trust et de la conformité Intégrer les pratiques DevSecOps dans les pipelines CI/CD (scan d’images, SAST/DAST, policy-as-code) Automatiser la surveillance, l’application des politiques et les outils de réponse aux incidents Rôle à fort impact, en collaboration directe avec les équipes Cloud, Infrastructure et DevOps
Offre d'emploi
Product Owner Plateforme Big Data (AWS / Databricks)
Publiée le
Agile Scrum
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Offre d'emploi
Ingénieur DevOps/ SysOps
Publiée le
AWS Cloud
Docker
Jenkins
42k-56k €
Rouen, Normandie
Télétravail partiel
Bonjour, nous c'est TerraOps! Pure Player DevOps/Cloud à Rouen, Notre mission ? Accompagner les entreprises dans la conception, le déploiement et l’optimisation de leurs infrastructures numériques, en alliant fiabilité, résilience opérationnelle et engagement pour un numérique responsable. Pour une mission chez un de nos clients dans le secteur de l’aéronautique, nous recherchons un Ingénieur DevOps. Développement du code IaC pour déployer et maintenir des services pour des applications déployées sur AWS Prendre en charge les tâches liées à la CI/CD, au provisionnement de l’infrastructure et au déploiement applicatif ; en estimer la complexité et les réaliser Appliquer les bonnes pratiques définies au sein de l’équipe et de la communauté de pratique DevOps Rédiger et maintenir la documentation technique Participer à l’amélioration continue des outils et processus Présenter les résultats des travaux réalisés aux parties prenantes (Business Owner, Product Management, Product Owner) lors des démonstrations Concevoir ou améliorer les chaînes de packaging et de livraison du produit Relire le code produit par les autres membres de l’équipe (code review) Contribuer activement à la communauté de pratique DevOps Résoudre les problématiques techniques liées aux systèmes et aux réseaux
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
482 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois