Trouvez votre prochaine offre d’emploi ou de mission freelance Web service

Votre recherche renvoie 594 résultats.
CDI
Freelance

Offre d'emploi
Tech Lead Data (H/F)

AVA2I
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 ans
Île-de-France, France
Dans le cadre de l’évolution et de l’industrialisation de sa plateforme Data multi-cloud, un acteur majeur du secteur de l’énergie recherche un Tech Lead Data senior . La mission s’inscrit au sein de la plateforme Data Groupe avec des enjeux forts de : Scalabilité Gouvernance et qualité des données Industrialisation des pipelines Fiabilité en production 🎯 Missions principales 🔹 Leadership technique Être le référent technique de la plateforme Data Définir et faire évoluer l’architecture Data Encadrer et accompagner les Data Engineers Participer aux choix technologiques et aux orientations stratégiques 🔹 Build – Industrialisation Concevoir et mettre en œuvre un Data Lake Définir, développer et automatiser les pipelines de données Mettre en place les bonnes pratiques CI/CD Garantir la performance, la robustesse et la scalabilité 🔹 Run – MCO Assurer la supervision des traitements Gérer les incidents et optimiser les processus Maintenir les environnements techniques Automatiser les tâches récurrentes 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP Contexte multi-cloud 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Airflow ⚙ Dev / DevOps Python APIs (FastAPI / Flask) Docker Terraform GitLab CI/CD Linux
Freelance
Alternance

Mission freelance
Ingénieur DevOps Senior

CAT-AMANIA
Publiée le
AWS Cloud
AWS CloudFormation
IAC

1 an
Lille, Hauts-de-France
PROFIL UNIQUEMENT EN METROPOLE LILLOISE Contexte : Dans le cadre du programme de migration vers AWS (Move to Cloud), nous recherchons des compétences Ops expérimenté pour industrialiser les déploiements via des outils d’IaC, avec une forte sensibilité aux contraintes de production (sécurité, haute disponibilité, supervision, automatisation des déploiements et exploitabilité). Missions : - Développer, maintenir et faire évoluer des modules Terraform (prioritairement) et CloudFormation. - Participer à l’industrialisation des environnements cloud AWS (VPC, EC2, RDS, Lambda, S3, IAM, etc.). - Contribuer à la mise en conformité des stacks avec les standards de production (monitoring, logs, sécurité, patching). - Accompagner les équipes projets dans l’intégration continue et le déploiement automatisé (CI/CD). - Documenter les composants et bonnes pratiques.
CDI

Offre d'emploi
Ingénieur DEVOPS

KUBE Partners S.L. / Pixie Services
Publiée le
Ansible
AWS Cloud
Azure

Lille, Hauts-de-France
Ce que nous offrons : - Un environnement de travail stimulant, où chaque projet est une opportunité de repousser les limites de l'innovation avec des outils comme Docker, Kubernetes, Ansible, Terraform, AWS/GCP, et bien plus. - Une culture d'entreprise qui valorise la formation continue, l'autonomie et la collaboration entre équipes multidisciplinaires. - Un poste basé dans la dynamique métropole lilloise, centre d'innovation et de technologie. Missions pour l'Ingénieur DevOps : - Automatisation des pipelines CI/CD pour accélérer le déploiement des applications tout en garantissant leur fiabilité et leur sécurité. - Orchestration des conteneurs avec Kubernetes, assurant la scalabilité et la gestion efficace des microservices. - Gestion de l'infrastructure as code (IaC) avec Terraform ou Ansible, permettant une gestion cohérente et reproductible des environnements de production, de test et de développement. - Surveillance et optimisation des performances des systèmes en place, en utilisant des outils de monitoring avancés pour prévenir les incidents avant qu'ils ne surviennent. - Collaboration étroite avec les équipes de développement et d'opérations pour instaurer une culture DevOps forte, favorisant l'intégration et la livraison continues (CI/CD). - Sécurisation des pipelines de déploiement et de l'infrastructure cloud via des pratiques de sécurité DevOps (DevSecOps), incluant la gestion des vulnérabilités et la conformité.
Freelance

Mission freelance
Développeur Web Python Cloud AWS (H/F)

Insitoo Freelances
Publiée le
Python

2 ans
370-400 €
Lyon, Auvergne-Rhône-Alpes
Projet : Fonctionnement : 2 jours sur site à Lyon + 3 jours de télétravail Descriptif de la mission : Nous recherchons un profil expérimenté pour rejoindre une équipe agile dans le cadre du développement d’une application permettant d’échanger des données métiers de manière sécurisée via une plateforme en utilisant des API et le cloud. Cette mission repose sur des pratiques agiles à l’échelle (SAFe). Le candidat intégrera une équipe déjà formée, composée de 4 développeurs back-end, 4 développeurs front-end, un Product Owner (PPO) et une Scrum Master. Deux jours de présence sur site chez le client sont obligatoires chaque semaine, afin de favoriser la collaboration et la dynamique d’équipe. Le démarrage de la mission est prévu pour décembre ou janvier 2026 Compétences attendues : Développement et maintenance d’une application en Python Rédaction des spécifications techniques (utiliser Mermaid pour la modélisation serait un plus) Conception et implémentation de fonctionnalités dans une architecture Serverless AWS Réalisation des tests techniques et unitaires Analyse du cahier des charges et suivi des user stories via Jira . Rédaction et mise à jour de la documentation technique sur Confluence . Suivi de l’accostage des partenaires à notre solution et répondre à leurs demandes. Soft Skills recherchés : Autonomie : capacité à travailler efficacement sans supervision constante. Force de proposition : être moteur dans l’amélioration continue du projet et prendre en main des chantiers transverses Adaptabilité : aisance avec les outils et les environnements évolutifs. Esprit d’équipe : expérience confirmée dans des contextes collaboratifs agiles. Communication claire et structurée : savoir s’exprimer avec précision et transmettre les bons messages. Rigueur et organisation : un profil carré, capable de respecter les standards et les délais. Cette mission est idéale pour un développeur confirmé (4 années d’expériences minimum) , maîtrisant les environnements cloud AWS , les architectures serverless , et souhaitant s’investir dans un projet à fort impact.
Freelance

Mission freelance
2 CONSULTANTS / ARCHITECTES SENIOR DEVOPS - habilitable H/F

Cheops Technology
Publiée le
AWS Cloud
CI/CD
IAC

10 mois
430-580 €
Bordes, Nouvelle-Aquitaine
-Opérer les migrations des environnements validés du legacy DU CLIENT vers la landing zone AWS en suivant la stratégie de migration privilégiée -Gestion du replatforming ou le refactoring des environnements. -Gestion du lift & shift reste l’option de dernier recours si aucune autre stratégie de migration n’est réalisable. • Analyser la faisabilité technique de migration d’applications suivant les critères techniques, les critères relatifs à la sensibilité des données, fournis par le client. • La rédaction des documentations techniques (en anglais) Compréhension approfondie des principaux services AWS : EC2, S3, VPC, IAM, RDS, Lambda, EBS, CloudWatch. •Capacité à concevoir une architecture cloud sécurisée, scalable et performante. •Expérience avec la gestion des droits et utilisateurs via IAM (Identity & Access Management). •Pratique courante d’outils IaC (Terraform). •Automatisation du provisionnement et de la gestion des ressources AWS via code. •Maîtrise du versionning, des tests et de la revue de code pour l’infrastructure. •Mise en oeuvre et gestion de pipelines CI/CD avec des outils comme Jenkins, GitLab CI, AWS CodePipeline, etc. •Intégration des tests automatiques, déploiements automatisés et gestion des rollbacks. •Scripting avancé (Python, Bash, PowerShell...) pour automatiser tâches et processus. •Connaissance des bonnes pratiques AWS en cybersécurité (chiffrement, gestion des secrets, sécurité réseau, MFA…). •Surveillance de la conformité et de l'auditabilité (CloudTrail, Gestion des logs, etc). •Intégration de mécanismes de détection et de réponse aux incidents. •Mise en place de la surveillance des ressources (CloudWatch, CloudTrail, Prometheus, Grafana, ELK…). •Gestion centralisée des logs pour assurer la traçabilité et l’analyse des incidents. •Compétence en migration d’applications existantes (lift-and-shift, replatforming, refactoring…). •Connaissance des patterns de migration AWS (Database Migration Service, Server Migration Service…). •Analyse des dépendances applicatives et planification des étapes de migration. •Sécurisation et isolation des flux réseau (NACL, Security Groups, segmentation). •Rédaction de documentations techniques, partage des connaissances et formation interne. •Rigueur, autonomie et proactivité. •Communication efficace avec les équipes métiers et IT. •Bonne capacité d’analyse et de troubleshooting. •Niveau d’anglais : B1 minimum.
CDI

Offre d'emploi
DevOps / SecOps Engineer (H/F)

BLOOMAYS
Publiée le
Architecture
AWS Cloud
CI/CD

70k-75k €
Arcueil, Île-de-France
🌍 À propos de l’entreprise Nous sommes une scale-up technologique internationale, acteur de référence dans les solutions d’automatisation et de robotique pour la logistique et l’industrie. Nos produits sont déployés à grande échelle dans des environnements critiques, avec de fortes exigences en matière de fiabilité, sécurité et performance. Dans un contexte de croissance et d’industrialisation de nos plateformes, nous renforçons notre socle cloud et recherchons un(e) DevOps / SecOps Engineer pour prendre une responsabilité transverse sur l’infrastructure et les plateformes de déploiement. 🎯 Votre mission En tant que DevOps / SecOps Engineer, vous serez responsable de la conception, de l’exploitation et de l’amélioration continue de notre infrastructure cloud et de nos pipelines de déploiement. Vous interviendrez sur l’ensemble du cycle de vie des plateformes, depuis les environnements de tooling et de développement jusqu’à la production, avec une approche security by design et une forte culture de la fiabilité. 🛠️ Vos responsabilités Cloud & Infrastructure Concevoir, déployer et maintenir l’architecture cloud (AWS) Être propriétaire de l’infrastructure de bout en bout (tooling, sandbox, production) Garantir la scalabilité, la résilience, la performance et la maîtrise des coûts Mettre en œuvre et maintenir l’Infrastructure as Code (Terraform) CI/CD & Platform Engineering Concevoir et standardiser les pipelines CI/CD Automatiser les processus de build, test, release et déploiement Accompagner les équipes de développement sur les stratégies de déploiement Fiabilité & Observabilité Superviser les environnements de production (monitoring, alerting, incidents) Améliorer l’observabilité (logs, métriques, alertes) Gérer les mises à jour régulières, correctifs de sécurité et remédiation des CVE Sécurité & SecOps Intégrer la sécurité par design dans l’infrastructure et les pipelines Gérer les accès, identités et secrets (IAM, Auth0, principes de moindre privilège) Contribuer aux audits de sécurité, à la gestion des risques et à la conformité Documentation & Structuration Produire et maintenir la documentation d’architecture cloud Formaliser les processus opérationnels et politiques de sécurité Contribuer aux plans de continuité et de reprise d’activité (PRA / DRP) Collaboration Travailler au quotidien avec des équipes pluridisciplinaires (web, data, embarqué/robotique) Intervenir ponctuellement sur du scripting ou de l’automatisation Être un référent technique DevOps / Cloud au sein de l’organisation
Freelance

Mission freelance
PM / PMO Data & Digital Transformation

Gentis Recruitment SAS
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)

12 mois
Paris, France
Contexte La Direction Data et Digital d'un grand groupe du luxe, travaille à structurer ses plateformes et ses projets data dans un contexte international et omnicanal. Les initiatives couvrent : développement e-commerce et omnicanal structuration de données métiers et analytique industrialisation des flux data adoption de bonnes pratiques de pilotage, qualité de données et gouvernance Ils disposent d’équipes data, digitales et technologiques intégrées, alliant innovation, qualité de service et excellence opérationnelle . Mission principale : Supporter le Programme Data et Digital dans : la coordination des initiatives transverses le suivi de la roadmap data & digital la production des reportings projets le pilotage des dépendances entre streams le suivi des risques, des jalons, des budgets l’animation des comités de pilotage l’optimisation des process PMO Ce rôle implique d’être l’interface entre : DSI / Data Office / métier / product owners / équipes techniques . La dimension technique est un atout (compréhension des flux data, reporting, plateformes cloud, outils de gouvernance) mais ce rôle n’est pas axé développement ou ingénierie. Le PMO travaille avec des data engineers, BI, devops, architectes et responsables métier. Technologies & Environnement (contextuel) Un environnement technologique moderne comprenant : outils de gestion de projet : Jira, Confluence, Slack technologies de développement backend : Node.js, PHP/Symfony (hors data) devops / cloud : Docker, Kubernetes, Terraform, AWS compétences data : Python, SQL, outils de data science Pour un PM / PMO, la compréhension de ces environnements permet d’être pertinent dans les arbitrages et le pilotage des initiatives, notamment lorsque les équipes data travaillent avec des technologies cloud ou des plateformes analytiques.
Freelance
CDI

Offre d'emploi
Full Stack Developer Senior – Java / Angular (H/F)

CITECH
Publiée le
Angular
AWS Cloud
Hibernate

12 mois
62k-72k €
480-650 €
Paris, France
✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Full Stack Developer Senior – Java / Angular. Missions et responsabilités: En support du Tech Lead , vous serez en charge de : Concevoir et développer la logique métier et les API back-end Participer au développement et à la maintenance des composants applicatifs Collaborer étroitement avec les développeurs Front-End pour concevoir des API performantes et complètes Comprendre, maintenir et faire évoluer les systèmes existants (legacy) et leurs interfaces Rédiger des tests unitaires et d’intégration Contribuer à l’automatisation des tâches techniques Produire un code de haute qualité , documenté et maintenable Challenger les choix techniques afin d’éviter les solutions inefficaces Documenter ou rétro-documenter les fonctionnalités développées
Freelance

Mission freelance
Développeur(se) Back-End Senior C# / PIM

Teaminside
Publiée le
AWS Cloud
C#
Java

1 an
400-550 €
Île-de-France, France
Dans le cadre d’un programme de transformation digitale d’envergure au sein d’un grand groupe international du secteur B2B, nous recherchons un(e) Développeur(se) Back-End Senior C# pour renforcer une équipe en charge d’un PIM stratégique au cœur des enjeux data et produit. 🎯 Votre mission Intégré(e) à une équipe PIM expérimentée, vous interviendrez sur des sujets à forte valeur ajoutée, notamment : Conception, développement et maintenance d’extensions PIM en C# / .NET Développement et maintien d’ API et de flux d’intégration avec les systèmes internes et partenaires Contribution à l’évolution du modèle de données produit , en lien avec les équipes métiers Garantie de la qualité, de la cohérence et de la fiabilité des données Participation aux activités de maintenance applicative (évolutions, correctifs, support avancé) Rédaction et mise à jour de la documentation technique selon les standards du groupe Collaboration étroite avec des équipes transverses (produit, architecture, sécurité, QA, exploitation) 📍 Conditions de la mission Démarrage : février 2026 Mission longue durée (jusqu’à fin 2026)
Freelance

Mission freelance
Développeur Fullstack (Python)

AIS
Publiée le
AWS Cloud
DevOps
Python

6 mois
290-390 €
Angers, Pays de la Loire
Missions principales Concevoir, développer et maintenir des applications web full stack Développer des API back-end performantes et sécurisées en Python Concevoir et intégrer des interfaces front-end modernes et ergonomiques Participer aux choix d’architecture technique et aux revues de code Optimiser les performances, la scalabilité et la sécurité des applications Rédiger une documentation technique claire et maintenable Participer aux phases de tests, déploiement et maintenance Assurer une veille technologique continue
Freelance
CDI

Offre d'emploi
Data Engineer/ Backend Finances et Risques sur Maison Alfort

EterniTech
Publiée le
Apache Kafka
AWS Glue
Data analysis

3 mois
Maisons-Alfort, Île-de-France
Je recherche pour un de mes clients un Data Engineer / Backend Finances et Risques sur Maison Alfort Contexte Mission au sein de la DSI du client et plus précisément dans l'équipe data ESG. Mise en place d'un hub de données sur le thème de l'ESG pour répondre aux différents besoin de reporting, dataviz et partage d'informations. Exp: 5 à 8 ans Mission Concevoir et développer les datasets de données, les microservices et les API du produit en fonction de l'architecture proposée par le client Veiller aux bonnes pratiques et normes Assurer la qualité des développements, la qualité de la documentation des développements et la qualité des delivery Contribuer au suivi de production et assurer la maintenance corrective Certifications requises : au moins une • AWS Solution Architect ; • AWS Database ; • AWS Developer ; • AWS Data Analytics Méthodologie : • Agile • SAFe 5.0 Compétences métier : • Sens relationnel : adapter son comportement et son attitude en fonction de l'interlocuteur pour maximiser la qualité des échanges, • Travail en équipe : collaborer avec les membres de l'équipe de façon ouverte en communiquant ses retours et impressions sur les travaux, • Communication orale et écrite : exposer efficacement à l'écrit comme à l'oral un raisonnement de façon logique et argumentée, • Autonomie et proactivité : organiser son travail personnel en cohérence avec celui de l'équipe, anticiper les besoins et prendre des initiatives en informant le reste de l'équipe de son activité. Liste des technologies : Priorité : - Compétences Back : Java (17+) et springboot, API - Compétences Data : AWS ((Glue, athena, s3, ....), Python, Pyspark - Stream Kafka - Cloud AWS Kubernetes, Terraform* *Jenkins* *Event Kafka* *MongoDB* *Python* Facultative : EKS, DataDog Points critiques et différenciants Priorité : - Compétences Back : Java (17+) et spring - Compétences Data : Glue, Python, Pyspark - Stream Kafka - Cloud AWS Expert sur python, traitement des données Spark Important : Testing : faire des tests unitaires, participe aux tests fonctionnelles (automatisation). Il développe et fait ses tests unitaires (pytest, python 3, pispark) Spé AWS : job glue (quotidien), touché aux instances OC2, maitriser l'ensemble de la stack, secret manager, S3, athena (pas compliqué - surcouche SQL) Travail en binome avec le Tech Lead: connaissance des patterns design applicative. SOn job au quotidien : créer des jobs pour traiter des données + traitement de données. Objectif de la mission de modulariser et architecturer ses process : créer un job avec la spécialisation attendue du métier : avoir un code modulaire. Avoir un mindset agile. Etre ouvert au changement Avoir des gars autonomes et responsable, proactif, dynamique. Bon communicant avec les métiers, les PM
Freelance

Mission freelance
Administrateur VTOM

HAYS France
Publiée le
Apache
AWS Cloud
Linux

6 mois
400-450 €
Paris, France
La maîtrise de VTOM est indispensable : c’est la compétence clé de ce poste. Le consultant aura pour mission d’assurer le bon fonctionnement, la fiabilité et l’optimisation de toutes les chaînes d’ordonnancement. Il jouera un rôle central dans la coordination des traitements métiers, la maintenance des plateformes et l'accompagnement des équipes projets. Responsabilités principales Administrer et maintenir les serveurs VTOM Vous garantissez la stabilité, la performance et la disponibilité de l’outil. Configurer, optimiser et superviser les jobs VTOM Paramétrage des tâches Suivi des exécutions Correction des anomalies Développer et maintenir des scripts (Shell, Python, etc.) Ces scripts seront utilisés pour automatiser et orchestrer les traitements. Encapsuler les scripts métiers dans VTOM Vous transformez les besoins fonctionnels en jobs techniques fiables. Assurer la MCO des chaînes d’ordonnancement Analyse proactive Résolution d’incidents Optimisation continue Préparer et valider les mises en production Notamment via la télédistribution. Accompagner les équipes métiers et projets Vous les conseillez dans la rédaction de leurs plans d’ordonnancement et dans l’intégration optimale de leurs applications. Participer aux choix d’architecture technique Dans des environnements hybrides : datacenter, AWS, Azure. Contribuer à la documentation technique et au reporting Rédaction ou mise à jour des procédures Reporting mensuel d’activité Respect strict des règles de sécurité Environnement technique Systèmes : Unix (AIX / Solaris), Linux (Red Hat, Suse, Ubuntu…), Windows Cloud : AWS, Azure Bases de données : Oracle, SQL Server, PostgreSQL, Ingres Solaris, MongoDB, Redis, Couchbase Middleware : Apache, Tomcat, Weblogic, MQ, Tuxedo, CFT Outils DevOps : Ansible, Jenkins, Terraform, Docker, Kubernetes Supervision : Nagios, Datadog, Splunk
Freelance
CDI

Offre d'emploi
Data Engineer (H/F)

AVA2I
Publiée le
Amazon Redshift
Apache Airflow
API

3 ans
Île-de-France, France
Dans le cadre de la phase 2 de construction de sa plateforme Data Groupe, un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data. L’objectif est de consolider le socle technique existant, d’industrialiser les pipelines et de contribuer aux projets d’ingénierie Data & IA, tout en assurant le Run des assets déjà en production. 🎯 Missions principales 🔹 Build – Data Platform Participer à la construction et à l’évolution de la plateforme Data Concevoir et développer des pipelines de données Réaliser des POC et spiker le backlog Contribuer aux choix d’architecture en respectant les standards définis Optimiser les requêtes Amazon Redshift (point clé de la mission) 🔹 Run – Exploitation Assurer le maintien en conditions opérationnelles Superviser les traitements Garantir la performance et la stabilité des assets 🔹 Contribution IA Participer aux projets d’AI Engineering Collaborer avec les squads Data Métier Être force de proposition sur les solutions techniques 🔹 Optimisation des coûts Maîtriser les coûts des services cloud (dimension FinOps importante) 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Scalabilité & clustering ⚙ Dev & DevOps Python APIs (FastAPI / Flask) Airflow Docker Terraform GitLab CI/CD Linux Git (code review, merge request) 📊 Outils analytiques (bonus) Tableau Dataiku Alteryx
Freelance

Mission freelance
Architecte d’Intégration SaaS ( H/F)

LENA IT
Publiée le
Apache Kafka
AWS Cloud
Azure

36 mois
750-820 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre d’une transformation digitale globale, nous recherchons un Architecte d’Intégration expérimenté pour accompagner les projets IT & Paiement de notre client international. Mission L'Architecte d’Intégration est responsable de : Choix technologiques : Diriger les principales études techniques pour identifier les solutions middleware et les technologies à intégrer à la stack liée aux applications. Valider chaque choix applicatif non standard avec les Lead Techs, fournisseurs et équipes de développement internes. Orientation et standardisation : Construire, communiquer, promouvoir et faire appliquer les normes, standards et lignes directrices liés à l'architecture d'intégration. Concevoir et maintenir le middleware d’intégration (services, capacités, etc.). Support aux projets : Apporter des conseils sur la solution et l'intégration technique, identifier les composants les plus pertinents pour un projet selon les contraintes métier, techniques, de développement et financières (phases de cadrage & de réalisation). Concevoir les modèles et standards d'intégration pour les projets (formats d'échange, formats canoniques, etc.). Définir le référentiel de données des projets (Master/Slave). Accompagner les équipes projets (squads) pendant la phase de construction, notamment sur la couche d’intégration. Définir les interfaces contractuelles entre les systèmes. Assistance aux équipes et architectes globaux, régionaux et locaux dans leurs projets. Gouvernance : Contributeur majeur à la communication autour de l’architecture d’intégration (porter la voix de l’IT global auprès des parties prenantes : fournisseurs, usines digitales, équipes régionales et locales, équipes projet globales, etc.).
Freelance
CDI
CDD

Offre d'emploi
Senior Platform Engineer / Site Reliability Engineer (SRE)

bdevit
Publiée le
Argo CD
AWS Cloud
CI/CD

36 mois
Île-de-France, France
Contexte : Dans le cadre du renforcement de nos équipes plateforme, nous recherchons un Senior Platform Engineer / Site Reliability Engineer (SRE) spécialisé en Container as a Service (CaaS) pour un démarrage ASAP . Le poste s’inscrit dans une démarche de construction et d’évolution de plateformes internes à grande échelle. Nous ne recherchons pas un profil Ops traditionnel, mais un véritable Platform Builder , doté d’une forte culture produit et d’une solide expérience en environnements cloud-native en production. Missions Principales : Concevoir, construire et maintenir des plateformes CaaS/PaaS internes basées sur Kubernetes ; Définir et faire évoluer l’architecture des clusters Kubernetes managés ( EKS / GKE ) ; Garantir la sécurité, la fiabilité et la scalabilité des plateformes ; Mettre en œuvre et maintenir l’ Infrastructure as Code (Terraform / Terragrunt) en production ; Déployer et opérer des chaînes GitOps et CI/CD robustes et automatisées ; Accompagner les équipes de développement dans l’adoption de la plateforme (self-service, bonnes pratiques) ; Participer activement à la gestion des incidents (on-call), aux post-mortems et à l’amélioration continue ; Automatiser la remédiation des incidents récurrents et optimiser l’exploitation de la plateforme.
Freelance

Mission freelance
Lead Architect IT

Groupe Aptenia
Publiée le
Architecture
AWS Cloud
Azure

3 ans
Île-de-France, France
En tant que Lead Architect IT , vous aurez pour mission de concevoir, déployer et maintenir les infrastructures IT (cloud et on-premise) pour un grand acteur du secteur Bancaire. Votre rôle sera essentiel pour assurer la fiabilité, la scalabilité et la sécurité des plateformes, tout en répondant aux besoins des équipes Data et IA. Design et maintenance des plateformes : ✔ Conception d’architectures techniques : ✅ Définir et documenter les standards et bonnes pratiques pour les environnements cloud (AWS/GCP/Azure) et on-premise. ✅ Garantir l’alignement des infrastructures avec les objectifs stratégiques de l’entreprise. ✔ Maintenance et optimisation des plateformes : ✅ Superviser la maintenance proactive des infrastructures pour en assurer la disponibilité et la performance. ✅ Piloter les évolutions techniques en collaboration avec les équipes opérationnelles. ✔ Collaboration avec les équipes Data et IA : ✅ Fournir des infrastructures adaptées aux besoins des équipes en charge des data assets (jeux de données, modèles analytiques, etc.). ✅ Assurer une communication fluide pour traduire les besoins métiers en solutions techniques robustes.
594 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous