L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 937 résultats.
Offre d'emploi
Data Engineer – Plateforme Data AWS / Snowflake
EterniTech
Publiée le
Apache Airflow
AWS Cloud
Data Lake
3 mois
Magny-les-Hameaux, Île-de-France
Description du besoin : Data Engineer – Plateforme Data AWS / Snowflake Client : Grand Groupe Industriel International Localisation : Magny-les-Hameaux (78) + déplacements ponctuels Malakoff (92) Télétravail partiel : 2 jours / semaine Démarrage idéal : ASAP Information de type C3 - Contexte industriel ? Contexte Dans le cadre de l’évolution de sa plateforme Data, un grand groupe industriel souhaite renforcer son dispositif avec un profil senior spécialisé en orchestration de pipelines de données, avec une expertise forte sur Apache Airflow. Le client dispose d’un écosystème data déjà en place (AWS / Data Lake / Snowflake) et cherche à améliorer la fiabilité, la scalabilité et l’industrialisation des traitements. L’objectif est d’intégrer un profil capable de concevoir et structurer les workflows data, et non simplement d’utiliser Airflow pour exécuter des jobs existants. ? Objectif de la mission Le client recherche un Data Engineer senior avec une expertise avancée sur Airflow, capable de : -concevoir et développer des DAGs complexes -structurer l’enchaînement des traitements de données -gérer les dépendances entre pipelines -implémenter des stratégies de gestion des erreurs, retry et reprise -optimiser l’orchestration et la planification des workflows Le consultant interviendra sur la fiabilisation et l’industrialisation des pipelines data, avec une forte autonomie dans la conception des solutions. ? Prestations attendues ? Orchestration & Airflow (cœur de mission) Conception et développement de DAGs Airflow complexes Structuration des workflows data et gestion des dépendances Mise en place de stratégies de retry, reprise et gestion des erreurs Optimisation du scheduling et des performances des pipelines Industrialisation des workflows ? Data Engineering & intégration Intégration et orchestration de pipelines batch et temps réel Collaboration avec les équipes Data (Data Engineers / Data Scientists) Contribution à l’architecture globale des pipelines ? Cloud & environnement technique Intégration dans un environnement AWS Data Lake Interaction avec les services data (stockage, compute, etc.) Automatisation et bonnes pratiques de développement ? Environnement technique Airflow (expertise avancée requise) Python AWS (S3, Glue, etc.) Data Lake / Snowflake CI/CD / Terraform (apprécié) ? Profil recherché ? Expérience 5+ ans en Data Engineering Expérience significative sur Airflow en production Expérience sur des environnements data complexes ? Compétences indispensables Airflow avancé (design de DAGs, orchestration complexe) Python Conception de pipelines data Gestion des dépendances et workflows ? Compétences appréciées AWS / Data Lake Terraform / CI/CD Snowflake ? Points clés (critères éliminatoires) Profil ayant utilisé Airflow uniquement comme outil de déclenchement ? Absence d’expérience en conception de DAGs ? Pas de maîtrise de la logique d’orchestration ? ? Profil idéal Un profil capable de penser et concevoir une orchestration complète de pipelines data, avec une vraie maîtrise des mécaniques internes d’Airflow, et une capacité à intervenir en autonomie sur des environnements existants.naires Communication claire et structurée
Offre d'emploi
Senior Data Engineer Big Data
VISIAN
Publiée le
AWS Cloud
Python
1 an
Île-de-France, France
Contexte Dans le cadre de son plan de transformation Data, un grand groupe média poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing. Pour répondre à cet enjeu, ce groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI , ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour , dont une part majoritaire en temps réel. Les cas d'usage couverts sont variés, parmi lesquels : IA pour recommandation des programmes et des offres Plateforme agentique customer-facing Gender Equality Monitoring Feature Store Modernisation des flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice Le consultant aura pour mission de réaliser des développements avancés sur le socle des données Big Data pour la mise en place des usecases IA. Cet environnement Big Data, fortement orienté Streaming et IA, traite quotidiennement plus de 100 To de données . Le consultant doit maîtriser les architectures de Streaming Data, AWS (notamment Lambda, Batch, Step Function, EMR Serverless, Kinesis Stream, S3, Firehose, DynamoDB, etc.), Airflow, Scala, Spark, SQL, Snowflake, GitLab CI/CD, Terraform. Missions Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Participer activement à l'évolution continue de la plateforme IA
Offre d'emploi
Consultant Data Engineer Informatica
VISIAN
Publiée le
AWS Cloud
Informatica
1 an
Île-de-France, France
Contexte L'un des objectifs majeurs du plan de transformation DATA d'un grand groupe média est de développer les applications DATA qui permettent aux métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI, et de déployer des applications. Dans ce cadre, ce groupe a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100 To de données par jour : Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique Socle vidéo, navigation et calcul des audiences AI pour recommandation des programmes Feature Store Moderniser les flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice
Mission freelance
Senior Fullstack Engineer (Dominante Back) & IA Specialist
MEETSHAKE
Publiée le
Agile Scrum
AWS Cloud
Docker
4 mois
400-550 €
Paris, France
Vous rejoignez une Scale-up de 50 personnes spécialisée dans les solutions d'avantages salariés et les marketplaces B2B. Au sein d'une équipe technique de 10 personnes, vous intervenez dans un contexte de forte croissance et de transformation produit. Votre mission principale consiste à piloter la refonte technique du catalogue pour le solidifier avant l'intégration d'une brique de billetterie événementielle propriétaire. Vous serez également le moteur de l' innovation par l'IA pour différencier la plateforme sur son marché. Vos responsabilités : Architecture & Refonte : Concevoir et déployer des microservices évolutifs pour supporter la montée en charge du catalogue. Développement Fullstack : Assurer le delivery de fonctionnalités complexes avec une forte dominance Backend ( Node/NestJS ) et une maîtrise Frontend ( React ). Innovation IA : Explorer et intégrer des solutions d'Intelligence Artificielle pour transformer les usages de la marketplace. Qualité & Performance : Garantir une fiabilité maximale via des tests rigoureux et l'optimisation des bases de données ( PostgreSQL, Redis ).
Offre d'emploi
Ingénieur technique solutions collaboratives M365 (H/F)
STORM GROUP
Publiée le
Confluence
JIRA
Méthode Agile
3 ans
50k-58k €
500-600 €
Île-de-France, France
STORM GROUP, ESN spécialisée en banque, assurance et finance, recherche actuellement un(e) ingénieur technique solutions collaboratives M365. Dans le cadre de cette mission : Dans le cadre de la DSIN sur le périmètre des solutions de l'offre Microsoft 365 Teams, OneDrive, Exchange, Copilot, whiteboard, polls, Loop, Forms, Planner,. Réaliser des chantiers techniques que ce soit dans leur phase d'étude que dans leur mise en œuvre, de leur démonstration et dans leur maintien en conditions opérationnelles. Mener des études techniques avec leurs livrables associés (expression de besoin, analyse comparative, présentation de solution, fiche produit, démonstrations...) Industrialiser et automatiser la mise en œuvre de nos solutions collaboratives Garantir la conformité des solutions sur la partie règlementaire (sécurité, données, achat) et contractuelle (fournisseurs, mainteneurs) Etablir des fiches produit présentant l'ensemble de la solution (fonctionnel et technique) Participer à la résolution d’incidents ou de problèmes techniques Garantir le transfert des compétences et l'accompagnement au sein de l'équipe
Offre d'emploi
DATA OPS DATAIKU DSS
R&S TELECOM
Publiée le
AWS Cloud
Azure
CI/CD
6 mois
Bordeaux, Nouvelle-Aquitaine
Objectifs de la mission Industrialiser les projets de Machine Learning développés sous Dataiku DSS Mettre en place une chaîne MLOps robuste, sécurisée et maintenable Garantir la fiabilité, la performance et la gouvernance des flux de données alimentant Dataiku Assurer le bon passage du POC à la production, puis l’exploitation dans le temps Contribuer à la diffusion des bonnes pratiques MLOps & DataOps au sein des équipes Data Périmètre d’intervention Projets Data Science & IA développés sous Dataiku DSS Chaînes MLOps (entraînement, déploiement, supervision des modèles) Connexion de Dataiku aux sources de données de l’entreprise Environnements DEV / TEST / PROD Livrables attendus Pipelines MLOps Dataiku industrialisés et documentés Modèles ML déployés et supervisés en production Connecteurs Dataiku vers les sources de données opérationnels Documentation d’exploitation MLOps & DataOps Recommandations de standardisation et d’amélioration continue Interactions Rattachement : Responsable de domaine SI Dataplatform et BI avec un détachement opérationnel dans l’équipe Data Science le temps du projet Partenaires clés : équipes IT (projets, devs, MCO), directions métiers (commerce, marketing, supply chain, finance), conformité et sécurité. Data Scientists, Data Engineers, Architectes Data / Cloud, équipes de la direction technique : Infrastructures, Production, Sécurité & Exploitation Compétences Dataiku DSS – niveau avancé (MLOps & DataOps) Expérience confirmée en industrialisation de modèles ML Python, SQL CI/CD, Git Très bonne compréhension des architectures Data Environnements Cloud (AWS / GCP / Azure) Sensibilité forte aux enjeux sécurité, RUN et exploitation
Mission freelance
Ingénieur QA Automatisation
Axysse
Publiée le
API
Cypress
Playwright
6 mois
400-500 €
Île-de-France, France
Dans le cadre d’un projet structurant, nous recherchons un profil hybride QA automaticien et expert IA dans système QA , afin d’accompagner les évolutions produit et garantir la qualité des livraisons. 🎯 Objectif Développer et exécuter les tests automatisés. 🧠 Positionnement Ressources opérationnelles intégrées aux squads. 🔎 Compétences clés Développement de tests automatisés Tests API / UI / E2E Gestion des campagnes de tests Debug et analyse des anomalies Connaissance d'intégration IA dans les systèmes QA 💼 Expérience 5 à 10 ans Télétravail hybride
Offre d'emploi
Ingénieur DevOps/Cloud
NAVIGACOM
Publiée le
AWS Cloud
Azure
55k-75k €
Puteaux, Île-de-France
Dans le cadre de notre développement, nous recherchons un Ingénieur DevOps/Cloud pour intervenir sur des environnements complexes et internationaux. Vous intervenez sur l’ensemble de la chaîne de valeur, du build à la production : Concevoir, déployer et maintenir des infrastructures cloud (AWS et/ou Azure) Mettre en place et optimiser des pipelines CI/CD pour automatiser les déploiements Industrialiser les environnements via des approches Infrastructure as Code (IaC) Participer à la containerisation des applications (Docker) et à leur orchestration (Kubernetes) Assurer la supervision, la performance et la disponibilité des systèmes Mettre en place des solutions de monitoring, logging et alerting Travailler sur la sécurisation des environnements cloud (IAM, secrets, bonnes pratiques) Participer à l’amélioration continue des processus DevOps Collaborer avec les équipes de développement pour optimiser les architectures applicatives Intervenir en support sur des incidents critiques en production Documenter les architectures, les pipelines et les procédures
Offre d'emploi
Data Engineer GenAI / Databricks
UCASE CONSULTING
Publiée le
AWS Cloud
Databricks
GenAI
1 an
40k-45k €
400-710 €
Île-de-France, France
Bonjour à tous 😀 🎯 Contexte : Dans le cadre du développement de ses capacités en Intelligence Artificielle Générative , nous recherchons un Data Engineer spécialisé sur Databricks pour intervenir sur des cas d’usage innovants à forte valeur ajoutée. Le poste combine des enjeux de data engineering, machine learning et mise en production dans un environnement moderne. 🛠️ Missions principales Concevoir et développer des modèles de Machine Learning (GenAI) Collecter, préparer et exploiter les données Développer des pipelines d’ingestion et de transformation Assurer la mise en production et le monitoring des modèles (MLOps) Intervenir sur des sujets d’architecture RAG et fine-tuning Conseiller sur les choix techniques et les cas d’usage 🧩 Environnement technique Python / SQL / Pandas Databricks Machine Learning / Deep Learning (LLM, Transformers) Architectures GenAI (RAG, fine-tuning) Cloud AWS MLOps
Offre d'emploi
OPS sénior - Cloud AWS / DevOps
VISIAN
Publiée le
AWS Cloud
Red Hat
1 an
Lille, Hauts-de-France
Contexte Suite à une augmentation d’activité et de la mise en place d’une nouvelle infrastructure complète pour accueillir un nouveau projet, nous recherchons un OPS sénior pour venir renforcer l'équipe s'occupant de l'exploitation du périmètre. Missions Installer, mettre en production, administrer et exploiter les moyens informatiques d’un ou plusieurs sites informatiques. Participer au bon fonctionnement des systèmes d’information en garantissant le maintien à niveau des différents outils et/ou infrastructures des logiciels systèmes et/ou infrastructures de communication (locale, étendue, voix, image, architecture centralisée, client-serveur, web, mobile) dans un objectif de qualité, de productivité et de sécurité. Mettre en place de la culture devops au sein de l'équipe, autonomiser et dynamiser son équipe et comprendre le besoin des développeurs. Accompagner les développeurs et l'intégration de la solution dans un système complexe. Livrables Construire à l’aide des outils mis à disposition l’infrastructure sous le cloud AWS : architecture ROSA (Redhat Openshift Service on AWS), Oracle, S3, ordonnanceur. Mettre en place toute la stack CICD permettant de construire et déployer les livrables fournis par le CDS (technologies actuellement envisagées : Gitlab-CI, Ansible, Terraform). Effectuer les tests de résilience de la nouvelle application. Documenter et diffuser les compétences pour la gestion du RUN du projet. Identifier les métriques nécessaires à monitorer pour aider à l’analyse. Assurer le run de l’application (mise en production, supervision, debug, incidentologie). Accompagner les équipes support clients dans l'analyse et la résolution des incidents. Dans un contexte agile, être dans un esprit d’amélioration continue. Concevoir et développer les outils DEVOPS adaptés au produit à délivrer en respectant les choix et les bonnes pratiques de l’entreprise. En véritable devops, augmenter l’autonomie de l’équipe sur la partie exploitation en automatisant au maximum les processus. Être référent sur l’infrastructure, les plateformes applicatives, l’usine logicielle et l’industrialisation des déploiements.
Mission freelance
Responsable de mise en production
STHREE SAS pour COMPUTER FUTURES
Publiée le
Batch
JIRA
ServiceNow
6 mois
Chartres, Centre-Val de Loire
- Assister et conseiller les SI métiers sur leurs besoins en termes de traitement Batch - Concevoir, construire et valider les traitements Batch sur les systèmes répartis ordonnancés ou non - Gérer, éditer les normes et méthodes relatives aux Batch - Réaliser des traitements spéciaux à la demande - Prendre en charge les incidents batchs soumis par le pilotage Batch, les équipes de développement, la tour de contrôle, etc. - Participer aux revues et aux mises En Production de ces traitements (Intégration). - Etre support au pilotage et planning par rapport à la construction Batch - Assurer les communications associées aux travaux envers nos utilisateurs internes ou clients externes - Participer à l'amélioration continue des process de fonctionnement de l'équipe
Offre d'emploi
INGENIEUR DEVOPS RESEAU & SECURITE Habilitable français⚠️ FULL SITE VELIZY tjm max 500
Sapiens Group
Publiée le
Cisco
Juniper
Nexus
1 an
40k-45k €
400-500 €
Vélizy-Villacoublay, Île-de-France
Bonjour, 😊 Pour notre partenaire dans le secteur de la défense nous sommes à la recherche d'un INGENIEUR RESEAU & SECURITE Habilitable ⚠️ Séniorité = 5_7 ans d'expérience Mission longue. Démarrage juin 2026 🚨Mission en full présentiel à Velizy⚠️ Mission : Responsabilité du périmètre LAN de l’ensemble des sites en France (environ 70 sites), couvrant toute la chaîne de connectivité réseau : des interfaces pare-feux sur site jusqu’aux accès utilisateurs finaux. • Prise en charge du RUN N2 des infrastructures LAN IT/OT, incluant le switching, le routage et la segmentation VLAN. • Gestion des incidents réseau N2 : analyse des dysfonctionnements, diagnostics techniques, mise en oeuvre des actions correctives et coordination avec les équipes N1/N3 si nécessaire. • Exploitation des services réseau : o Cisco ISE o Infoblox (DDI) pour la gestion DNS/DHCP/IPAM, o IpFabric pour la cartographie, l’analyse de conformité et l’aide au diagnostic réseau. • Participation active à la mise en place, l’application et le maintien des standards LAN (bonnes pratiques, architectures de référence, configurations types). • Collaboration transverse avec les équipes de supervision et d’ingénierie pour le traitement des escalades, l’analyse d’incidents et l’amélioration continue des processus RUN. • Contribution à la documentation technique interne : rédaction et mise à jour de procédures opérationnelles, refonte et structuration d’un wiki interne afin d’améliorer le partage de connaissances et la capitalisation technique. • Gestion d’un stock, d’envois de matérielle entres les sites et des RMA. 📢Environnement technique : Cisco Catalyst & Nexus, Switchs Arista, Cisco ISE, Infoblox (DDI), IpFabric, Tufin, Palo Alto Networks, Juniper SRX5400, ServiceNow, Opentext, Netbox, CMDB Merci à vous et belle journée ☀️
Offre d'emploi
Data Engineer Informatica/Airflow/AWS/DBT
OBJECTWARE
Publiée le
Apache Airflow
AWS Cloud
DBT
3 ans
40k-74k €
400-550 €
Île-de-France, France
Le contexte : L'un des objectifs majeurs du plan de transformation DATA est de développer les applications DATA qui permettent à nos métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI et de déployer des applications destinées à nos abonnés directement (recommandation contenu et offres, etc.). Dans ce cadre, le client a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100To de données par jours: Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique, Socle vidéo, navigation et calcul des audiences, AI pour recommandation des programmes, etc. Feature Store, Moderniser les flux financiers, Content Platform, Mise en place Kubernetes, Plateforme pour le traitement des données CRM et usage, Partager des informations sur les clients à nos partenaires (Netflix, Apple, M6, TF1, etc.), Piloter plus efficacement l'activité des marchés professionnels, Mettre à disposition des applications de data-selfservice. Votre rôle sera de : Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.), Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.), Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs, Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python, Identifier et résoudre les problèmes de performance ou de qualité des données, Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.), Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données, Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.), Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme. Vous maîtrisez Informatica, Snowflake, Airflow, DBT, AWS et aimez les challenges, Vous êtes experts dans le développement de solution d'intégration de données, Vous parlez Anglais couramment, Vous connaissez et maîtrisez les outils JIRA et les méthodes 'agiles' n’ont pas de secret pour vous ! Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique.
Offre d'emploi
Ingénieur QA automatisation (H/F)
Aleysia
Publiée le
Automatisation
Cucumber
Playwright
12 mois
Montpellier, Occitanie
Tu as le sens du détail, la qualité logicielle te passionne et tu aimes les environnements techniques exigeants ? Postule dès maintenant à cette offre d’ Ingénieur·e QA manuel et automatisation ! 🚀 Ton challenge si tu l’acceptes : Concevoir , développer et exécuter des tests automatisés pour garantir la qualité des nouvelles versions Maintenir et faire évoluer l es frameworks et scripts d’automatisation de tests Définir des scénarios de tests end-to-end en collaboration avec les équipes d’automatisation et de développement Identifier , qualifier et suivre les anomalies détectées lors des campagnes de tests (manuels et automatisés) Produire des reportings QA clairs ainsi que la documentation associée Exploiter des outils d’IA pour optimiser les tests, l’analyse d’anomalies et la documentation
Mission freelance
Product Owner Senior H/F
AGH CONSULTING
Publiée le
Agile Scrum
AWS Cloud
Confluence
18 mois
300-500 €
Bordeaux, Nouvelle-Aquitaine
Dans le cadre d'un programme stratégique de modernisation d'un système d'information critique, avec migration vers AWS, nous recherchons pour l'un de nos clients, un Product Owner senior. Objectifs de la mission : Assurer le rôle de Product Owner en pilotant le produit de bout en bout, tout en garantissant l'alignement entre les besoins métiers et les réalisations techniques. Vous serez le point central entre les équipes métier et IT. Missions principales : - Interface Métier / IT Recueillir, analyser et formaliser les besoins métiers Traduire les besoins en exigences fonctionnelles claires et exploitables Assurer une communication fluide entre les parties prenantes -Gestion du Backlog Construire, alimenter et maintenir le Product Backlog Rédiger des user stories détaillées (Jira / Confluence) Prioriser selon la valeur métier Suivre l'avancement des développements -Pilotage Agile Participer à l'organisation et à l'animation des sprints Contribuer aux rituels agiles (planning, review, rétro) Valider les livraisons (recette fonctionnelle) Garantir la cohérence fonctionnelle globale - Qualité & Stratégie de test Définir la stratégie de test produit S'assurer que les exigences sont testables et vérifiables Préparer le cadre de collaboration avec un testeur (à partir d'octobre) Être garant de la qualité fonctionnelle -Coordination & Communication Collaborer avec : équipes métiers équipes IT & développement responsables produit / delivery Animer les échanges et faciliter la prise de décision -Suivi de la valeur & amélioration continue S'assurer de l'alignement avec les enjeux métier Suivre la valeur délivrée Contribuer à l'amélioration continue du produit Livrables attendus : User stories détaillées Tickets fonctionnels et correctifs (Jira) Documentation fonctionnelle (Confluence) Stratégie de test produit Suivi backlog & priorisation Environnement technique : Cloud : AWS Outils : Jira, Confluence Méthodologie : Agile / Scrum
Offre d'emploi
DevOps SysOps Infrastructure Cloud
VISIAN
Publiée le
AWS Cloud
CI/CD
Cloud
1 an
Paris, France
Missions Analyser les besoins métier afin de concevoir des solutions cloud adaptées aux exigences spécifiques de l’entreprise. Concevoir des architectures cloud robustes et évolutives, en intégrant les meilleures pratiques en matière de sécurité, performance et coût. Intégrer des mécanismes de sécurité robustes dans l’architecture cloud, en garantissant le respect des normes de sécurité et de conformité du groupe. Mettre en place des stratégies d’optimisation des coûts liés à l’infrastructure cloud, en sélectionnant les ressources appropriées et en appliquant des politiques de gestion des coûts. Assurer la restitution des dossiers d’architecture techniques et accompagner les équipes dans l’implémentation des solutions. Effectuer une veille technologique pour rester informé des évolutions dans le domaine du cloud et recommander des innovations apportant de la valeur à l’entreprise. Collaborer étroitement avec les équipes métiers, projets et DevOps pour garantir que les infrastructures répondent aux besoins business tout en respectant les meilleures pratiques Cloud et les normes de cybersécurité du groupe. Outils & Environnement Cloud : AWS, Azure, GCP Infrastructure as Code : Terraform, Ansible, Packer Conteneurisation et orchestration : Docker, Kubernetes, ECS, EKS, Karpenter CI/CD : Gitlab CI, Github Langages : Python, Java, Php, NodeJS, Bash Sécurité : Okta, Prisma Cloud, Crowdstrike EDR Autres outils : Databricks, Apigee Monitoring & Logging : Splunk, Datadog, fluentd Concepts réseau AWS (VPC, transit gateway, firewall, DNS) Sécurité AWS (SSM, KMS, secret manager, inspector, WAF, IAM) Résilience et redondance des données (S3, EFS, EBS) Types de bases de données AWS Types de déploiement (Blue/Green, Canary, Rolling) Concepts serverless (Lambda, API Gateway, Cloudfront) Approche SecOps et Security by Design (SCP, IAM, tagging, audit) Notions GitOps (Argocd, Kyverno, Helm, Kustomize) Industrialisation des contrôles de sécurité via Terraform, Ansible
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1937 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois