Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon Elastic Compute Cloud (EC2)

Votre recherche renvoie 39 résultats.
Freelance

Mission freelance
Consultant IBM sterling

UTALENT
Publiée le
Linux

12 mois
Paris, France
Ce poste s’inscrit dans le cadre d’un projet critique de migration des centres de données IT vers AWS. Missions Principales Le spécialiste sera responsable de l’ensemble du cycle de vie opérationnel de Sterling Integrator, incluant : Déploiement, configuration, modification et dépannage des flux de processus Sterling Integrator. Intervention sur le BPML : compréhension, adaptation et correction des process flows, sans interruption des traitements. Gestion des déploiements applicatifs et des configurations environnementales. Dépannage de bout en bout, du poste client jusqu’aux systèmes internes et partenaires. Contribution active à la stabilisation des environnements et au support opérationnel. Compétences Techniques Essentielles Systèmes d’Exploitation Excellente maîtrise de Linux EL8 / EL9. IBM Sterling Integrator Expérience pratique avancée : installation, exploitation, configuration et maintenance quotidienne. BPML Capacité à lire, interpréter, ajuster et dépanner les processus Sterling Integrator BPML, sans perturber la production. Sécurité & Chiffrement Expertise en PGP, SSH, gestion des clés, configurations cryptographiques, politiques de sécurité. Transfert de Fichiers Maîtrise de SFTP (principal protocole). Connaissance appréciée de Connect:Direct et gestion de connexions VPN. Cloud & Base de Données Connaissance d’AWS, notamment : EC2 configuration infra Oracle RDS Réseau Compréhension solide des fondamentaux : TCP/IP, load balancers, routage. (Une expertise avancée n’est pas nécessaire.)
Freelance

Mission freelance
Data analyste ET ANALYTICS Platform AWS AZURE PYTHON Anglais 500 e par jour

BI SOLUTIONS
Publiée le
AWS Cloud
Python

3 ans
400-500 €
Île-de-France, France
Data analyste ET ANALYTICS Platform AWS AZURE PYTHON Anglais 500 e par jour Évolution des infrastructures cloud via l’Infrastructure as Code Gestion d’un cluster kubernetes Développement de micro-services en Python Conception et maintenance de chaînes de déploiement automatisé Assurer le bon fonctionnement opérationnel de la Data & Analytics Platform Enrichissement de la documentation à l’attention des utilisateurs Expérience significative sur le cloud AWS et/ou Azure, notamment sur les services de données (Gen2 et ou S3). Développement d’application web. Connaissance des pratiques du software craftsmanship. Bonne connaissance de la méthodologie Agile. Familiarité avec les mécanismes de traitement et de valorisation des données. Python, Terraform GitHub, GitHub Action Azure : AKS, Data Lake Gen2, Data Factory AWS : EKS, S3, ECS, VPC, NSG, Lambda, … Databricks : Unity Catalog, Policy, Cluster, PySpark Pratiques : Scrum Notions : DevSecOps, Data Engineering, Data Management Langues : Anglais et Français 500 e par jour
Freelance

Mission freelance
DevSecOps AWS

Tenth Revolution Group
Publiée le
AWS Cloud

3 mois
160-650 €
Paris, France
Dans un contexte de forte accélération produit et de mise en conformité sécurité , notre client renforce son équipe plateforme avec un DevSecOps AWS senior pour sécuriser et industrialiser ses pipelines CI/CD et ses environnements cloud. Missions principales Concevoir et maintenir des pipelines CI/CD sécurisés (GitLab CI / GitHub Actions / Jenkins) Implémenter une approche Security by Design sur les environnements AWS Déployer et maintenir l’ Infrastructure as Code (Terraform principalement) Intégrer des outils de sécurité dans les pipelines : SAST / DAST Scan de dépendances Scan d’images Docker Renforcer la gestion des secrets & des identités (IAM, Secrets Manager, Vault) Participer à la mise en conformité ISO 27001 / SOC2 / RGPD Travailler en étroite collaboration avec équipes Dev, Sec & Platform Environnement technique Cloud : AWS (EKS, EC2, RDS, S3, IAM, CloudTrail, GuardDuty) CI/CD : GitLab CI ou GitHub Actions IaC : Terraform (mandatory) Conteneurs : Docker, Kubernetes (EKS) Sécurité : Trivy, SonarQube, Snyk, OWASP ZAP, AWS Security Hub Monitoring : Prometheus, Grafana, CloudWatch
Freelance

Mission freelance
Ingénieur Cloud AWS Confirmé

Signe +
Publiée le
AWS Cloud
Docker
Kubernetes

6 mois
400-500 €
Toulouse, Occitanie
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Ingénieur Cloud AWS Confirmé. En tant qu’ Ingénieur Cloud AWS Confirmé , vous jouerez un rôle clé dans la conception, le déploiement et l’optimisation d’architectures AWS sécurisées et performantes. Vos responsabilités : Concevoir et déployer des environnements AWS (ECS, Lambda, Kinesis, OpenSearch…). Automatiser et industrialiser via Terraform et pipelines CI/CD (GitLab CI, Jenkins). Garantir la sécurité et la conformité Application des bonnes pratiques AWS (Well Architected Framework). Gestion avancée des identités et accès (IAM, rôles, politiques). Mise en place de solutions de protection (AWS WAF, Shield, GuardDuty). Intégration des systèmes d’authentification (SSO, SAML). Collaborer avec des experts AWS pour faire évoluer les architectures et partager les bonnes pratiques.
Freelance
CDI

Offre d'emploi
Développeur .net / React (H/F)

Linkup Partner
Publiée le
.NET CORE

1 an
55k-66k €
450-540 €
Île-de-France, France
Nous recherchons un(e) Développeur(se) Full Stack .NET / React passionné(e) par le c lean code, la qualité logicielle et les approches orientées métier (DDD). Missions Concevoir et développer des applications en .NET Core en appliquant les principes TDD Collaborer avec les équipes métier via des scénarios BDD (Gherkin, user stories) Modéliser le domaine selon les principes DDD (Aggregate, Value Object, Domain Events) Développer des interfaces web modernes avec React Concevoir et maintenir des API REST testées et documentées Participer aux revues de code et à l’amélioration continue des pratiques Contribuer aux pipelines CI/CD avec une forte culture du test Environnement Backend : .NET Core, C#, Web API Frontend : React, TypeScript Tests : Tests unitaires (xUnit / NUnit / MSTest) Tests BDD (SpecFlow / Cucumber) Tests d’intégration et tests end-to-end Architecture : DDD, Clean Architecture, SOLID Cloud : AWS (EC2, S3, RDS, Lambda) DevOps : Git, CI/CD, Docker (apprécié)
Freelance

Mission freelance
Senior DataOps / DevOps AWS – Terraform

OAWJ CONSULTING
Publiée le
AWS Cloud
Databricks
Terraform

1 an
400-550 €
Lyon, Auvergne-Rhône-Alpes
Dans un environnement Media à forte volumétrie de données, le consultant interviendra au sein d’une équipe Data & Platform pour industrialiser, sécuriser et faire évoluer les plateformes data sur AWS . Le rôle est clairement senior , orienté DataOps / DevOps , avec une forte proximité Databricks. Responsabilités Conception et industrialisation des plateformes data sur AWS Mise en place et maintenance de l’infrastructure as code avec Terraform Déploiement, configuration et optimisation des environnements Databricks (AWS) Automatisation des pipelines Data & infra (CI/CD) Gestion des environnements (dev, preprod, prod) Sécurisation des accès, gestion des coûts et optimisation des performances Collaboration étroite avec les équipes Data Engineers et Analytics Compétences requises (impératives) Databricks sur AWS – expertise confirmée Terraform – niveau avancé AWS (IAM, VPC, S3, EC2, EKS ou équivalent) Solide culture DevOps / DataOps CI/CD (Git, pipelines automatisés) Bonne compréhension des architectures data cloud Profil recherché Senior DataOps / DevOps Autonome, structuré, orienté production À l’aise dans des environnements data complexes et critiques
Freelance

Mission freelance
Consultant Senior Data – Référent Technique & Architecte Dataiku / Braincube

Signe +
Publiée le
Dataiku

12 mois
700 €
Malakoff, Île-de-France
Contexte Dans le cadre du déploiement et de l’exploitation des plateformes Dataiku et Braincube , le consultant interviendra comme référent technique et architectural au sein de la Data Factory. Il garantira la performance, la qualité de service et la bonne exploitation des plateformes data dans un environnement hybride AWS / On Premise . Environnement technique Dataiku : Design Node, Automation Node, API Node, Deployer Node (AWS & On Premise C3) Braincube hébergé sur AWS (EKS), opéré par l’éditeur Écosystème data : AWS EKS, Snowflake, stockage, ingestion, restitution Environnement collaboratif : Teams, backlog, documentation centralisée Environnements : Dev / Pré-production / Production avec processus d’industrialisation Missions principales Assurer le rôle de référent technique et architectural Dataiku / Braincube Maintenir les standards techniques et assurer la conformité des usages et licences Gérer incidents, demandes et changements (RUN & BUILD) Piloter la performance des plateformes, définir et suivre SLAs et KPIs Construire et piloter la roadmap technologique Garantir sécurité, résilience, conformité (RBAC, chiffrement, RGPD) Coordonner les équipes France / Inde et les interfaces DSIC Participer à l’amélioration continue et à la gestion du plan de charge Contribuer à la gestion de l’obsolescence technologique Livrables attendus Offre de service (ServiceNow) Reporting et météo du service Guides de bonnes pratiques Dataiku / Braincube Supports de formation et d’onboarding Cartographie des flux et des modèles data Business model du service Compétences requises Expertise AWS (S3, EKS, EC2, IAM…) Maîtrise de Dataiku et bonnes connaissances Data / ML Ops Solide compréhension des architectures SI & data Sensibilité forte aux sujets de gouvernance et sécurité Capacité de documentation, vulgarisation et structuration de services Aisance dans des contextes internationaux (France / Inde) Profil recherché Consultant senior avec minimum 8 ans d’expérience Capacité à prendre un rôle transverse et structurant Autonomie, rigueur et posture de référent Nationalité française (obligatoire) Modalités Démarrage : courant février Fin de mission : 30/06/2026 (renouvelable) Télétravail : 2 jours / semaine Localisation : Paris / Malakoff + déplacements ponctuels (Châteaufort, Magny-les-Hameaux)
Freelance
CDI
CDD

Offre d'emploi
Architecte Kafka

LEVUP
Publiée le
Apache Kafka
AWS Cloud

12 mois
Liège, Belgique
Dans le cadre de la conception et de l’évolution de plateformes applicatives et data orientées temps réel , nous recherchons un Architecte Kafka AWS capable d’intervenir de bout en bout (end-to-end / endzone) : de l’architecture backend et streaming jusqu’à l’intégration avec les applications frontend. Le poste s’inscrit dans des environnements cloud AWS à forts enjeux de performance, de scalabilité et d’intégration SI. Rôle & responsabilitésArchitecture globale (End-to-End) Concevoir l’ architecture applicative et data de bout en bout Garantir la cohérence entre : Frontend (Angular) Backend (.NET) Streaming & intégration (Kafka) Infrastructure AWS Être le référent architecture sur le périmètre fonctionnel et technique Kafka & intégration Concevoir et mettre en œuvre des architectures événementielles basées sur Apache Kafka Définir les patterns d’intégration : Event-driven Pub/Sub CDC (Change Data Capture) Mettre en place Kafka Connect, Schema Registry, MirrorMaker Accompagner les équipes sur la modélisation des événements et contrats de données Environnement AWS Déployer et opérer Kafka sur AWS (Amazon MSK ou équivalent) Concevoir l’architecture cloud : VPC, IAM, sécurité, réseaux EC2 / EKS selon les besoins Intégrer Kafka avec les services AWS (S3, Lambda, bases de données, etc.) Backend – .NET Concevoir des API et services backend en .NET Définir les standards d’architecture (clean architecture, microservices) Garantir performance, sécurité et maintenabilité Intégrer les flux Kafka côté backend Frontend – Angular Définir les principes d’architecture frontend Angular Assurer la bonne intégration avec les API et les flux temps réel Travailler sur l’expérience utilisateur dans des applications data-driven Qualité & gouvernance Mettre en place les bonnes pratiques : Sécurité Monitoring Logging Résilience Documenter les architectures Participer aux revues techniques et d’architecture Accompagner et guider les équipes de développement Compétences techniques requisesStreaming & intégration Apache Kafka (expert) Kafka Connect, Schema Registry Architectures event-driven Formats : JSON, Avro, Protobuf Cloud & DevOps AWS (très bonne maîtrise) Amazon MSK CI/CD Infrastructure as Code (Terraform, CloudFormation) Backend .NET / C# APIs REST Microservices Frontend Angular Intégration frontend / backend Notions UX appréciées Profil recherché Formation ingénieur ou équivalent Expérience confirmée en architecture end-to-end Solide expérience sur Kafka en production À l’aise dans des environnements complexes et multi-équipes Capacité à dialoguer aussi bien avec les développeurs que les métiers Atouts appréciés Expérience grands comptes Connaissances data (Spark, Flink, etc.) Certifications AWS / Kafka Sens du produit et de l’expérience utilisateur
Freelance
Alternance

Mission freelance
Ingénieur DevOps Senior

CAT-AMANIA
Publiée le
AWS Cloud
AWS CloudFormation
IAC

1 an
Lille, Hauts-de-France
PROFIL UNIQUEMENT EN METROPOLE LILLOISE Contexte : Dans le cadre du programme de migration vers AWS (Move to Cloud), nous recherchons des compétences Ops expérimenté pour industrialiser les déploiements via des outils d’IaC, avec une forte sensibilité aux contraintes de production (sécurité, haute disponibilité, supervision, automatisation des déploiements et exploitabilité). Missions : - Développer, maintenir et faire évoluer des modules Terraform (prioritairement) et CloudFormation. - Participer à l’industrialisation des environnements cloud AWS (VPC, EC2, RDS, Lambda, S3, IAM, etc.). - Contribuer à la mise en conformité des stacks avec les standards de production (monitoring, logs, sécurité, patching). - Accompagner les équipes projets dans l’intégration continue et le déploiement automatisé (CI/CD). - Documenter les composants et bonnes pratiques.
Freelance

Mission freelance
FREELANCE – Ingénieur de Production (H/F)

Jane Hope
Publiée le
AWS Cloud
Openshift

6 mois
300-350 €
Nancy, Grand Est
Notre client basé à Nancy (54) est à la recherche d’un Ingénieur de Production (H/F) pour l’accompagner sur ses projets. MISSIONS · Prendre en charge l’intégration de nouvelles applications ou de progiciels, depuis la phase de réception jusqu’à la mise à disposition · Effectuer la réception, la validation et le packaging des composants applicatifs. · Installer et déployer les composants sur les environnements cibles · Réaliser la recette technique et l’homologation des applications avant leur mise en production · Participer activement à l’amélioration continue des processus et des outils d’industrialisation et de déploiement · Analyser le contexte technique et prenez connaissance des changements à intégrer · Compléter et exécuter le plan de tests techniques, en préparant les infrastructures nécessaires · Valider les documents et procédures destinés à la production · Réaliser les tests techniques (performance, intégration, compatibilité, etc.) et analysez les résultats · Contribuer au diagnostic et à la résolution des incidents en cas de dysfonctionnement · Rédiger des rapports détaillés facilitant la prise de décision pour la mise en production · Mettre à jour le patrimoine de tests réutilisable pour les futures intégrations · Assurer un reporting régulier et proposez des actions d’amélioration continue · Industrialiser et automatiser les tests récurrents à l’aide d’outils adaptés ENVIRONNEMENT TECHNIQUE · Systèmes : Linux · Cloud : AWS (EC2, S3, IAM, CloudFormation, EKS, etc.) · Outils DevOps : CI/CD, outils d’automatisation et de conteneurisation ( OpenShift , Docker, Kubernetes) · Langages et scripting : Shell / Bash / Python
Freelance
CDI

Offre d'emploi
Ingénieur Produit Senior Full Stack/CTO

R&S TELECOM
Publiée le
GraphQL
NestJS
PostgreSQL

1 an
Paris, France
Nous construisons une plateforme legaltech/fintech B2B SaaS innovante destinée aux entreprises privées, notamment adossées à des fonds de private equity. La plateforme existe sous forme de MVP avancé et a déjà des premiers clients utilisateurs. Produits Une interface web pour les entreprises, leurs actionnaires et l’ensemble des acteurs de leur écosystème pour suivre et participer aux opérations capitalistiques. Technologies Langages: TypeScript, GraphQL Frontend React, Next.js (app-router) Apollo, graphql-codegen next-intl, i18n Shadcn, Tailwind CSS Backend NestJS, NestJS/Apollo TypeORM / PostgreSQL DocuSign Postmark Infrastructure AWS ECS Fargate, S3, Route53 Vercel GitHub Actions IA Nous avons identifié 3 domaines où nos clients pourraient bénéficier de l'IA et testons actuellement le marché pour valider que nos clients sont prêts à confier une partie de leurs processus à des agents spécifiques. Vos responsabilités en tant qu'Ingénieur Produit Full Stack senior/CTO: Définir et porter la vision technologique alignée avec la stratégie produit et business Piloter l’architecture applicative (scalabilité, sécurité, performance, dette technique) et améliorer de façon continue la stack technique Structurer, recruter et faire grandir l’équipe tech (engineering, data, infra, security) Mettre en place des standards d’excellence : qualité de code, tests, CI/CD, observabilité Garantir la sécurité, la conformité (RGPD, ISO/SOC le cas échéant) et la résilience de la plateforme Être un partenaire clé dans les décisions stratégiques et interagir efficacement avec le CEO, les opérations et les sales pour accompagner la roadmap produit
Freelance

Mission freelance
Ingénieur DevOps AWS

KatchMe Consulting
Publiée le
AWS Cloud
DevOps

1 an
400-500 €
Paris, France
Descriptif du poste L'objet de la mission est de monitorer une infrastructure et les services déployés dans un environnement à forte contraintes réglementaires et sécuritaires. Le ou la consultant(e) devra entre autres : Concevoir, maintenir, automatiser et déployer l'infrastructure en IaC (Infrastructure as Code) avec un haut niveau de disponibilité, dans un environnement fintech. Mettre en place et déployer des systèmes de supervision et d'alerting sur l'ensemble de l'infrastructure. Fournir aux développeurs les outils nécessaires pour déployer leurs nouvelles applications et processus en adoptant une approche DevOps dans des environnements AWS. Construire, tester et maintenir des workflows de CI/CD avec GitHub. Accompagner l'intégration de services tiers. Piloter les efforts de mise en conformité sécurité, en définissant, appliquant et contrôlant les processus et standards à l'échelle de l'organisation. Maintenir, analyser et proposer des améliorations sur l'infrastructure, les outils et les processus existants, puis les mettre en œuvre. Contribuer à la documentation projet, notamment sur les solutions SRE. Définir et planifier la gestion des incidents ainsi que les procédures de réponse associées. Expérimenter de nouvelles technologies, les adapter et les tester en fonction des besoins. Appliquer les meilleures pratiques de sécurité sur l'ensemble de l'infrastructure. Environnement technique AWS, ECS Fargate, Lambda, CloudWatch, Open Telemetry, GitLab CI/CD, PostgreSQL, Redshift, Node.js Profil recherché Le candidat de la mission doit justifier des expériences et compétences suivantes : 5+ années d'expérience professionnelle en ingénierie logicielle sur des applications orientées utilisateurs finaux. 2+ années d'expérience avec un framework frontend moderne (React, Angular, Vue.js…). 1+ années d'expérience en développement mobile en React Native. Bonne maîtrise de la gestion d'état dans les applications mobiles modernes. À l'aise avec les APIs (particulièrement les APIs fintech telles que Open Banking, Stripe…). Solide compréhension de l'architecture d'app mobile et des design patterns associés. Profil proactif, orienté équipe, doté d'un excellent relationnel et de vraies capacités de communication. Excellente communication en français écrite et orale.
CDI

Offre d'emploi
Responsable Infrastructure H/F

HAYS France
Publiée le
Infrastructure
Management

55k-70k €
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons pour notre client un Responsable Infrastructure (H/F) . Contexte : Vous encadrez une équipe de 4 personnes réparties entre l’infrastructure et l’exploitation, et vous intervenez sur des sujets d’architecture, d’ingénierie et de modernisation globale du SI. Mission générale : Refonte et architecture du nouveau SI / Infrastructure. >Remise en conformité de l’existant. >Mise en place de nouveaux services. >Automatisation et remédiation. >Maintien en condition opérationnelle (MCO). Environnement technique général : Matériel DELL. Systèmes : GNU/Linux, BSD, Windows Server. Réseau : Cisco. Services : HA-Proxy, Nginx, DNS, ElasticSearch, PostgreSQL, MySQL. Virtualisation : VMware, KVM, Proxmox. Monitoring & métrologie : Icinga2, Graphite, Prometheus. Stockage : NetApp Automatisation : Saltstack, Ansible, Puppet, Chef. Conteneurisation & orchestration : Docker. Cloud : AWS (IAM, S3, EC2, RDS…). Développement : PHP8 / Symfony 7 (Api-Platform), Git, JS, ReactJS, Go, Rust. Outils Hashicorp : Packer, Terraform, Consul, Vault. Poste à pourvoir en CDI dans le centre-ville de Marseille (13) Télétravail : 1 jour par semaine + 30 jours par an (à la carte). Démarrage : Dès que possible. Rémunération et avantages : Statut : Cadre Fixe : 55 à 70K, selon profil et expériences Prime d’intéressement et de participation (selon résultats) Conditions d’astreintes actuellement à l’étude * Tickets restaurant, Mutuelle, Participation au transport et possibilité de parking (à valider). Politique RH ambitieuse côté Formations et évolution de carrière.
Freelance

Mission freelance
SRE / DevOps (AWS & GCP)

STHREE SAS pour HUXLEY
Publiée le

12 mois
500 €
Paris, France
Vous devrez fournir les prestations suivantes : Au sein de notre équipe SRE dynamique, vous bénéficierez d'une grande autonomie pour innover et mettre en œuvre les meilleures solutions techniques. En collaboration étroite avec les feature teams de chaque titre du groupe, vous : Piloterez la migration stratégique de nos infrastructures vers AWS, en garantissant la continuité de service Orchestrerez le déploiement et l'optimisation de nos applications sur Kubernetes Construirez et améliorerez nos pipelines CI/CD pour une delivery plus efficace Participerez activement aux choix technologiques et à l'évolution de notre architecture Accompagnerez les équipes de développement dans l'optimisation de leurs applications (performances, sécurité, coûts) Contribuerez à la mise en place des bonnes pratiques DevOps et SRE à l'échelle du groupe Environnement Technique : Notre infrastructure évolue et se modernise constamment pour répondre aux défis du numérique : Multi-Cloud : Migration stratégique de GCP vers AWS AWS : EKS, EC2, ELB, RDS Aurora, ElastiCache, OpenSearch GCP : VPC, Compute Engine, GKE, Cloud Armor Container & Orchestration : Docker, Kubernetes CI/CD : GitHub Actions, ArgoCD Base de données : PostgreSQL, MySQL Cache & Performance : Redis, Varnish, Fastly Observability : Prometheus, Grafana, Kibana Développement : PHP, NodeJS, Go Collaboration : Jira, Slack, Méthodologie Agile Notre Organisation Forte autonomie dans la gestion des projets et des choix techniques Collaboration transverse avec toutes les feature teams du groupe Participation active aux décisions techniques impactant l'ensemble des titres Culture d'entraide et de partage de connaissances Environnement stimulant permettant d'explorer et d'implémenter de nouvelles solutions
CDI

Offre d'emploi
Lead et/ou Développeurs Web

HAYS France
Publiée le
Application web
Javascript
PHP

42k-60k €
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons pour notre client plusieurs Lead et/ou Développeurs Web (H/F) . Contexte : Vous intégrez une équipe à taille humaine. Méthode : Agile Scrum. Mission : Vous intervenez dans toutes les étapes du développement des produits et composants web. Vous définissez les spécifications techniques. Vous concevez l’architecture et les solutions techniques. Vous développez les fonctionnalités tout en respectant les bonnes pratiques de codage. Vous réalisez les tests unitaires pour assurer la qualité et la fiabilité du code produit. Vous rédigez les cas de tests permettant de valider le fonctionnement des différentes fonctionnalités. Vous mettez en place l’intégration continue et le déploiement via Docker. Environnement technique général : Matériel DELL. Développement : PHP8 / Symfony 7 (Api-Platform), Git, JS, ReactJS, Go, Rust Automatisation : Saltstack, Ansible, Puppet, Chef. Conteneurisation & orchestration : Docker. Cloud : AWS (IAM, S3, EC2, RDS…).. Systèmes : GNU/Linux, BSD, Windows Server. Réseau : Cisco. Services : HA-Proxy, Nginx, DNS, ElasticSearch, PostgreSQL, MySQL. Virtualisation : VMware, KVM, Proxmox. Monitoring & métrologie : Icinga2, Graphite, Prometheus. Stockage : NetApp Outils Hashicorp : Packer, Terraform, Consul, Vault. Poste à pourvoir en CDI dans le centre-ville de Marseille (13) Télétravail : 1 jour par semaine + 30 jours par an (à la carte). Démarrage : Dès que possible. Rémunération et avantages : Fixe : 42 à 60K, selon profil ( développeur ou lead développeur notamment ) Prime d’intéressement et de participation (selon résultats). Tickets restaurant, Mutuelle, Participation au transport. Politique RH ambitieuse côté Formations et évolution de carrière.
Freelance
CDI

Offre d'emploi
EXPERT Snowflake

EMMA-IT
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Snowflake

1 an
Île-de-France, France
Bonjour, Nous recherchons un Lead Data Platform EXPERT Snowflake, pour intervenir chez l’un de nos clients « grand compte » DESCRIPTIF DE LA MISSION ; •Accompagner les équipes métiers dans leurs travaux d’identification et expression de leurs besoins en données et d'indicateurs décisionnels, •Capacité à concevoir des solutions innovantes et fiables nécessitant l’utilisation de technologies dites "Modern DataOps" et IA agentique pour répondre aux nouveaux cas d’usages métiers exprimés et à gérer les projets Data de bout en bout, •Piloter l'équipe de Data Engineers pour assurer la mise en oeuvre •Développer, tester, optimiser et gouverner les flux de traitement et d’ingestion de données au sein de notre Data Platform, •Avoir la capacité de créer rapidement de nouveaux Datamarts de zéro s'appuyant sur notre socle de données existant pour des usages spécifiques, •Contribuer à la mise à disposition et au partage de la donnée au travers d’outils et de processus d'export simples, rapides à mettre en œuvre et monitorables, •Déployer et optimiser au quotidien des pipelines de données (On Premise ou dans le Cloud), •Assurer la stabilité et la gouvernance technique de la plateforme Data, des applications déployées et de certaines de nos plateformes SaaS de données attenantes. Environnement technique utilisé: Snowflake, dbt Core, Linux, Cloud AWS (AWS EC2, AWS S3, AWS Serverless), Cloud CGP (Big Query, GA4), SQL, Python, Airflow, Docker, Terraform, Git, Gitlab & Gitlab CI VOUS JUSTIFIEZ DE ; · Vous êtes titulaire d’un Bac +5 en informatique, avec au minimum 7 ans d'expérience professionnelle · Vous avez de 3 à 5 ans d'expérience sur la plateforme SaaS Snowflake · Vous êtes à l'aise avec le Cloud public AWS et GCP, ses principaux services et ses méthodes de déploiements · Vous possédez des compétences avancées autour des langages et technologies suivants : SQL, Python, Airflow, Prefect, Linux, Docker, Snowflake Cortex et Snowflake Intelligence · Vous connaissez au moins un framework de développement de Web Services REST (Django, Flask, FastAPI pour Python ou éventuellement Express pour NodeJS) et l'outil Postman n'a pas de secrets pour vous · Vous connaissez bien les outils de visualisation de données (Tableau Cloud ou PowerBI) · Vous avez une bonne maîtrise de l’optimisation des déploiements et des processus d'intégration/déploiements continus (CI/CD) via des technologies du marché (comme Docker, Gitlab CI, Jenkins ou équivalent) · Vous détenez des connaissances autour des processus de gestion de la configuration et d'Infrastructure as Code (Terraform, Pulumi, Cloud Formation ou CDK AWS) et des outils d’orchestration de flux de données (comme Airflow ou Prefect) · Vous êtes à l'aise avec les outils de type agents CLI (Claude Code, Codex CLI ou OpenCode) et leur méthodologie de spécifications associée pour développer et déployer des applications autour de la data pilotées en autonomie par l'IA. · Vous connaissez bien les outils Jira et Confluence LES PLUS ; · Toute connaissance du business Retail/Fashion est un plus · Toute connaissance ou compétence sur la mise en place de projets IA agentiques de type RAG ou "Text to SQL" est un plus · Toute connaissance des outils/plateformes BW/4HANA, SAP Analytics Cloud ou PowerBI est un plus · Toute connaissance des outils d'observabilité (comme Sifflet) ou d'agrégation de données de campagnes media (Supermetrics) est un plus · Toute connaissance du déploiement et de l'orchestration de containers avec Kubernetes est un plus Si cette mission correspond à vos attentes et que votre profil correspond à ce besoin, N’hésitez pas à nous adresser votre date de disponibilité, votre CV au format Word et vos prétentions financières par ce biais. Dans l’attente d’un futur échange et d’une future collaboration, L’équipe EMMA-IT.
39 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous