Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3
Offre d'emploi
Data Engineer Pyspark/Dagster
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Pyspark/Dagster Mission: Architecture : Définition de l’organisation du Lakehouse dans le S3 Chargement : Remplacement des pipelines Informatica par des pipelines spark, pyspark et python Ordonnancement : Remplacement du DAC de OBIEE par Dagster Restitution : Création de rapports sur Apache SuperSet sur la base du LakeHouse Les principales missions à mener sont : - Description des fonctionnements existants et des besoins couverts, - Développement d’une solution de collecte de données, - Développement d’un système de stockage de la donnée, - Réalisation de tests unitaires, - Mise en place d’un suivi des traitements, - Assistance à la recette par la MOA / les utilisateurs. Si vous êtes actuellement à l'écoute du marché, n'hésitez pas à m'envoyer votre candidature. Bien à vous, Nadia
Offre d'emploi
Tech Lead/ Lead Dev PHP Laravel
Mission – Tech Lead PHPContexte Nous recherchons un Tech Lead PHP expérimenté , capable de concevoir des solutions techniques, d’orienter et d’encadrer une équipe de développeurs, et d’assurer le suivi de développements réalisés en offshore. Le consultant interviendra au sein de la DSI, en lien direct avec un architecte solution et d’autres Tech Leads. Rôles & responsabilités Veiller au respect des bonnes pratiques et principes établis. Encadrer et accompagner les développeurs, y compris l’équipe offshore. Aider les Product Owners à prioriser la backlog et compléter les consignes si nécessaire. Adapter la chaîne de CI/CD en fonction des besoins. Contribuer à la conception technique et aux macro-estimations. Détecter les difficultés techniques, proposer des esquisses de solution et collaborer avec les architectes. Assurer le suivi de l’exploitabilité et du comportement des applications. Suivre et traiter les merge requests. Participer à l’animation technique (ex. ateliers internes). Concevoir et réaliser des stories. Participer au recrutement de développeurs. Environnement technique Backend : PHP 7, Laravel 8, Web Services SOAP & REST Bases de données : SQL (PostgreSQL, MySQL) Frontend : JavaScript / TypeScript, CSS Middleware : ESB ou solution MOM du marché SCC/SCM : Git CI/CD : Jenkins, Maven, SonarQube Compétences obligatoires Excellente maîtrise de PHP et des technologies Web. Bonnes connaissances SQL (idéalement PostgreSQL). Maîtrise de Git. Expérience avec des outils de qualité du code et CI/CD (Jenkins, SonarQube). Compétences appréciées Kubernetes, Docker. Kafka, RabbitMQ. Connaissances Linux (CentOS). Protocoles OAuth2, OpenID Connect. Services Cloud (AWS : EC2, RDS, S3, ELB). Expérience sur des environnements à forte volumétrie de données. Expérience avec équipes offshore.
Mission freelance
Développeur .NET / AWS
Pour l’un de mes clients, je recherche un(e) : Rôle : Développeur .NET / AWS Missions : Participer au développement et à l’évolution des applications, Intervenir sur la conception, le développement et l’optimisation des solutions en environnement .NET et AWS. Contribuer aux bonnes pratiques de code, à l’industrialisation et à la performance des applications. Tech : .NET (C#), AWS (EC2, S3, Lambda, RDS…), CI/CD, API REST, bases de données SQL/NoSQL, bonnes pratiques DevOps. Profil : Développeur confirmé avec minimum 5 ans d’expérience. Solide expertise .NET et bonne maîtrise des environnements AWS. Autonomie, sens du collectif et capacité à travailler dans un contexte agile. Conditions : Freelance, mission longue, basé à Paris (3 à 4 jours de télétravail par semaine). TJM : 450 - 500 € Disponibilité : Immédiate à 15 jours
Mission freelance
ML Engineer confirmé
Nous recherchons un ML Engineer confirmé pour une mission de 3 à 6 mois au sein de l’entité Data Analyse & Data Science de la Data Factory Omnicanal. Objectif : accompagner la montée en puissance des cas d’usage marketing via l’IA, tout en respectant la stratégie de jeu responsable, avec un fort focus sur l’industrialisation et la robustesse des modèles ML. Missions principales Le/la ML Engineer interviendra notamment sur : Migration de l’existant Data Science d’Hadoop vers AWS S3 et Dataiku Portage, optimisation et industrialisation des pipelines de données Mise en place et suivi des bonnes pratiques MLOps (CI/CD, monitoring, amélioration continue) Développement et déploiement de modèles ML avancés adaptés aux enjeux marketing digital Documentation et partage de bonnes pratiques Infos pratiques 📍 Lieu : île de France – 2 jours de TT / semaine 📅 Démarrage : 29/09/2025
Offre d'emploi
Senior DevOps / AWS Platform Engineer (H/F)
Vous souhaitez mettre à profit votre expertise DevOps / Platform Engineering dans un environnement exigeant et innovant ? Objectif : Concevoir, industrialiser et opérer une plateforme AWS permettant aux équipes internes de déployer rapidement et en toute sécurité. Vos responsabilités - Concevoir et développer des modules Terraform avancés et réutilisables (networking, sécurité, compute, data). - Gérer un environnement multi-comptes AWS (Organizations, Control Tower, SCPs, IAM). - Définir des blueprints d'infrastructure (EKS/ECS/Fargate, Lambda, EC2). - Construire et maintenir des pipelines CI/CD (Jenkins, GitLab CI) avec intégration sécurité et policy-as-code. - Mettre en place la supervision & observabilité (CloudWatch, Prometheus/Grafana, Datadog...). - Sécuriser les environnements (IAM, KMS, Secrets Manager, scanning IaC/images). - Supporter et accompagner les équipes internes (migration workloads, coaching, self-service). - Automatiser avec Bash, Python, Terraform automation, AI copilots. - Participer au support L2/L3, documentation et transfert de connaissances. Profil recherché - 8+ ans d'expérience en DevOps / SRE / Platform Engineering. - 4+ ans sur AWS en production. - Expert Terraform (design de modules, state management, bonnes pratiques). - Très bonne maîtrise AWS (VPC, Transit Gateway, IAM, EKS, ECS, Lambda, RDS, DynamoDB, S3, Route 53...). - Compétences solides en Linux, réseau (TCP/IP, DNS, TLS), scripting (Bash, Python). - Expérience CI/CD (Git, Jenkins, GitLab CI). - Connaissances containers/Kubernetes (EKS), Helm, supply chain security. - Excellente capacité de collaboration et sens produit. Atouts appréciés - Leadership technique & mentoring. - Certifications AWS, Terraform ou Kubernetes. - Pratiques FinOps. - Expérience GitOps (ArgoCD, Flux). - Outils avancés Terraform (Terragrunt, Spacelift).
Mission freelance
Developpeur Python Aws
ppuis du RMOE et Tech Lead sur l’architecture de l’application SIRSE au travers de connaissances : Dans les différents domaines techniques de l’application : Java, Python, Base de données (DynamoDB), des mécanismes de sécurité des échanges informatiques et de cryptographie (gestion des certificats, gestion des clés de chiffrement, TLS, EJBCA, Cloud HSM) de connaissance du milieu des réseaux & Telecom (VPN, gestion des VIP, MPLS, fonctionnement du TCP-IP) sur AWS (lambdas, Terraform, EC2, SQS, S3, Cloudwatch…), EJBCA Développement et maintenance de l’outil SIRSE (résolution d’anomalies). Déploiement des versions applicatives Recette Technique sur les environnements bas Réaliser les installations ou migrations et garantir le run des lots techniques Gestion du processus d’Intégration Surveillance de la bonne exécution de l’applicatif sur les environnements bas Traitement et suivi des incidents hors production et en production Participer et alimenter de façon active les ateliers techniques nécessaires (Daily, COPROJ technique, COMOP PKI, ateliers avec DPO, Cyber, et sur le décommissionnement de l’IoTEvent et IoTAnalytics ) Suivi et participer de façon active à mise en place d’une supervision sur AWS (des logs, alertes, suivi des couts...) Créer, prioriser et suivre les tickets techniques sur JIRA, Documenter les processus, Mise à jour des procédures techniques d’installation (PTI), d’exploitation (PTE), de bascule lors de migrations (PTB) ainsi que les procédures de reprise lors des PRA (PTR), DEX, DAL, PTE... Participer aux instances techniques
Offre d'emploi
Architecte technique (H/F)
Nous recherchons un Architecte Technique expérimenté pour intervenir au sein de la Direction Technique Informatique de notre client, plus particulièrement dans le pôle Gouvernance Technique Opérationnelle composé actuellement de 8 architectes techniques. L'infrastructure est actuellement en évolution vers la conteneurisation par la solution Kubernetes de Redhat (OpenShift). Le poste est centré sur des compétences infrastructure et production.Vous interviendrez sur des socles techniques comprenant Apache, JBoss, PostgreSQL, ainsi que sur des aspects réseau et sécurité (VLAN, VIPs, composants matériels réseau), et sur la maîtrise de Docker/Kubernetes (OpenShift). Missions principales: Concevoir l'architecture technique des projets (métiers, progiciels) et des socles techniques (API Management, Oracle, moteur de règles...). Identifier les composants applicatifs et flux associés, décrire l'infrastructure d'exécution et dimensionner les ressources selon les exigences techniques et de sécurité. Accompagner les projets métiers dans la rédaction des fiches de sécurité et des NFR (exigences non fonctionnelles). Valider les architectures techniques sous l'angle sécurité et rédiger les matrices de flux. Accompagner les chefs de projets techniques pour le cadrage et l'organisation des phases techniques, y compris les plans de bascule et la mise en exploitation de DRCP et SFs. Vérifier régulièrement que l'architecture en production est conforme aux spécifications, et ajuster si nécessaire. Instruire des dossiers techniques (ex. mise en oeuvre du protocole S3). Participer au support opérationnel et aux cellules de crise. Vous êtes titulaire d'une formation niveau Bac+5 (Master) ou avez une expérience équivalente. Vous avez au minimum 5 ans d'expérience sur un poste similaire et une expérience confirmée en modélisation d'architecture technique (type Archimate) et en rédaction de dossiers d'architecture technique. Compétences techniques attendues: Infrastructure et middleware : Apache, JBoss, PostgreSQL, serveurs d'applications et bases de données relationnelles. Virtualisation et conteneurisation : Docker, Kubernetes (OpenShift), orchestration et déploiement automatisé de conteneurs. Réseau et sécurité : VLAN, VIPs, firewalls, composants matériels réseau, dimensionnement et sécurisation des flux. Socles techniques et outils métiers : API Management, moteurs de règles, solutions GED et acquisition de documents (KOFAX, ITESOFT). Notre processus de recrutement : en 4 étapes ! Tout simplement. 1. Dans un premier temps, vous échangerez avec l'une d'entre nous par téléphone 2. Puis, nous aurons le plaisir d'échanger en visio. 3. Pour finir, discutez métier avec l'un de nos managers opérationnels 4. Bienvenue chez nous ! Ce poste vous intéresse ? Place à l'action : Postulez ou partagez avec votre réseau ! Kubernetes Docker OpenShift jboss JAVA
Offre d'emploi
Ingénieur DevOps Cloud (Salarié )
Concevoir, déployer et maintenir des infrastructures Cloud (principalement AWS). Automatiser le déploiement et la gestion des environnements via Terraform et outils IaC. Mettre en place et administrer des solutions d’automatisation et d’orchestration (Ansible). Participer à la définition et l’optimisation des pipelines CI/CD. Assurer la supervision, la sécurité et la fiabilité des environnements Cloud. Collaborer avec les équipes de développement pour améliorer la livraison continue. Cloud : AWS (EC2, S3, IAM, VPC, Lambda, etc.). Infrastructure as Code : Terraform, Ansible. CI/CD : GitLab CI, Jenkins ou équivalents. Conteneurisation : Docker, Kubernetes.
Mission freelance
DATA Engineer - AWS(H/F)
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.
Mission freelance
POT8623-Un Data Engineer sur Lille
Almatek recherche pour l'un de ses clients, un Data Engineer sur Lille. Missions: Poursuivre / Finaliser le développement d'une infrastructure de gestion de données (collecte, stockage, traitement) sur AWS, incluant la sécurité de l'infrastructure et des données. Services AWS utilisés : S3, Lambda, Glue. Développement Infra as Code avec CDK et Transcript. Stockage des codes sur GitHub Enterprise. Déploiement avec GitHub Action. Maitriser la manipulation de données n'est pas la compétence la plus critique => donc bien maitriser le coté AWS, mais pas forcément sur Data. Data Engineer ou Cloud Engineer, compétences AWS, DevOps, Python
Mission freelance
DevOps cloud AWS
Notre client est un acteur majeur du secteur des médias et du divertissement , présent à l’international. Son pôle Tech regroupe plusieurs centaines d’experts dédiés à la conception et à l’exploitation des plateformes applicatives du groupe. Au sein d’une équipe transverse d’Architectes et de DevOps , la mission consiste à accompagner les équipes projets dans la modernisation, l’automatisation et la sécurisation de leurs environnements Cloud. L’objectif : renforcer la cohérence technologique, accélérer les déploiements et fiabiliser les infrastructures dans un contexte de transformation vers le Cloud AWS . Missions principales Accompagner les équipes projets dans la conception, la mise en place et la modernisation d’infrastructures Cloud . Définir et déployer des architectures AWS robustes, modulaires et sécurisées. Concevoir et maintenir des chaînes CI/CD (GitLab CI, GitOps) et des modules Infrastructure as Code (Terraform, Ansible). Contribuer à la conteneurisation et à l’orchestration (Docker, Kubernetes, EKS). Garantir la scalabilité, la fiabilité et la sécurité des plateformes Cloud. Participer à la diffusion des bonnes pratiques DevOps et SRE (SLI/SLO, post-mortems, résilience). Intervenir en support transverse multi-projets , avec une vision globale et des enjeux variés. Pour les profils seniors : jouer un rôle de référent technique / Tech Lead , notamment sur la coordination avec les équipes offshore. Stack technique Cloud & Infra : AWS (EKS, EC2, S3, RDS, Lambda, Route53, Transit Gateway, CloudWatch) – notions Azure & On-Prem. Conteneurs & orchestration : Docker, Kubernetes (EKS), Helm, Autoscalers, ECR, CNI. IaC & configuration : Terraform, Ansible, AWX, Terragrunt. CI/CD : GitLab CI, GitOps, Jenkins. Scripting : Bash, Python. Observabilité : Prometheus, Grafana, Loki, Datadog. Sécurité & FinOps : IAM, API security, segmentation, right-sizing, cost tracking.
Mission freelance
Mission de Data Engineer - Retail
Nous vous proposons de rejoindre un grand acteur du retail pour une mission de Data Engineer. En tant que Data Engineer vous aurez un rôle clé dans l'amélioration des sales pipelines, la modélisation de nouveaux business models de données de vente et le support aux autres équipes pour une utilisation efficace des données de vente. En tant qu'entreprise de retail , des informations de vente précises et pertinentes sont cruciales, rendant cette équipe centrale pour les processus de décision opérationnels et stratégiques clés. Les responsabilités incluront la maintenance des data flows , avec un accent particulier sur la résilience des produits et l'excellence opérationnelle. Les missions : Développement et maintenance des Data Pipelines User Enablement & Support Promotion des Best Practices Operational Excellence Stack technique : Amazon Web Services (S3) Databricks Approche SQL first avec dbt et/ou Apache Spark (PySpark) Ordonnancement avec Airflow (Python) Github
Mission freelance
Intégrateur technique Cloud Niv.2-3
CONTEXTE l’Intégrateur.trice Cloud sera sous la responsabilité du Responsable d’équipe EIT (Equipe d’Intégration Technique). Cette équipe assure notamment les activités de mise en place des éléments d’infrastructures applicatives en relation avec les exploitants, d’intégration de livrables éditeurs et/ou maîtrise d’œuvre, de développement et support d’outils transverses pour les applications du périmètre DARC. De plus en plus d’applications sont sur la Cloud Plateforme et l’équipe a besoin de se renforcer avec un sachant afin de répondre aux nouveaux besoins. Ce poste est rattaché à la Direction ARC « Acquisition, Restitution, Corporate » dont les principales missions MISSIONS : • Être responsable de la conception et de la maintenance des échanges de flux de Cash Management pour la clientèle des grandes entreprises et des banques. • Concevoir, mettre en œuvre et assurer l’évolution des applications concernant les produits de Cash Management et des services associés : acquisition des flux d’opérations, restitution d’informations (multiformats et multi-protocoles) et offres de gestion de comptes. Vous aurez notamment la charge de : • Participer à la mise en place de nouvelles applications au sein de la Cloud Platform privée : o Développement Spring Boot / Nodejs o Gestion de l'infrastructure Kubernetes (Rédaction fichier de déploiement, instanciation de ressources) o Mise en place de certificats o Mise en place de pipeline ci/cd (github actions) o Gestion de secrets (vault) o Gestion des DNS o Gestion des traffic manager / load balancer o Gestion de buckets S3 o Envoi de logs vers des outils de monitoring ▪ Grafana ▪ Instana • Participer au développement d’interface WEB o Front et back (nodejs, spring boot, react) • Commander et suivre la mise en place des éléments d’infrastructures composant une application • Participer à la mise en place des rotations automatisées des artéfacts/fonctions exploités sur la Cloud Platform o Terraform o Playbook et rôle ansible • Participer à la mise en place d’outils transverses au pôle CAT permettant notamment le monitoring, l’alerting des applicatifs associés et le déclenchement des processus de traitement batch, • Participer à l’élaboration et à la maintenance de solutions transverses mises à la disposition des équipes applicatives • Participer aux opérations de production du service EIT • Gestion des ressources Azure (Jira / Confluence) COMPETENCES D’un naturel précis, rigoureux, méthodique, curieux et autonome vous communiquez de façon efficace et adaptée aux différents interlocuteurs.rices. Vous recherchez efficacement des solutions à des problématiques non encore rencontrées et êtes en mesure d’apprendre le développement au travers de nouveaux outils, tout en donnant de la visibilité sur les actions en cours (demandes métiers, techniques…). Les technologies sur lesquelles vous devrez intervenir seront : - - - - - - - - - - - - shell (bash – ksh – sh) Unix (Aix – Redhat) PL/SQL – PostgreSql - PgPool Spring Boot – NodeJs – React Kubernetes – NameSpace - Pod – Docker CI/CD – GitHub – Nexus – Jenkins Playbooks – Terraform CloudPlatform privée – Azure Kafka – RabbitMQ – API – Grafana Jira – Confluence (produits Attlasian) Certificats Niveau : 2/3 (minimum 5-10 ans d’expérience dans ce type de rôle) De formation Bac +4/5, vous êtes francophone et pratiquez un Anglais intermédiaire.
Mission freelance
Développeur AWS (Data Lake / Python / Terraform)
Nous recherchons un Développeur AWS confirmé pour renforcer sa squad Data Platform . L’objectif est de concevoir, développer et administrer un Data Lake AWS à grande échelle, en créant des microservices robustes et sécurisés, tout en automatisant les déploiements et la gestion de l’infrastructure via Terraform. Missions principales Concevoir et développer des microservices en Python pour l’administration du Data Lake (gestion des accès aux dossiers, gouvernance des données, automatisation des flux). Créer et maintenir des solutions de Data Lake sur AWS S3 . Définir et mettre en œuvre l’ Infrastructure as Code via Terraform . Participer aux activités de RUN & Build : monitoring, support, optimisation des performances. Contribuer à l’ automatisation et à l’amélioration continue de la plateforme (SRE, observabilité, sécurité, FinOps). Collaborer avec les parties prenantes (Data Engineers, Data Architects, Data Officers) dans un contexte Agile . Documenter les développements, process et bonnes pratiques. Compétences techniques attendues Excellente maîtrise du développement Python (microservices, APIs). Solide expérience sur AWS S3 et les concepts Data Lake. Expertise en Terraform (IaC) . Bonne compréhension des mécanismes d’ alimentation ETL . Expérience en observabilité et monitoring (Grafana, App Insights ou équivalents). Pratique des méthodologies Agile . Plus (nice-to-have) : expérience avec Databricks .
Mission freelance
[LFR] Expertise Dell EMC / purestorage Lyon - 895
Description: Secteur: Transport Expertise dell EMC et purestorage Gestion de bout en bout des infrastructures. Les missions se décomposent comme suit: L’exploitation et l’administration des infrastructures de stockage Assurer le support de niveau N3+ des équipes d’exploitation RUN Gestion des changements et incidents complexes Suivi des évolutions et obsolescence de toutes les infrastructures de stockage POC et BUILD des nouvelles infrastructures liées aux infras de stockage Transfert de connaissance à nos équipes d’exploitation Coordination d’intervenants externes (Constructeurs) Contribution et/ou animation de comités avec les constructeurs Contribution aux projets d’infrastructures Contribution aux projets métiers Conseil et Qualification des projets métiers selon nos solutions techniques Améliorer la QoS notamment par l’automatisation de gestes techniques Assurer de la veille technologique et la sécurité de nos infras de stockage MISSIONS : Elaborer l’architecture et la mise en place des solutions de stockage (disques SAN, partages NAS, partages S3) Documenter les architectures et les procédures d’exploitation Maintenir en condition opérationnelle les infrastructures de stockage (Installation de correctifs, - ---- Support N3+ à l'équipe RUN Stockage pour la résolution des incidents complexes) et optimisation des performances Participer à des appels d’offre en vue de la refonte des infrastructures de stockage Gérer le Capacity Planning et la résilience des infrastructures de stockage Réaliser des tests réguliers de PSI et de PRA Assurer le support et la formation des équipes d’exploitation (offshore/onshore) sur les nouvelles solutions mises en œuvre • Type de projet (support / maintenance / implementation /…) : expertise infrastructure N3 • Type de prestation (Client / Hybrid / Remote) : sur site client et 2 jours en TT • Nombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : 3 jours
Mission freelance
Devops Kubernetes
Rejoignez une équipe chargée de soutenir et de faire évoluer les plateformes Kubernetes utilisées pour les applications, le big data et l'apprentissage automatique. Le poste implique l'intégration, le déploiement, l'automatisation et la maintenance opérationnelle dans un environnement complexe et multi-clients. Principales responsabilités Intégrer et prendre en charge les applications sur Kubernetes. Déployer de nouvelles solutions technologiques et garantir leur disponibilité pour la production. Former les développeurs et les équipes d'infrastructure. Étendre le modèle sur site au cloud (Azure). Automatiser et améliorer les processus existants. Maintenir la stabilité de la plateforme et des applications . Stack technologique Conteneurs et orchestration : Docker, Kubernetes, Rancher, ArgoCD Langages : YAML, Go Outils DevOps : Jenkins, Grafana, Prometheus, Sysdig Cloud et infrastructure : AKS Azure, Linux (SUSE), GitLab, Artifactory, S3
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.