Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3

Votre recherche renvoie 56 résultats.
CDI
Freelance

Offre d'emploi
Développeur Node.js F/H

ADDIXWARE
Publiée le
AWS Cloud
Front-end
JavaFX

1 an
Nice, Provence-Alpes-Côte d'Azur

Poste en télétravail intégral, axé sur le développement de modules applicatifs disposant d'interfaces utilisateurs avancées et d'une forte composante cloud. L'environnement technique repose sur des architectures déployées sur AWS, avec une infrastructure automatisée et isolée pour chaque client. Missions - Développement de fonctionnalités front-end et back-end sur une plateforme en Node.js / TypeScript - Création et amélioration d'interfaces utilisateurs permettant la génération et la gestion de contenus structurés - Participation à la conception et au maintien d'infrastructures cloud sur AWS - Mise en place et évolution d'infrastructure mono-tenant pour chaque client, avec mutualisation partielle des composants - Déploiement d'applications conteneurisées via Docker et orchestrées avec ECS - Automatisation des déploiements et de l'infrastructure via Terraform Environnement technique - Langages : Node.js, TypeScript, Angular - Cloud : AWS (ECS, Lambda, S3, etc.) - Conteneurisation : Docker - Infrastructure as Code : Terraform - Architecture : mono-tenant, multi-infra client - Méthodologie : Agile / CI-CD

Freelance

Mission freelance
Expert technique DEVOPS Senior

PROPULSE IT
Publiée le
DevOps

24 mois
325-650 €
Paris, France

PROPULSE IT recherche un expert technique devops Senior dasn le cadre de projets de conteneurisation On premise et IAC Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. Réaliser et modifier différents jobs et pipelines Gitlab-CI Les compétences techniques attendues sont les suivantes : - Maitrise de kubernetes (Openshift) o Déploiement des clusters en mode « airgap » o Troubleshooting des défaillances o Technologie CSI o Déploiement des workload (helm chart / yaml) o Exposition des Services/Ingress/routes Layer4 & 7 - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise de technologies et méthodologies basées sur le principe du gitops - Maitrise de la mise en place d'outillage de scan au build et au runtime des images de conteneur - Maitrise de l'outil de construction des images de conteneur kaniko - Maitrise de l'outil Hashicorp Vault - Connaissance des technologies : o Vmware Vsphere o Baremétal o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) - Connaissance d'ansible / terraform - Maitrise des outils de déploiement continue KUBERNETES (ArgoCd) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings

Freelance

Mission freelance
Data Engineer AWS

Cherry Pick
Publiée le
AWS Cloud
C#
Python

12 mois
500 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Energie Description 🎯 Contexte & Objectifs Intégré(e) à la squad Data Platform, vous interviendrez sur les activités de build, run et automatisation d’une plateforme de données Cloud (AWS / Azure). Votre rôle sera clé pour : Participer à la réalisation du workplan et aux user stories du backlog. Contribuer aux activités de support N2/N3 (RUN) et de Build. Livrer et suivre les artefacts de mise en production. Proposer et mettre en œuvre des optimisations FinOps, sécurité et observabilité. Développer des microservices et automatiser les pipelines & déploiements. 🛠️ Missions principales Participer au développement et maintien de la Data Platform Cloud. Créer et maintenir des processus de déploiement automatisés avec Terraform. Développer des microservices en Python et maîtriser l’intégration (CI/CD). Assurer le monitoring et l’exploitation via Grafana, App Insights. Contribuer aux flux ETL/ELT et à l’alimentation du Data Lake (AWS S3, ADLS Gen2). Gérer les activités RUN/SRE : supervision, support, automatisation. Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et FinOps. Collaborer en mode Agile/Scrum avec les parties prenantes (Data Officers, Data Architects, Engineers). Maintenir la documentation et promouvoir une approche User-Centric (recueil feedbacks, amélioration UX).

Freelance

Mission freelance
Expert Devops Gitlab-CI

PROPULSE IT
Publiée le
DevOps
GitLab CI

24 mois
375-750 €
Paris, France

Propulse iT recherche un Expert Devops Gitlab-CI - Réaliser et modifier différents rôles et Playbooks Ansible - Réaliser et modifier différents modules Terraform - Réaliser et modifier différents jobs et pipelines Gitlab-CI - Assurer le support N3 de la chaine CI/CD Les compétences techniques attendues sont les suivantes : - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise des technologies et méthodologies basées sur le principe du gitops - Maitrise des technologies et méthodologies basées sur le principe d'infra as Code - Maitrise d'ansible / terraform - Maitrise de la programmation en python - Maitrise de l'outil Hashicorp Vault - Maitrise des technologies API REST - Connaissance des technologies : o Vmware Vsphere o Nutanix o Baremétal o Kubernetes o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings

Freelance

Mission freelance
IP2025045 Expert technique DEVOPS avec 5 ans d'exp

PROPULSE IT
Publiée le
DevOps

24 mois
250-500 €
Paris, France

PROPULSE IT recherche un expert technique devops Senior dasn le cadre de projets de conteneurisation On premise et IAC Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. Réaliser et modifier différents jobs et pipelines Gitlab-CI Les compétences techniques attendues sont les suivantes : - Maitrise de kubernetes (Openshift) o Déploiement des clusters en mode « airgap » o Troubleshooting des défaillances o Technologie CSI o Déploiement des workload (helm chart / yaml) o Exposition des Services/Ingress/routes Layer4 & 7 - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise de technologies et méthodologies basées sur le principe du gitops - Maitrise de la mise en place d'outillage de scan au build et au runtime des images de conteneur - Maitrise de l'outil de construction des images de conteneur kaniko - Maitrise de l'outil Hashicorp Vault - Connaissance des technologies : o Vmware Vsphere o Baremétal o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) - Connaissance d'ansible / terraform - Maitrise des outils de déploiement continue KUBERNETES (ArgoCd) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings

CDI

Offre d'emploi
Expert DevOps CloudOps - (H/F)

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

70k-80k €
Bois-Colombes, Île-de-France

La System Team de l'Offre: Automatise au maximum le déploiement des produits et met à disposition les templates de pipelines et modules d'infrastructure nécessaires. Est garante du cadre technologique & cybersécurité. Intervient en support des équipes produits, mais n'effectue pas d'astreintes. Anime la communauté des référents Front & Back. Votre mission : • Garant du cadre d'architecture • Instruction des changements d'architecture & coûts associés avec les équipes produits • Mise à jour de la documentation architecture produit • Maintenance du cadre d'architecture, veille & obsolescence Responsable de l'infrastructure Cloud • Garant du catalogue de solutions techniques • Mise à disposition des modules Terraform (ou Legacy) dans l'usine CI/CD • Maintenance des solutions techniques, veille & obsolescence • Suivi et optimisation des coûts infra (FinOps) • Mise à disposition des pipelines CI/CD • Mise à disposition des templates de pipelines • Partage des bonnes pratiques • Gestion de l'infrastructure CI/CD (*Avec GARA) Support aux équipes • Mise en place des dépendances techniques aux US fonctionnelles • Support exceptionnel aux MEP/MES • Support à l'analyse d'incidents et au renforcement du monitoring des produits • Gestion des accès (*Avec GARA) • Onboarding des nouvelles équipes & Maj de la documentation technique Cyber • Instruction des exigences cyber pour la chaine de valeur de l'offre • Etude de solutions et suivi de la mise en application • Audit infrastructure & vérification des prérequis MEP/MES Pratiques Front & Back • Cadrage des exigences UX et réalisation des maquettes • Partage des pratiques Front avec les référents équipes et maintien du Design System • Partage des pratiques Back avec les référents équipes et maintien des librairies Contexte technique : Conteneurs Docker sur AWS ECS Fargate • AWS IAM et Cognito • Bus d'événements Kafka AWS MSK / EventBridge • Infrastructure AWS : CloudFront, S3, ECS Fargate, Lambda, WAF, Route53... • API Management AWS API Gateway • Kubernetes • NoSQL MongoDB + RDS PostgreSQL • Développements en Java (Spring boot, Quarkus) • Développements en NodeJs et Angular • Développements en Python • Terraform pour l'Infra as Code • GitLab SaaS pour la CI/CD • OS Windows IAC - Terraform IAC - CDK IAC - Sceptre Python NodeJS - Angular Java Infra java Gitlab (pipelines, runners, git cmd) AWS - Database (DocumentDb, RDS, Dynamo) AWS - Network & Content Delivery (VPC, Endpoint, Api Gtw, SG, DNS, Route 53, Cloudfront) AWS - Security (KMS, SSM, Certificate Manager, WAF) AWS - Compute (EC2, Lambda, S3, ECR, ECS, AppStream) Mongodb OS Windows Référence de l'offre : patgnojfl0

Freelance
CDI

Offre d'emploi
Software Data Engineer H/F

HIGHTEAM
Publiée le
Scala

3 ans
La Défense, Île-de-France

Nous recherchons un(e) Software Data Engineer pour l'un de nos clients grand compte. Missions : • Concevoir et implémenter les composants/pipelines d’ingestion de données en scala spark • Traiter et normaliser les données • Refactoriser des imports existants pour être compliant avec l'architecture médaillon (silver + gold layers) • Appliquer/challenger les règles métier pour générer la couche gold tout en garantissant les performances, la scalabilité et les coûts cloud • Distribuer les données aux différents consommateurs/Métiers • Implémenter les règles de Data Quality (DataQuality framework) et gérer le data calatog • Développer et améliorer les frameworks communs (monitoring, CI/CD, tests, performance, résilience, standards de développement, qualité du code) • Rédiger et maintenir la documentation technique des développements réalisés : schéma d'architecture, Infra, Flux, … • Garantir le respect des standards du Groupe en matière de qualité, sécurité, partage, usage et architecture des données • Participer au développement et à la maintenance du calculateur en Scala Spark avec l'objectif : - d'optimiser le temps de calculs, - d'optimiser les performances, - de garantir la scalabilité au regard d'un accroissement annuel important du volume des market operations, - de maîtriser et d'optimiser les coûts cloud. • Être force de proposition pour améliorer les processus et les performances des systèmes. Compétences requises : • Expertise en Scala et Spark. • Expérience significative dans le développement d'ETL en contexte Big Data. • Expérience AWS (Glue, Lambda, Step Function, S3, etc.) : niveau intermédiaire avec expérience pratique • Compétences Dev/Ops • Capacité à travailler en équipe et à communiquer efficacement avec les parties prenantes. • Organisation, orientation résultats et intérêt marqué pour le fonctionnel. • Des compétences en Python et REACT seraient un plus pour le candidat

CDI

Offre d'emploi
Leader Technique Full stack Java - Nantes (F/H)

AUBAY
Publiée le
J2EE / Java EE
Java

45k-60k €
Nantes, Pays de la Loire

Tu es prêt(e) à prendre le lead technique dans une Squad agile? 💡On cherche un(e) Leader Technique Full Stack Java pour booster des services digitaux : Espace Client, CRM, communication multicanale… tout pour améliorer l’autonomie et l’expérience utilisateur. Notre ADN : 🔹 Expertise 🔹 Innovation 🔹 Collaboration 🔹 Engagement 🔹 Éthique 🎯 Ce que tu fais au quotidien: Encadrement technique de la Squad : montée en compétence, bonnes pratiques, qualité du code. Support à la réalisation technique : sécurité, performance, provisioning, flux, simplification des solutions. Onboarding & formation des nouveaux développeurs ou montées en compétence ciblées. Engagement agile : estimation des US, sprint planning, participation aux cérémonies agiles, refinements. Documentation technique : architecture, exploitation, installation, artefacts (DoR, DoD…). Veille technologique et méthodologique. Développement actif de fonctionnalités : respect des normes, sécurité, prise en compte des enjeux data. 🔍 Stack technique: Langages : Java 11/17/21 Frameworks : Spring Boot, Spring Batch, REST, orchestration BPMN Architecture : Microservices, architecture hexagonale, TDD, DDD, Event-Driven Tests : Junit, Mockito, Selenium, Gherkin, Cucumber Messaging : Kafka Conteneurisation & CI/CD : Docker, Kubernetes, Helm, Jenkins Outils dev : GitLab, Maven, IntelliJ, SonarQube BDD : MongoDB (NoSQL) Cloud & Stockage : Cloud public ou privé, stockage objet type Amazon S3 Monitoring : Outils de supervision type Kibana Fontend : Web Components, Angular, HTML/CSS Protocoles : MTLS, OAuth2, JWT Agilité : Méthodologie Agile (Scrum) Outils projet : Jira, Confluence

CDI

Offre d'emploi
🔧 CDI – Site Reliability Engineer (H/F) – Object Storage 🔧 📍 Lille, Paris, Nantes ou Bordeaux

ICSIS
Publiée le
Ansible
GNU
Linux

France

🔧 CDI – 3 Site Reliability Engineer (H/F) – Object Storage 🔧 📍 Postes à pourvoir à Lille, Paris, Nantes ou Bordeaux ICSIS, ESN Lilloise depuis 12 ans, accompagne les plus grandes DSI avec plus de 100 consultants engagés. Nous recrutons des profils IT de haut niveau , mais aussi des personnalités humaines , capables de faire la différence en équipe. 🎯 Pour un acteur majeur du numérique , nous recherchons 3 Site Reliability Engineers (H/F) spécialisés en Object Storage . 🚀 Vos missions : Garantir la haute disponibilité, fiabilité et sécurité des plateformes d’Object Storage Suivre les indicateurs de performance et proposer des axes d'amélioration Être force de proposition dans une démarche DevOps & amélioration continue Participer à l’ automatisation de la prévention des incidents Contribuer aux outils de déploiement, packaging, monitoring et alerting Gérer les montées de version logicielles Challenger les architectures pour plus de scalabilité et performance Travailler en lien avec les équipes techniques & métiers pour enrichir le backlog produit 🛠️ Stack & compétences attendues : Maîtrise de GNU/Linux Scripting (idéalement Python ) Automatisation & déploiement ( Ansible , Puppet , etc.) Architectures microservices complexes Outils de supervision : Icinga , Prometheus , Alertmanager Orchestration d’infra à grande échelle ( Temporal est un plus) ➕ Ce serait un + si : Vous avez des notions des API AWS S3 Vous êtes curieux(se) des sujets autour de l’ IA Vous aimez travailler en équipe , créer de la cohésion , et faire avancer les projets ensemble 📍 Localisations possibles : Lille, Paris, Nantes, Bordeaux 💼 CDI – démarrage dès que possible 📩 Candidatures à envoyer à :

Freelance

Mission freelance
 Ingénieur  Data and Analytics Platform/ Kubernetes/ Python / AWS CLOUD INFRA Anglais 500 e/ j

BI SOLUTIONS
Publiée le
AWS Cloud
Python

2 ans
400-500 €
Île-de-France, France

Ingénieur Data and Analytics Platform/ Kubernetes/ Python / AWS CLOUD Infrastructure Anglais 500 e/ j Ci-dessous le détail de la mission En tant que membre de notre squad Data and Analytics Platform, vous participerez aux activités suivantes : Conception de la Data & Analytics Platform Évolution des infrastructures cloud via l’Infrastructure as Code Gestion d’un cluster kubernetes Développement de micro-services en Python Conception et maintenance de chaînes de déploiement automatisé Assurer le bon fonctionnement opérationnel de la Data & Analytics Platform Enrichissement de la documentation à l’attention des utilisateurs Expérience significative sur le cloud AWS, notamment sur les services de données (S3). Développement d’application web. Connaissance des pratiques du software craftsmanship. Bonne connaissance de la méthodologie Agile. Familiarité avec les mécanismes de traitement et de valorisation des données. À l’aise dans les interactions avec les parties prenantes. Force de proposition et désireux(se) d’apprendre en continu. Technologies utilisées Python, Terraform, Dotnet GitHub, GitHub Action AWS : EKS, S3, ECS, VPC, NSG, Lambda, … Databricks : Unity Catalog, Policy, Cluster, PySpark Pratiques : Scrum Notions : DevSecOps, Data Engineering, Data Management Langues : Anglais et Français 500 e

CDI
Freelance

Offre d'emploi
Data Engineer | AWS | Databricks | Big Data

Hexateam
Publiée le
AWS Cloud
Databricks
Python

36 mois
Île-de-France, France

Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum

CDI
Freelance

Offre d'emploi
Développeur Java / Mainframe

VISIAN
Publiée le
COBOL
Java
Mainframe

2 ans
40k-45k €
290-530 €
Paris, France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d’un Concepteur/Développeur possédant une double compétence Java et Mainframe, expérimenté et autonome, pour participer à différents sujets côté Carte (projets, évolutions, assistance, maintenance). Vous interviendrez au sein d’une squad en charge de la refonte d’un système d’information majeur. Sous la responsabilité du Squad Leader, vous prendrez part aux différentes activités MOE : conception technique, développement, tests et assistance à la recette, mise en production ainsi que rédaction de la documentation applicative et des dossiers techniques associés. Les missions incluront notamment : La conception de solutions applicatives et techniques. La réalisation des développements selon les normes et standards internes. La définition et la réalisation des tests unitaires, d’enchaînement et d’intégration. L’accompagnement des phases de recette et la préparation des mises en production. La rédaction de l’ensemble de la documentation technique (DCA, DCAD, DTA, cahier de tests). Stack technique et outils utilisés : Java : Spring Boot, SpringBatch, JDK17 Containerisation : Docker, Kubernetes API Management : WSO2 Base de données : PostgreSQL, DB2 Messagerie : MQ Series, CFT Mainframe : COBOL, CICS, MVS, z/OS, SQL, IDZ CI/CD & versioning : GitLab, Jenkins2, Artifactory XRay Stockage : Bucket S3 Outils de développement : Eclipse, IntelliJ, Maven Méthodologie : Agile Si vous êtes actuellement à l’écoute du marché, je vous invite à m’envoyer votre candidature. Bien à vous.

Freelance

Mission freelance
Architecte Cloud AWS

Lawrence Harvey (LHI group limited)
Publiée le
Architecture
AWS Cloud

6 mois
Paris, France

Mission / Freelance / France / Architecte Cloud AWS / Expert / DataLake / DevOps / Sécurité / Terraform / Kubernetes Contexte : Dans le cadre de projets stratégiques de migration et de transformation cloud, nous recherchons un Architecte Cloud AWS pour renforcer une équipe en charge de la conception et de l’industrialisation de plateformes critiques. Le consultant interviendra sur des environnements complexes et multi-technologiques, avec un fort accent sur les bonnes pratiques AWS, l’automatisation IaC et la sécurité cloud. Localisation : Paris (2 à 3j/semaine sur site) Durée de mission : longue (6 mois renouvelables) Date de démarrage : ASAP Missions principales : Définir et concevoir des architectures cloud AWS (Landing Zones, DataLake, solutions hybrides). Préparer et piloter les migrations de solutions vers le cloud. Déployer les bonnes pratiques AWS (architecture, sécurité, coûts, gouvernance). Automatiser via Infrastructure as Code (Terraform, CloudFormation). Concevoir et industrialiser des chaînes CI/CD (Jenkins, GitLab CI, CodePipeline). Assurer l’intégration avec les environnements Kubernetes / Docker / Ansible. Implémenter des solutions de supervision et de monitoring (ELK, Prometheus, Grafana). Rédiger et maintenir la documentation technique et d’architecture. Collaborer étroitement avec les équipes Data, DevOps et Sécurité. Profil recherché : Expérience : 9+ ans dans l’IT dont plusieurs années en architecture cloud AWS. Certifications appréciées : AWS Certified Solutions Architect – Professional (et autres spécialités : Sécurité, Data Analytics, Advanced Networking…). Compétences techniques : AWS (S3, Lambda, Redshift, DynamoDB, API Gateway, Step Functions, ECS/EKS…). Infrastructure as Code : Terraform, CloudFormation. CI/CD : Jenkins, GitLab CI, CodePipeline. Conteneurs et orchestration : Docker, Kubernetes. Scripting : Python, Bash, JSON, YAML. Sécurité : IAM, PKI, chiffrement, sécurité applicative et réseau. Atouts : expérience DataLake, environnements distribués, forte culture DevOps et agilité. Si cette opportunité vous intéresse, je vous laisse y postuler ou me contacter directement (Christopher Delannoy).

Freelance
CDI

Offre d'emploi
Développeur Kotlin AWS

VISIAN
Publiée le
AWS Cloud
Kotlin

2 ans
40k-45k €
400-610 €
Paris, France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d’un Développeur Backend Senior pour rejoindre une équipe agile intervenant sur des applications à fort trafic et sur des projets innovants à forte valeur ajoutée. Vous serez amené(e) à travailler sur la conception, le développement, le déploiement et la maintenance de fonctionnalités critiques, tout en garantissant la qualité et la robustesse des solutions mises en place. Vous interviendrez dans un environnement stimulant et multi-clients, avec des enjeux techniques variés : refonte de modules stratégiques, implémentation de connecteurs, gestion de la rétrocompatibilité des APIs, rédaction de documentations techniques et technico-fonctionnelles, et amélioration continue de l’écosystème applicatif. L’environnement technique est moderne et complet : Développement d’APIs en Java / Kotlin avec Spring Boot Infrastructure décrite en Terraform , déployée via GitlabCI sur Kubernetes (EKS) Bases de données Mongo Atlas , AWS DynamoDB , AWS S3 Communication via HTTP , messaging (ActiveMQ, AWS SQS/SNS) et AWS Lambda Suivi et monitoring avec Datadog Build avec Gradle ou Maven Forte culture DevOps : you build it, you run it Ce poste vous permettra de contribuer à des projets structurants dans un contexte multi-fournisseurs, où l’autonomie, la curiosité et l’appétence pour la qualité logicielle (tests automatisés, documentation, monitoring) sont valorisées. Si vous êtes actuellement à l’écoute du marché, je vous invite à m’envoyer votre candidature. Bien à vous

Freelance

Mission freelance
Data ingénieur AWS

MLMCONSEIL
Publiée le
AWS Cloud
Dataiku

6 mois
100-500 €
Île-de-France, France

Pour le besoin de mon client basé en Ile de France , je suis à la recherche d'un Data Engineer AWS expérimenté. Tâches Mettre en place la synchronisation des données du datalake on-premise vers AWS via DataSync , avec contrôles d’intégrité et suivi des transferts. Structurer le datalake AWS (S3) en plusieurs zones (Raw, Cleansed, Curated) et intégrer un catalogue avec Glue pour la gouvernance. Déployer et configurer Starburst/Trino pour l’accès fédéré aux données et l’optimisation des requêtes analytiques. Implémenter les use cases Data/IA en utilisant Dataiku + services AWS (Bedrock, RAG, SageMaker si besoin) pour développer les modèles et orchestrer les pipelines. Assurer la mise en production et la supervision (CloudWatch, CloudTrail, IAM sécurisés, tests de charge, monitoring des coûts et résolution des problèmes résiduels). Compétences Demandées Date de début souhaitée : début septembre Environnement technique : AWS solutions Data et IA Il faut 3 ans minimum d'expérience Data sur AWS et une connaissance de Starburst et Dataiku est un plus

Freelance

Mission freelance
Product Owner B2B Agile

AdHoc Consult
Publiée le
Agile Scrum
Apache Kafka
Azure Kubernetes Service (AKS)

15 jours
400-550 €
Île-de-France, France

Nous recherchons un·e Product Owner expérimenté·e - B2B (≥ 5 ans) Localisation : IDF - 2 jours sur site / 3 jours télétravail Démarrage : ASAP Dans le cadre du déploiement international d’un programme stratégique pour notre client, nous recherchons un Product Owner passionné par les produits digitaux et l’agilité, capable de collaborer dans un environnement international et exigeant. Compétences requises : Minimum 5 ans d’expérience en gestion de produit & méthodes agiles (Scrum). Solide connaissance des technologies et applications Web . Anglais courant (équipes techniques & stakeholders à l’international). Maîtrise de la gestion de projet et de l’organisation. Capacité à représenter l’équipe produit auprès des clients et utilisateurs. Intérêt marqué pour la dimension technique (API, Webservices). Compétences appréciées constituant un réel plus : Expérience en solutions B2B grands comptes . Connaissance d’un broker de messages (Kafka). Appétence pour le Scrum mastering et l’amélioration continue. Expérience avec des systèmes à fortes volumétries de données . Connaissance Java EE, SQL, AWS (EC2, RDS, S3, ELB). Familiarité avec des outils de CI/CD (Jenkins, Docker/Kubernetes). Savoir Être : Leadership & autonomie . Sens de la communication , pédagogie et excellent relationnel. Rigueur, curiosité, dynamisme . Esprit d’équipe et collaboration . Environnement & outils : JIRA, Bugtracker, Kafka, Grafana, Java, Postgres, REST/JSON, Jenkins, Docker/Kubernetes (AWS), Git, Sonar, Productboard, Figma. Si vous êtes motivé·e par le challenge d’un projet international, que vous aimez collaborer avec des équipes multiculturelles et que vous avez l’âme d’un ambassadeur produit , cette mission est faite pour vous !

56 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous