Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3

Votre recherche renvoie 77 résultats.
Freelance

Mission freelance
Data Engineer AWS / GenAI

Cherry Pick
Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
450-550 €
Paris, France
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
CDI

Offre d'emploi
Data Engineer | Databricks | AWS

Hexateam
Publiée le
AWS Cloud
Databricks
Python

Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Freelance

Mission freelance
Développeur COBOL - (h/f)

emagine Consulting SARL
Publiée le

36 mois
400-450 €
56000, Vannes, Bretagne
Le poste de Développeur COBOL consiste à développer et moderniser les outils informatique afin d'assurer la satisfaction client et la performance dans un environnement technologique avancé. Responsabilités: * Développement et modernisation des solutions Mainframe (z/OS, COBOL, JCL, CICS, MQ, Easytrieve, SQLP). * Support et maintenance des solutions socles, incluant l’interopérabilité Mainframe-Open (zOS Connect, Kafka Connect, CDA, S3, etc.). * Participation aux cérémonies agiles et collaboration avec les équipes de projet. * Garantir la qualité technique des solutions et maintenir la documentation. * Apporter des évolutions pour moderniser l’usage du Mainframe en utilisant des compétences en Java et Python. Compétences clés : * Compétences en COBOL , JCL, CICS, MQ, Easytrieve, SQLP. * Connaissance des solutions Mainframe (z/OS, ISPOOL, RDJ Flux, START/ARMIDE). * Compétences en développement Open (Java, Python) et outils DevOps (Eclipse/IDz, Git, Jenkins, Ansible, GitLab CI, Kubernetes, Docker). * Connaissances en architecture logicielle et réseau. * Expérience en méthodes Agile/Scrum. Atouts : * Expérience avec ZOWE, z/OSMF, S3, Kafka, ELK. * Rigueur, autonomie et sens du service. Autres Détails: * Équipe: Collaboration avec PO, Scrum Masters, architectes et squads. *Téletravail : 2 jours par semaine. *Lieu : VANNES 56
Freelance

Mission freelance
Développeur Backend Kotlin AWS

OLYMPP
Publiée le
AWS Cloud
Kotlin

24 mois
380-480 €
Île-de-France, France
Dans le cadre du renforcement de notre équipe technique, nous recherchons un(e) Développeur(se) Backend spécialisé en Kotlin et AWS pour concevoir, développer et maintenir des services backend robustes, scalables et sécurisés. Concevoir et développer des API et services backend en Kotlin Participer à la conception de l’architecture backend (microservices, event-driven, serverless) Déployer et exploiter les applications sur AWS (Lambda, ECS/EKS, EC2, RDS, DynamoDB, S3, etc.) Garantir la qualité du code : tests unitaires et d’intégration, revues de code, bonnes pratiques Assurer la performance, la sécurité et la scalabilité des services Collaborer avec les équipes frontend, produit et DevOps Participer à la maintenance et à l’amélioration continue des applications existantes
Freelance

Mission freelance
POT8902 - Des Consultants JAVA DEVOPS sur Lyon

Almatek
Publiée le
Java

6 mois
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients , Des Consultants JAVA DEVOPS sur Lyon. Stack technique la plus récurrente : Back-end : Java, Front-end : Angular, CloudFront BDD : PostgreSQL Cloud : AWS, Lambda, S3, SQS, DynamoDB, Cognit Devops : Terraform, GitLab, Docker, Jenkins Autres : Cucumber, Cypress, Cloudwatch, Alertmanager, Grafana, ElasticSearch Profils : Lead Tech Front/Back Dev fullstack PO Lead Designer Designer UX/UI Ingénieur DevSecOps Architecte Cloud Almatek recherche pour l'un de ses clients , Des Consultants JAVA DEVOPS sur Lyon. Stack technique la plus récurrente : Back-end : Java, Front-end : Angular, CloudFront BDD : PostgreSQL Cloud : AWS, Lambda, S3, SQS, DynamoDB, Cognit Devops : Terraform, GitLab, Docker, Jenkins Autres : Cucumber, Cypress, Cloudwatch, Alertmanager, Grafana, ElasticSearch Profils : Lead Tech Front/Back Dev fullstack PO Lead Designer Designer UX/UI Ingénieur DevSecOps Architecte Cloud
Freelance

Mission freelance
Data analyste ET ANALYTICS Platform AWS AZURE PYTHON Anglais 500 e par jour

BI SOLUTIONS
Publiée le
AWS Cloud
Python

3 ans
400-500 €
Île-de-France, France
Data analyste ET ANALYTICS Platform AWS AZURE PYTHON Anglais 500 e par jour Évolution des infrastructures cloud via l’Infrastructure as Code Gestion d’un cluster kubernetes Développement de micro-services en Python Conception et maintenance de chaînes de déploiement automatisé Assurer le bon fonctionnement opérationnel de la Data & Analytics Platform Enrichissement de la documentation à l’attention des utilisateurs Expérience significative sur le cloud AWS et/ou Azure, notamment sur les services de données (Gen2 et ou S3). Développement d’application web. Connaissance des pratiques du software craftsmanship. Bonne connaissance de la méthodologie Agile. Familiarité avec les mécanismes de traitement et de valorisation des données. Python, Terraform GitHub, GitHub Action Azure : AKS, Data Lake Gen2, Data Factory AWS : EKS, S3, ECS, VPC, NSG, Lambda, … Databricks : Unity Catalog, Policy, Cluster, PySpark Pratiques : Scrum Notions : DevSecOps, Data Engineering, Data Management Langues : Anglais et Français 500 e par jour
Freelance
CDI

Offre d'emploi
Architecte Data AWS

KLETA
Publiée le
Amazon Redshift

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data AWS pour définir et piloter l’évolution des plateformes de données cloud natives sur Amazon Web Services. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies AWS tels que S3, Glue, Redshift, Athena, EMR, Kinesis ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur AWS.
Freelance
CDI

Offre d'emploi
Ingénieur DevOps Ansible

Etixway
Publiée le
Ansible
Dynatrace
Gitlab

12 mois
50k-55k €
500-550 €
Paris, France
Maintien en condition opérationnelle (MCO / run) les applications legacy et sur les applications Déploiement de la stack de monitoring kube-prometheus-stack (Prometheus Opertaor, Alertmanager) et Grafana Opertaor et mise en place des dashborads en mode GitOps en utilisant le CRD GrafanaDashboard sur un cluster RKE2 • Déploiement de Elasticsearch, Kibana et fluentd et avec l’OLM (Operator Lifecycle Managament) “ClusterLogging“ Déploiement de Dynatrace Opertaor pour le monitoring applicatif et d’infrastructure Automatisation Automatisation des déploiements et de la maintenance des applications legacy via Ansible. Rédaction des rôles Ansible transverses pour la gestion de AWX, Keycloak, S3 et France Transfert Intégration des playbooks dans AWX en mode GitOps et en utilisant le rôle AWX Ordonnancement des playbooks avec Rundeck dans le cadre du remplacement de VTOM Participation aux projets DevSecOps (DSO) Développement des scripts Terraform pour le provisionning le l’infra (intégration, qualification et production) en utilisant des modules existants Installation des clusters RKE2 avec Ansible Déploiement d’Argo CD et du driver CSI-Cinder avec Ansible.
Freelance
CDI

Offre d'emploi
Data Engineer (Paris ou Lyon)

TEOLIA CONSULTING
Publiée le
BI
Data Lake
Master Data Management (MDM)

12 mois
40k-45k €
400-470 €
Paris, France
Nous recherchons pour l'un de nos clients un(e) Data Engineer pour renforcer une squad Data dédiée à la mise en place d’un socle de Master Data Management (MDM) . L’objectif du projet est de centraliser, fiabiliser et gouverner les données liées aux instruments financiers , dans un environnement exigeant en matière de qualité, traçabilité et sécurité. Missions : Intégré(e) à une équipe pluridisciplinaire (Data Engineers, Architecte, BA, PO), vous interviendrez sur : La conception et le développement de pipelines de données (modèle Bronze / Silver / Gold) L’ingestion et l’orchestration des flux via Apache NiFi L’intégration de données multi-sources (CSV, XML, API REST) La modélisation des données et la construction de vues consolidées MDM La mise en place de contrôles de qualité et de traçabilité (logs, audit, complétude, cohérence, versioning) L’optimisation des performances des pipelines Le respect des standards de sécurité et conformité La documentation et le partage de bonnes pratiques au sein de la squad Environnement technique Apache NiFi SQL / NoSQL PostgreSQL Stockage objet : S3 / Blob Formats & protocoles : JSON, XML, CSV, API REST Scripting : Python , Bash CI/CD : GitLab, GitLab CI
Freelance

Mission freelance
Architecte technique Dataiku Braincube

MLMCONSEIL
Publiée le
Dataiku

6 mois
100-600 €
Île-de-France, France
Je cherche pour mon client un architecte technique Dataiku et Braincube Tâches : Maintien des standards, suivi des usages, conformité licences Gestion des incidents, demandes, changements Pilotage performance, optimisation, définition de SLAs & KPIs Construction et suivi de la roadmap technologique Amélioration continue & gestion du plan de charge Compétences Demandées Compétences attendues : Expertise AWS (S3, EKS, EC2…) Maîtrise Dataiku et connaissance des outils data & ML Ops Compréhension architecture SI & data, gouvernance, sécurité (RBAC, chiffrement, RGPD) Aptitude à collaborer avec les équipes France / Inde Excellente capacité de documentation et de vulgarisation Capacité à construire un business model de service Minimum 8 ans d’expérience
Freelance

Mission freelance
Expert Devops Gitlab-CI

PROPULSE IT
Publiée le
DevOps
GitLab CI

24 mois
375-750 €
Paris, France
Propulse iT recherche un Expert Devops Gitlab-CI - Réaliser et modifier différents rôles et Playbooks Ansible - Réaliser et modifier différents modules Terraform - Réaliser et modifier différents jobs et pipelines Gitlab-CI - Assurer le support N3 de la chaine CI/CD Les compétences techniques attendues sont les suivantes : - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise des technologies et méthodologies basées sur le principe du gitops - Maitrise des technologies et méthodologies basées sur le principe d'infra as Code - Maitrise d'ansible / terraform - Maitrise de la programmation en python - Maitrise de l'outil Hashicorp Vault - Maitrise des technologies API REST - Connaissance des technologies : o Vmware Vsphere o Nutanix o Baremétal o Kubernetes o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings
Freelance
CDI

Offre d'emploi
Lead Developer Java - Spring Boot & AWS

KLETA
Publiée le
AWS Cloud
Java
Springboot

3 ans
Paris, France
Nous recherchons un Lead Developer Java pour piloter techniquement des équipes de développement travaillant sur des applications cloud natives hébergées sur AWS. Vous serez responsable de la conception des architectures logicielles, de la définition des standards de développement et de la garantie de la qualité technique des livrables. Vous interviendrez sur des environnements basés sur Spring Boot, microservices et APIs REST, en intégrant les services AWS (ECS/EKS, Lambda, RDS, S3, SQS/SNS, EventBridge). Vous accompagnerez les équipes DevOps et SRE pour assurer une intégration fluide dans les pipelines CI/CD, une observabilité avancée et une exploitation fiable en production. Vous animerez des revues de code, challengez les choix techniques et structurerez les bonnes pratiques (DDD, Clean Architecture, tests automatisés, résilience, performance). En tant que référent technique, vous serez également impliqué dans la gestion des incidents majeurs, l’amélioration continue des applications et la montée en compétence des développeurs plus juniors. Votre rôle combinera leadership technique, vision stratégique et excellence opérationnelle.
CDI

Offre d'emploi
Ingénieur Systèmes Linux / Migration Datacenter (H/F)

SYAGE
Publiée le
Linux

France
## Poste ### 1\. Migration & gestion de projet technique * Piloter et exécuter la migration des datacenters dans le cadre de l’intégration de la filiale. * Analyser les environnements existants, dépendances applicatives et contraintes techniques. * Définir les stratégies de migration (phases, risques, rollback, validation). * Assurer le suivi d’avancement, le reporting et la communication avec les parties prenantes. * Garantir la stabilité des environnements en production pendant les phases critiques. ### 2\. Systèmes & infrastructures Linux * Administrer et maintenir des environnements Linux (Ubuntu, CentOS). * Gérer des serveurs physiques et virtualisés (VMware). * Assurer la fiabilité et l’optimisation des plateformes systèmes de production. * Contribuer aux évolutions d’architecture avec une vision d’ingénieur orientée archi. 3\. Containerisation, CI/CD & automatisation * Intervenir sur des environnements Docker et Kubernetes (optionnel). * Utiliser et intégrer les pipelines GitLab CI/CD dans les processus de déploiement. * Participer à l’industrialisation des déploiements et des migrations. ### 4\. Données, stockage et plateformes * Accompagner la migration des bases de données MariaDB et Manticore Search. * Gérer les environnements de stockage centralisé NAS / SAN / S3. * Garantir l’intégrité, la disponibilité et la performance des données. ### 5\. Réseaux, sécurité et conformité * Intervenir sur les architectures réseau (VPN, firewalling). * Participer à la sécurisation des flux inter-datacenters. Respecter les exigences de sécurité dans un environnement ISO 27001.
Freelance

Mission freelance
EXPERT SERVEUR X86 & RESEAU N2

CyberTee
Publiée le
Administration réseaux

1 an
400-550 €
Paris, France
Mission – Expert Serveurs x86 & Réseaux Niveau 2 Configurer, maintenir et sécuriser les infrastructures serveurs x86 et réseaux niveau 2 Assurer le support technique de niveau 3 sur équipements physiques Participer aux évolutions et rationalisation des plateformes Cloud existantes Configuration automatisée des réseaux et systèmes sur équipements physiques Maintien en condition opérationnelle et sécurisée des infrastructures Installation de nouveaux environnements techniques Décommissionnement d’anciennes plateformes Cloud Interventions ponctuelles en datacenter Environnement technique : Serveurs x86, HPE OneView, HPE Synergy, switchs HPE, Linux (Debian, RHEL), Ansible, GitLab, stockage objet/bloc (S3, Swift, Dell ECS, IBM FlashSystem), Load Balancer Kemp Profil recherché Expertise sur infrastructures serveurs x86 et réseaux niveau 2 Solide expérience en datacenter et environnement Cloud privé Autonomie sur MCO et support niveau 3 Rigueur, sens du service et respect des procédures Capacité à intervenir sur infrastructures critiques Acceptation du présentiel au démarrage et déplacements ponctuels en datacenter Maîtrise des outils et technologies : Linux, Ansible, GitLab, HPE Synergy/OneView, stockage S3/Swift/Dell ECS/IBM FlashSystem, Load Balancer Kemp
CDI
Freelance

Offre d'emploi
Ingénieur DevOps

AIS
Publiée le
DevOps

1 mois
45k-48k €
240-480 €
Ciran
🎯 MISSIONS : Intégré(e) aux équipes d'un de nos clients grands comptes vos missions seront les suivantes : - Conseiller les parties-prenantes dans l'usage des socles technologiques - Être force de proposition pour améliorer et optimiser les infrastructures en place, en prenant en compte les orientations stratégiques données par la Direction - Assurer le maintien en condition opérationnelle des solutions, ainsi que la veille technologique - Avoir une capacité d'analyse sur de nouveaux sujets - Mettre en place l'observabilité sur les solutions du périmètre - Assurer le support niveau 3 sur les socles technologiques orientés sécurité - Contribuer à la réussite des projets d'Infrastructure sur votre périmètre d'intervention - Participer aux rituels agile Connaissances Technique : - Infrastructure as Code : Terraform / Open Tofu - Une ou plusieurs technologies collaboratif autour de l'écosystème terraform (TACOS) ex : OTF ou projet similaire - Ci/Cd : Githut Action - Gestion de sources : Github - Ansible, AWX, shell - Déploiement de conteneurs sur du kubernetes (Docker) Une connaissance des éléments suivants est un plus : - Gestion des secrets (Open Bao, Vault) - Stockage S3 / PostgreSQL - Pratiques d'intégration des solutions dans une volonté d'avoir un socle technologique bout en bout (Moteur d'execution IAC, Secrets ...)
Freelance
CDI

Offre d'emploi
Senior Software Engineer Java – Spring Boot & AWS

KLETA
Publiée le
AWS Cloud
Java
Springboot

3 ans
Paris, France
Nous recherchons un Senior Software Engineer Java pour concevoir, développer et faire évoluer des applications cloud natives sur AWS dans un environnement industriel et à forte exigence de qualité. Vous interviendrez sur des architectures modernes basées sur Spring Boot, microservices et API REST, en intégrant nativement les services AWS (ECS/EKS, Lambda, S3, RDS, SQS/SNS, EventBridge). Vous serez responsable de la qualité du code, de la performance et de la maintenabilité des applications, en appliquant des bonnes pratiques de conception (DDD, Clean Architecture, tests automatisés, observabilité applicative). Vous travaillerez en étroite collaboration avec les équipes DevOps et SRE pour intégrer les applications dans des pipelines CI/CD, garantir une exploitation fiable et optimiser la résilience en production. Vous participerez aux choix d’architecture, aux revues de code et à l’amélioration continue des pratiques de développement. Vous serez également amené à analyser des incidents, proposer des améliorations techniques et accompagner des développeurs plus juniors dans leur montée en compétence
77 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous