Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3
Offre d'emploi
Développeur Python Data Confirmé
Notre client recherche un profil python Data pour la modernisation de son socle data. Ce projet vise à construire une plateforme interne de valorisation des données pour répondre aux enjeux de performance et d'accessibilité. En tant que Développeur Python Data, vous contribuerez à la refonte des services, à l'amélioration de l'accès aux données et à l'historisation des informations, tout en assurant la continuité des services existants. Vos Missions Participer à la conception et au développement de solutions d' injection et d' exposition de données. Intervenir sur l'ensemble du cycle de vie des données (traitement, stockage, exposition) au sein d'un écosystème Big Data. Assurer le support et la maintenance des produits en production, et proposer des solutions proactives pour la résolution des problèmes de code. Collaborer au sein d'une équipe agile à l'échelle (méthodologie SAFE & Scrum) , en partageant la responsabilité du produit et en appliquant les principes de l'agilité au quotidien. Contribuer à la gestion de version avec Git et à l'intégration continue avec Jenkins . Travailler avec les équipes pour améliorer constamment la qualité et l'efficacité des solutions.

Mission freelance
Devops VITROLLES Kafka connect - Avancé, AWS - Expert, AWS S3 - Avancé, Gitlab CI/CD - Expert
Devops VITROLLES Kafka connect - Avancé, AWS - Expert, AWS S3 - Avancé, Gitlab CI/CD - Expert, Certificat SSL - Avancé, Helm Charts - Avancé, Programmation Python - Avancé Objectifs et livrables L’expertise technique Devops cloud public/privé sur le Datalake (plateforme Big Data) consistera à : • Designer des modèles de CI et CD stratégiques pour permettre des déploiements sur tous les environnements (dev, int, preprod et prod) • Développer les pipelines gitlab de CI et CD pour assurer le build, déploiement et configuration des composants du datalake sur le cloud public AWS et du datalake sur cloud privé • Documenter les modes opératoires associées à ces pipelines • Accompagner et assurer un support niveau 2 aux ROA lors des déploiements sur les différents environnements • Contribuer à l’amélioration continue des outils de déploiement • Communication auprès des utilisateurs finaux Compétences demandées Kafka connect - Avancé AWS - Expert AWS S3 - Avancé Gitlab CI/CD - Expert Certificat SSL - Avancé Helm Charts - Avancé Programmation Python - Avancé

Mission freelance
Data Engineer AWS Sénior
Notre client recherche un Data Engineer senior pour concevoir et maintenir des pipelines de réplication et de traitement de données dans un environnement cloud AWS à grande échelle. Ce poste s’inscrit dans un programme de transformation data visant à développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’exploitation des données. L’environnement technique intègre : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : moteur de recommandation, chatbot IA, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Concevoir, développer et maintenir des pipelines ETL/ELT pour la réplication et le traitement de données issues de sources hétérogènes. Connecter et intégrer les données depuis différentes bases (Exadata, Oracle, etc.) vers AWS. Mettre en œuvre des traitements de nettoyage, mapping, déduplication et enrichissement des données. Collaborer avec les architectes pour appliquer les modèles cibles et les bonnes pratiques de gouvernance data. Automatiser les pipelines via GitLab CI/CD. Concevoir et déployer l’infrastructure avec Terraform, Ansible et Python (IaC). Assurer le monitoring, la qualité et la performance des flux de données. Contribuer aux initiatives FinOps pour optimiser les coûts cloud. Documenter les processus et alimenter les référentiels techniques.

Mission freelance
AWS Data Engineer
Développer et maintenir des pipelines de données évolutifs à l’aide de Python, Spark et des services AWS. Effectuer des calculs sur des données chronologiques et événementielles issues de parcs solaires et de systèmes de stockage d'énergie. Concevoir et mettre en œuvre une infrastructure sous forme de code (IaC) avec Terraform pour gérer les ressources cloud. Collaborer avec les responsables des parcs solaires et de stockage afin de comprendre les besoins en données et de fournir des informations pertinentes. Développer des API ou des interfaces de données pour exposer les données traitées à des fins d'analyse et de visualisation. Garantir la qualité, la fiabilité et la performance des données à toutes les étapes du pipeline. Documenter les processus et contribuer aux meilleures pratiques en ingénierie des données et en analyse des énergies renouvelables.

Mission freelance
Data Architecte AWS
Notre client recherche un Architecte Data pour concevoir et superviser la convergence des données issues de sources hétérogènes au sein d’une plateforme cloud AWS à grande échelle. L’objectif est de définir l’architecture cible, modéliser le schéma global, et assurer la cohérence technique et la performance de la plateforme. L’environnement technique inclut : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Définir l’ architecture cible du data layer convergé dans un environnement AWS. Modéliser les données (conceptuel, logique, physique) sur Snowflake et autres bases cibles. Sélectionner les outils et normes d’intégration adaptés aux besoins. Participer au développement et à l’automatisation des pipelines et transformations de données. Superviser la convergence des données multi-source et garantir leur cohérence. Contribuer aux déploiements via Terraform et GitLab CI/CD. Documenter l’architecture et les référentiels techniques. Appliquer les bonnes pratiques de gouvernance, qualité et sécurité des données.

Mission freelance
DataOps Platform Engineer
Notre client recherche un DataOps expérimenté pour concevoir, déployer et maintenir l’infrastructure data sur AWS, automatiser les déploiements et garantir la performance, la sécurité et l’optimisation des flux de données. Ce rôle s’inscrit dans un programme stratégique de transformation data visant à déployer des architectures avancées pour supporter des cas d’usage variés tels que l’IA, la personnalisation de contenus et le partage de données partenaires. Environnement technique : Cloud & Infrastructure : AWS (S3, Kinesis, DMS, ECS, Lambda, IAM, VPC, CloudWatch), Linux, Docker, shell scripting Outils & Orchestration : Terraform, GitLab CI/CD, Datadog, PagerDuty Big Data & Analytics : Snowflake, Spark, Dataiku, Python, Power BI Volumes traités : ingestion de +100 To/jour, architectures event-driven et streaming Missions Déployer et maintenir l’infrastructure data sur AWS via Terraform . Mettre en place et optimiser les pipelines GitLab CI/CD . Gérer la sécurité, le monitoring, la journalisation et l’alerting des composants cloud. Assurer le suivi de la consommation et de la performance des ressources AWS. Produire et maintenir la documentation technique et les référentiels. Mettre en place des pratiques FinOps pour optimiser les coûts cloud. Contribuer à la convergence des données et au bon fonctionnement des plateformes data.

Mission freelance
Ingénieur Cloud AWS
Notre client, acteur majeur de la protection sociale complémentaire en France, poursuit sa transformation numérique et modernise son infrastructure IT. Dans ce cadre, le service Infrastructure et Production (8 personnes) recherche un Ingénieur Cloud AWS pour renforcer l’équipe et accompagner l’expansion des services cloud. L’environnement de travail combine un socle on-premise solide (VMware, serveurs, réseau) avec une infrastructure AWS en pleine montée en puissance. Le poste est basé à Montreuil, au sein d’une DSI à taille humaine, où l’autonomie, la rigueur et la collaboration sont valorisées.
Offre d'emploi
Expert Data Management AWS
Expert Data Management AWS Nous recherchons un(e) expert(e) Data Management pour une mission stratégique dans le secteur bancaire. Vous interviendrez sur des données critiques , provenant à la fois de la Banque et de fournisseurs externes (ex. Standard & Poor). 🎯 Votre mission : • Définir l’architecture de la data plateforme & du data lakehouse • Développer des solutions de data management (Python, AWS, etc.) • Intégrer les services AWS (Glue, S3, LakeFormation…) • Contribuer à la mise en place d’un Data Lab • Implémenter des pipelines CI/CD (GitHub Actions, Terraform) • Étudier les besoins métiers et les traduire en solutions techniques • Garantir la maintenabilité, la sécurité, et la mise en production • Participer au support en cas d’incidents majeurs 🧠 Compétences clés : • Data Management avancé • AWS (Glue, S3, Lambda, etc.) • GitHub + Copilot • CI/CD • Connaissance des environnements bancaires (un plus) 📍 Lieu : Paris + Télétravail partiel 📅 Démarrage : ASAP

Mission freelance
Data Engineer Scala/Spark – AWS Cloud
Nous recherchons un Data Engainer Scala/Spark pour rejoindre une équipe Data/IT Agile au sein d’un grand compte du secteur financier . L’application sur laquelle vous interviendrez est une solution batch critique permettant le traitement de Data à travers des calculs d’indicateurs et la restitution via un front React et des APIs REST. La solution est cloud native , déployée sur : AWS pour les imports et l’ETL (S3, Glue, Athéna, Lambda) ; Azure pour les calculs complexes et le stockage SQL Server. Au sein de l’équipe projet, vous interviendrez sur : La prise en main de l’application existante (Scala/Spark, C#) L’ implémentation de nouvelles User Stories , issues de la Roadmap métier La conception technique de solutions évolutives sur le Cloud L’ implémentation des évolutions fonctionnelles et techniques La mise en production , le suivi post-release La rédaction des spécifications et documentation technique La rédaction et exécution de tests unitaires et d’intégration Le monitoring de la production (via Splunk) Le support utilisateurs et l’ amélioration continue
Mission freelance
DATA Engineer - AWS(H/F)
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.

Mission freelance
Tech Lead PHP / Symfony
CONTEXTE Experience: 7 ans et plus Métiers Fonctions : Etudes & Développement, developpement Spécialités technologiques Applications Web Authentification API CRM ERP MISSIONS La mission de tech lead sur le chantier de création d’un référentiel client alimenté par le CRM Freshsales, et doit être consommé par les différentes applications du SI (espace client, ERP, applications internes, etc.). Le système doit permettre des échanges bidirectionnels entre le CRM et le référentiel, garantir la cohérence des données et produire des exports vers d’autres systèmes (notamment via S3 pour l’ERP). À chaque modification effectuée dans le CRM Freshsales, un appel API (via API Gateway, Lambdas, SQS) est déclenché pour alimenter ou mettre à jour le référentiel client. Inversement, certaines données du CRM doivent être mises à jour à partir du référentiel, selon des règles de gestion définies. Travaux réalisés : - Refonte du modèle de données du référentiel client. - Reconstruction complète du référentiel initial (Java) en PHP/Symfony, avec mise en œuvre d’API Platform. - Déploiement du référentiel client dans un environnement AWS ECS. - Mise en place de la communication bidirectionnelle entre le référentiel et le CRM Freshsales via des Lambdas Python (authentification Cognito, SQS, SNS, API Gateway). - Génération automatisée de fichiers CSV à partir du référentiel, avec dépôt sur S3 pour consommation par l’ERP. MISSIONS Travaux en cours : - Proposition et documentation des endpoints du référentiel client pour permettre la récupération des données par les applicatifs client - Initialisation et alimentation des données du référentiel. - Génération et mise à disposition de nouveaux fichiers CSV sur S3. - Participation à des sujets transverses (actuellement en phase de cadrage). Collaboration avec une référente métier pour le recueil et la formalisation des besoins. Validation des choix techniques et architecturaux avec les équipes Ops et Architectes. Mission effectuée en autonomie complète sur la partie développement PHP/Symfony : Mise en place proactive de bonnes pratiques (linter, formatter, organisation du code). Pas de processus systématique de code review sur la partie PHP. Les orientations architecture et déploiement sont définies et validées en collaboration avec les Ops et Architectes. Expertise souhaitée Expertise technique : - PHP /Symfony - AWS - Java

Offre d'emploi
Data Engineer | AWS | Databricks
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum

Mission freelance
Data Engineer AWS - La Défense
Un grand groupe international lance plusieurs projets stratégiques autour de la valorisation de la donnée (dashboards internes/clients, vision 360, data products). 🚀 Mission En tant que Data Engineer AWS , vous interviendrez sur : Conception & développement de data pipelines (Python, Glue, Spark) Modélisation et stockage (S3, Iceberg, Redshift) Mise en place de composants réutilisables Accompagnement des équipes locales (co-construction, support technique) Qualité, sécurité (IAM, Lake Formation) et mise en production

Mission freelance
POT8595-Un Développeur Java Springboot sur Grenoble
Almatek recherche pour l'un de ses clients, un Développeur Angular / Springboot sur Grenoble. Contexte : Nous souhaitons renforcer notre équipe de développement avec un développeur fortement autonome et à l'aise sur l'environnement technique déployé : • Front: Angular • Back: micro services SpringBoot • Cloud AWS, service managés AWS (Lambda, Bucket S3, SQS, RDS, etc.) •DevOps Equipe constituée d'environ 7 développeurs et 3 profils fonctionnels / tests. Tâches : Encadrement des développeurs Réalisation de la conception technique Participation aux développements complexes Participation aux exercices de chiffrage Mise en place et suivi des bonnes pratiques de développement Participation et animation au comité technique Contribution aux chantiers de la direction technique Attendus de la mission : Vrais sens du leadership et capable de faire progresser l'équipe via la diffusion de bonnes pratiques. Expertise attendue : Séniorité : > 4 ans sur Angular & SpringBoot

Offre d'emploi
Expert·e/ Architecte Backup
Pour le compte de l'un de nos clients grands comptes, vous serez rattaché·e à la direction de BSCI : Vos missions principales seront : - Support & Gestion des backups - Support & Gestion du SAN - Administration / supervision / optimisation / reporting - Validation des paliers techniques et des processus opérationnels - Relation et communication avec les métiers, élaboration et propositions d'architectures - Audit et conseils - Gestion des projets Vos environnements technique seront : - Tous les environnements de sauvegarde recherchés : CommVault, TSM (Spectrum Protect), Netbackup, Networker, Veeam, Rubrik... - DatdaDomain, VTL, Stockage S3 - OS : AIX, Linux, Solaris, Windows - Virtualisation Système : VMWare, Nutanix, HyperV
Mission freelance
Senior Python Backend Engineer / FULL REMOTE
Description du poste – Senior Python Backend Engineer (Freelance)Contexte Nous accompagnons un grand groupe international dans le cadre d’un projet de transformation digitale. Dans ce contexte, nous recherchons un Senior Python Backend Engineer pour une mission freelance longue durée. Le consultant rejoindra une équipe internationale et contribuera au développement d’une plateforme innovante orientée data, intégrant des technologies cloud et intelligence artificielle. Missions principales Développer et maintenir des services backend en Python (API, microservices). Concevoir et optimiser des architectures event-driven et serverless sur cloud public. Automatiser les déploiements via IaC (Terraform). Participer aux décisions techniques et aux choix d’architecture. Implémenter des tests et rédiger la documentation associée. Collaborer avec une équipe distribuée en mode agile. Stack technique Python (FastAPI, Flask) Cloud serverless : Lambda, Step Functions, DynamoDB, S3, SQS, EventBridge Terraform / CodePipeline Bases de données : MongoDB, Postgres Bonus : ETL, Batch, Geospatial Conditions de mission Contrat : Freelance Localisation : Remote, avec quelques déplacements ponctuels en Europe (2-3 fois par an) Démarrage : Dès que possible Durée : Mission longue Candidature par mail : Et/ou Linkedin : Sofiane O.C
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.