Trouvez votre prochaine offre d’emploi ou de mission freelance Web service
Votre recherche renvoie 500 résultats.
Mission freelance
Senior IT Security officer / Cloud
NEXORIS
Publiée le
AWS Cloud
Cybersécurité
DORA
1 an
600-750 €
Paris, France
Notre client, secteur des marchés financiers, recherche un IT Security Officer (H/F) dans le d'une longue mission. Renforcement de la posture de cybersécurité opérationnelle (analyse de risque, protection des accès, tests de sécurité) et accompagnement à la migration vers le cloud en conformité avec les exigences réglementaires. - Réaliser des analyses de risques cyber sur les projets IT et métiers (CIAT) - Participer à la mise en œuvre des mesures de sécurité opérationnelle (pentest, IAM, PAM, secret management, KMS...) - Suivre et coordonner les projets de migration vers le cloud (AWS et OVH), en lien étroit avec l’architecte sécurité -Intégrer les exigences réglementaires (LPM, DORA, NIST) dans les processus et projets - Produire la documentation sécurité attendue (politiques, procédures, rapports de risques) - Collaborer avec la deuxième ligne de défense pour assurer une gouvernance conforme aux standards en vigueur - Challenger les pratiques existantes et sensibiliser les parties prenantes aux enjeux de cybersécurité
Mission freelance
Consultant Python (Software Engineer Applied) PostgreSQL - AWS - Airflow
Celexio
Publiée le
AWS Cloud
Bash
CI/CD
6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production , y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Offre d'emploi
Développeur Full-Stack JAVA AWS (FH)
ASTRELYA
Publiée le
Angular
Apache Kafka
Apache Spark
Paris, France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Ilest composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : En tant que Développeur(se) Fullstack Java AWS, vous interviendrez sur des projets innovants, au cœur des enjeux de transformation de nos clients. Vous participerez à la conception, au développement et à l’industrialisation de solutions modernes, robustes et évolutives. Concrètement vous allez : Concevoir et développer des applications Java / Spring Boot performantes. Contribuer au développement front (Angular, React ou Vue.js selon les projets). Participer à la définition des architectures techniques. Travailler en méthodologie agile au sein d’équipes pluridisciplinaires. Collaborer avec nos experts DevOps, Cloud et Data pour industrialiser et optimiser les solutions. Contribuer à l’amélioration de la qualité du code (tests automatisés, revues, bonnes pratiques). Développer en respectant les bonnes pratiques de production logicielle et de CraftsManship. Votre futur environnement technique : Back-end : Java 21, Spring Boot, API REST, microservices Front-end : Angular / React / Vue.js DevOps : CI/CD (GitLab, Jenkins, Azure DevOps…), Docker, Kubernetes Cloud : Azure, AWS ou GCP Modélisation de données : Kafka Qualité : tests unitaires, tests d’intégration, Sonar, automatisation
Offre d'emploi
OPS / DevOps Sénior (H/F)
WINSIDE Technology
Publiée le
Ansible
AWS Cloud
Datadog
1 an
50k-59k €
450-550 €
Lille, Hauts-de-France
Contexte de la mission : Dans le cadre d’une forte augmentation d’activité et de la mise en place d’une nouvelle infrastructure complète destinée à accueillir un projet stratégique, nous recherchons un OPS / DevOps sénior (H/F) pour renforcer une équipe en charge de l’exploitation d’un périmètre fonctionnel critique. La mission s’inscrit dans un environnement cloud, industrialisé et agile , avec un fort enjeu de qualité, de performance et de sécurité. 📍 Localisation : Lille (59800) 📅 Durée : 1 an renouvelable 🏠 Télétravail : 3 jours/semaine Description du poste : En tant qu’OPS / DevOps sénior, vous intervenez sur l’ensemble du cycle d’exploitation et d’industrialisation des applications et infrastructures. À ce titre, vous : Installez, mettez en production, administrez et exploitez les moyens informatiques Garantissez le bon fonctionnement du système d’information en assurant le maintien en conditions opérationnelles et l’évolution des infrastructures et outils Diffusez et développez une culture DevOps au sein de l’équipe Accompagnez les équipes de développement dans l’intégration et le déploiement des solutions dans un système complexe Favorisez l’autonomie de l’équipe et l’automatisation des processus Travaillez dans une démarche agile et d’amélioration continue Missions et livrables : Vous serez notamment en charge de : Concevoir et construire l’infrastructure Cloud AWS Architecture ROSA (Red Hat OpenShift Service on AWS) Oracle, S3, ordonnanceur Mettre en place la chaîne CI/CD complète GitLab CI, Ansible, Terraform Réaliser les tests de résilience de l’application Documenter l’architecture et transférer les compétences pour le RUN Identifier et mettre en place les métriques de supervision et d’observabilité Assurer le RUN de l’application : Mise en production Supervision Debug Gestion des incidents Accompagner les équipes de support dans l’analyse et la résolution des incidents Concevoir et développer les outils DevOps adaptés au produit Être référent sur : L’infrastructure Les plateformes applicatives L’usine logicielle L’industrialisation des déploiements Soft skills : Communication claire, structurée et pédagogique Fort esprit d’analyse et de résolution de problèmes Force de proposition Expérience confirmée en production et en gestion d’applications critiques Capacité à travailler en équipe et à accompagner la montée en compétences
Mission freelance
Senior Data Engineer AWS
Celexio
Publiée le
PySpark
Python
Terraform
3 mois
400-550 €
Paris, France
Nous recherchons un Lead Data Engineer chevronné pour rejoindre un acteur majeur de la Tech Parisienne. Au sein d'une équipe dynamique, votre mission sera de piloter l'acquisition de données à grande échelle et d'orchestrer une migration technologique stratégique. Votre Mission En tant que garant technique de l'acquisition de données, vous intervenez sur l'ensemble de la chaîne de valeur, du cleaning à l'enrichissement. Vos responsabilités principales incluent : Architecture & Design : Concevoir et refondre des pipelines de données robustes dans le cadre d'une migration majeure de GCP vers AWS. Ingestion Massive : Gérer l'ingestion de types de données variés (Listing, etc.) et assurer leur qualité. Optimisation : Assurer le nettoyage et l'enrichissement des données pour les rendre exploitables par les équipes consommatrices. Snowflake : Exposer les données de manière optimale. Compétences Techniques Requises Cloud : Maîtrise avancée de l'écosystème AWS (tous services) et idéalement une expérience de migration depuis GCP. Data Processing : Expertise sur Spark / PySpark pour le traitement de données volumineuses. Infrastructure : Solides compétences en Terraform (IaC). Langages : Maîtrise de Python. Data : Connaissance de Snowflake pour la partie consommation.
Offre d'emploi
Administrateur DevOps Cloud AWS
CONCRETIO SERVICES
Publiée le
AWS Cloud
DevOps
Jenkins
50k-60k €
Marseille, Provence-Alpes-Côte d'Azur
Contexte & Environnement Vous rejoignez une équipe de 5 personnes dans un contexte fortement international impliquant de nombreuses collaborations avec des équipes offshore. Ce poste requiert d'excellentes qualités relationnelles et une capacité à communiquer efficacement en français et en anglais, tant à l'écrit qu'à l'oral. Missions Principales – Administrer et maintenir l'infrastructure Cloud AWS (EC2, ECS, S3, IAM, VPC, RDS…) – Concevoir, déployer et optimiser les pipelines CI/CD avec Jenkins – Diagnostiquer et résoudre les incidents liés aux chaînes de livraison continue – Automatiser les déploiements et la configuration des environnements via Ansible – Superviser les conteneurs applicatifs orchestrés sur Amazon ECS – Collaborer étroitement avec les équipes de développement onshore et offshore – Rédiger la documentation technique et les runbooks en français et en anglais – Participer activement aux rituels Agile et aux réunions de pilotage internationales
Offre d'emploi
Développeur Full Stack PHP LARAVEL / Vue.js
Amontech
Publiée le
AWS Cloud
Laravel
PHP
40k-50k €
Île-de-France, France
🚀 Contexte Vous rejoindrez un projet dans le secteur industriel, pour intervenir sur un Espace Client à fort trafic (60 000 utilisateurs actifs) , plateforme critique au cœur de la relation client. Objectif : garantir performance, scalabilité et innovation , tout en assurant le maintien en condition opérationnelle. 🛠 Missions 🔹Développement et maintenance : Backend : API REST PHP Laravel avec sécurité nécessaire (authentification OAuth, SSO, OpenID..) et services en NodeJS Frontend : Vue.js Maintien en condition opérationnelle de l'Espace Client 🔹Assurance qualité : Application des bonnes pratiques de développement Respect des normes de sécurité (OWASP) et de confidentialité (RGPD) Garantie de la maintenabilité à long terme 🔹Optimisation : Adaptation et configuration du CI/CD Modélisation et optimisation de la base de données MySQL Amélioration continue des performances pour une expérience client optimale
Mission freelance
Cloud Automation & Data Engineering
ROCKET TALENTS
Publiée le
AWS Cloud
CI/CD
Data governance
1 an
360-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Cloud Automation & Data Engineering Contexte général Pour le compte d’un grand groupe industriel international nous recherchons un profil Cloud Automation & Data Engineer afin d’intervenir sur des environnements cloud AWS à forte composante automatisation, DevSecOps et data platforms . La mission s’inscrit dans un contexte de modernisation des plateformes cloud et data , avec des exigences élevées en matière de sécurité, gouvernance et industrialisation . Objectifs de la mission Automatiser et fiabiliser les infrastructures cloud et les services data Industrialiser les déploiements applicatifs et data via des pratiques DevSecOps Concevoir et maintenir des plateformes cloud et data scalables, sécurisées et conformes Accompagner les équipes projets sur les bonnes pratiques cloud & data engineering Responsabilités principales 1. Automatisation des infrastructures cloud Conception et mise en œuvre d’infrastructures cloud as code (Terraform) Automatisation du provisioning et du cycle de vie des ressources cloud AWS Optimisation des environnements cloud (scalabilité, disponibilité, performance) Automatisation des services data AWS (S3, Glue, Kinesis, etc.) Industrialisation et supervision des pipelines data 2. DevSecOps & CI/CD Mise en place et amélioration de pipelines CI/CD Intégration des contrôles de sécurité dans les chaînes de déploiement Automatisation des tests, validations de données, contrôles de qualité et schémas Utilisation d’outils type GitLab, GitHub, Jenkins 3. Platform Engineering & Data Platforms Conception de plateformes applicatives cloud (microservices, serverless, conteneurs) Contribution à des frameworks et outils internes de platform engineering Conception et maintien de composants data : data lake, ingestion, événements Mise en œuvre d’architectures orientées événements et données (Lambda, Kinesis, etc.) 4. Sécurité & conformité cloud/data Implémentation des mécanismes de sécurité (IAM, KMS, chiffrement, contrôle d’accès) Application des politiques de gouvernance et conformité cloud Gestion de la gouvernance data : catalogage, classification, traçabilité, accès Mise en place de politiques de rétention, audit et monitoring des données sensibles 5. Collaboration & expertise Travail en étroite collaboration avec des équipes pluridisciplinaires (DevOps, architectes, sécurité, data) Partage de bonnes pratiques et accompagnement technique Veille technologique et recommandations sur les évolutions cloud & data Formation et mentoring sur les services data AWS et les modèles d’automatisation Compétences attendues Techniques Expertise AWS (infrastructure et services data) Infrastructure as Code : Terraform DevSecOps & CI/CD Conteneurisation et orchestration (Docker, Kubernetes) Architectures serverless et microservices Scripting et développement : Python, Bash, SQL Data engineering : ETL/ELT, data modeling, data lifecycle Gouvernance et qualité de la donnée Connaissance de Snowflake appréciée Transverses Bonne capacité d’analyse et de résolution de problèmes Autonomie et sens de l’industrialisation Bon relationnel et capacité à travailler en environnement complexe Approche pragmatique entre contraintes opérationnelles et ambitions techniques
Mission freelance
DBA ORACLE Sénior
INFOTEL CONSEIL
Publiée le
AWS Cloud
Oracle Database
RMAN
3 mois
600-750 €
France
- INGÉNIERIE : Travailler au sein d'une équipe mondiale d'administrateurs de bases de données (DBA) - Migration vers le cloud - Automatisation - Réplication - Auto-réparation - Consolidation des métriques et des tableaux de bord - Transition vers le cloud public - Assurer la maintenance des serveurs de bases de données Oracle et SQL dans la région EMEA (incidents, changements, migration, plan de reprise après sinistre), dépanner et fournir une assistance - Des permanences seront requises - Au moins 5 ans d'expérience en administration Oracle. Souhaitable : SQL Server, MongoDB, PostgreSQL ou Hadoop - Expertise AWS - Clusters ORACLE RAC - Sauvegarde / clonage / migration : DATAPUMP, RMAN - RPO : Data Guard - Outils de réplication (GoldenGate, Data Guard) - Linux : Red Hat - Surveillance : OEM/Sitescope/Prometheus/Dynatrace - Compétences en automatisation : connaissances en développement/scripting (Python, Java, PowerShell, Terraform) - Connaissance des technologies CI/CD (Ansible, AWS, etc.)
Mission freelance
Consultant DevOps / Cloud – Infra as Code & GenAI (Terraform)
Comet
Publiée le
AWS Cloud
Azure
1 an
400-800 €
Île-de-France, France
Dans le cadre d’un programme stratégique au sein d’un grand groupe international du secteur de l’énergie, nous recherchons un Consultant DevOps expérimenté spécialisé en Infrastructure as Code (Terraform) et en environnements cloud Azure & AWS , avec une forte appétence pour les sujets GenAI et automatisation avancée . Contexte de la mission Vous interviendrez au sein d’une équipe en charge de la définition, industrialisation et maintien des standards d’Infrastructure as Code dans un environnement cloud multi-provider (Azure & AWS). L’objectif est d’ accélérer la production et la maintenance des infrastructures en s’appuyant sur des approches innovantes, notamment via des agents intelligents de génération de code . Missions principales Maintenir et faire évoluer les standards IaC (Terraform) à l’échelle groupe Assurer le support niveau 3 sur les problématiques d’infrastructure Gérer les incidents et problématiques liés aux déploiements, migrations et opérations cloud Concevoir et développer des building blocks réutilisables Garantir les bonnes pratiques DevOps et IaC Développer des agents spécialisés (type GenAI / code assistants) pour automatiser les usages Contribuer à la mise en place d’outils de suivi de performance et KPI (usage GitHub, adoption des composants) Participer à l’optimisation des workflows DevOps et à l’industrialisation globale Environnement technique Cloud : Azure & AWS IaC : Terraform (expertise attendue) CI/CD & versionning : GitHub AI / Dev tooling : GitHub Copilot, Claude, agents IA Approche : DevOps, automatisation, platform engineering
Offre d'emploi
DevOps – Kubernetes / AWS - Lyon
Talents Finance
Publiée le
AWS Cloud
DevOps
Kubernetes
40k-45k €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste : Dans un contexte de croissance et d’évolution de notre plateforme technologique, nous renforçons notre équipe infrastructure afin d’accompagner l’industrialisation de nos déploiements et la montée en maturité de nos pratiques DevOps. Nos solutions reposent sur une architecture conteneurisée et sont utilisées quotidiennement en production par de nombreux utilisateurs. Les enjeux principaux sont la fiabilité des déploiements, l’automatisation des processus et la stabilité des environnements. Nous recherchons un DevOps capable d’intervenir sur l’ensemble du cycle de déploiement de nos applications : gestion des environnements Kubernetes, amélioration des pipelines CI/CD et collaboration avec les équipes de développement afin d’optimiser la livraison des applications. Le poste nécessite une bonne autonomie et une forte capacité à travailler en collaboration avec les équipes techniques. Les avantages du poste : • Environnement technique moderne • Projets concrets avec des enjeux de production réels • Équipe technique dynamique et collaborative • Possibilité d’avoir un impact direct sur l’amélioration de la plateforme Pourquoi nous rejoindre : • Participer activement à l’évolution d’une plateforme technique en production • Travailler sur des technologies modernes autour de Kubernetes et du cloud • Évoluer dans un environnement où l’autonomie et les initiatives sont valorisées • Collaborer étroitement avec des équipes de développement engagées
Mission freelance
Data Scientist – GenAI & RAG - Paris
Net technologie
Publiée le
AWS Cloud
Data science
GenAI
3 mois
Paris, France
Nous recherchons un Data Scientist pour renforcer un centre d’expertise IA dédié à des cas d’usage liés à la vente d’énergie , avec un fort focus sur l’ IA générative . 🎯 Objectif : concevoir, déployer et industrialiser des solutions data & IA à forte valeur métier. 🚀 Missions Cadrage des projets et proposition de solutions data-driven Traitement et exploitation de données structurées & non structurées Conception de modèles ML / Deep Learning / GenAI Développement de solutions basées sur LLM & architectures RAG Mise en place de pipelines (parsing, extraction, normalisation de données) Déploiement sur AWS (SageMaker, Bedrock, S3…) Évaluation des modèles (NLP, RAG, robustesse, hallucinations) Industrialisation (MLOps, monitoring, optimisation des coûts) Communication des résultats & accompagnement métier Mentoring de profils plus juniors
Mission freelance
Expert Cloud Security & CSPM (Azure / AWS / IAM / DevOps)
Comet
Publiée le
AWS Cloud
Azure
Azure DevOps
140 jours
460-670 €
Lyon, Auvergne-Rhône-Alpes
Bonjour à tous, notamment aux Experts Cloud Security & CSPM ☁️💛 (Azure / AWS / IAM / DevOps) 🔎 Je cherche un Cloud Security CSPM Expert senior pour rejoindre un programme stratégique de transformation IT et remédiation sécurité. Dans le cadre de ce carve-out IT complexe, l’objectif est de mettre sous contrôle la sécurité des environnements cloud publics multi-cloud, tout en pilotant les remédiations issues d’un audit cybersécurité et en renforçant la posture de sécurité globale. 💻 Ce que tu vas faire : Exploiter et optimiser les outils CSPM (Qualys TotalCloud, Wiz) Analyser les vulnérabilités et mauvaises configurations Cloud Piloter les remédiations avec les équipes Cloud, Infra et DevOps Structurer et améliorer les pratiques de sécurité Cloud (CSPM) Contribuer à l’industrialisation des pratiques de sécurité et à la gouvernance Cloud Prioriser et coordonner les actions critiques en environnement multi-cloud Reporter régulièrement sur les risques, remédiations et niveaux de conformité 🎯 Stack & environnement 💛 : Azure / AWS / OCI (bonus) / Qualys TotalCloud / Wiz / IAM / Sécurité Cloud / Terraform / DevOps / environnements legacy multi-cloud ⚠️ Profil recherché : Senior (expertise 10+ ans) Très hands-on (sécurité opérationnelle, remédiation, coordination) Expérience CSPM et remédiation post-audit cybersécurité Habitué aux environnements complexes multi-cloud et legacy Capacité à travailler en transverse et à gérer la pression des audits 📍 Mission : Lyon OU Paris – 7 mois potentiellement renouvelable 💰 Budget : Jusqu'aux alentours de 650 📅 Démarrage : ASAP Merci de me transmettre vos CVs en MP !
Mission freelance
Pilote de Delivery (H/F)
Insitoo Freelances
Publiée le
AWS Cloud
DevOps
2 ans
480-530 €
Lyon, Auvergne-Rhône-Alpes
Contexte : Fonctionnement : 2 jours non consécutifs par semaine sur site à Lyon Les missions attendues par le Pilote de Delivery (H/F) : Missions principales : Pilotage du delivery Coordonner une équipe produit (développeurs, DevOps, QA, etc.) Garantir la qualité, la performance et la fiabilité des livrables Suivre l’avancement des développements et sécuriser les engagements Animer la dynamique d’amélioration continue (indicateurs DORA, performance delivery) Pilotage technique opérationnel Superviser les pratiques DevOps / DevSecOps Piloter la mise en place et l’optimisation des pipelines CI/CD Veiller à la bonne intégration des enjeux de sécurité, performance et résilience Suivre les choix d’architecture en lien avec les experts techniques Contribuer à l’industrialisation du delivery et à l’automatisation Coordination & communication Être le point de contact entre les équipes techniques, produit et métiers Organiser et animer les comités techniques et de pilotage Assurer le reporting (avancement, risques, alertes) Faciliter la collaboration entre les différentes parties prenantes Contribution à la stratégie produit Travailler en lien étroit avec le Product Owner et le Lead Developer Participer à la priorisation et à la structuration du backlog Contribuer à l’alignement entre enjeux métiers et capacités techniques Environnement technique Cloud : AWS Outils : Jira, Confluence, GitLab, Power BI DevOps : CI/CD, Terraform, Docker Stack : Java / Spring Boot, Angular, PostgreSQL Pratiques : Agile (Scrum/Kanban), DevOps, CI/CD, observabilité
Offre d'emploi
Chef de projet
Management Square
Publiée le
AWS Cloud
Linux
Microsoft Windows
40k-47k €
Île-de-France, France
Nous sommes à la recherche d'un(e) : Chef de projet - Enregistrement, qualification technique et suivi de la résolution des incidents - Rédaction et suivi des demandes d'évolutions (technique ou métier) - Coordination des actions entre exploitant / TMA / fournisseurs / métier - Rédaction des tickets de change technique et fonctionnels - Qualification des évolutions, vérification de bon fonctionnement , suivi du processus de MEP - Coordination des actions internes (métiers / achats / exploitant / architectes fonctionnels et techniques) et externes (fournisseurs / TMA) - Mise à jour des besoins métier et NFR - Validation des spécifications fonctionnelles détaillées - Prérecette et pilotage de la recette avec les métiers
Mission freelance
Senior Data engineer IA (H/F)
CHARLI GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD
2 ans
400-610 €
Île-de-France, France
Dans le cadre de son plan de transformation Data, le groupe poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing Pour répondre à cet enjeu, le groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI, ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour, dont une part majoritaire en temps réel. Description du poste : Notre environnement de travail combine rigueur, une ambiance décontractée au sein des équipes, et des méthodes Agiles (Scrum et Kanban). Votre mission principale, si vous l'acceptez, consistera à intervenir sur des architectures de Streaming Data et IA full AWS (notamment Lambda, Step Function, Kinesis Stream, S3, Batch, Firehose, EMR Serverless, DynamoDB, etc.), ainsi que sur des technologies comme Scala, Spark, SQL, Snowflake, GitLab CI/CD, DBT, Airflow, Terraform. Vous serez amené à : Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Rejoignez une équipe dynamique où innovation et expertise se rencontrent !
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
500 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois