L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 695 résultats.
Mission freelance
Cloud Ops Engineer
Celexio
Publiée le
AWS Cloud
CI/CD
Datadog
3 mois
400-550 €
Paris, France
Présentation de la mission En tant que Cloud OPS Engineer Senior, vous rejoignez un groupe leader de la Tech Parisienne. Votre mission est au cœur de la stratégie Data : vous assurez la robustesse, l'évolution et la maintenance de l'infrastructure supportant les outils d'analyse de marché. Vous intervenez dans un contexte de passation fluide (binôme avec le titulaire sortant) pour garantir la continuité opérationnelle tout en apportant votre expertise sur les chantiers de modernisation. Responsabilités Architecture & Build : Construire et maintenir une infrastructure scalable pour supporter les flux de données critiques du groupe. Maintenance & Modernisation : Assurer le run de la stack actuelle tout en intervenant sur la stack legacy pour optimiser les performances. Hybridation Cloud : Piloter le transfert de services et le "debug" sur un reliquat d'infrastructure GCP (mission de "spéléologie" technique ponctuelle). Automatisation & Observabilité : Garantir la fluidité des déploiements et la visibilité de l'état de santé des services via des dashboards avancés.
Mission freelance
Data analyste ET ANALYTICS Platform AWS AZURE PYTHON Anglais 500 e par jour
BI SOLUTIONS
Publiée le
AWS Cloud
Python
3 ans
400-500 €
Île-de-France, France
Data analyste ET ANALYTICS Platform AWS AZURE PYTHON Anglais 500 e par jour Évolution des infrastructures cloud via l’Infrastructure as Code Gestion d’un cluster kubernetes Développement de micro-services en Python Conception et maintenance de chaînes de déploiement automatisé Assurer le bon fonctionnement opérationnel de la Data & Analytics Platform Enrichissement de la documentation à l’attention des utilisateurs Expérience significative sur le cloud AWS et/ou Azure, notamment sur les services de données (Gen2 et ou S3). Développement d’application web. Connaissance des pratiques du software craftsmanship. Bonne connaissance de la méthodologie Agile. Familiarité avec les mécanismes de traitement et de valorisation des données. Python, Terraform GitHub, GitHub Action Azure : AKS, Data Lake Gen2, Data Factory AWS : EKS, S3, ECS, VPC, NSG, Lambda, … Databricks : Unity Catalog, Policy, Cluster, PySpark Pratiques : Scrum Notions : DevSecOps, Data Engineering, Data Management Langues : Anglais et Français 500 e par jour
Mission freelance
Product Owner H/F
Insitoo Freelances
Publiée le
Agile Scrum
AWS Cloud
Confluence
2 ans
450-550 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Product Owner H/F à Lyon, France. Contexte : Dans le cadre d'un projet de transformation massif, nous cherchons des product owners certifiés Les missions attendues par le Product Owner H/F : Définir et piloter la stratégie de son produit en lien avec les besoins utilisateurs, les enjeux métier et les capacités de l’équipe Recueil et formalisation des besoins Animer des ateliers de recueil des besoins métiers (ateliers de cadrage, ateliers utilisateurs, interviews, etc.) Traduire les besoins utilisateurs et métiers Maintenir un backlog produit à jour, clair, hiérarchisé et aligné sur les objectifs stratégiques et tactiques Définir et piloter la stratégie de tests fonctionnels Assurer la conformité du produit livré avec les exigences métier Communiquer régulièrement l’état d’avancement, les choix de priorisation, les risques et alertes vers les acteurs du pilotage de l’équipe produit Contribuer au suivi et à l’analyse des KPIs de performance produit (ex. : taux d’adoption, NPS, taux de satisfaction, etc.) Outils de gestion Agile : JIRA, Confluence, Klaxoon, Figma Méthodologies Agile : Scrum, Kanban, SAFe, OKR, Impact Mapping Fonctionnement en 2 jours de présentiel NON CONSECUTIF et 3 jours de télétravail Certification AWS Cloud Practitioner Foundational IMPERATIVE Aucun profil situé hors de Lyon (ou région lyonnaise ou proche) ne sera étudié Un niveau de séniorité minimum de 5/6 ans sur ce poste est requis
Mission freelance
Database Engineer H/F
HAYS France
Publiée le
AWS Cloud
Azure
DevOps
10 mois
Lille, Hauts-de-France
Dans le cadre du renforcement des équipes Data & Infrastructure d’un groupe international du secteur retail, nous recherchons un Database Engineer pour garantir la performance, la disponibilité et la sécurité des bases de données en environnement hybride (On-Premise & Cloud). Vous interviendrez en collaboration avec les équipes IT et Data sur des enjeux de scalabilité, d’automatisation et d’optimisation des plateformes. Vos missions : Administrer, maintenir et optimiser des bases de données SQL et NoSQL (PostgreSQL, Oracle, Redis, Snowflake, OpenSearch) Assurer la haute disponibilité, les sauvegardes et les PCA/PRA Superviser les performances et réaliser le tuning (requêtes, indexation, partitionnement) Mettre en œuvre des pratiques DevOps et Database as Code Gérer la sécurité des données (accès, chiffrement, conformité RGPD) Participer aux migrations Cloud (AWS RDS, Azure SQL) Automatiser les déploiements et accompagner les équipes de développement sur les bonnes pratiques
Mission freelance
Lead Developpeur Full Stack (H/F)
Insitoo Freelances
Publiée le
Angular
AWS Cloud
Entreprise Java Bean (EJB)
2 ans
500-700 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Lead Developpeur Full Stack (H/F) à Lyon, France. Contexte : Dans le cadre du changement et de l'évolution des produits, nous cherchons des lead développeurs certifiés Les missions attendues par le Lead Developpeur Full Stack (H/F) : Piloter techniquement l’équipe de développement. Garantir la qualité des livrables techniques Assurer la cohérence de l’architecture logicielle et des pratiques de développement Contribuer activement à la conception, au développement et au maintien en conditions opérationnelles du produit Définir la stratégie de développement du produit (architecture, technologies, bonnes pratiques) Accompagner techniquement les développeurs : revue de code, pair programming, aide à la montée en compétences Participer activement au développement des fonctionnalités du produit (BUILD) Intervenir sur les activités de maintenance et de correctifs applicatifs (RUN) Veiller à la qualité du code, au respect des bonnes pratiques (tests, CI/CD, sécurité) Certification OBLIGATOIRE AWS Developer Associate & AWS Solution Architect Associate Profils LYONNAIS OU ENVIRON OBLIGATOIRE 2 jours non consécutifs sur site ET 3 jours de télétravail Back-end : Java 21 Spring Boot 3.5 Liquibase 5 Front-end : Angular 20 TypeScript
Offre d'emploi
Senior DevOps / Développeur Full Stack (Python & AWS) – Nantes
ASAP TECHNOLOGIES
Publiée le
AWS Cloud
CI/CD
Docker
1 an
45k-47k €
400-450 €
Nantes, Pays de la Loire
Contexte Dans le cadre du remplacement d’un collaborateur, vous intervenez sur deux produits dédiés à la garantie de la qualité de la production . Vous intégrez une équipe agile composée de 5 développeurs, 1 Product Owner et 1 Scrum Master , et participez aux travaux de développement, maintenance et évolution des applications. Mission Rôle complet sur le cycle de vie applicatif : conception, développement, déploiement et maintenance . Vous contribuez à des solutions robustes, scalables et sécurisées, avec une forte composante Back-End Python serverless sur AWS et des activités DevOps / Cloud AWS . Vous êtes également impliqué(e) dans une migration progressive d’un backend existant en PHP vers une nouvelle technologie, en assurant continuité de service , qualité du code et performance .
Offre premium
Mission freelance
Data Engineer Snowflake - secteur pharma - Lille/Rennes/Nord (1 jours présentiel/semaine) - H/F
EASY PARTNER
Publiée le
AWS Cloud
Database
Snowflake
3 mois
400-550 €
59006, Lille, Hauts-de-France
⭐ Contexte de la mission Dans le cadre d’un projet Data à dimension européenne , nous recherchons un Data Engineer Snowflake confirmé pour accompagner la mise en place d’une Data Platform Cloud pour un acteur du secteur pharmaceutique. La plateforme sera hébergée sur AWS et aura pour objectif de centraliser et structurer des données aujourd’hui dispersées suite à plusieurs acquisitions. Le consultant interviendra au sein des équipes Data (mode projet) , en collaboration étroite avec des experts Data & Cloud déjà en place. Concevoir et développer des pipelines d’ingestion et de transformation de données sous Snowflake Participer à la modélisation des données et à la structuration du Data Warehouse Contribuer aux ateliers techniques et fonctionnels avec les équipes internes et métiers Participer à la mise en place de bonnes pratiques Data Engineering & DataOps Travailler en collaboration avec les équipes Cloud & Projet (AWS / Plateforme) Assurer un haut niveau de qualité, performance et fiabilité des données
Mission freelance
Data Analytics Enigneer
Phaidon London- Glocomms
Publiée le
AWS Cloud
Data visualisation
Python
6 mois
400-550 €
Paris, France
Concevoir, développer et optimiser des modèles de données pour l’analyse et le reporting Mettre en place et maintenir des pipelines de données robustes et performants Collaborer avec les équipes data et métiers pour comprendre les besoins et les traduire en solutions analytiques Garantir la qualité, la cohérence et la documentation des données Contribuer aux projets de visualisation de données, notamment via Tableau Participer à l’évolution des bonnes pratiques et des standards internes en analytics engineering
Mission freelance
[LFR] Expert sécurité Cloud AWS/GCP à Guyancourt - 1253
ISUPPLIER
Publiée le
10 mois
300-545 €
Guyancourt, Île-de-France
Vous travaillerez en lien étroit avec l’équipe d’expertise Cyber et les équipes qui gèrent les offres Landing Zones en Cloud Public GCP et AWS ainsi que les utilisateurs métiers qui y déploient et opèrent leurs applications. Ceci afin d’accompagnerez la révolution #devops #Cloud des entreprises du groupe Crédit Agricole avec la mise en place sécurisée de briques technologiques innovantes autour des patterns d'architecture #Container, #Hybridation, #Cloudpublic. Vous participez à la mise en place de mesures et de pratiques de cybersécurité liées aux évolutions du système d’information ou à sa règlementation. Au jour le jour, votre rôle sera d’assister CA-GIP sur les missions Run Sécurité suivantes : Lutter contre les vulnérabilités Cloud : • Administrer l’outil CNAPP qui permet de gérer les vulnérabilités, les audits de configuration et les comportements à risque de nos environnements cloud publics. • Assurer l’adoption de l’outil auprès des utilisateurs : Documentation, formation, accès, amélioration, suivi des bugs, suivi des licences • Aider à maintenir tous les contrôles, politiques et procédures à jour en fonction des normes de l'industrie dans un objectif d'amélioration continue. Bâtir une gouvernance sécurité transverse : • Assurer le pilotage global des risques opérationnels détectés sur ce périmètre par les différents outils en place. • Coordonner les parties prenantes (dev, secops, infra, référents sécurité) • Produire des indicateurs de suivi de la sécurité opérationnelle afin d’apporter de la visibilité et de la confiance. • Surveiller, gouverner et valider le niveau de maturité et de conformité aux référentiels (ISO, NIST, RGPD, IA Act.) Accompagner les équipes techniques : • Animer des atelier pour aider les équipes techniques à qualifier les vulnérabilités et à répondre aux alertes sur leurs actifs projets. o Contextualiser les vulnérabilités découvertes selon l’environnement CA-GIP o La participation et le soutien technique à la résolution des vulnérabilités o L’assistance des équipes techniques à la mise en place des bonnes pratiques de cybersécurité pour les clouds publics o L’affectation des vulnérabilités aux bonnes équipes, automatiquement ou manuellement • Former les développeurs et data scientists aux bonnes pratiques de sécurité Participer à la vie de l’équipe sécurité : • Analyser les risques liés aux projets. • Rédiger des expressions de besoins de sécurité • Transmettre la connaissance et montée en compétence de la sécurité cloud des équipes. • Coopérer avec les pairs et la communauté de la cybersécurité au sein de CA-GIP pour établir une relation de travail collaborative globale, créer une adhésion et une base solide pour les décisions des parties prenantes. Compétences recherchées Compétences métiers : Création, intégration & administration d’infrastructure Cloud Public (AWS/Google Cloud Platform) de façon sécurisée. Familier de la méthodologie de déploiement en continu (Gitlab, infrastructure as code, CI/CD, Terraform) [DevOps] Compétences système et en développement (Linux, Python, Javascript, ..) Connaissance dans l’intégration des contrôles de sécurité dans la chaine de développement et les plateformes d’exécution cloud native (audit de code, security as code). Outils de protection des applications cloud natives (CNAPP, KSPM, CWPP, Dome9, Wiz, ...) Connaissances des normes et technologies propres à la cyber sécurité Connaissances des bonnes pratiques d’audit IT Connaissances des normes liées à la gestion des risques de conformité réglementaire. Vous êtes capable de promouvoir les bonnes pratiques sécurité sur les sujet Cloud. Capacité à créer et présenter des sujets complexes à différentes populations de personnes (Techniques, Manageurs…) Compétences comportementales : • Autonome et organisé ; • Bonne capacité à travailler en équipe ; • Bon relationnel et réactif; • Capacité à fédérer et entraîner derrière soi ; • Une bonne gestion des priorités ; • Force de proposition et amélioration continue ; • Un grand sens de l'analyse afin de gérer les projets de transitions, et d'anticiper les problèmes techniques potentiels. • Aptitude à s’adapter à ses interlocuteurs dans la communication Langues Anglais opérationnel
Offre d'emploi
Tech Lead Fullstack Java / Angular / React – Cloud Native
CONCRETIO SERVICES
Publiée le
Angular
AWS Cloud
Java
66k-71k €
Paris, France
VOTRE RÔLE Vous intervenez comme référent technique backend , avec un rôle hands-on. Vous êtes responsable de : La conception et l’évolution de l’architecture microservices La qualité du code et des standards techniques L’accompagnement d’une équipe de 4 à 8 développeurs La robustesse et la performance des services en production Vous codez, vous relisez, vous arbitrez. VOS MISSION SPRINCIPALES Conception d’architectures microservices distribuées Implémentation en Java 17+ / Spring Boot 3 Mise en place de patterns de résilience (retry, circuit breaker, gestion d’erreurs) Intégration event-driven (Kafka ou équivalent) Contribution à l’industrialisation CI/CD (GitLab, Docker) Déploiement et exploitation sur Kubernetes (AWS) Participation active aux code reviews Diffusion des bonnes pratiques (Clean Code, TDD, tests automatisés)
Offre d'emploi
Architecte Plateforme & DevSecOps – Hybrid Cloud AWS / GCP / Vision Platform Engineering
ANAFI CONSULTING
Publiée le
Architecture
CI/CD
Cloud
1 an
40k-80k €
400-750 €
Île-de-France, France
Qui sommes-nous ? Anafi Consulting est un cabinet de conseil basé à Paris, fondé en 2023. Nous accompagnons nos clients grands comptes dans leurs transformations technologiques et organisationnelles, avec une expertise forte en Cloud, Platform Engineering, DevSecOps, Data, Sécurité et numérique responsable . Nous intervenons dans des secteurs variés : finance, télécommunications, IT, industrie critique et énergie. Votre rôle Dans le cadre de programmes stratégiques de transformation Cloud et d’industrialisation des plateformes IT, nous recherchons un(e) Architecte Plateforme & DevSecOps Hybrid Cloud AWS / GCP . Vous interviendrez à un niveau High Level Design / Vision Architecture , en pilotant la conception de plateformes cloud hybrides sécurisées, automatisées et orientées produit (Platform Engineering). Votre rôle combinera : Vision d’architecture cible multi-cloud Conception de plateformes d’ingénierie interne (Internal Developer Platform) Industrialisation CI/CD et DevSecOps Gouvernance cloud, sécurité et FinOps Accompagnement des équipes (Architecture, Dev, Ops, Sec, Data) Vos missions principales Vision & Architecture Plateforme Définir la Target Architecture Platform Engineering en environnement hybride AWS / GCP. Concevoir des plateformes mutualisées : Runtime container / Kubernetes multi-cloud Observabilité unifiée Sécurité by design Gestion des identités et des accès cross-cloud Concevoir des architectures orientées resilience, scalability et zero trust . Définir les patterns d’architecture standardisés (landing zones, blueprints, golden paths). Industrialisation & DevSecOps Concevoir et structurer des chaînes CI/CD globales multi-cloud . Définir les standards : Infrastructure as Code Policy as Code Security as Code Compliance as Code Intégrer les contrôles sécurité dans le cycle de delivery (shift-left security). Structurer la stratégie GitOps et automatisation des environnements. Platform Engineering & Developer Experience Participer à la conception d’ Internal Developer Platforms (IDP) . Définir les parcours développeurs : Self-service infrastructure Templates applicatifs Environnements automatisés Optimiser la Developer Experience et le Time To Market. Gouvernance Cloud & FinOps Définir les modèles de gouvernance multi-cloud. Mettre en place des stratégies FinOps et optimisation des coûts. Participer aux comités d’architecture et de gouvernance groupe. Sécurité & Conformité Définir les modèles DevSecOps et Zero Trust. Intégrer les exigences réglementaires et compliance sectorielle. Participer aux analyses de risques et aux stratégies de sécurisation plateforme. Accompagnement & Leadership Accompagner les équipes architecture, DevOps, sécurité et Data. Animer des ateliers d’architecture et des communautés techniques. Porter la vision plateforme auprès des directions techniques et métiers.
Offre d'emploi
Développeur Senior Fullstack Java / Angular / React – Cloud Native
CONCRETIO SERVICES
Publiée le
Angular
AWS Cloud
Java
51k-56k €
Paris, France
VOTRE RÔLE En tant que développeur senior, vous êtes : Autonome sur vos périmètres fonctionnels Force de proposition technique Garant de la qualité et de la maintenabilité du code Référent technique intermédiaire au sein de l’équipe Vous intervenez sous la responsabilité d’un Tech Lead, dans un rôle pleinement hands-on. VOS MISSIONS PRINCIPALES Développement de microservices en Java 17+ / Spring Boot Conception et implémentation d’API REST robustes Optimisation des performances (SQL, requêtes, gestion des flux) Mise en place et maintien des tests automatisés (JUnit, Mockito) Participation active aux code reviews Contribution à l’industrialisation CI/CD Gestion d’incidents techniques et amélioration continue
Mission freelance
Exploitant confirmé spécialisé SAP 2 à 3 jours de TT possible Lyon/sol
WorldWide People
Publiée le
SAP
SAP S/4HANA
6 mois
Lyon, Auvergne-Rhône-Alpes
Exploitant confirmé spécialisé SAP Lyon 2 à 3 jours de TT possible mission située à Lyon • Maitrise de l'administration BC sous Oracle et S4/HANA • Connaissance ordonnanceur $U • Connaissance Windows et administration XENAPP 7.15Dans le cadre du traitement des demandes et incidents une prestation est demandée afin de garantir la gestion du MCO et de réaliser en particulier la mise en place des livrables SAP et le suivi d’exploitation de la solution. Assurer la gestion du MCO en tant qu’administrateur SAP, avec le traitement des tickets de demandes et incidents de niveau 2/3. Assurer le suivi au quotidien des systèmes SAP Réaliser les actions d’installation des livrables SAP • Exploitant confirmé spécialisé SAP • Maitrise de l'administration BC sous Oracle et S4/HANA • Connaissance ordonnanceur $U • Connaissance Windows et administration XENAPP 7.15 2 à 3 jours de TT possible mission située à Lyon
Mission freelance
Data Engineer Senior / Lead Data
Tenth Revolution Group
Publiée le
AWS Cloud
Collibra
Databricks
6 mois
620-660 €
Paris, France
Dans le cadre d'une mission chez un grand acteur du secteur de l'énergie en France, nous recherchons des profils Data Engineer Senior++ / Lead Data disponibles entre mi-mars et mi-mai 2025. Le client, accompagné par un cabinet de conseil top tier, recherche des consultants capables de s'emparer d'un périmètre data, de le cadrer et de le développer en toute autonomie. Plusieurs positions sont à pourvoir. La maîtrise et l'usage quotidien de l'IA dans le travail est un critère indispensable.
Offre d'emploi
Architecte Kafka
LEVUP
Publiée le
Apache Kafka
AWS Cloud
12 mois
Liège, Belgique
Dans le cadre de la conception et de l’évolution de plateformes applicatives et data orientées temps réel , nous recherchons un Architecte Kafka AWS capable d’intervenir de bout en bout (end-to-end / endzone) : de l’architecture backend et streaming jusqu’à l’intégration avec les applications frontend. Le poste s’inscrit dans des environnements cloud AWS à forts enjeux de performance, de scalabilité et d’intégration SI. Rôle & responsabilitésArchitecture globale (End-to-End) Concevoir l’ architecture applicative et data de bout en bout Garantir la cohérence entre : Frontend (Angular) Backend (.NET) Streaming & intégration (Kafka) Infrastructure AWS Être le référent architecture sur le périmètre fonctionnel et technique Kafka & intégration Concevoir et mettre en œuvre des architectures événementielles basées sur Apache Kafka Définir les patterns d’intégration : Event-driven Pub/Sub CDC (Change Data Capture) Mettre en place Kafka Connect, Schema Registry, MirrorMaker Accompagner les équipes sur la modélisation des événements et contrats de données Environnement AWS Déployer et opérer Kafka sur AWS (Amazon MSK ou équivalent) Concevoir l’architecture cloud : VPC, IAM, sécurité, réseaux EC2 / EKS selon les besoins Intégrer Kafka avec les services AWS (S3, Lambda, bases de données, etc.) Backend – .NET Concevoir des API et services backend en .NET Définir les standards d’architecture (clean architecture, microservices) Garantir performance, sécurité et maintenabilité Intégrer les flux Kafka côté backend Frontend – Angular Définir les principes d’architecture frontend Angular Assurer la bonne intégration avec les API et les flux temps réel Travailler sur l’expérience utilisateur dans des applications data-driven Qualité & gouvernance Mettre en place les bonnes pratiques : Sécurité Monitoring Logging Résilience Documenter les architectures Participer aux revues techniques et d’architecture Accompagner et guider les équipes de développement Compétences techniques requisesStreaming & intégration Apache Kafka (expert) Kafka Connect, Schema Registry Architectures event-driven Formats : JSON, Avro, Protobuf Cloud & DevOps AWS (très bonne maîtrise) Amazon MSK CI/CD Infrastructure as Code (Terraform, CloudFormation) Backend .NET / C# APIs REST Microservices Frontend Angular Intégration frontend / backend Notions UX appréciées Profil recherché Formation ingénieur ou équivalent Expérience confirmée en architecture end-to-end Solide expérience sur Kafka en production À l’aise dans des environnements complexes et multi-équipes Capacité à dialoguer aussi bien avec les développeurs que les métiers Atouts appréciés Expérience grands comptes Connaissances data (Spark, Flink, etc.) Certifications AWS / Kafka Sens du produit et de l’expérience utilisateur
Offre d'emploi
Data Engineer | Databricks | AWS
Hexateam
Publiée le
AWS Cloud
Databricks
Python
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1695 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois