Trouvez votre prochaine offre d’emploi ou de mission freelance Service Cloud

Votre recherche renvoie 330 résultats.
CDI

Offre d'emploi
SOLUTION ARCHITECT SPECIALIST SENIOR AWS/GCP

SCC France SAS
Publiée le
AWS Cloud
Google Cloud Platform (GCP)

Nanterre, Île-de-France
Architecture & Avant-vente • Concevoir et valider l'architecture technique sur des dossiers stratégiques (appels d'offres, comptes clés) • Préconiser des choix techniques adaptés aux enjeux clients, en s'appuyant sur les catalogues AWS et Google Cloud • Définir les prestations selon les abaques internes et produire les livrables d’avant-vente (chiffrages, HLD/LLD, livrables techniques) • Accompagner les équipes commerciales en soutenance client et participer aux comités techniques • Construire des architectures de référence réutilisables (Landing Zone, sécurité, FinOps, migration) Développement des offres de services • Contribuer à la construction et à la promotion des offres de services autour d’AWS et Google Cloud : – Managed Services, Cloud Operations (C&SM) – Migration & Modernisation applicative – Data, IA/ML, Analytics sur cloud public – Sécurité cloud (CSPM, Zero Trust, conformité) – FinOps et optimisation des coûts cloud • Collaborer avec les équipes Alliance (AWS, Google Cloud) pour valoriser les programmes partenaires (funding, co-sell, MDF) • Participer à la création de contenus commerciaux : fiches offres, battle cards, références clients Enablement & expertise interne • Diffuser son expertise technique auprès des forces commerciales (SA, SAS, Account Managers) via réunions, formations et supports à la vente • Être le référent technique cloud public au sein des équipes : point d'escalade sur les sujets AWS et Google Cloud • Mentorer les architectes juniors et seniors sur les bonnes pratiques cloud Conseil & missions clients • Mener des missions de conseil (audits d'architecture, études de faisabilité, cloud strategy workshops) • Animer des workshops de discovery et de design thinking avec les équipes techniques clients (CTO, architectes, DSI) ACTIVITÉS SECONDAIRES • Participer et intervenir lors de séminaires, webinaires et événements partenaires (re:Invent, Google Cloud Next…) • Analyser l'impact des nouvelles solutions cloud dans les systèmes d'information clients • Assurer un reporting régulier sur les opportunités et les activités d'avant-vente • Assurer une veille technologique active sur les évolutions AWS, Google Cloud et le marché cloud • Contribuer à la pratique Cloud (retours d’expérience, documentation, standards)
Freelance

Mission freelance
Python Software Engineer Senior

Aneo
Publiée le
AWS Cloud
Python
Ray

7 mois
550-700 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer (vous), un devOps et un data Engineer. Compétences techniques -> Très bon niveau en python & capacité à expliciter explicites la vision d’ensemble de ses projets, les enjeux, les options techniques et les arbitrages ; -> Avoir travaillé sur des enjeux de traitements distribués & de graph -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Freelance

Mission freelance
Data Engineer Senior F/H

SMARTPOINT
Publiée le
AWS Cloud
CI/CD
DevOps

12 mois
480-500 €
Île-de-France, France
Mission principale Assurer le développement, la mise en œuvre opérationnelle et la maintenance des pipelines et services de données au sein de la plateforme Data. Services, en garantissant leur fiabilité, performance et sécurité. Tâches & activités Concevoir et développer des pipelines de données (ETL) notamment avec Kestra Manipuler, transformer et optimiser les données (SQL / NoSQL) Assurer la maintenance en conditions opérationnelles (MCO) des pipelines et services data Participer à la sécurisation des migrations fonctionnelles et techniques Contribuer à l’amélioration continue des processus data (qualité, performance, monitoring) Collaborer avec les équipes techniques et métiers pour cadrer et implémenter les besoins Livrables & résultats attendus Développement de 10 à 14 pipelines / algorithmes par an Maintien en conditions opérationnelles des solutions (suivi quotidien) Production de rapports d’activité et comptes rendus d’intervention Garantie de la qualité, de la fiabilité et de la performance des flux de données Compétences techniques Excellente maîtrise de SQL et des outils ETL (Kestra) Bonne connaissance des environnements Cloud AWS Culture DevOps / CI-CD (industrialisation, automatisation) Compétences en modélisation de données (UML est un plus) Connaissance des bases NoSQL
CDI
Freelance

Offre d'emploi
Expert Cloud AWS GCP S3NS

Ela Technology
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
S3NS

1 an
40k-45k €
500-550 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre de projets stratégiques de transformation cloud, nous recherchons un Expert Cloud confirmé maîtrisant AWS, GCP et S3NS , capable d’intervenir sur des environnements complexes et à forts enjeux. Vos missions1. Architecture & Stratégie de Migration Cloud Accompagner la migration , l’extension ou la création de nouvelles applications sur le cloud public. Réaliser des études comparatives de scénarios : Cloud Public, SaaS ou Retain (non‑migration). Sélectionner les services cloud les plus pertinents en analysant les gains et impacts. Analyser les impacts sur le RUN et le BUILD : performance, observabilité et exploitation. Animer des workshops de cadrage et de recueil des besoins. Concevoir des architectures cloud multi‑niveaux : Intégration au SI Architecture réseau HLD / LLD Piloter des migrations de région cloud. 2. Acculturation Cloud & Amélioration Continue Apporter une expertise cloud transverse auprès des équipes internes et des partenaires du projet. Diffuser les bonnes pratiques cloud via des actions de sensibilisation et d’animation. Participer activement à la communauté cloud du périmètre.
Freelance
CDI

Offre d'emploi
Expert Data Cloud

ONSPARK
Publiée le
AWS Cloud
Azure
Docker

4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Expert Data Cloud pour accompagner nos clients grands comptes. Vous interviendrez sur des projets de migration et d'exploitation de plateformes data vers le cloud, dans des contextes on-premise en cours de transformation, avec de fortes exigences en matière de sécurité et de conformité. Responsabilités Concevoir et déployer des architectures data sur le cloud Accompagner la migration des workloads data vers le cloud Optimiser les coûts et les performances des environnements cloud Assurer la sécurité et la conformité des données dans le cloud (RGPD, ISO 27001) Collaborer avec les équipes infrastructure, sécurité et data
Freelance
CDI

Offre d'emploi
Développeur PHP / Symfony – Full Stack

Hexagone Digitale
Publiée le
AWS Cloud
CI/CD
CSS

6 mois
40k-45k €
400-450 €
Île-de-France, France
Contexte Dans le cadre de l’évolution de plateformes digitales liées à la gestion de services en ligne à forte volumétrie, vous intervenez en tant que développeur PHP / Symfony au sein d’une équipe produit. Vous participez à des projets concrets avec des enjeux de performance, de sécurité et d’expérience utilisateur. Missions Analyse des besoins métiers et conception technique Développement backend en PHP / Symfony Participation au développement frontend (ReactJS) Intégration des maquettes Développement et consommation d’API REST Réalisation des tests (unitaires et intégration) Correction des anomalies et optimisation du code Participation aux code reviews Contribution aux bonnes pratiques (CI/CD, qualité, performance)
Freelance
CDI

Offre d'emploi
Développeur Full Stack Angular / NestJS

VISIAN
Publiée le
Angular
AWS Cloud
Azure

1 an
Paris, France
Missions Le prototype devra couvrir 6 fonctionnalités clés, parmi lesquelles : Digitalisation d’un outil Excel cœur métier (chiffrage d’offres) avec : automatisation, amélioration de la maintenabilité (MCO), historisation des données. Fiabilisation des données de comptage : détection automatique d’anomalies, correction, passage de données discrètes à continues. Croisement de référentiels et données existantes (IoT, relevés terrain, performance énergétique) : détection des dérives de performance, harmonisation du portefeuille. Génération automatique de plans de comptage & synoptiques dynamiques : à partir des équipements réels, avec interface de paramétrages pour cas spécifiques. Interface avancée de création de formules métier & performance, orientée utilisateur non technique (notamment pour la production de baselines de prédictions énergétiques). Interrogation des données métier en langage naturel, avec génération de restitutions graphiques exploitables. Le développeur interviendra comme acteur central du prototype, avec une réelle latitude sur : la conception technique front & back (Angular / NestJS – monorepo NX), les choix d’architecture applicative et cloud, la structuration du socle technique en vue d’une industrialisation ultérieure, la priorisation technique quand nécessaire, au service de la valeur métier. Il est attendu qu’il : avance avec peu d’informations initiales, sache aller chercher, structurer et challenger le besoin directement auprès des interlocuteurs métier et techniques, prenne des décisions argumentées et assumées, même hors cadre standard. Outils & Environnement Développement full stack (≥ 3 ans) : Angular NestJS NX / monorepo Maîtrise opérationnelle d’AWS et/ou Azure : capacité à déployer un environnement cloud complet en autonomie. DevOps / DevSecOps : CI/CD, automatisation, bonnes pratiques de sécurité. Traitement, modélisation et exploitation de données IoT. Pratique avancée du vibe coding : orchestration d’agents, accélération du delivery, approche augmentée du développement. Compétences optionnelles mais fortement appréciées : Infrastructure as Code (IaC) sur AWS et Azure via Terraform. Compétences Data sur Azure Fabric : pipelines, lakehouse, modèles sémantiques. Databricks, avec utilisation concrète de notebooks Python. Culture des architectures data modernes et des plateformes orientées événements. Livrables attendus Prototype EMS fonctionnel et démontrable. Socle Angular / NestJS réutilisable et industrialisable. Environnement cloud opérationnel. Pipelines CI/CD. Documentation technique claire. Démos régulières à destination des parties prenantes métier et techniques.
CDI
Freelance

Offre d'emploi
Tech Lead Python- IAGen (H/F)

1G-LINK CONSULTING
Publiée le
AWS Cloud
CI/CD
Kubernetes

12 mois
Paris, France
Contexte : Dans le cadre de l’accélération de ses capacités en IA, notre client renforce son architecture autour de l’ IA générative . Projet avec des enjeux forts autour de : RAG (Retrieval-Augmented Generation) industrialisation de modèles GenAI scalabilité des solutions IA Missions : Piloter les projets de bout en bout (conception → prod) Driver les sprints (organisation, tickets, priorisation) Encadrer et faire monter en compétence les développeurs Définir et porter l’architecture backend IA Contribuer aux développements Python complexes Garantir les bonnes pratiques (code, perf, scalabilité) Compétences techniques Python (expert) IA générative (expérience industrielle obligatoire ) AWS (Lambda, Bedrock, SageMaker…) RAG / LLM / NLP Architecture backend & systèmes scalables
Freelance

Mission freelance
Engineering Manager – SRE / Reliability (H/F)

Crafteam
Publiée le
Ansible
AWS Cloud
Linux

3 ans
660-790 €
Île-de-France, France
Nous recrutons pour l’un de nos clients , acteur majeur dans le secteur du paiement et des services digitaux, un Engineering Manager SRE / Reliability pour piloter la fiabilité, la performance et l’excellence technique de leur plateforme. Objectif du poste Assurer la stabilité, la performance et l’évolution de la plateforme tout en mettant en place des pratiques DevOps/SRE modernes et efficaces. Missions principales Piloter la fiabilité et l’optimisation technique de la plateforme. Définir et suivre les SLO/SLA et indicateurs clés. Superviser les processus CI/CD et l’observabilité . Coordonner les activités de support et d’administration. Promouvoir les bonnes pratiques techniques et l’innovation .
Freelance

Mission freelance
DBA Oracle - AWS

STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud
Oracle

3 mois
Paris, France
Anglais courant requis!! Dans le cadre d’une mission stratégique pour l’un de mes clients internationaux, je recherche un Database Administrator Senior disponible rapidement. Démarrage : 1er avril 2026 Durée : 3 mois Télétravail : Full remote (2 semaines d’intégration sur site, puis full remote) Rythme : Astreintes prévues Environnement international – anglais courant requis Responsabilités Participation aux projets de migration vers AWS Automatisation des environnements et développement de scripts Gestion et optimisation des bases Oracle et SQL en EMEA Mise en place et suivi des outils de monitoring Gestion des clusters, réplications, sauvegardes, plans de reprise Support incident, changement, migration et DRP
Freelance

Mission freelance
Cloud Automation & Data Ingénieur junior (H/F)

Insitoo Freelances
Publiée le
AWS Cloud
Bash
Python

2 ans
350-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Cloud Automation & Data Ingénieur junior (H/F) à La Ciotat, France. Les missions attendues par le Cloud Automation & Data Ingénieur junior (H/F) : Automatiser l’intégralité des infrastructures Cloud et des services de données. Industrialiser les déploiements via des pratiques DevSecOps rigoureuses. Concevoir des architectures orientées données (Data Lakes, Streaming) hautement disponibles. Accompagner les équipes projets dans l’adoption des meilleures pratiques Cloud & Data. Responsabilités Principales 1. Automatisation & Infrastructure as Code (IaC) Concevoir et déployer des infrastructures via Terraform. Gérer le cycle de vie complet des ressources sur AWS. Automatiser les services Data (S3, Glue, Kinesis, etc.) et optimiser la performance des environnements. 2. DevSecOps & CI/CD Construire et maintenir des pipelines CI/CD (GitLab, GitHub ou Jenkins). Intégrer nativement la sécurité (contrôles de conformité, scans de vulnérabilités). Automatiser les tests de qualité de données et la validation des schémas. 3. Platform Engineering & Architecture Data Développer des frameworks internes pour faciliter l'usage du Cloud (Serverless, Conteneurs). Mettre en œuvre des architectures orientées événements (Kinesis, Lambda). Assurer l'ingestion, le stockage et la fluidité des flux au sein du Data Lake. 4. Sécurité, Gouvernance & Conformité Piloter la gestion des identités et des accès (IAM) et le chiffrement (KMS). Appliquer les politiques de gouvernance : catalogage, traçabilité et rétention des données. Garantir l'auditabilité et le monitoring des données sensibles. Compétences Requises Cloud : Maîtrise approfondie d'AWS (Core services & Data stack). IaC : Expertise confirmée sur Terraform. Conteneurisation : Docker, Kubernetes. Data Engineering : ETL/ELT, modélisation de données, cycle de vie de la donnée. Développement : Python (avancé), Bash, SQL. Outils : Écosystème CI/CD, la connaissance de Snowflake est un plus significatif.
CDI

Offre d'emploi
QA Manager (H/F)

ADSearch
Publiée le
AWS Cloud
Azure
ISTQB

Paris, France
Objectif du poste Le Responsable des Tests IT est garant du pilotage de bout en bout des tests fonctionnels sur les produits et projets, en veillant à intégrer la qualité tout au long du cycle de livraison. Vous planifiez, dirigez et exécutez les activités de test, encadrez les ressources QA/Test, et collaborez étroitement avec les Product Owners, Delivery Leads, Business Analysts, développeurs, architectes, équipes support et partenaires externes afin de livrer des versions de haute qualité. Ce rôle comporte également une dimension opérationnelle : démontrer des pratiques de test efficaces, améliorer la productivité, favoriser la réutilisation des artefacts de test et piloter l’amélioration continue des processus QA et de test. Responsabilités principales Pilotage des tests et delivery Piloter et gérer les tests fonctionnels pour les produits/projets/périmètres assignés. Définir le périmètre, l’approche, les plans de test et l’alignement des critères d’acceptation, en s’assurant que les exigences sont testables. Superviser la création, la revue et la maintenance des artefacts de test (plans, scénarios, scripts, preuves). Gérer l’exécution des tests de bout en bout (manuel et automatisé, conforme aux standards). Fournir des reportings sur l’avancement, la couverture et la qualité, incluant la préparation aux mises en production et les indicateurs associés. Gouvernance qualité et amélioration continue Garantir la qualité des livrables QA/test et des artefacts de développement liés aux releases, correctifs, intégrations et projets. Identifier les risques, problèmes, hypothèses et dépendances ; proposer des plans de mitigation et escalader si nécessaire. Contribuer à l’évolution des processus, standards et frameworks QA ; améliorer l’efficacité et la réutilisabilité des tests. Veiller au respect des processus de gestion des anomalies ; piloter le tri, la priorisation et la résolution. Données de test, environnements et UAT Coordonner la planification, la création et la gestion des données de test avec les parties prenantes. S’assurer que les besoins en données et configurations sont identifiés en amont (raffinement des user stories) et intégrés aux pipelines CI/CD si applicable. Piloter les tests d’acceptation utilisateur (UAT), y compris la coordination et l’engagement des parties prenantes. Management des équipes et des parties prenantes Encadrer, coacher et accompagner les analystes QA et testeurs ; identifier les besoins en formation et développer les compétences. Gérer la planification des ressources (internes, distantes et externes). Collaborer avec les équipes Produit, Delivery, Architecture, Développement et Support pour intégrer la qualité tout au long du cycle de vie. Parties prenantes clés Responsables Projet & Delivery Product Owners Business Analysts Équipes QA / Test Équipe QA de développement externalisée Équipes Support Applicatif Release Manager / QA Leads / Responsable Qualité et Tests
Freelance

Mission freelance
Architecte Entreprise Senior (Cloud-Native)

CAT-AMANIA
Publiée le
Architecture
AWS Cloud
Google Cloud Platform (GCP)

3 mois
400-690 €
Île-de-France, France
Architecte Entreprise Senior (Cloud-Native) – H/F Nous recherchons pour l'un de nos clients majeurs dans le secteur des médias un(e) Architecte Entreprise Senior pour accompagner la transformation et l'évolution de ses infrastructures IT vers des modèles résolument Cloud. ## Description de la mission Intégré(e) au département Urbanisations et Applications, vous interviendrez sur un périmètre transverse (planification, optimisation des moyens, sécurité, gestion d'actifs). Votre rôle sera de définir les modèles d'architecture logicielle de demain pour répondre aux nouveaux besoins métiers. Vos principales activités : Conception : Proposer des modèles d'architectures logicielles Cloud-Native et sélectionner les technologies de développement adaptées. Pilotage : Garantir l'application des principes d'architecture au sein des différents projets. Collaboration : Travailler étroitement avec les équipes Cloud, sécurité, réseaux et exploitation. Support Technique : Accompagner les équipes projets lors de l'implémentation et superviser les développements (contrôle de cohérence). Standardisation : Définir les normes de développement et les exigences opérationnelles au sein de la Design Authority. Encadrement : Coordination d'une petite équipe, incluant un Architecte Solution. ## Profil recherché : l'Expertise attendue Vous justifiez d'au moins 5 ans d'expérience significative en architecture d'entreprise, idéalement dans des contextes métiers complexes. Compétences techniques requises (Niveau Expert) : Patterns d'architecture : Micro-services, Micro-frontends, DDD, Architecture hexagonale, Event Driven. Modélisation & Frameworks : Maîtrise des outils de modélisation, TOGAF et C4. Développement Full-stack JS : ReactJS, NodeJS, NestJS (MikrORM), NextJS. APIs : REST, GraphQL, SOAP. Identité : Azure Entra ID. Compétences complémentaires (Niveau Maîtrise) : Cloud : AWS, Azure, GCP. Autres langages : Angular, Java Springboot, .NET, Python ou PHP. ## Modalités pratiques Date de démarrage : 04/05/2026. Durée : Mission de 3 mois, reconductible jusqu'à 3 ans (11 fois 3 mois). Lieu : Paris (sur site requis + télétravail selon les directives en vigueur). Langue : Français (maîtrise parfaite impérative pour la rédaction des documents et les échanges). Astreintes : À prévoir le week-end et les jours fériés. Matériel : Le matériel informatique sera mis à disposition par le client.
Freelance
CDI

Offre d'emploi
Expert Cloud GCP AWS

STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
S3NS

6 mois
Lyon, Auvergne-Rhône-Alpes
Description du poste Dans le cadre de projets stratégiques de transformation Cloud, nous recherchons un Expert Cloud intervenant sur les environnements AWS, GCP et S3NS , capable d’accompagner les équipes IT et métiers sur la définition des architectures, les stratégies de migration et la montée en maturité Cloud. Vous évoluerez dans des contextes hybrides et critiques, avec de fortes exigences de sécurité, de performance et d’exploitabilité. Vos missions 1. Architecture & Stratégie de migration Accompagner la migration, l’extension ou la création d’applications sur le Cloud public du client Réaliser des études comparatives de scénarios : Cloud Public SaaS Retain (non‑migration) Sélectionner les services Cloud les plus adaptés en analysant gains, risques et impacts Analyser les impacts BUILD & RUN : Tests de performance Stratégies d’observabilité Exploitation et maintien en conditions opérationnelles Animer des workshops métiers et techniques pour la capture du besoin Concevoir des architectures Cloud multi‑niveaux : Intégration au SI existant Architecture réseau HLD (High Level Design) LLD (Low Level Design) Gérer des migrations inter‑régions Cloud 2. Acculturation Cloud & Amélioration Continue Apporter une expertise Cloud transverse auprès des équipes internes et partenaires externes Diffuser les bonnes pratiques Cloud & DevSecOps Animer ou contribuer à des actions de sensibilisation Cloud Participer activement à la communauté Cloud du périmètre Compétences requises Cloud & Architecture Expertise confirmée : AWS, GCP et S3NS Maîtrise des stratégies hybrides et multi‑cloud Connaissance des contraintes éditeurs et stratégies de mitigation associées DevOps & Plateformes Bonne compréhension des pipelines CI/CD Conteneurisation et orchestration : Docker, Kubernetes / OpenShift Sensibilité DevSecOps et automatisation Sécurité & Conformité Connaissance des normes et référentiels de sécurité applicables Intégration de la sécurité dès la conception (security by design) Outils & environnements AWS / GCP / S3NS OpenShift / Kubernetes Outils DevSecOps JIRA / Confluence
Freelance

Mission freelance
Lead Developer

Kamatz
Publiée le
API REST
Architecture
AWS Cloud

6 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Lead Developer Python expérimenté pour intervenir sur un produit stratégique dans un environnement cloud AWS , au sein d’un écosystème multi-acteurs. Contexte de la mission Vous interviendrez sur une plateforme d’échange de données métiers permettant d’assurer la continuité numérique entre différents systèmes d’information et partenaires industriels. Cette plateforme repose sur des API REST et s’intègre avec plusieurs applications métier. Un portail web complète la solution pour certains utilisateurs. Vos responsabilités Prendre un rôle de lead technique Python Encadrer une équipe backend Participer activement aux développements (évolutions et correctifs) Analyser et corriger les incidents en production Réaliser des revues de code et assurer la qualité logicielle Contribuer à la refactorisation et à l’optimisation du code Participer à la conception technique et au chiffrage Rédiger les spécifications techniques détaillées Définir et mettre en œuvre les plans de tests Livrables attendus Spécifications techniques détaillées Plans de tests Documentation technique Guides de bonnes pratiques et de paramétrage Rapports d’audit de sécurité Code source et gestion de configuration Compétences requises BOTO3 (Framework AWS) : Senior Cloud AWS : Senior Python : Senior API REST : Senior devops (git, jenkins) : Senior Clean Architecture : Expérimenté
Freelance
CDI

Offre d'emploi
Data Engineer – Plateforme Data AWS / Snowflake

EterniTech
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 mois
Magny-les-Hameaux, Île-de-France
Description du besoin : Data Engineer – Plateforme Data AWS / Snowflake Client : Grand Groupe Industriel International Localisation : Magny-les-Hameaux (78) + déplacements ponctuels Malakoff (92) Télétravail partiel : 2 jours / semaine Démarrage idéal : ASAP Information de type C3 - Contexte industriel ? Contexte Dans le cadre de l’évolution de sa plateforme Data, un grand groupe industriel souhaite renforcer son dispositif avec un profil senior spécialisé en orchestration de pipelines de données, avec une expertise forte sur Apache Airflow. Le client dispose d’un écosystème data déjà en place (AWS / Data Lake / Snowflake) et cherche à améliorer la fiabilité, la scalabilité et l’industrialisation des traitements. L’objectif est d’intégrer un profil capable de concevoir et structurer les workflows data, et non simplement d’utiliser Airflow pour exécuter des jobs existants. ? Objectif de la mission Le client recherche un Data Engineer senior avec une expertise avancée sur Airflow, capable de : -concevoir et développer des DAGs complexes -structurer l’enchaînement des traitements de données -gérer les dépendances entre pipelines -implémenter des stratégies de gestion des erreurs, retry et reprise -optimiser l’orchestration et la planification des workflows Le consultant interviendra sur la fiabilisation et l’industrialisation des pipelines data, avec une forte autonomie dans la conception des solutions. ? Prestations attendues ? Orchestration & Airflow (cœur de mission) Conception et développement de DAGs Airflow complexes Structuration des workflows data et gestion des dépendances Mise en place de stratégies de retry, reprise et gestion des erreurs Optimisation du scheduling et des performances des pipelines Industrialisation des workflows ? Data Engineering & intégration Intégration et orchestration de pipelines batch et temps réel Collaboration avec les équipes Data (Data Engineers / Data Scientists) Contribution à l’architecture globale des pipelines ? Cloud & environnement technique Intégration dans un environnement AWS Data Lake Interaction avec les services data (stockage, compute, etc.) Automatisation et bonnes pratiques de développement ? Environnement technique Airflow (expertise avancée requise) Python AWS (S3, Glue, etc.) Data Lake / Snowflake CI/CD / Terraform (apprécié) ? Profil recherché ? Expérience 5+ ans en Data Engineering Expérience significative sur Airflow en production Expérience sur des environnements data complexes ? Compétences indispensables Airflow avancé (design de DAGs, orchestration complexe) Python Conception de pipelines data Gestion des dépendances et workflows ? Compétences appréciées AWS / Data Lake Terraform / CI/CD Snowflake ? Points clés (critères éliminatoires) Profil ayant utilisé Airflow uniquement comme outil de déclenchement ? Absence d’expérience en conception de DAGs ? Pas de maîtrise de la logique d’orchestration ? ? Profil idéal Un profil capable de penser et concevoir une orchestration complète de pipelines data, avec une vraie maîtrise des mécaniques internes d’Airflow, et une capacité à intervenir en autonomie sur des environnements existants.naires Communication claire et structurée
330 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous