Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon Elastic Compute Cloud (EC2)

Votre recherche renvoie 41 résultats.
Freelance
CDI

Offre d'emploi
Lead Developer Java - Spring Boot & AWS

KLETA
Publiée le
AWS Cloud
Java
Springboot

3 ans
Paris, France
Nous recherchons un Lead Developer Java pour piloter techniquement des équipes de développement travaillant sur des applications cloud natives hébergées sur AWS. Vous serez responsable de la conception des architectures logicielles, de la définition des standards de développement et de la garantie de la qualité technique des livrables. Vous interviendrez sur des environnements basés sur Spring Boot, microservices et APIs REST, en intégrant les services AWS (ECS/EKS, Lambda, RDS, S3, SQS/SNS, EventBridge). Vous accompagnerez les équipes DevOps et SRE pour assurer une intégration fluide dans les pipelines CI/CD, une observabilité avancée et une exploitation fiable en production. Vous animerez des revues de code, challengez les choix techniques et structurerez les bonnes pratiques (DDD, Clean Architecture, tests automatisés, résilience, performance). En tant que référent technique, vous serez également impliqué dans la gestion des incidents majeurs, l’amélioration continue des applications et la montée en compétence des développeurs plus juniors. Votre rôle combinera leadership technique, vision stratégique et excellence opérationnelle.
Freelance

Mission freelance
Engineering Manager Reliability & Operations

Axysse
Publiée le
CI/CD
Management

1 an
580-720 €
Île-de-France, France
Dans un contexte de transformation et de structuration d’une plateforme digitale à fort enjeu business, nous recherchons un Engineering Manager Reliability & Operations pour piloter des équipes techniques clés et porter une vision d’excellence opérationnelle. 🎯 Votre rôle Vous interviendrez au cœur d’un écosystème technologique critique, avec pour objectif de garantir la fiabilité, la performance et la qualité opérationnelle d’une plateforme à fort volume. À ce titre, vous serez en charge de : Définir et piloter la stratégie engineering (fiabilité, performance, sécurité) Encadrer et faire monter en compétence des équipes techniques (SRE / support / excellence opérationnelle) Structurer et améliorer les processus RUN & delivery Piloter les incidents complexes (niveau L3) et les dispositifs d’investigation Mettre en place et suivre des KPIs techniques ET business (SLA, MTTR, taux de succès, conversion…) Collaborer avec les équipes produit, techniques et partenaires pour garantir une exécution fluide Contribuer à la veille technologique et à l’amélioration continue des pratiques (CI/CD, automatisation, observabilité…) 🛠️ Environnement technique Cloud & Infra : AWS (Lambda, ECS, SQS, DynamoDB…), On-Premise (Linux, Tomcat…) Stack : Java / Spring Boot / Vue.js / Node CI/CD : GitLab, Terraform, Ansible Observabilité : Splunk Outils : Jira, ServiceNow, API Gateway 💡 Pourquoi rejoindre cette mission ? Un rôle stratégique avec un fort impact sur la performance d’une plateforme critique Des enjeux mêlant engineering, business et organisation Un environnement technique moderne et en évolution continue Une opportunité de structurer durablement des équipes et des pratiques
Freelance
CDI

Offre d'emploi
Senior Software Engineer Java – Spring Boot & AWS

KLETA
Publiée le
AWS Cloud
Java
Springboot

3 ans
Paris, France
Nous recherchons un Senior Software Engineer Java pour concevoir, développer et faire évoluer des applications cloud natives sur AWS dans un environnement industriel et à forte exigence de qualité. Vous interviendrez sur des architectures modernes basées sur Spring Boot, microservices et API REST, en intégrant nativement les services AWS (ECS/EKS, Lambda, S3, RDS, SQS/SNS, EventBridge). Vous serez responsable de la qualité du code, de la performance et de la maintenabilité des applications, en appliquant des bonnes pratiques de conception (DDD, Clean Architecture, tests automatisés, observabilité applicative). Vous travaillerez en étroite collaboration avec les équipes DevOps et SRE pour intégrer les applications dans des pipelines CI/CD, garantir une exploitation fiable et optimiser la résilience en production. Vous participerez aux choix d’architecture, aux revues de code et à l’amélioration continue des pratiques de développement. Vous serez également amené à analyser des incidents, proposer des améliorations techniques et accompagner des développeurs plus juniors dans leur montée en compétence.
CDI

Offre d'emploi
Data Engineer

Recrut Info
Publiée le
AWS Cloud
Data Lake
Python

45k-55k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au Head of Data, vous participerez aux développements de la plateforme data. Dans un contexte cloud-first (AWS), vos principales missions seront les suivantes : - Concevoir, déployer et maintenir des systèmes de données résilients, sécurisés et scalables : bases de données, data warehouses, data lakes, traitements batch et temps réel, flux d’ingestion et transformations de données. - Développer, industrialiser et superviser des pipelines de données de type ETL/ELT. - Garantir la structuration, la qualité et la bonne gouvernance des données au sein des différents environnements de stockage. - Mettre en œuvre des solutions de Business Intelligence et de data visualisation telles que Power BI, afin de faciliter l’analyse et la prise de décision. - Répondre aux besoins de mise à disposition des données, de mise en production des modèles et d’optimisation des performances. - Concevoir et déployer des solutions d’exposition de la donnée via des API internes et externes. - Contribuer à la mise en œuvre de projets IA sur différents piliers métiers et business. - Sécuriser les architectures techniques et les échanges entre services en appliquant les meilleures pratiques de sécurité : IAM, gestion des habilitations, principe du least privilege, etc. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité)
Freelance

Mission freelance
Développeur Full Stack orienté Frontend (React / Data Applications)

█ █ █ █ █ █ █
Publiée le
DevOps
Docker
Javascript

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Développeur fullstack (H/F)

█ █ █ █ █ █ █
Publiée le
Application web
Git
Javascript

Le Thor, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
DevOps Engineer Senior

Aneo
Publiée le
AWS Cloud
Kubernetes
Python

7 mois
500-680 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer, un devOps (vous) et un data Engineer. Ce qu’il vous faudra démontrer: ● Mise en œuvre de stacks data : Expérience pratique de mise en œuvre d’EMR ainsi que de clusters hors service managé EMR (donc, sur EC2, Batch, ou EKS). Expérience sur Kubernetes ● Architectures lakehouse modernes : expérience pratique avec Iceberg : recul sur l’interopérabilité multi-moteurs (Spark/PyIceberg), gestion des permissions. ● Infrastructure AWS & IaC : Solide maîtrise du déploiement de plateformes de données de qualité production sur AWS en utilisant Terraform. ● Observabilité & FinOps : Expérience dans la mise en œuvre du tagging d'allocation des coûts, la construction de tableaux de bord CloudWatch pour 1) le suivi des jobs et des coûts, et la conception de mécanismes d'application de quotas/budgets pour les plateformes de recherche multi-tenants et 2) le suivi des performances des applications Data. Compétences techniques -> Bonne maitrise et expérience de EKS -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM (gestion multi-comptes) -> Avoir déjà touché a du Iceberg est un plus -> Maitrise de Terraform -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Freelance

Mission freelance
Ingénieur DevOps - Confirmé - FREELANCE - Le Havre H/F

GROUPE ARTEMYS
Publiée le
IAM

1 mois
76600, Le Havre, Normandie
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Dans le cadre d’une mission chez l’un de nos clients grand compte situé au Havre, nous recherchons un Ingénieur DevOps confirmé en freelance. Votre mission (si vous l’acceptez) : Administrer et maintenir l’infrastructure AWS (déploiement, configuration, sécurisation). Automatiser les déploiements via des pipelines CI/CD. Industrialiser l’environnement avec de l’Infrastructure as Code (Terraform, Ansible…). Gérer la conteneurisation des applications (Docker, éventuellement Kubernetes). Assurer le monitoring, le support technique et l’amélioration continue de la plateforme. L’environnement technique : Cloud AWS (EC2, VPC, IAM, S3, services associés). Outils CI/CD (GitLab CI, Jenkins ou équivalent). Infrastructure as Code : Terraform, Ansible. Conteneurisation : Docker, avec notions Kubernetes appréciées. .NET. Vous, notre perle rare : Vous êtes Ingénieur DevOps avec une solide expérience d'au moins 5 ans incluant des environnements AWS, capable d’intervenir de manière autonome sur l’automatisation, le déploiement et l’exploitation d’infrastructures cloud. Vous devez également avec une maitrise de .NET. Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : TJ : A définir selon votre expérience Durée de mission : 3 à 6 mois Rythme de télétravail : 3 jours de télétravail possibles Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Freelance
CDI

Offre d'emploi
Engineering Manager Reliability & Operations – Plateforme Paiement (H/F)

CITECH
Publiée le
Site Reliability Engineering (SRE)

12 mois
60k-75k €
500-600 €
Évry, Île-de-France
CITECH recrute ! 👌 Dans le cadre de la transformation et de l’optimisation de sa plateforme de paiement globale , un acteur majeur du secteur hospitality / e-commerce renforce son organisation engineering. La tribe Payment , composée d’environ 30 collaborateurs , conçoit, fait évoluer et opère l’ensemble de la plateforme de paiement du groupe. Afin de soutenir une réorganisation stratégique visant à centraliser les activités de fiabilité, performance et support , nous recherchons un Engineering Manager Reliability & Operations pour piloter deux équipes clés : Platform Team (SRE) : fiabilité, performance et automatisation de la plateforme Excellence Team : performance business, administration et support L3 L’objectif : garantir l’excellence technique et business de la plateforme de paiement . Description du poste En tant qu’ Engineering Manager Reliability & Operations , vous interviendrez sur trois axes majeurs : Pilotage des équipes Platform & Excellence Manager et structurer les équipes SRE et Excellence Mettre en place les rituels engineering (health checks, synchronisation équipes, amélioration continue) Appliquer les principes Team Topologies (platform / stream aligned teams) Excellence opérationnelle & fiabilité de la plateforme Définir et piloter les SLO / SLA Déployer les pratiques SRE et DevOps Améliorer la résilience et l’observabilité Industrialiser les processus d’exploitation et de delivery Pilotage business et opérationnel Superviser le support L3 et la gestion des incidents Piloter les activités d’administration (onboarding partenaires, configuration des moyens de paiement) Suivre et améliorer les KPIs business et techniques : taux de conversion success rate MTTR disponibilité SLA contractuels Environnement technique Infrastructure On-premise : Linux RedHat, Tomcat, F5, Sybase Cloud : AWS Serverless Stack technique Java / Spring / Spring Boot VueJS Node / Maven DevOps & CI/CD GitLab Terraform Ansible Cloud & services AWS ECS Fargate Lambda SQS / SNS / EventBridge Aurora / DynamoDB S3 / CloudFront ALB / WAF Observabilité & outils Splunk (Logs & Observability) ServiceNow Jira Tableau (KPIs business) Apigee (API Gateway)
Freelance

Mission freelance
Expert tests de performance

CAT-AMANIA
Publiée le
JMeter
Performance testing

6 mois
400-700 €
Paris, France
Votre rôle et vos principales missions En tant que Consultant Test de Performance vous serez en charge du cadrage et de l’exécution des tests de performance. Responsabilités principales Assurer le pilotage complet et la réalisation opérationnelle des tests de performance et de charge, depuis la phase de cadrage (stratégie, périmètre, exigences, architecture cible) jusqu’à l’exécution (scripts, campagnes, analyses, recommandations). 1. Cadrage - Définition et préparation des tests de performance Objectifs : Garantir un cadrage clair, complet et industrialisable des campagnes de tests de performance, en alignement avec : · les enjeux métier (SLA, coûts, criticité) · les contraintes techniques (architecture, volumétrie, sécurité) · les objectifs de performance (latence, throughput, capacité, endurance, robustesse) Responsabilités clés 1.1. Analyse du besoin et des exigences · Recueillir les besoins métier et techniques auprès des PO, architectes, équipes projets. · Identifier les objectifs : seuils de charge, scénarios critiques, SLA, KPI. · Étudier le fonctionnement applicatif et les flux techniques (IHM, API, batch). 1.2. Analyse d’architecture · Examiner l’architecture technique, logicielle et cloud · Identifier les composants sensibles : bases de données, middleware, frontaux, bus, API gateways, queues. · Proposer si besoin des évolutions ou optimisations préalables à la campagne. 1.3. Définition de la stratégie de test · Définir les types de tests : charge stress / limites endurance / vieillissement tests aux pics robustesse / défaillance · Déterminer les environnements nécessaires et leurs prérequis. · Proposer des outils adaptés : JMeter, Gatling, NeoLoad, LoadRunner, Performance Center. 1.4. Élaboration des plans de tests · Conception détaillée des scénarios utilisateurs simulés. · Définition du pacing, des répartitions, des montées en charge, des jeux de données. · Spécification des métriques collectées : applicatives (logs, APM, temps de réponse) systèmes (CPU, I/O, mémoire, réseau) infrastructure (monitoring cloud / on-prem) 1.5. Organisation & pilotage · Planification des campagnes. · Coordination avec les équipes Dev / Ops / Réseau / Infra. · Animation des ateliers de cadrage et réunions clés. 2. Exécution — Réalisation opérationnelle des tests de performance Objectifs : Construire, exécuter et analyser les tests de performance afin de : · valider les exigences de charge · détecter les bottlenecks · sécuriser les mises en production · recommander des optimisations techniques Responsabilités clés 2.1. Préparation de l’environnement · Vérification de la conformité des environnements (volumétrie, monitoring, données) · Mise en place ou adaptation de la collecte des métriques 2.2. Conception et réalisation des scripts · Développement de scripts de charge (Web, API REST, Webservices, message brokers — Kafka, MQ…). · Gestion des corrélations, paramètres, jeux de données, injections massives. · Validation technique des scripts avec les équipes applicatives. 2.3. Exécution des campagnes · Lancements contrôlés et pilotés des tests. · Gestion du Run : incidents, ajustement de charge, redémarrages, validations. · Réalisation de campagnes répétées selon besoin (1 à 2 campagnes / semaine, selon contexte). 2.4. Analyse et diagnostic · Analyse des résultats : temps de réponse taux d’erreur saturation CPU/RAM/I/O comportement des backend et middleware · Identification des goulots d'étranglement et points de contention. · Propositions de solutions correctives : dimensionnement, tuning (BD, JVM, Kafka, API), optimisation réseau, configuration AWS. 2.5. Reporting & restitution · Reporting journalier/hebdomadaire. · Rédaction de rapports de test de performance : synthèse exécutive détails techniques recommandations · Présentation aux équipes projet et au management. 3. Compétences clés attendues Techniques · Outils de performance : JMeter, Gatling, NeoLoad, LoadRunner, Performance Center · APM / Observabilité : Grafana, Kibana, Elastic Stack, Dynatrace, AppDynamics · Architectures cloud AWS : EC2, ECS/ECR, Lambda, VPC, WAF, CloudWatch, autoscaling · Architectures microservices : Kafka, API Gateway, Tomcat, PostgreSQL, Oracle… · Scripting : Python, Shell, Java / Scala · CI/CD : Jenkins, XLD/XLR, Terraform/Terragrunt Méthodologies · Agile (Scrum/Kanban) · Cycle en V · Stratégie de test · Cadrage & AMOA technique Soft skills · Capacité de pilotage · Aptitude à vulgariser les résultats techniques · Communication transverse (Dev, Ops, Réseau, Métier) · Analyse & diagnostic 4. Livrables attendus Volet Cadrage · Stratégie de tests de performance · Plans de tests détaillés · Dossier d’architecture testée · Planning des campagnes · Environnement prêt à l'exécution Volet Exécution · Scripts de test · Rapports d’exécution de campagne · Analyses détaillées et synthèses exécutives · Recommandations & plan d’action · Contribution à l’amélioration continue Environnement & outils · Jira, Confluence, Xray · Cucumber, BDD, Gherkin, Vulcain (outil interne) 🎯Votre profil Formation : Bac+5 - Master avec une spécialisation dans un secteur technique ou commercial ou un équivalent avec une école spécialisée. Expérience : · Entre 8 et 10 ans d’expérience en test de perforamnce · Votre maîtrise des standards ISTQB, votre capacité à structurer des processus robustes et votre aisance à collaborer avec des équipes pluridisciplinaires font de vous un véritable référent qualité. · Vous savez allier vision stratégique et opérationnalité, tout en accompagnant les équipes vers des pratiques plus matures. · Solide expérience du travail en environnement transverse, avec une capacité démontrée à mobiliser et influencer les équipes par l’impact et la collaboration. Langues : Français courant (C2), Anglais professionnel (B2-C1)
CDI

Offre d'emploi
Responsable Data Platform

Recrut Info
Publiée le
Amazon Redshift
AWS Cloud
Data governance

55k-65k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au CTO, vous encadrerez un Data Engineer et prendrez la responsabilité de la plateforme data et des initiatives d’ingénierie data. Dans un contexte cloud-first (AWS) et de structuration de la stratégie data, votre rôle consistera à définir l’architecture cible, organiser les flux de données et piloter la mise en œuvre des solutions permettant de soutenir les enjeux métiers et business. À ce titre, vos principales missions seront les suivantes : - Définir et piloter l’architecture data cible (Data Lake, Data Warehouse, flux batch et temps réel). - Aligner les initiatives data avec les priorités business et métier, et structurer la roadmap associée. - Concevoir et faire évoluer la plateforme data et les solutions techniques sous-jacentes dans un environnement cloud AWS. - Définir les standards d’ingestion, de transformation et demodélisation des données (dbt pour la transformation notamment). - Mettre en place les mécanismes d’exposition des données via APIs ou services internes/externes. - Structurer les pratiques de gouvernance de données, data quality et data lifecycle. - Superviser les plateformes permettant le déploiement des cas d’usage Data Science et IA. - Piloter les partenaires et prestataires intervenant sur les projets data et garantir la qualité des livrables. - Assurer le suivi des coûts de la plateforme data et optimiser l’usage des ressources cloud (FinOps). - Contribuer aux réflexions autour de l’évolution de l’écosystème data, notamment sur les solutions d’intégration (ex. iPaaS). Le poste combine vision d’architecture, capacité technique et pilotage, avec une part d’exécution technique mais une orientation progressive vers le pilotage et la structuration. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité),
Freelance

Mission freelance
Data Analytics et platform Azur ou AWS IA Anglais 480 e par jour

BI SOLUTIONS
Publiée le
API Platform
AWS Cloud

2 ans
400-480 €
Île-de-France, France
Data Analytics et platform Azur ou AWS IA Anglais 480 e par jour Rôles et responsabilités En tant que membre de notre squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donne e ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA • A l’aise dans les interactions avec les parties prenantes. • Force de proposition et désireux(se) d’apprendre en continu. Compétences - Compétences nécessaires (2 ans d’expérience minimum) : Administration de datalake : • Exploitation d’un datalake cloud (AWS) • Gestion des stockages (S3), schémas, lifecycle rule policies • Sécurité, IAM, accès, gouvernance data • Gestion VPC, NSG, ACLs • Fiabilité, performance, coûts Développement de micro services • Python • APIs (REST, event driven) Administration plateforme • Terraform • CI/CD et Infra as Code • GitHub, GitHub Action • Déploiement containerisé (EKS/ECS) • Monitoring et supervision - Langues : Anglais et Français 480 e par jour
Freelance

Mission freelance
IT Support Engineer - £300PD – Hybrid

INVESTIGO
Publiée le

300 £GB
Angleterre, Royaume-Uni
IT Support Engineer - £300PD – Hybrid A global financial technology organisation is looking for a Senior Support Engineer to take ownership of its Microsoft 365 environment, network infrastructure and cloud services. This is a senior hands-on role combining business-as-usual operations with transformation projects, ideal for an engineer who enjoys working across Microsoft 365, networking and cloud platforms while acting as a technical escalation point within the team. Key Responsibilities: Manage and support the Microsoft 365 estate (Exchange Online, Teams, SharePoint, OneDrive, Outlook) Administer Entra ID (Azure AD), conditional access, MFA and Intune device management Support network infrastructure including VPN, routing, VLANs, DNS and DHCP Maintain and optimise AWS cloud services (EC2, S3, VPC, IAM) or Azure equivalents Manage identity and access management, SSO integrations and authentication policies Automate tasks using PowerShell scripting Act as a technical escalation point, mentoring junior engineers and supporting infrastructure projects Requirements: 5+ years supporting Microsoft 365 in an enterprise environment Strong experience with Exchange Online, Teams, SharePoint, Entra ID and Intune Solid networking knowledge (subnets, routing, VLANs, DNS, DHCP) Experience supporting AWS or Azure cloud infrastructure PowerShell automation skills Strong troubleshooting ability and clear communication skills Please make an application if you feel this position may be relevant
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Freelance

Mission freelance
Data Engineer (F/H)

CELAD
Publiée le

1 an
450-550 €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

45k-55k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
41 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous