Find your next tech and IT Job or contract role.

Your search returns 14 results.
Contractor

Contractor job
AWS DevOps Engineer

Published on

6 months
£250-407
Beith, Scotland, United Kingdom
Hybrid
Our client is looking for a AWS/DevOps Developer for one of their customers based in Glasgow. This role would be working two days a week onsite in Glasgow and rest remotely. This role is Inside IR35. Critical/Mandatory Skills: * Firm understanding of DevOps / CI / CD in an enterprise context with proven experience on PaaS and Cloud deployment options * Knowledge and experience of software development life cycle ideally with Java or Go based development teams * Proven experience with tools such as Jenkins, Gitlab, SonarQube, Docker and platform like OpenShift, Kubernetes , AWS * Infrastructure as Code experience with CloudFormation or Terraform * Passionate to improve developer experience by leveraging latest tools, technologies and industry trends in DevOps landscape Desirable Skills: * An automation mind-set * An exposure to test automation, test driven development (TDD) and agile delivery practices * Understanding of monitoring and observability tools such as AppDynamics, ELK, AWS CloudWatch, AWS XRay etc * Strong communication, verbally and in writing, able to tailor messages appropriately to the audience Roles & Responsibilities: * Collaborating with development and operations teams to identify and address bottlenecks in the software development lifecycle. * Designing and implementing automation tools and frameworks for continuous integration, delivery, and deployment. * Strive to embed consistency and reuse in our Devops estate and gain insight and understanding into the customer contact end to end services and solutions * Work with the wider technology teams across all services and directly support the wider contact centre services/teams and technologies * Continually improve your own skills and knowledge, keeping up LA International is a HMG approved ICT Recruitment and Project Solutions Consultancy, operating globally from the largest single site in the UK as an IT Consultancy or as an Employment Business & Agency depending upon the precise nature of the work, for security cleared jobs or non-clearance vacancies, LA International welcome applications from all sections of the community and from people with diverse experience and backgrounds. Award Winning LA International, winner of the Recruiter Awards for Excellence, Best IT Recruitment Company, Best Public Sector Recruitment Company and overall Gold Award winner, has now secured the most prestigious business award that any business can receive, The Queens Award for Enterprise: International Trade, for the second consecutive period.
Contractor

Contractor job
AWS engineer / Architect

Published on
AWS Cloud
AWS Glue

12 months
550-870 €
Paris, France
Hybrid
Hanson Regan recherche un AWS/ingénieur/Architectes pour une mission de 12 mois basée à Paris Architecte avec Expertise IaC sur AWS, modèle d'habilitation IAM Architecture de la plateforme Data et du Datalab sur Services Data AWS natifs Ingénieurs Data avec Expérience AWS : Ingestions de fichiers simples avec AWS Glue Portage de code Spark2 vers Spark 3 de cloudera vers EMR (mix Python & Scala) Services Data Natifs AWS (GLue, EMR, Tables GLue sur S3 et éventuellement S3Tables Iceberg) Document d'expositionDB/MongoDB En raison des exigences du client, les indépendants doivent pouvoir travailler via leur propre entreprise, car nous ne pouvons malheureusement pas accepter de solutions globales pour cette mission. Veuillez nous contacter au plus vite si vous êtes intéressé.
Contractor

Contractor job
Cloud Engineer (AWS – Media & IoT)

Published on
AWS Cloud

1 month
100-550 €
Paris, France
Remote
Dans un contexte de scale et de renforcement de la roadmap , tu rejoins l’équipe Platform pour concevoir et faire évoluer une Media API stratégique. L’objectif : unifier l’accès aux caméras, flux vidéo/images et transformations média , dans un environnement IoT + serverless , sécurisé et scalable. Media API & Serverless Concevoir et développer une Media API pour interagir avec des caméras (IoT / Edge). Implémenter une architecture API Gateway on top of AWS Step Functions . Créer des endpoints manquants qui ne sont pas couverts par les APIs existantes. Unifier l’accès : caméras images flux vidéo transformations média (processing, déclenchements, workflows) Architecture & Platform Participer aux choix d’architecture cloud (patterns serverless, event-driven). Garantir scalabilité, sécurité et résilience des services. Travailler main dans la main avec les équipes Cloud, Data/ML, Produit et IoT . Sécurité & fiabilité Implémenter une approche Security by design : IAM / permissions secrets management politiques réseau Contribuer à la mise en place de : monitoring & observabilité runbooks gestion des incidents Automatisation Infrastructure as Code (Terraform ou CDK). CI/CD unifié et industrialisé. Participation à l’amélioration continue de la platform.
Permanent

Job Vacancy
Data Engineer AWS

Published on
Amazon S3
AWS Cloud
AWS Glue

40k-45k €
Bordeaux, Nouvelle-Aquitaine
Hybrid
Expérience requise : 5 à 10 ans Anglais obligatoire Compétences recherchées : Data Engineer AWS (S3, Glue, Athena, Python) Tâches à traiter : Compréhension des données scientifiques dans le domaine pharma CMC Clarification des besoins avec les parties prenantes, estimation de l’effort pour la planification PI Bonne connaissance des pratiques Lean & Agile Ingénierie de données AWS : S3, Glue (Jobs/Workflows), Athena Développement ETL/ELT : Python, Glue ETL, évolution de schémas, partitionnement Modélisation de données : modèles de domaine harmonisés, schémas en étoile/flocon, gestion des métadonnées Optimisation SQL : amélioration des performances sous Athena, conception de requêtes optimisées en coût, stratégies de partitionnement/pruning Tests et qualité : tests unitaires/intégration pour les pipelines, frameworks de qualité des données Documentation et transfert de connaissances : runbooks, diagrammes d’architecture, planification et exécution du KT Expérience en migration : stratégie de fonctionnement parallèle, planification du cutover, backfill, rapprochement des données
Contractor

Contractor job
DevOps / Cloud Platform Engineer – AWS & Terraform

Published on
AWS Cloud
CI/CD
DevOps

12 months
550-600 €
Paris, France
Hybrid
Dans le cadre du renforcement de sa plateforme cloud , une grande organisation internationale recherche un DevOps / Cloud Platform Engineer pour intervenir sur la conception, l’industrialisation et l’exploitation d’une plateforme AWS sécurisée et scalable. Vous rejoindrez une équipe Platform Engineering transverse, au service de multiples équipes produits, avec un fort enjeu d’automatisation, de standardisation et de fiabilité. La mission s’inscrit dans la durée (minimum jusqu’à fin 2026, avec possibilité de prolongation). Missions En tant que DevOps / Cloud Platform Engineer , vous interviendrez sur l’ensemble du cycle de vie de la plateforme cloud : Infrastructure & Cloud AWS Concevoir et maintenir une plateforme AWS multi-comptes (Organizations, Control Tower, gouvernance, sécurité). Définir des architectures cloud robustes et alignées avec les bonnes pratiques AWS . Mettre en place et maintenir des blueprints / golden paths pour différents types de workloads : Conteneurs (EKS, ECS, Fargate) Serverless (Lambda) Workloads traditionnels (EC2, Auto Scaling) Infrastructure as Code & Terraform Concevoir et développer des modules Terraform réutilisables (réseau, sécurité, compute, data). Gérer Terraform à l’échelle : Remote state (S3, DynamoDB) Versioning et lifecycle des modules Multi-environnements Détection et correction du drift CI/CD & Automatisation Construire et maintenir des pipelines CI/CD (GitLab CI, Jenkins) pour : Infrastructure et applications Tests automatisés Policy-as-Code (OPA / Conftest) Scans de sécurité (tfsec, Checkov) Déploiements automatisés (Atlantis, Spacelift, Terraform Cloud) Automatiser les tâches récurrentes via scripts Bash/Python ou outils internes. Exploitation, Sécurité & Fiabilité Mettre en place la supervision et l’observabilité : CloudWatch, OpenTelemetry Prometheus / Grafana Datadog, OpenSearch Définir et suivre les SLI/SLO . Assurer la sécurité des environnements : IAM en moindre privilège KMS, gestion des secrets (Secrets Manager, SOPS) Patching, scans IaC et images Participer au support avancé (L2/L3), à la gestion des incidents et aux post-mortems. Migration & Accompagnement Accompagner les équipes dans la migration de workloads on-premise vers AWS : Audits et assessments Choix des patterns d’architecture Adoption des templates et outils Support et coaching des équipes
Contractor

Contractor job
Data Engineer AWS / Snowflake (Urgent)

Published on
Amazon S3
AWS Cloud
Gitlab

6 months
400-550 €
Paris, France
Hybrid
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Contractor

Contractor job
Data Engineer AWS

Published on
AWS Cloud
PySpark
Python

12 months
550-580 €
Paris, France
Hybrid
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Contractor
Permanent

Job Vacancy
Data Engineer AWS / Spark / Scala /Python

Published on
Apache Spark
PySpark
Scala

1 year
40k-56k €
400-600 €
Paris, France
Hybrid
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Contractor
Permanent

Job Vacancy
Senior Data engineer AWS

Published on
Terraform

18 months
40k-45k €
100-550 €
Paris, France
Hybrid
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Contractor

Contractor job
Data Engineer AWS - S3, Glue, Athena, Python

Published on
AWS Glue
Python

6 months
210-480 €
France
Hybrid
Dans le cadre d’un programme data stratégique dans le secteur pharmaceutique (domaine CMC – Chemistry, Manufacturing & Controls), l’entreprise souhaite renforcer son équipe Data Engineering afin de soutenir la migration, l’industrialisation et l’optimisation de ses pipelines analytiques sur AWS. La mission implique une forte collaboration avec les équipes scientifiques, Data, IT et produit, afin de clarifier les besoins métiers, structurer les modèles de données, fiabiliser les flux existants et accompagner les phases de migration vers des architectures modernes. L’objectif est d’améliorer la qualité, la performance, le coût et la robustesse de la plateforme data, tout en garantissant une documentation claire et une montée en compétence durable des équipes internes.
Contractor

Contractor job
Data Engineer AWS - PySpark/Databricks

Published on
Amazon S3
Apache Spark
AWS Cloud

12 months
550-600 €
Paris, France
Hybrid
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
Contractor

Contractor job
DevOps Engineer AWS - Sénior

Published on
Python

18 months
100-500 €
Paris, France
Hybrid
CONTEXTE: Experience: 5 ans et plus Métiers Fonctions : Production, Exploitation, Infrastructure, Devops Engineer Spécialités technologiques : Infrastructure, Cloud MISSIONS Nous sommes actuellement à la recherche d'un profil DevOps expérimenté sur le Cloud AWS. Vous intégrerez une équipe agile rattachée à la direction Cloud Platform. Dans ce cadre, vous serez chargé de l'automatisation des déploiements, de la gestion de l'infrastructure AWS, de la sécurité et de la conformité, de la gestion des logs et des alertes. Vous serez également responsable de la mise en place de solutions conteneurisées et serverless, tout en contribuant activement à l'amélioration des pratiques DevOps et de sécurité au sein de l'organisation. Expertise souhaitée - Forte expérience en ingénierie et en architecture de solutions d'infrastructure AWS - Expérience pratique des concepts suivants : AWS Landing Zone, AWS et de sécurité et stratégie multi-compte AWS - Connaissance approfondie des principes et de la conception de Terraform Infrastructure as Code (IaC). conception. - Expérience pratique de Gitlab et Gitlab-CI - Expérience avérée dans l'écriture de code de haute qualité en Python - Connaissance approfondie de l'infrastructure et des services AWS, y compris, mais sans s'y limiter, Fargate, Lambda, etc. Fargate, Lambda, S3, WAF, KMS, Transit Gateway, IAM, AWS Config, etc.. - Expérience avec les architectures conteneurisées & Serverless. - Expérience sur une solution SIEM, idéalement Splunk. - Expérience pratique des concepts suivants : Approche Shift-left & DevSecOps SBOM, SAST, services de sécurité et de conformité AWS (AWS Config, Inspector, Network Filewall, etc.) - Expérience des meilleures pratiques en matière de journalisation, de surveillance et d'alerte basées sur AWS Cloud et des outils standard de l'industrie, notamment Splunk, CloudWatch logs, Prometheus, Grafana, Alert Manager et PagerDuty.
Contractor

Contractor job
DATA Engineer - AWS(H/F)

Published on
AWS Cloud
Azure DevOps
Data Lake

1 year
510-540 €
Ile-de-France, France
Hybrid
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.
Contractor

Contractor job
Data Engineer AWS (S3, Glue, Athena, Python) 5 à 10 ans/sal

Published on
AWS Glue
Python

6 months
430-520 £GB
Paris, France
Hybrid
Data Engineer AWS (S3, Glue, Athena, Python) 5 à 10 ans Anglais obligatoire Compétences recherchées : Data Engineer AWS (S3, Glue, Athena, Python) Tâches à traiter : Understanding of scientific data in the pharma CMC space Requirements clarification with stakeholders, effort estimation for PI planning Good knowledge of Lean & Agile practices AWS data engineering: S3, Glue (Jobs/Workflows), Athena ETL/ELT development: Python, Glue ETL, schema evolution, partitioning Data modeling: harmonized domain models, star/snowflake schemas, metadata management SQL optimization: Athena performance tuning, cost-aware query design, partition/pruning strategies Testing and quality: unit/integration tests for pipelines, DQ frameworks Documentation and KT: runbooks, architecture diagrams, KT planning and execution Migration experience: parallel-run strategy, cutover planning, backfill, data reconciliation
14 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us