Trouvez votre prochaine offre d’emploi ou de mission freelance Web service

Votre recherche renvoie 609 résultats.
Freelance

Mission freelance
TECH LEAD - AWS DATA ENGINEER

CHOURAK CONSULTING
Publiée le
Amazon Redshift
Amazon S3
Apache Airflow

3 mois
400-700 €
Île-de-France, France
Nous recherchons plusieurs AWS Data Engineers Seniors pour renforcer une équipe Data Platform . 🎯 Contexte de la mission Vous intégrerez une équipe en charge de la plateforme Data , avec des enjeux forts de scalabilité, industrialisation et fiabilité des flux de données . Les missions s’inscrivent dans un environnement cloud moderne, orienté bonnes pratiques et performance. ⚙️ Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables . Contribuer à l’évolution de la plateforme Data . Mettre en place et maintenir l’ infrastructure as code . Participer à l’industrialisation des traitements (CI/CD, containerisation). Travailler en collaboration avec les équipes Data, Produit et Architecture. Être force de proposition sur les choix techniques et les optimisations.
Freelance

Mission freelance
DevSecOps AWS - Lyon

Tenth Revolution Group
Publiée le
AWS Cloud

3 ans
100-500 €
Lyon, Auvergne-Rhône-Alpes
Le DevSecOps contribue à l’intégration de la sécurité au sein du cycle de développement logiciel, tout en pilotant et optimisant les pipelines CI/CD et les environnements techniques. Il intervient sur la mise en place, l’automatisation et la sécurisation des processus de développement, de déploiement et d’exploitation. Il assure également la supervision des plateformes, la gestion des incidents, l’amélioration continue et le soutien aux équipes projets. Ses responsabilités couvrent notamment : L’automatisation du cycle de vie applicatif et l’industrialisation des déploiements L’intégration de solutions de sécurité dans les pipelines CI/CD La gestion et l’évolution des infrastructures Cloud et On‑Premise Le monitoring, l’observabilité et la performance des systèmes Le support aux équipes Dev, Ops et Sécurité La contribution à la qualité, à la fiabilité et à la sécurité des produits numériques
Freelance

Mission freelance
AWS Platform Engineer – Environnement Data & Analytics

Comet
Publiée le
AWS Cloud

1 an
400-550 €
Île-de-France, France
Dans le cadre d’un programme de transformation Data & Analytics, vous rejoignez une équipe en charge de la construction et de l’évolution d’une plateforme cloud AWS. L’environnement est en pleine transformation technologique avec des enjeux forts autour de la gouvernance, la sécurité et la performance. Rôles & responsabilités Au sein de l’équipe Data & Analytics Platform : Développement et mise à jour de l’infrastructure Terraform (Infrastructure as Code) Mise en œuvre des règles de sécurité et des bonnes pratiques cloud Gestion et optimisation des environnements AWS Administration du datalake (stockage, lifecycle policies, gouvernance data) Gestion des VPC, NACLs, IAM Conception et maintenance des pipelines CI/CD Déploiement de microservices conteneurisés (EKS / ECS) Monitoring & supervision Documentation technique et accompagnement des équipes Compétences requises (minimum 2 ans d’expérience AWS) Cloud & Data Exploitation d’un datalake AWS S3 (schemas, lifecycle policies) Gouvernance & sécurité des données Performance & optimisation des coûts DevOps / Infra Terraform CI/CD GitHub / GitHub Actions Infrastructure as Code Docker Monitoring Développement Python APIs REST (event-driven apprécié)
Freelance

Mission freelance
Data Engineer AWS (H/F)

HOXTON PARTNERS
Publiée le
AWS Cloud
Big Data
Data Lake

2 ans
350-450 €
Liège, Belgique
Nous recherchons un Data Engineer AWS pour intervenir sur l’exploitation et l’évolution d’une plateforme Data & Analytics dans un contexte de projet structurant. La mission s’inscrit dans un programme de maintenance et d’industrialisation des solutions Cloud et Big Data. Missions principales : Assurer le support applicatif et technique de niveau 1 et 2 sur les solutions Data. Participer à la maintenance évolutive et à l’amélioration continue des plateformes existantes. Concevoir et développer des solutions Data & Analytics en respectant les standards de qualité et de performance. Rédiger la documentation technique et fonctionnelle liée aux livrables. Partager les bonnes pratiques et contribuer à la montée en compétences collective. Estimer les charges, participer à la conception technique et au déploiement des solutions.
CDI
Freelance

Offre d'emploi
Techlead Data Engineer | AWS | Databricks | Big Data

Hexateam
Publiée le
AWS Cloud
Databricks
Python

36 mois
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
CDI

Offre d'emploi
DevOps SRE Cloud AWS H/F - Paris

Webnet
Publiée le
Ansible
CI/CD
Cloud

73k-80k €
Paris, France
Dans le cadre d'une intégration définitive chez l'un de nos clients, nous sommes à la recherche d'un DevOps Cloud. Vous intégrez l'équipe R&D Cloud, et serez capable de structurer et cadrer l’ensemble des activités CI/CD et observabilité. Le poste combine expertise technique, vision d’architecture et responsabilité opérationnelle. Vous êtes responsable de la fiabilité, de l’automatisation et du maintien en condition opérationnelle des plateformes Cloud. Vous intervenez sur trois axes majeurs : Structuration et fiabilisation des pipelines CI/CD Mise en place et pilotage de la stratégie d’observabilité Support technique avancé et accompagnement des équipes Vous aurez pour missions : CI/CD & Automatisation Mise en place et optimisation des pipelines CI/CD Configuration et maintien des outils TeamCity et Bitbucket Pipelines Création et maintenance des scripts et jobs de déploiement en production Développement et maintenance des scripts Terraform et Ansible Instanciation des composants nécessaires au déploiement des produits Automatisation et fiabilisation des mises en production Observabilité & MCO Définir et cadrer la stratégie d’observabilité Choisir et implémenter la stack (OpenTelemetry, Datadog, Prometheus…) Mettre en place le monitoring, l’alerting et les dashboards Définir les indicateurs de maintien en condition opérationnelle Optimiser les performances, la scalabilité et les coûts Support & Collaboration Support de niveau 3 Accompagnement de l’équipe Digital Services dans le traitement des demandes clients Gestion des accès, certificats et sujets liés à la sécurité Contribution à la stratégie Cloud et aux bonnes pratiques
Freelance
CDD

Offre d'emploi
Ingénieur Technique / Support L3 Automatisation (Profil Confirmé)

SCC France SAS
Publiée le
AWS Cloud
VMware

12 mois
Malakoff, Île-de-France
Contexte La mission se déroule au sein d’une DSI d’un grand groupe industriel, en interaction avec de nombreuses équipes techniques (Infrastructure, Réseau, Cloud, Cyber, Applications, Bases de données, AD, PKI, etc.). Le consultant interviendra sur le support L3 et la coordination opérationnelle autour des services d’automatisation. Objectifs de la mission Le consultant confirmé aura pour rôle principal de : 1. Support L3 et résolution d’incidents Prise en charge des tickets L3 prioritaires liés aux automatisations (VMware, Windows 11, environnements serveurs). Participation aux sessions de diagnostic avec les équipes Réseau, Cyber, OS, Cloud… Contribution au maintien en conditions opérationnelles des workflows d’automatisation (shift France/Inde). 2. Suivi des impacts post‑projets Accompagnement après les mises en production majeures, notamment : Projets de migration cloud Obsolescences OS / logiciels Harmonisation de l’antivirus et du DLP Unification des GPO Identification et suivi des impacts sur le périmètre Automatisation 3. Participation à des projets techniques Participation aux évolutions d’architectures (ex : authentification, HA vs standalone). Contribution aux travaux de conformité Cyber. Suivi du cycle de vie des outils d’automatisation : Orchestrator UiPath Studio / Assistant Power Automate Desktop Task Capture 4. Études d’impact Réalisation d’analyses sur les projets Réseau / Cyber pouvant affecter les automatisations : Unification du proxy Unification AD Hardening Office Chantiers réseau structurants
Freelance
CDI

Offre d'emploi
Lead Developer Java - Spring Boot & AWS

KLETA
Publiée le
AWS Cloud
Java
Springboot

3 ans
Paris, France
Nous recherchons un Lead Developer Java pour piloter techniquement des équipes de développement travaillant sur des applications cloud natives hébergées sur AWS. Vous serez responsable de la conception des architectures logicielles, de la définition des standards de développement et de la garantie de la qualité technique des livrables. Vous interviendrez sur des environnements basés sur Spring Boot, microservices et APIs REST, en intégrant les services AWS (ECS/EKS, Lambda, RDS, S3, SQS/SNS, EventBridge). Vous accompagnerez les équipes DevOps et SRE pour assurer une intégration fluide dans les pipelines CI/CD, une observabilité avancée et une exploitation fiable en production. Vous animerez des revues de code, challengez les choix techniques et structurerez les bonnes pratiques (DDD, Clean Architecture, tests automatisés, résilience, performance). En tant que référent technique, vous serez également impliqué dans la gestion des incidents majeurs, l’amélioration continue des applications et la montée en compétence des développeurs plus juniors. Votre rôle combinera leadership technique, vision stratégique et excellence opérationnelle.
Freelance
CDI

Offre d'emploi
Architecte Cloud AWS – Consultant Transformation & Migration Cloud

KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform

3 ans
Paris, France
Dans le cadre de programmes de transformation numérique, nous recherchons un Architecte Cloud AWS pour accompagner nos clients dans leurs projets de migration et de modernisation vers le cloud. Vous interviendrez sur des missions de cadrage, d’audit et de définition de trajectoires cibles adaptées aux contraintes techniques, organisationnelles et métiers. Vous analyserez les architectures existantes, identifierez les risques et proposerez des solutions optimisées en matière de performance, de sécurité et de coût. Vous participerez à la conception de Landing Zones AWS, à la structuration des environnements multi-comptes et à la mise en place de bonnes pratiques de gouvernance. En collaboration avec les équipes DevOps et Sécurité, vous contribuerez à l’industrialisation des déploiements et à l’adoption des principes cloud native. Vous aurez également un rôle pédagogique en accompagnant les équipes client dans leur montée en compétence sur AWS et en partageant les bonnes pratiques d’architecture.
CDI

Offre d'emploi
Data Engineer | Databricks

Hexateam
Publiée le
AWS Cloud
Databricks
Python

Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Freelance

Mission freelance
Développeur Python / Full‑Stack orienté AWS

Tenth Revolution Group
Publiée le
AWS Cloudwatch
Python

3 mois
450-500 €
Lyon, Auvergne-Rhône-Alpes
Notre client une startup basée à Lyon , accélère la mise en place d’une architecture microservices pour ses produits data/scientifiques. Nous recherchons un(e) Développeur(euse) Python orienté AWS (SQS/SNS) pour renforcer l’équipe et livrer des services robustes et scalables. Votre mission Concevoir, développer et maintenir des microservices Python (API, workers, traitements asynchrones). Mettre en œuvre des patterns event‑driven sur AWS ( SQS/SNS , DLQ, retries/backoff, idempotence, FIFO vs Standard). Contribuer à l’industrialisation : CI/CD , conteneurisation, observabilité (logs/métriques/alertes). Collaborer avec les équipes Produit/Data/Scientifiques pour cadrer les besoins et livrer vite et bien. Partager les bonnes pratiques : tests, revues de code, qualité et sécurité. Stack & environnement Back : Python (FastAPI/Flask/Django), Pydantic, tests (Pytest), typing. AWS : SQS, SNS , (Lambda/ECS/EKS en plus, c’est un plus), CloudWatch. Architecture : Microservices , REST/async, event‑driven . Industrialisation : Docker, GitHub/GitLab CI, monitoring/observabilité. Bonus : notions React/TypeScript (front léger), OpenTelemetry, IaC (CDK/CloudFormation/Terraform).
Freelance

Mission freelance
Développeur Node. JS AWS/ Amazone Connect (h/f)

emagine Consulting SARL
Publiée le

1 mois
490-550 €
Bacoor, Philippines
Résumé: Le développeur AWS/Amazon Connect a pour mission principale d'assurer la stabilité et l'évolution de la plateforme Contact Center utilisée par plusieurs centres de contacts. En plus du développement, ce poste nécessite de travailler sur des processus de déploiement et de troubleshooting. Responsabilités: Assurer la stabilité et l'évolution des parcours téléphoniques / IVR. Développer et maintenir des composants AWS serverless (APIs, intégrations, data pipelines). Participer aux déploiements et au troubleshooting sur les environnements DEV / OAT / PROD. Évoluer sur Amazon Connect avec accompagnement interne prévu. Must Haves: Minimum 5 ans d'expérience sur AWS / serverless / environnements de production. Excellente maîtrise du développement en Node.js et/ou Python. Solide connaissance des infrastructures cloud AWS. Aisance dans un environnement RUN + BUILD. Autonomie, esprit d'équipe et bonne communication. Nice to Haves: Expérience en Amazon Connect en production. Connaissance de Contact Lens et de sujets voix. Expérience d’intégration avec Salesforce et APIs (CTI). Connaissance en data & reporting orientée contact center. Expérience avec Apigee (bonus). Other Details: Équipe: 3 développeurs AWS/Connect, 1 Tech Lead, 1 Product Owner, 2 QA. Process de mise en production: Change Request -> validation -> fenêtre de MEP. Environnement technique: Amazon Connect, AWS Lambda, Node.js, Terraform, etc.
Freelance

Mission freelance
Ingénieur de production DevOps Aws

AEROW
Publiée le
AWS Cloud
Control-M
ITIL

8 mois
430-550 €
Paris, France
. Maintien du plan de production et de l'ordonnanceur Control-M (scripting batch en shell) . Supervision, monitoring et alerting de l'ensemble des Assets via l'outil Datadog . Déploiements des Assets via process Rundeck en PreProduction et en Production en HNO et en HO · Contributions aux projets d'évolution et/ou de mise en place de solution métier (Asset ou service) Environnement: AWS, EKS, Terraform . Traitement d'incidents N1/N2 de nature infra et applicative sur l'ensemble des environnements (Recette, PreProd, Prod) -Expérience sur les pratiques ITIL demandées
Freelance

Mission freelance
Architecture Solution - Expert Cloud AWS

Codezys
Publiée le
Amazon S3
AWS CloudFormation

12 mois
Malakoff, Île-de-France
Accompagnement sur l’identification, la rédaction et l’adoption de patterns d’architecture : ce rôle vise à harmoniser les pratiques architecturales, améliorer la cohérence technique entre les différents projets, et assurer la conformité des solutions aux standards internes. Le périmètre couvre les environnements Cloud (notamment AWS) ainsi que les infrastructures on-premise. L’architecte pourra également être sollicité pour accompagner ponctuellement des projets clients, en apportant une expertise approfondie en architecture ou en participant à la mise en œuvre concrète des patterns définis. LOGISTIQUE : Localisation : Malakoff Date de début : 9 mars 2026 Date de fin prévue : 15 septembre 2026 (renouvelable) Niveau de séniorité : Expert Panel concerné : Transformation Type de prestation : Expertise – Intégration – Conseil Certifications requises : AWS Solutions Architect Objectifs et livrables : Environnement technique de la prestation : Cloud public (AWS) et solutions SaaS Cloud privé on-premise Plateformes de virtualisation et de conteneurisation Middleware de streaming et d’intégration Écosystèmes DevOps et CI/CD Environnement industriel Prestation attendue : Rédaction et évolution des patterns : Analyser les besoins techniques Concevoir, formaliser et maintenir des patterns d’architecture (Cloud AWS, infrastructures on-premise, solutions hybrides, réseaux, sécurité, data…) Garantir la cohérence des patterns avec les standards de l’entreprise et les contraintes opérationnelles Collaborer avec les experts techniques pour valider la pertinence, la maturité et la faisabilité des patterns Assurer la communication et la diffusion des patterns auprès des équipes techniques et projets Travailler en étroite collaboration avec les équipes d’infrastructure, réseau, sécurité et DevOps Support et accompagnement des projets : Fournir un soutien architectural lors de certains projets clients Aider à l’adoption des patterns définis Participer à des revues d’architecture (design reviews, comités d’architecture…) Conseiller les équipes projets pour garantir le respect des bonnes pratiques et des standards architecturaux
Freelance

Mission freelance
Architecte Data Snowflake / Cloud / IA Générative – Expérimenté H/F

LeHibou
Publiée le
AI
AWS Cloud
Snowflake

3 ans
500-560 €
Roubaix, Hauts-de-France
Notre client dans le secteur Banque et finance recherche un/une Architecte Data Snowflake / Cloud / IA Générative – ExpérimentéH/F Description de la mission: Architecte Data Snowflake / Cloud / IA Générative Contexte de la mission Dans le cadre de la synergie IT et du développement de l’IA générative au sein de ses applications, le chapitre Data / Entrepôt de données a la responsabilité de faire évoluer les patterns liés à la plateforme Data Snowflake. La mission s’inscrit au sein d’une équipe composée d’experts IT, avec un focus sur l’administration et l’architecture de la plateforme Snowflake, en France et à l’international. Missions principales Au sein de l’équipe Data, fort de vos expériences d’administration de plateforme Snowflake, vos missions principales seront de : • Concevoir les nouveaux patterns nécessaires sur les périmètres suivants : ingestion de données, manipulation de données et restitution, pour des données structurées et non structurées. • Mettre en œuvre ces patterns sur la plateforme France et à l’international pour qu’ils puissent être utilisés par les équipes Data IT et métiers. • Accompagner les différentes équipes IT et métiers, en France et au sein des Business Units, dans le déploiement et la prise en main de la plateforme Snowflake. Activités détaillées • Contribuer aux cadrages des nouveaux besoins techniques métiers liés à la plateforme Snowflake. • Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc.). • Participer aux choix technologiques de l’offre à mettre en place. • Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux patterns (architecture fonctionnelle, applicative, technique). • Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée. • Documenter les patterns retenus à un niveau détaillé afin de les rendre exécutables pour les autres Business Units. • Être l’interlocuteur privilégié des équipes portant les besoins d’agents/usages IA générative au sein du pôle Data. • Accompagner le déploiement de la solution définie auprès d’une Business Unit principale et des autres Business Units. • Accompagner la prise en main de la plateforme Data.
Freelance

Mission freelance
POT8982 - Un intégrateur AWS Platform Engineer sur Paris 02

Almatek
Publiée le
API

6 mois
Paris, France
Almatek recherche pour l'un de ses clients, un intégrateur AWS Platform Engineer sur Paris 02. Contexte: Dans un environnement en pleine transformation avec des évolutions technologiques rapides, vous rejoindrez une équipe Global Information Technology Services (TGITS). Cette équipe gère la construction et le support de la plateforme Data &Analytics utilisée par l’ensemble des entités de l’entreprise. Rôles et responsabilités : En tant que membre du squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. • Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL : De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donnée ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS. • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA. • A l’aise dans les interactions avec les parties prenantes. • Force de proposition et désireux(se) d’apprendre en continu. Expérience requise : 2 ans d’expérience minimum : Administration de datalake : • Exploitation d’un datalake cloud (AWS) • Gestion des stockages (S3), schémas, lifecycle rule policies • Sécurité, IAM, accès, gouvernance data • Gestion VPC, NSG, ACLs • Fiabilité, performance, coûts Développement de micro-services : • Python • APIs (REST, event-driven) Administration plateforme • Terraform • CI/CD et Infra as Code • GitHub, GitHub Action • Déploiement containerisé (EKS/ECS) • Monitoring et supervision Langues : Anglais et Français
609 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous