L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 435 résultats.
Offre d'emploi
OPS / DevOps Sénior (H/F)
WINSIDE Technology
Publiée le
Ansible
AWS Cloud
Datadog
1 an
40k-45k €
400-420 €
Lille, Hauts-de-France
Contexte de la mission : Dans le cadre d’une forte augmentation d’activité et de la mise en place d’une nouvelle infrastructure complète destinée à accueillir un projet stratégique, nous recherchons un OPS / DevOps sénior (H/F) pour renforcer une équipe en charge de l’exploitation d’un périmètre fonctionnel critique. La mission s’inscrit dans un environnement cloud, industrialisé et agile , avec un fort enjeu de qualité, de performance et de sécurité. 📍 Localisation : Lille (59800) 📅 Durée : 1 an renouvelable 🏠 Télétravail : 3 jours/semaine Description du poste : En tant qu’OPS / DevOps sénior, vous intervenez sur l’ensemble du cycle d’exploitation et d’industrialisation des applications et infrastructures. À ce titre, vous : Installez, mettez en production, administrez et exploitez les moyens informatiques Garantissez le bon fonctionnement du système d’information en assurant le maintien en conditions opérationnelles et l’évolution des infrastructures et outils Diffusez et développez une culture DevOps au sein de l’équipe Accompagnez les équipes de développement dans l’intégration et le déploiement des solutions dans un système complexe Favorisez l’autonomie de l’équipe et l’automatisation des processus Travaillez dans une démarche agile et d’amélioration continue Missions et livrables : Vous serez notamment en charge de : Concevoir et construire l’infrastructure Cloud AWS Architecture ROSA (Red Hat OpenShift Service on AWS) Oracle, S3, ordonnanceur Mettre en place la chaîne CI/CD complète GitLab CI, Ansible, Terraform Réaliser les tests de résilience de l’application Documenter l’architecture et transférer les compétences pour le RUN Identifier et mettre en place les métriques de supervision et d’observabilité Assurer le RUN de l’application : Mise en production Supervision Debug Gestion des incidents Accompagner les équipes de support dans l’analyse et la résolution des incidents Concevoir et développer les outils DevOps adaptés au produit Être référent sur : L’infrastructure Les plateformes applicatives L’usine logicielle L’industrialisation des déploiements Compétences techniques : Maîtrise des outils CI/CD (GitLab CI, Ansible) Conteneurisation et orchestration : Docker Kubernetes ROSA Bonne connaissance des services AWS Automatisation : Terraform Scripts Monitoring & observabilité : Datadog Bases de données : Oracle (RDS) DocumentDB Pratiques DevOps et/ou Lean 👉 La connaissance du produit IBM Maximo est un atout important . Soft skills : Communication claire, structurée et pédagogique Fort esprit d’analyse et de résolution de problèmes Force de proposition Expérience confirmée en production et en gestion d’applications critiques Capacité à travailler en équipe et à accompagner la montée en compétences
Mission freelance
devOps AWS
W Executive France SAS
Publiée le
AWS Cloud
Terraform
3 ans
400-600 €
Versailles, Île-de-France
Bonjour, je recherche pour l'un de mes clients un(e) devOps AWS. Skills : AWS - Terraform - connaissances EKS Mission : -concevoir et déployer des infrastructures sur AWS -automatiser les déploiements avec Terraform -assurer la scalabilité, la haute disponibilité et la sécurité -mettre en place et maintenir des pipelines CI/CD -automatiser les déploiements applicatifs -implémenter des solutions de monitoring -diagnostiquer les incidents et optimiser les performances N'hésitez pas à revenir vers moi pour des informations complémentaires.
Offre d'emploi
Lead Developer Node.js / AWS
Recrut Info
Publiée le
AWS Cloud
Node.js
52k-67k €
69009, Lyon, Auvergne-Rhône-Alpes
Rattaché·e au Responsable Technique, vous vous positionnerez en amont des équipes de développeurs (plusieurs squads de 3 personnes pour une quinzaine au total) et participerez aux phases d'architecture et de conception des divers logiciels de la société. Vous aurez une position de référent sur les sujets Back-end et accompagnerez la montée en compétence de l'équipe. Environnement technique : Node.js (requis), TypeScript (requis), Jest (souhaité), Docker (requis), AWS (requis), GraphQL (souhaité), GitLab-CI, DDD (souhaité), SQL Server
Mission freelance
Data Engineer
Freelance.com
Publiée le
Amazon Redshift
Apache NiFi
API
1 an
400-480 €
Saint-Denis, Île-de-France
Dans le cadre du développement de son système d’information décisionnel, un grand groupe français renforce sa plateforme data dédiée au pilotage des activités immobilières. La mission s’inscrit dans l’évolution d’un hub de données centralisé , permettant de consolider, partager et valoriser les données métiers pour des usages analytiques avancés : pilotage opérationnel, reporting, data visualisation et ouverture vers des cas d’usage d’intelligence artificielle. Cette plateforme data, déployée depuis 2022, repose sur une architecture Lakehouse moderne dans le cloud AWS , et s’appuie sur des technologies telles que Databricks, NiFi, Redshift et Power BI . L’équipe data actuelle développe et maintient plusieurs applications analytiques visant à améliorer l’exploitation et la qualité des données au service des métiers. En tant qu’ Expert Data Engineer , vous interviendrez sur la conception, l’évolution et l’exploitation du hub de données. Vos principales responsabilités seront : Engineering & Data Platform Assurer la maintenance et l’optimisation des chaînes de traitement existantes (Python, SQL, Databricks, Power BI) Développer de nouveaux pipelines de données pour intégrer de nouvelles sources dans le Data Lake (Batch, API) Participer aux travaux de modélisation et d’urbanisation du hub de données Identifier, collecter, transformer et stocker les données nécessaires à l’alimentation des modèles analytiques Implémenter des algorithmes et traitements avancés exploitant les données du Data Lake Analyse & accompagnement métier Participer aux ateliers avec les métiers afin de formaliser les besoins Rédiger les expressions de besoins et spécifications fonctionnelles Définir les règles de calcul et d’agrégation des indicateurs Proposer des solutions adaptées aux enjeux d’analyse et de pilotage Descriptif de la mission Data visualisation & reporting Concevoir et développer des tableaux de bord et rapports Power BI Automatiser les processus de reporting Produire des indicateurs et restitutions analytiques pour les utilisateurs métiers Documentation & gouvernance Rédiger les spécifications techniques et fonctionnelles Documenter les règles d’alimentation du datawarehouse et les modèles de données Contribuer à la documentation des règles de sécurité et de gouvernance des données Participer aux plans de tests, recettes et supports utilisateurs
Offre d'emploi
Développeur Fullstack – Innovation Lab (AWS / Python) H/F
SQUARE ONE
Publiée le
API REST
AWS Cloud
Github
1 an
40k-55k €
400-600 €
Île-de-France, France
Dans le cadre de projets d’innovation au sein d’une grande DSI, nous recherchons un Développeur Fullstack pour rejoindre une équipe dédiée à l’innovation. Vous interviendrez sur des projets à forte valeur ajoutée, de la phase d’idéation jusqu’au développement, à l’industrialisation et à l’intégration des solutions dans le système d’information. Vos missions Participer aux phases d’idéation et à la définition de nouveaux concepts innovants Évaluer la faisabilité technique des projets Développer des POC et prototypes pour tester les concepts auprès des utilisateurs Être force de proposition sur les choix techniques et technologiques Intégrer les solutions développées dans le SI existant Assurer la transmission et l’industrialisation des projets vers les équipes internes Évaluer des solutions externes (startups, partenaires) dans une logique d’Open Innovation Garantir le respect des bonnes pratiques techniques et de sécurité Participer à la veille technologique et à l’amélioration continue des processus Environnement technique Cloud : AWS (S3, Lambda, API Gateway, IAM, DynamoDB, RDS, Cognito) Langages : Python 3, SQL Infra : Terraform API : REST Data : Data processing / Data engineering Systèmes : Linux Outils : Git ANGLAIS : Pré-requis
Mission freelance
Mission Freelance – Platform Engineer AWS (Disaster Recovery / Warm Pilot)
ARGANA CONSULTING CORP LLP
Publiée le
Argo CD
AWS Cloud
GitLab CI
6 mois
400 €
Paris, France
🚀 Mission Freelance – Platform Engineer AWS (Disaster Recovery / Warm Pilot) 🇫🇷🇲🇦 Nous recherchons des Platform Engineers AWS pour intervenir sur une mission stratégique de mise en place d’une architecture Disaster Recovery (Warm Pilot) sur AWS. 🎯 Votre rôle 🔵 Analyser et challenger l’architecture cible existante (Warm Pilot) 🔵 Concevoir et déployer l’infrastructure via Terraform / Terragrunt 🔵 Mettre en place les mécanismes de failover / failback / réplication / synchronisation des données 🔵 Orchestrer les déploiements via ArgoCD et gérer les configurations avec Helm sur Kubernetes (EKS) 🔵 Participer à l’amélioration des pratiques GitOps et CI/CD via GitLab 🔵 Rédiger la documentation technique et les procédures de reprise (DR) pour le transfert vers les équipes RUN 🚀 Votre impact 🔵 Garantir une haute disponibilité des workloads critiques 🔵 Améliorer la résilience globale de la plateforme cloud 🔵 Assurer une infrastructure propre, scalable et bien documentée 🔵 Faciliter la reprise d’activité rapide en cas d’incident majeur 🛠️ Stack & environnement 🔵 AWS (VPC, Multi-AZ, RDS, etc.) 🔵 Terraform / Terragrunt 🔵 ArgoCD (GitOps) 🔵 GitLab CI/CD 🔵 Kubernetes (EKS) 🔵 Helm 🔵 Environnement Cloud & Production critique 📌 Informations complémentaires 🔵 Mission freelance 🔵 ⏳ Durée : 3 à 6 mois (minimum 3 mois) 🔵 📍 Full remote possible 🔵 🚀 Démarrage : ASAP 🔵 Mission orientée production critique & résilience cloud
Offre d'emploi
Data Engineer | Databricks
Hexateam
Publiée le
AWS Cloud
Databricks
Python
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Offre d'emploi
CONSEILLER, PLATEFORME AWS
Chrome Technologies
Publiée le
AWS Cloud
AWS CloudFormation
Montréal, Québec, Canada
Nous recherchons un Conseiller, Plateforme AWS pour rejoindre notre équipe de conseillers du bureau de Montréal. Ce poste est en mode hybride. Nous prenons en charge les démarches administratives pour obtention d'un permis de travail au Québec. Tâches Relevant du Directeur, Infranuagique, il participera au soutien et à l'amélioration des services infonuagiques, au développement de nouveaux catalogues de produits et au soutien des différentes équipes. Il collaborera avec les autres équipes TI et les fournisseurs, afin de soutenir l'environnement selon les normes et processus établis et d'en assurer la surveillance et le fonctionnement optimal. Le titulaire, en tant que spécialiste, aura pour responsabilité principale d'assurer la stabilité, la disponibilité et la performance des infrastructures infonuagiques AWS. Il participera au soutien et à l'amélioration des services infonuagiques, au développement de nouveaux catalogues de produits et au soutien des différentes équipes, en collaboration avec les autres équipes TI et les fournisseurs. Responsabilités - Concevoir, développer et déployer des solutions d'infrastructure cloud sur AWS; - Effectuer le « mapping » de données pour les transformations vers l'entrepôt de données et ses environnements informationnels; - Assurer la surveillance proactive de l'environnement; - Analyser et diagnostiquer les problèmes liés aux infrastructures infonuagiques et aux services réseautiques; - Participer en tant qu'expert aux projets et initiatives infonuagiques.
Offre d'emploi
Consultant.e Devops & AWS F/H
METSYS
Publiée le
AWS Cloud
CI/CD
DevOps
65k-68k €
Paris, France
Pour un de nos clients de forte renommée dans son secteur d'activité, nous recherchons un.e Consultant AWS et Devops en capacité d'évoluer dans un environnement anglophone pour un démarrage prévu le 17 mai 2026 à Paris 7ème arrondissement. Vous accompagnerez nos équipes dans le déploiement et l'automatisation d’architectures AWS performantes. Vous interviendrez sur des projets d'automatisation d’infrastructures, la conduite de projets techniques et la rédaction de documentation claire et opérationnelle. Vous agirez en véritable partenaire des équipes de développement et d’exploitation pour optimiser les processus, fiabiliser les déploiements et améliorer la qualité des livrables. Cette liste n'est pas exhaustive.
Offre d'emploi
📩 Data Engineer confirmé – Environnement Data Platform / Gouvernance
Gentis Recruitment SAS
Publiée le
Apache Spark
API REST
AWS Cloud
12 mois
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data au sein d’un grand groupe du secteur de l’énergie, vous intervenez au sein d’une équipe transverse dédiée à l’accélération des usages Data et IA. L’équipe accompagne les différents métiers dans la conception, la mise en œuvre et l’industrialisation de solutions data à grande échelle, dans un environnement moderne (cloud, big data, data gouvernance). Missions Collecter et intégrer des données issues de sources multiples (structurées et non structurées) Concevoir et maintenir des pipelines de données fiables et performants Structurer et modéliser la donnée (logique sémantique, normalisation) Mettre en place des processus de data quality (nettoyage, déduplication, validation) Assurer la qualité et la cohérence des données intégrées dans le Data Lake Participer à la cartographie et à la gestion des référentiels de données Collaborer avec les Data Analysts et Data Scientists pour faciliter l’exploitation des données Contribuer à la gouvernance des données et à la définition du cycle de vie de la donnée Participer à l’amélioration continue des performances et des coûts des traitements Environnement technique SQL (niveau avancé) Spark Python APIs AWS Databricks Outils de data gouvernance (type Collibra – apprécié)
Mission freelance
Ingénieur DataOps / DevOps Data (H/F)
emagine Consulting SARL
Publiée le
AWS Cloud
Azure
CI/CD
36 mois
Niort, Nouvelle-Aquitaine
Dans le cadre du renforcement de sa plateforme data, un grand groupe du secteur assurantiel recherche un Ingénieur DataOps afin d’accompagner l’industrialisation, la fiabilisation et l’exploitation de ses environnements data. Vous interviendrez au sein d’une équipe dédiée à la performance et à la stabilité des services data, avec pour objectif d’assurer leur disponibilité et leur évolutivité. Vous participerez activement à la mise en place et à l’amélioration des pipelines de déploiement (CI/CD), à l’automatisation des processus, ainsi qu’à la gestion des environnements de production et de test. Vous serez également impliqué dans la supervision des systèmes, la gestion des incidents, et la mise en œuvre des exigences non fonctionnelles (sécurité, performance, scalabilité). Enfin, vous contribuerez à l’amélioration continue des pratiques DataOps et à la documentation des solutions mises en place.
Offre d'emploi
Data Engineer
Recrut Info
Publiée le
AWS Cloud
Data Lake
Python
45k-55k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au Head of Data, vous participerez aux développements de la plateforme data. Dans un contexte cloud-first (AWS), vos principales missions seront les suivantes : - Concevoir, déployer et maintenir des systèmes de données résilients, sécurisés et scalables : bases de données, data warehouses, data lakes, traitements batch et temps réel, flux d’ingestion et transformations de données. - Développer, industrialiser et superviser des pipelines de données de type ETL/ELT. - Garantir la structuration, la qualité et la bonne gouvernance des données au sein des différents environnements de stockage. - Mettre en œuvre des solutions de Business Intelligence et de data visualisation telles que Power BI, afin de faciliter l’analyse et la prise de décision. - Répondre aux besoins de mise à disposition des données, de mise en production des modèles et d’optimisation des performances. - Concevoir et déployer des solutions d’exposition de la donnée via des API internes et externes. - Contribuer à la mise en œuvre de projets IA sur différents piliers métiers et business. - Sécuriser les architectures techniques et les échanges entre services en appliquant les meilleures pratiques de sécurité : IAM, gestion des habilitations, principe du least privilege, etc. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité)
Offre d'emploi
SOLUTION ARCHITECT SPECIALIST SENIOR AWS/GCP
SCC France SAS
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Nanterre, Île-de-France
Architecture & Avant-vente • Concevoir et valider l'architecture technique sur des dossiers stratégiques (appels d'offres, comptes clés) • Préconiser des choix techniques adaptés aux enjeux clients, en s'appuyant sur les catalogues AWS et Google Cloud • Définir les prestations selon les abaques internes et produire les livrables d’avant-vente (chiffrages, HLD/LLD, livrables techniques) • Accompagner les équipes commerciales en soutenance client et participer aux comités techniques • Construire des architectures de référence réutilisables (Landing Zone, sécurité, FinOps, migration) Développement des offres de services • Contribuer à la construction et à la promotion des offres de services autour d’AWS et Google Cloud : – Managed Services, Cloud Operations (C&SM) – Migration & Modernisation applicative – Data, IA/ML, Analytics sur cloud public – Sécurité cloud (CSPM, Zero Trust, conformité) – FinOps et optimisation des coûts cloud • Collaborer avec les équipes Alliance (AWS, Google Cloud) pour valoriser les programmes partenaires (funding, co-sell, MDF) • Participer à la création de contenus commerciaux : fiches offres, battle cards, références clients Enablement & expertise interne • Diffuser son expertise technique auprès des forces commerciales (SA, SAS, Account Managers) via réunions, formations et supports à la vente • Être le référent technique cloud public au sein des équipes : point d'escalade sur les sujets AWS et Google Cloud • Mentorer les architectes juniors et seniors sur les bonnes pratiques cloud Conseil & missions clients • Mener des missions de conseil (audits d'architecture, études de faisabilité, cloud strategy workshops) • Animer des workshops de discovery et de design thinking avec les équipes techniques clients (CTO, architectes, DSI) ACTIVITÉS SECONDAIRES • Participer et intervenir lors de séminaires, webinaires et événements partenaires (re:Invent, Google Cloud Next…) • Analyser l'impact des nouvelles solutions cloud dans les systèmes d'information clients • Assurer un reporting régulier sur les opportunités et les activités d'avant-vente • Assurer une veille technologique active sur les évolutions AWS, Google Cloud et le marché cloud • Contribuer à la pratique Cloud (retours d’expérience, documentation, standards)
Mission freelance
Ingénieur DevOps – AWS / EKS / Terraform H/F
Comet
Publiée le
AWS Cloud
IAM
Terraform
6 mois
500-600 €
Paris, France
Contexte Une entreprise du secteur de la finance quantitative recherche un DevOps Engineer pour rejoindre une équipe dédiée aux plateformes de données avancées. L’entreprise exploite des volumes massifs de données financières en temps quasi réel pour le trading algorithmique et l’analyse quantitative. L’objectif est de permettre aux équipes de recherche de manipuler en autonomie des datasets très volumineux (10–30 To) pour le feature engineering, tout en garantissant : Réduction des frictions liées à l’infrastructure Ergonomie proche de l’usage Pandas pour les data scientists Observabilité, industrialisation et self-service
Offre d'emploi
Architecte Data AWS
KLETA
Publiée le
Amazon Redshift
AWS Cloud
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data AWS pour définir et piloter l’évolution des plateformes de données cloud natives sur Amazon Web Services. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies AWS tels que S3, Glue, Redshift, Athena, EMR, Kinesis ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur AWS.
Mission freelance
FREELANCE – Ingénieur de Production (H/F)
Jane Hope
Publiée le
AWS Cloud
Openshift
6 mois
300-350 €
Nancy, Grand Est
Notre client basé à Nancy (54) est à la recherche d’un Ingénieur de Production (H/F) pour l’accompagner sur ses projets. MISSIONS · Prendre en charge l’intégration de nouvelles applications ou de progiciels, depuis la phase de réception jusqu’à la mise à disposition · Effectuer la réception, la validation et le packaging des composants applicatifs. · Installer et déployer les composants sur les environnements cibles · Réaliser la recette technique et l’homologation des applications avant leur mise en production · Participer activement à l’amélioration continue des processus et des outils d’industrialisation et de déploiement · Analyser le contexte technique et prenez connaissance des changements à intégrer · Compléter et exécuter le plan de tests techniques, en préparant les infrastructures nécessaires · Valider les documents et procédures destinés à la production · Réaliser les tests techniques (performance, intégration, compatibilité, etc.) et analysez les résultats · Contribuer au diagnostic et à la résolution des incidents en cas de dysfonctionnement · Rédiger des rapports détaillés facilitant la prise de décision pour la mise en production · Mettre à jour le patrimoine de tests réutilisable pour les futures intégrations · Assurer un reporting régulier et proposez des actions d’amélioration continue · Industrialiser et automatiser les tests récurrents à l’aide d’outils adaptés ENVIRONNEMENT TECHNIQUE · Systèmes : Linux · Cloud : AWS (EC2, S3, IAM, CloudFormation, EKS, etc.) · Outils DevOps : CI/CD, outils d’automatisation et de conteneurisation ( OpenShift , Docker, Kubernetes) · Langages et scripting : Shell / Bash / Python
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2435 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois