L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 427 résultats.
Mission freelance
expert Cloud AWS,
QUALIS ESN
Publiée le
AWS Cloud
6 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
nous recherchons un profil Expert Cloud sur les 3 domaines : AWS, GCP et S3NS. Tâche 1 : Architecture et stratégie de migration Accompagnement à la migration, l'extension ou la création de nouvelles applications sur le cloud public du client. Réalisation d'études comparatives de scénarios : Cloud Public vs SaaS vs Retain (pas de migration). Sélection des services Cloud les plus adaptés (analyse gain/perte). Analyse approfondie des impacts sur le RUN et le BUILD : tests de performance, stratégie d'observabilité et d'exploitation. Animation de workshops pour la capture du besoin. Conception d'architectures Cloud multi-niveaux : Système (intégration au SI), Réseau, HLD (High Level Design) et LLD (Low Level Design). Migration de région
Mission freelance
Expert AWS Agentic AI (H/F)
Link Consulting
Publiée le
1 mois
420-470 €
Bordeaux, Nouvelle-Aquitaine
Notre client, acteur majeur du secteur des sciences de la vie, recherche un AWS Agentic AI Expert (H/F) dans le cadre du renforcement de ses initiatives en intelligence artificielle et automatisation avancée. Vos missions : Intégré à une équipe internationale data & innovation, vous serez amené à : Concevoir et développer des solutions Agentic AI basées sur AWS Implémenter des agents intelligents via AWS Bedrock et AgentCore Gérer les mécanismes de mémoire, d’identité, de sécurité et de gouvernance des agents Mettre en place l’observabilité et le monitoring des agents IA Intégrer les solutions via APIs et architectures cloud natives Participer à l’industrialisation CI/CD et Infrastructure as Code Collaborer avec des équipes frontend et data engineering Les compétences techniques AWS Bedrock / AgentCore LangChain, LangGraph AWS CloudWatch, API Gateway Terraform, GitHub Actions, Artifactory Frontend React (environnement containerisé) Bonnes pratiques MLOps / AgentOps
Offre d'emploi
Data Engineer AWS
KLETA
Publiée le
Amazon Redshift
AWS Cloud
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer AWS pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur AWS. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, modernisation vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec des services tels que AWS Glue, Athena, Redshift, S3 et Kinesis. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’AWS. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre d'emploi
OPS sénior - Cloud AWS / DevOps
VISIAN
Publiée le
AWS Cloud
Red Hat
1 an
Lille, Hauts-de-France
Contexte Suite à une augmentation d’activité et de la mise en place d’une nouvelle infrastructure complète pour accueillir un nouveau projet, nous recherchons un OPS sénior pour venir renforcer l'équipe s'occupant de l'exploitation du périmètre. Missions Installer, mettre en production, administrer et exploiter les moyens informatiques d’un ou plusieurs sites informatiques. Participer au bon fonctionnement des systèmes d’information en garantissant le maintien à niveau des différents outils et/ou infrastructures des logiciels systèmes et/ou infrastructures de communication (locale, étendue, voix, image, architecture centralisée, client-serveur, web, mobile) dans un objectif de qualité, de productivité et de sécurité. Mettre en place de la culture devops au sein de l'équipe, autonomiser et dynamiser son équipe et comprendre le besoin des développeurs. Accompagner les développeurs et l'intégration de la solution dans un système complexe. Livrables Construire à l’aide des outils mis à disposition l’infrastructure sous le cloud AWS : architecture ROSA (Redhat Openshift Service on AWS), Oracle, S3, ordonnanceur. Mettre en place toute la stack CICD permettant de construire et déployer les livrables fournis par le CDS (technologies actuellement envisagées : Gitlab-CI, Ansible, Terraform). Effectuer les tests de résilience de la nouvelle application. Documenter et diffuser les compétences pour la gestion du RUN du projet. Identifier les métriques nécessaires à monitorer pour aider à l’analyse. Assurer le run de l’application (mise en production, supervision, debug, incidentologie). Accompagner les équipes support clients dans l'analyse et la résolution des incidents. Dans un contexte agile, être dans un esprit d’amélioration continue. Concevoir et développer les outils DEVOPS adaptés au produit à délivrer en respectant les choix et les bonnes pratiques de l’entreprise. En véritable devops, augmenter l’autonomie de l’équipe sur la partie exploitation en automatisant au maximum les processus. Être référent sur l’infrastructure, les plateformes applicatives, l’usine logicielle et l’industrialisation des déploiements.
Mission freelance
ML platform senior DevOps engineer
Cherry Pick
Publiée le
AWS Cloud
MLOps
Terraform
12 mois
Paris, France
Équipes ML Platform et ML Lab L'équipe ML Platform est centrée sur l'amélioration de la productivité des chercheurs dans l'entraînement de modèles de machine learning (ML) en développant des bibliothèques, des services et des bonnes pratiques, et en assurant une production ML robuste à grande échelle. L'équipe est composée de profils travaillant sur des projets transverses ainsi que d'ingénieurs accompagnant les équipes fonctionnelles dans leur parcours ML. Le ML Lab est une équipe de recherche axée sur des travaux académiques, nécessitant donc des outils et une infrastructure dédiés en dehors de l'infrastructure du client, afin de pouvoir accéder librement aux ressources open source de pointe et collaborer avec des collaborateurs externes. Mission En tant qu'Ingénieur DevOps au sein de l'équipe ML Platform, vous tirerez parti de votre solide bagage en ingénierie logicielle, de votre maîtrise de Python et de votre expérience pratique avec les fournisseurs cloud pour faciliter le travail quotidien de l'équipe ML Lab sur — leur néocloud de référence — ainsi que les liens nécessaires avec l'infrastructure du client, principalement hébergée sur AWS. Responsabilités principales Configuration du fournisseur cloud (Lambda) pour l'accès GPU par le ML Lab. Fonctionnalités FinOps et protection minimale contre les erreurs humaines. Optimisation des images Docker pour un démarrage à froid plus rapide. Mise en place et maintenance de systèmes de monitoring pour l'entraînement des modèles. Participation mineure aux projets plus larges de l'équipe ML Platform sur AWS pour les autres chercheurs du client (CI/CD, outillage sur AWS, etc.). Promotion et mise en œuvre de processus d'automatisation. Renforcement des protocoles de sécurité via des évaluations de vulnérabilités et la gestion des risques pour déployer des mesures de cybersécurité.
Mission freelance
Senior AWS Agentic
ROCKET TALENTS
Publiée le
AWS Cloud
3 mois
380-510 €
Bezons, Île-de-France
Caractéristiques : 5 à 10 ans d’expérience Anglais : obligatoire Démarrage : asap Lieu de Mission : Bezons (95) Compétences techniques : AWS Bedrock Agentcore Runtimes ST / LT memories Observability Agentcore identity Agentcore gateway Agentcore policy Cloudwatch Langchain + Lang-graph Github actions FE built with React FE likely hosted on OpenShift AWS API gateways Terraform for CICD pipelines along with Artifactory MCP and A2A agent protocols Nice to have: Knowledge of Neo4J Knowledge of GenBI platforms Weights and balances
Mission freelance
Développeur Python AWS (confirmé)
TEOLIA CONSULTING
Publiée le
AWS Cloud
Cloud
Python
12 mois
400-550 €
La Défense, Île-de-France
Nous recherchons pour notre client un Développeur Python AWS confirmé pour contribuer à la conception et au développement de solutions innovantes orientées data et automatisation. Le consultant interviendra sur des projets à forte dimension exploratoire (POC, prototypes), avec un objectif de mise en production et d’industrialisation des solutions . Missions : Participer à l’idéation et à la définition de concepts innovants Développer des POC et prototypes (fullstack) Contribuer aux choix techniques et technologiques Évaluer des solutions externes (startups, partenaires…) Préparer l’ industrialisation des solutions développées Garantir le respect des standards techniques et sécurité SI Assurer la documentation et la transmission aux équipes internes Réaliser une veille technologique continue Participer à l’amélioration des pratiques et processus du Lab Environnement technique : Cloud : AWS (S3, Lambda, API Gateway, IAM, DynamoDB, RDS…) Infra as Code : Terraform Langages : Python (Boto3), SQL / NoSQL Backend / API : REST Data : Pandas, PySpark, data processing DevOps : Git, Linux Bonus : NLP, LLM, IA, AWS Bedrock
Offre d'emploi
Tech Lead Data Engineer - Databricks / AWS
VISIAN
Publiée le
Apache Airflow
API
AWS Cloud
3 ans
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Offre d'emploi
Expert Cloud GCP AWS
STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
S3NS
6 mois
Lyon, Auvergne-Rhône-Alpes
Description du poste Dans le cadre de projets stratégiques de transformation Cloud, nous recherchons un Expert Cloud intervenant sur les environnements AWS, GCP et S3NS , capable d’accompagner les équipes IT et métiers sur la définition des architectures, les stratégies de migration et la montée en maturité Cloud. Vous évoluerez dans des contextes hybrides et critiques, avec de fortes exigences de sécurité, de performance et d’exploitabilité. Vos missions 1. Architecture & Stratégie de migration Accompagner la migration, l’extension ou la création d’applications sur le Cloud public du client Réaliser des études comparatives de scénarios : Cloud Public SaaS Retain (non‑migration) Sélectionner les services Cloud les plus adaptés en analysant gains, risques et impacts Analyser les impacts BUILD & RUN : Tests de performance Stratégies d’observabilité Exploitation et maintien en conditions opérationnelles Animer des workshops métiers et techniques pour la capture du besoin Concevoir des architectures Cloud multi‑niveaux : Intégration au SI existant Architecture réseau HLD (High Level Design) LLD (Low Level Design) Gérer des migrations inter‑régions Cloud 2. Acculturation Cloud & Amélioration Continue Apporter une expertise Cloud transverse auprès des équipes internes et partenaires externes Diffuser les bonnes pratiques Cloud & DevSecOps Animer ou contribuer à des actions de sensibilisation Cloud Participer activement à la communauté Cloud du périmètre Compétences requises Cloud & Architecture Expertise confirmée : AWS, GCP et S3NS Maîtrise des stratégies hybrides et multi‑cloud Connaissance des contraintes éditeurs et stratégies de mitigation associées DevOps & Plateformes Bonne compréhension des pipelines CI/CD Conteneurisation et orchestration : Docker, Kubernetes / OpenShift Sensibilité DevSecOps et automatisation Sécurité & Conformité Connaissance des normes et référentiels de sécurité applicables Intégration de la sécurité dès la conception (security by design) Outils & environnements AWS / GCP / S3NS OpenShift / Kubernetes Outils DevSecOps JIRA / Confluence
Mission freelance
Cloud Automation & Data Ingénieur junior (H/F)
Insitoo Freelances
Publiée le
AWS Cloud
Bash
Python
2 ans
350-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Cloud Automation & Data Ingénieur junior (H/F) à La Ciotat, France. Les missions attendues par le Cloud Automation & Data Ingénieur junior (H/F) : Automatiser l’intégralité des infrastructures Cloud et des services de données. Industrialiser les déploiements via des pratiques DevSecOps rigoureuses. Concevoir des architectures orientées données (Data Lakes, Streaming) hautement disponibles. Accompagner les équipes projets dans l’adoption des meilleures pratiques Cloud & Data. Responsabilités Principales 1. Automatisation & Infrastructure as Code (IaC) Concevoir et déployer des infrastructures via Terraform. Gérer le cycle de vie complet des ressources sur AWS. Automatiser les services Data (S3, Glue, Kinesis, etc.) et optimiser la performance des environnements. 2. DevSecOps & CI/CD Construire et maintenir des pipelines CI/CD (GitLab, GitHub ou Jenkins). Intégrer nativement la sécurité (contrôles de conformité, scans de vulnérabilités). Automatiser les tests de qualité de données et la validation des schémas. 3. Platform Engineering & Architecture Data Développer des frameworks internes pour faciliter l'usage du Cloud (Serverless, Conteneurs). Mettre en œuvre des architectures orientées événements (Kinesis, Lambda). Assurer l'ingestion, le stockage et la fluidité des flux au sein du Data Lake. 4. Sécurité, Gouvernance & Conformité Piloter la gestion des identités et des accès (IAM) et le chiffrement (KMS). Appliquer les politiques de gouvernance : catalogage, traçabilité et rétention des données. Garantir l'auditabilité et le monitoring des données sensibles. Compétences Requises Cloud : Maîtrise approfondie d'AWS (Core services & Data stack). IaC : Expertise confirmée sur Terraform. Conteneurisation : Docker, Kubernetes. Data Engineering : ETL/ELT, modélisation de données, cycle de vie de la donnée. Développement : Python (avancé), Bash, SQL. Outils : Écosystème CI/CD, la connaissance de Snowflake est un plus significatif.
Offre d'emploi
Ingénieur Cloud AWS - Lyon
Groupe Aptenia
Publiée le
AWS Cloud
Gitlab
Grafana
6 mois
Lyon, Auvergne-Rhône-Alpes
Recherche d’un Ingénieur Cloud expérimenté pour intervenir sur des environnements de production principalement AWS. Le poste consiste à garantir la disponibilité, la performance et la fiabilité des plateformes (SLA/SLO), assurer le maintien en conditions opérationnelles et automatiser les infrastructures via Terraform. Vous interviendrez également sur le monitoring, la sécurité, la gestion des incidents complexes (N3) et participerez à l’amélioration continue des pratiques DevOps, CI/CD et de la fiabilité globale des systèmes au sein d’une équipe agile.
Mission freelance
AWS Platform Engineer remote (H/F)
STHREE SAS pour HUXLEY
Publiée le
36 mois
Suresnes, Île-de-France
Contexte Dans le cadre d'une stratégie de résilience de plateforme, nous recherchons un(e) Platform Engineer chargé(e) de concevoir et piloter la mise en place d'une capacité de Disaster Recovery en mode Warm Pilot . Ce rôle s'exerce au sein d'un environnement cloud critique, soumis à de fortes exigences en matière de disponibilité, de fiabilité, de sécurité, d'automatisation et d'excellence opérationnelle. Le poste combine implémentation technique et vision architecturale solide. Le rôle peut se faire en full remote. Mission Le/La Platform Engineer sera responsable de définir, concevoir et implémenter les composants techniques nécessaires à une stratégie de Disaster Recovery Warm Pilot sur AWS. La solution devra être automatisée, testable, sécurisée, exploitable et alignée avec les standards et pratiques d'ingénierie existants. Responsabilités principales Revoir et challenger l'architecture cible de Disaster Recovery Warm Pilot pour les charges de travail cloud critiques. Revoir et challenger les patterns techniques liés au failover, failback, réplication, synchronisation et orchestration de reprise. Traduire les exigences de résilience et de reprise en solutions techniques robustes, pragmatiques et évolutives. Implémenter l'infrastructure et les composants DR via l'Infrastructure as Code et les principes GitOps. Collaborer avec les équipes plateforme, infrastructure, sécurité et applications pour garantir la cohérence de bout en bout. Définir et documenter les procédures de failover, failback, validation de reprise et tests de DR. Identifier les risques techniques, dépendances, points de défaillance uniques et lacunes opérationnelles. Technologies / Environnement AWS Cloud ArgoCD GitLab Terragrunt Profil recherché Platform Engineer disposant de compétences en architecture et design acquises par l'expérience. Solide expérience dans l'exploitation de plateformes de production basées sur AWS. Maîtrise de l'Infrastructure as Code, de l'automatisation et de la standardisation des déploiements. Très bonne compréhension de la résilience, haute disponibilité, disaster recovery et opérations de production. Capacité à concevoir des solutions robustes, simples, maintenables et testables. Aisance pour collaborer avec plusieurs équipes et domaines techniques. Sens du détail et qualité élevée des livrables, y compris de la documentation.
Mission freelance
Data engineer (aws / talend / power bi)
Signe +
Publiée le
Microsoft Power BI
12 mois
400-440 €
Grenoble, Auvergne-Rhône-Alpes
contexte de la mission intervention chez un client grenoblois sur des sujets data environnement orienté cloud aws avec exploitation d’un datalake besoin d’un profil capable de couvrir à la fois la data ingénierie et une partie data visualisation missions principales conception, développement et maintenance de pipelines data exploitation et optimisation d’un datalake sur aws traitement, transformation et intégration des données via talend mise à disposition des données pour les équipes métiers création de dashboards et reporting sous power bi participation aux choix techniques et à l’amélioration continue des architectures data environnement technique cloud / data : aws (lambda, athena, glue, step functions, rds, s3) etl : talend data visualisation : microsoft power bi profil recherché expérience significative en data engineering bonne maîtrise de l’écosystème aws data (datalake) solide expérience sur talend (obligatoire) capacité à produire des dashboards power bi autonomie et capacité à intervenir en environnement projet
Mission freelance
Directeur de projet GMAO - DATA - H/F - 93
Mindquest
Publiée le
AWS Cloud
Azure
Gestion de projet
3 mois
Seine-Saint-Denis, France
Objectifs de la mission: - Piloter et coordonner les projets GMAO et Data - Garantir la livraison des projets dans le respect des coûts, délais et qualité - Structurer et optimiser le pilotage des équipes et des activités - Assurer l’alignement entre besoins métiers et solutions IT - Mettre en œuvre et faire respecter la gouvernance Data Périmètre d’intervention: Pilotage de projets: - Définition et suivi de la roadmap projets - Planification et pilotage des activités - Suivi des jalons, gestion des risques et arbitrages Coordination des parties prenantes (métiers, IT, prestataires) AMOA & cadrage: - Animation d’ateliers de cadrage - Formalisation des expressions de besoins - Accompagnement des métiers et de la MOA SI - Supervision des recettes fonctionnelles Management & coordination: - Pilotage d’équipes (développeurs, testeurs, AMOA) - Gestion des plans de charge - Organisation et animation des comités projets - Reporting régulier et remontée des alertes Expertise technique & Data: - Supervision des architectures applicatives et data - Environnements Cloud : AWS, Azure - Suivi des outils analytiques et valorisation des données - Recommandations sur les évolutions techniques Gouvernance & qualité: - Mise en œuvre des standards de gouvernance des données - Contrôle de la qualité des livrables - Respect des méthodologies projets - Maintien de la documentation projet Livrables attendus: - Roadmap et planning détaillé des projets - Reporting opérationnel et tableaux de bord - Expressions de besoins et cadrage fonctionnel - Comptes rendus d’ateliers et comités - Suivi budgétaire et indicateurs de performance - Suivi des jalons et qualité des livraisons Documentation projet à jour
Mission freelance
Expert Cloud Data/IA AWS/GCP (H/F) - Freelance
GROUPE ARTEMYS
Publiée le
1 mois
75010, Paris, Île-de-France
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Agil-IT , située à Isneauville (près de Rouen) est une entité spécialisée en Data, Développement et pilotage de projets IT. Forte de plus de 20 ans d’expertise , elle accompagne les entreprises, principalement implantées en Normandie dans leur transformation digitale. C’est au sein de cette entité, que se développe notre expertise Data. Chiffres clés : 7,8 M€ de CA | 65 consultants en 2025 Une structure à taille humaine où vos compétences et votre savoir être font la différence. Reconnue pour son exigence technique et ses valeurs humaines, elle est aujourd’hui un acteur clé en offrant des prestations d ‘audit , de conseil , de mise en œuvre , de migration , de support et des formations pour diverses clients. Votre mission (si vous l’acceptez) : Projet 1 – Run & évolution plateforme IA générative (AWS) Reprendre en main une plateforme existante Assurer son maintien en conditions opérationnelles (MCO) Contribuer à son amélioration continue Projet 2 – Migration & adoption GCP Définir une architecture cible Cloud GCP Réaliser des POC Industrialiser et accompagner les équipes Missions principales 1. Prise en main & transfert de connaissances Organisation et participation aux ateliers Cartographie documentaire et identification des gaps Validation de l’autonomie technique 2. Run / MCO (AWS) Traitement des incidents, demandes et évolutions Suivi des opérations et documentation Application des pratiques FinOps (optimisation des coûts) 3. Amélioration continue Contribution aux choix techniques Veille technologique proactive (AWS) 4. Conseil & architecture (GCP) Benchmark des solutions Cloud Définition d’architecture cible Construction de la stratégie de migration hybride (On-Prem → GCP) 5. Expérimentation & industrialisation Réalisation de POC Déploiement industrialisé (Terraform, CI/CD, monitoring) 6. Acculturation & formation Création de démonstrateurs Animation d’ateliers de montée en compétences Le terrain de jeu ? AWS (RUN + IA générative) Compute : Lambda, ECS, Fargate IA/Data : SageMaker, OpenSearch, Comprehend, Rekognition Sécurité : IAM, KMS, Secrets Manager Data : S3, Neptune Observabilité : CloudWatch, CloudTrail GCP (BUILD & transformation) Data : BigQuery, Dataflow, Dataproc IA : Vertex AI, AutoML Compute : GKE, Cloud Run, Functions DevOps : Terraform, CI/CD Sécurité : IAM, KMS, Security Command Center Compétences transverses Architecture Cloud hybride (On-Prem / Cloud) Design scalable & sécurisé Industrialisation MLOps / DataOps Infrastructure as Code (Terraform) FinOps Analyse et optimisation des coûts Cloud Pilotage de la consommation (notamment IA) Le profil que nous recherchons : Vous avez 5 à 10 ans d’expérience minimum dans un environnement challengeant Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Échange opérationnel : Je propose votre candidature au référent (Commercial, SDM, coordinateur…) du compte client, qui échange ensuite avec vous afin de valider votre adéquation avec le besoin. Proposition de mission : Si tout colle, on propose votre CV à notre client ! Conditions de rémunération : Statut : Indépendant / Freelance TJM : Entre 500€ et 650€ (Selon votre expertise) 2 jours sur site à Colombes / semaine Démarrage Juin 2026 Mission de 6 mois renouvelable Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Mission freelance
devOps AWS
W Executive France SAS
Publiée le
AWS Cloud
Terraform
3 ans
400-600 €
Versailles, Île-de-France
Bonjour, je recherche pour l'un de mes clients un(e) devOps AWS. Skills : AWS - Terraform - connaissances EKS Mission : -concevoir et déployer des infrastructures sur AWS -automatiser les déploiements avec Terraform -assurer la scalabilité, la haute disponibilité et la sécurité -mettre en place et maintenir des pipelines CI/CD -automatiser les déploiements applicatifs -implémenter des solutions de monitoring -diagnostiquer les incidents et optimiser les performances N'hésitez pas à revenir vers moi pour des informations complémentaires.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2427 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois