Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3 à Paris
Votre recherche renvoie 31 résultats.
Mission freelance
Data Engineer AWS / Snowflake (Urgent)
Publiée le
Amazon S3
AWS Cloud
Gitlab
6 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Mission freelance
Data Engineer AWS (S3, Glue, Athena, Python) 5 à 10 ans/sal
Publiée le
AWS Glue
Python
6 mois
430-520 £GB
Paris, France
Télétravail partiel
Data Engineer AWS (S3, Glue, Athena, Python) 5 à 10 ans Anglais obligatoire Compétences recherchées : Data Engineer AWS (S3, Glue, Athena, Python) Tâches à traiter : Understanding of scientific data in the pharma CMC space Requirements clarification with stakeholders, effort estimation for PI planning Good knowledge of Lean & Agile practices AWS data engineering: S3, Glue (Jobs/Workflows), Athena ETL/ELT development: Python, Glue ETL, schema evolution, partitioning Data modeling: harmonized domain models, star/snowflake schemas, metadata management SQL optimization: Athena performance tuning, cost-aware query design, partition/pruning strategies Testing and quality: unit/integration tests for pipelines, DQ frameworks Documentation and KT: runbooks, architecture diagrams, KT planning and execution Migration experience: parallel-run strategy, cutover planning, backfill, data reconciliation
Mission freelance
Expert MLOps & LLMOps
Publiée le
Amazon S3
Kubernetes
Large Language Model (LLM)
12 mois
600-650 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Expert MLOPS" pour un client dans le secteur de la finance Description 🎯 Contexte de la Mission L'environnement de travail : Le Lab Data Vous rejoindrez le Lab Data d'un acteur majeur dans son secteur, une équipe clé dont le périmètre d'action et l'impact ont considérablement augmenté. Ce Lab est au cœur de la stratégie data et IA de l'entreprise, agissant comme le moteur de l'accessibilité et de l'exploitation avancée des données ( Data Mesh et Data Lake ). L'équipe est responsable de la construction du magasin Workspace pour rendre accessibles les données et les analytics . Les Enjeux L'équipe est en pleine phase d'accélération ( Go-to-Market ) et gère actuellement une forte croissance, avec plus de 60 agents et modèles en production . L'objectif principal est de professionnaliser l'industrialisation des modèles et des agents IA. L'enjeu est critique : améliorer la vitesse et la maturité du suivi de production pour répondre à l'augmentation des utilisateurs, garantir une performance et une fiabilité irréprochables, et maintenir un onboarding rapide des nouvelles initiatives. 🚀 Missions Principales En tant qu' Expert MLOps , vous jouerez un rôle stratégique dans l'industrialisation, l'orchestration et l'opérationnalisation de la plateforme. Industrialisation des Agents et Modèles (MLOps & LLM Ops) : Définir et implémenter le ML Lifecycle Management complet (entraînement, versioning, déploiement continu et monitoring) pour tous les modèles et agents en production. Mettre en œuvre les processus LLM Ops spécifiques à l'industrialisation des Grands Modèles de Langage et des architectures avancées basées sur des agents. Orchestration et Opérationnalisation : Concevoir et maintenir les architectures d'orchestration basées sur Kubernetes . Assurer la connectivité du Data Lab, notamment via les connecteurs Spark et Workspace , et garantir la consommation des analytics par API . Soutenir l'exploitation de la Plateforme Agentique (ex. : Agent Orchestrator, Agent Catalog ) et des composants IA et Data Viz ( Elastic Search, Power BI ). Performance et Observabilité : Mener des actions pour accélérer la performance et l'exécution des flux de production. Mettre en place un système d' Observabilité avancé (critique pour cette mission) pour le suivi et l'amélioration continue de la qualité, de la stabilité et de la performance des modèles déployés. Montée en Compétence : Agir comme Professional Service en apportant votre expertise pour élever le niveau de maturité technique de l'équipe ( step up ) sur les meilleures pratiques MLOps.
Mission freelance
Consultant(e) Data Privacy & Compliance
Publiée le
Amazon S3
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE EXPERIENCE : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme,Consultant Spécialités technologiques : Gestion des projets,Migration de données,Conduite du changement,RGPD,Cybersécurité Secteurs d'activités Assurance Description et livrables de la prestation Description et livrables de la prestation Le consultant interviendra dans le cadre du renforcement de la gouvernance et de la conformité des données personnelles au sein d’un environnement international. La prestation vise à soutenir l’équipe Data Privacy dans la mise en œuvre opérationnelle des politiques de protection des données, la gestion des projets de conformité et la coordination des activités transverses entre les entités. Principaux axes d’intervention : Gouvernance et conformité - Adapter et déployer les politiques internes de protection des données conformément aux réglementations applicables (RGPD, etc.). - Maintenir le registre de traitement et assurer la conformité documentaire (consentements, notices, autorisations, etc.). - Contribuer à la mise en œuvre de contrôles permanents et au suivi des audits internes. -Participer aux comités de gouvernance et assurer le reporting vers les parties prenantes locales et centrales. Accompagnement des projets et support aux équipes - Apporter un appui opérationnel sur les projets impliquant des données personnelles : nouveaux produits, migrations, intégration d’outils IA, cloud, etc. - Réaliser ou contribuer aux Data Privacy Impact Assessments (DPIA) et évaluations de conformité. - Soutenir les activités de due diligence et d’évaluation fournisseurs (ex. Microsoft, Amazon, Cyber). - Participer à la mise en œuvre du processus de distribution des produits Data Privacy auprès de l’ensemble des entités. - Assurer un rôle d’interface avec les équipes en charge des incidents et des demandes d’accès. Transformation et conduite du changement - Accompagner les équipes dans la montée en maturité sur les enjeux Data Privacy. - Contribuer au déploiement de la plateforme OneTrust, notamment sur les aspects migration, paramétrage et intégration. - Promouvoir les bonnes pratiques et challenger les processus existants pour améliorer l’efficacité opérationnelle. Expertise souhaitée Compétences techniques et fonctionnelles - Minimum 5 ans d'expérience dans des fonctions de conformité, Data Privacy, gouvernance des données ou gestion de projets réglementaires. - Bonne compréhension du cadre RGPD et des pratiques de conformité opérationnelle. - Maîtrise ou connaissance avancée de la plateforme OneTrust (ou équivalent). - Familiarité avec les environnements IT, infrastructures, mainframe, et les enjeux de migration de données. - Capacité à collaborer efficacement avec les directions IT, cybersécurité, data et juridique. - Compétences en pilotage de projets transverses et en coordination d’acteurs multiples. Compétences comportementales - Anglais professionnel courant (environnement de travail international). - Esprit analytique, rigueur et sens de la priorisation. - Excellente communication et capacité à interagir avec des interlocuteurs de haut niveau. - Aptitude à instaurer la confiance tout en challengeant les pratiques établies. - Sens du résultat, autonomie et esprit de collaboration.
Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud
1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Mission freelance
Data Engineer AWS - PySpark/Databricks
Publiée le
Amazon S3
Apache Spark
AWS Cloud
12 mois
550-600 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
Mission freelance
Product Owner Technique
Publiée le
Amazon S3
API
AWS Cloud
12 mois
430-550 €
Paris, France
Télétravail partiel
Nous recherchons un Product Owner Technique Senior pour rejoindre une équipe spécialisée dans le Platform Engineering , en charge des services et outils orientés résilience, infrastructure et FinOps . Vous piloterez des produits essentiels à la robustesse, la performance et la maîtrise des coûts d’une infrastructure Cloud AWS. Vous travaillerez avec une équipe pluridisciplinaire (Tech, SRE, Ops) et serez le garant de la qualité, de la fiabilité et de l’évolution continue des services proposés aux utilisateurs internes (équipes de développement). Vous intégrerez également une communauté de pratique Product Management , permettant échanges et montée en compétences collectives. Missions principales1. Pilotage des produits orientés résilience / FinOps Identifier les besoins prioritaires et organiser le backlog selon la valeur apportée (User Stories techniques, Epics). Suivre la construction des services de la plateforme via les rituels d’équipe (Daily Stand-up, backlog refinement, etc.). Assurer la qualité et la fiabilité des livrables techniques. 2. Suivi des performances et indicateurs Être l’interlocuteur privilégié des équipes de développement. Suivre les anomalies et incidents pour garantir des corrections rapides post-déploiement. Co-construire et suivre les indicateurs SLO/SLI, KPI FinOps, métriques DORA et DevEx, OKRs. Proposer des améliorations basées sur les données collectées (SRE, FinOps). 3. Partage de la vision et coordination Participer aux points de suivi avec les parties prenantes (Lead Devs, Architectes, Staff Engineers, Management). Recueillir les besoins des stakeholders pour faire évoluer la plateforme. 4. Contribution à la roadmap stratégique Définir les orientations produit en lien avec la fiabilité, la scalabilité et la maîtrise des coûts. Contribuer à la proposition de valeur et aux critères de succès de la plateforme. 5. Amélioration des pratiques internes Promouvoir l’amélioration continue des pratiques (REX, benchmark des outils SRE/Cloud). Livrables Roadmap produit hiérarchisée et partagée régulièrement. Backlog d’Epics et User Stories techniques prêt à être implémenté. Tableaux de bord KPI / OKRs (SLO/SLI, coûts AWS, métriques DORA et DevEx). Documentation produit (notes de release, guides d’adoption des outils). Animation des rituels Agile avec l’Agile Master.
Mission freelance
Développeur Python AWS - Data & Gen AI ( Databricks)
Publiée le
Amazon DynamoDB
Amazon S3
API
12 mois
550-680 €
Paris, France
Télétravail partiel
Missions principales : Participer à la conception, au développement et à la mise en œuvre de nouvelles fonctionnalités du plan de travail (workplan). Contribuer à la rédaction des spécifications techniques et à la documentation associée. Prendre part à la construction et à l’évolution d’une plateforme data intégrant la gouvernance, l’ingestion, la transformation, le stockage, l’exposition et l’analytique. Intervenir sur les aspects RUN et BUILD de la plateforme en soutien à l’équipe existante. Garantir la sécurité, la performance et la scalabilité des solutions déployées sur le Cloud AWS. Participer à la mise en place de solutions Gen AI au sein de l’écosystème Data/Cloud. Compétences techniques requises : Cloud AWS : maîtrise approfondie des services IAM, S3, DynamoDB, Lambda, API Gateway . Databricks et sa composante AI (Genie) . Développement Backend Python , avec une solide expérience en API / webservices / routes . Maîtrise d’un framework Python (idéalement AWS Powertools for Lambda , Flask ou FastAPI ). Infrastructure as Code : expertise en Terraform et bonne culture DevOps . Expérience dans la mise en œuvre de plateformes data (gouvernance, ingestion, transformation, stockage, exposition, analytics). Excellente capacité de communication écrite et orale en anglais . Compétences appréciées : Certifications AWS : Solutions Architect Associate , Data Engineer Associate et/ou Developer Associate . Connaissances en Power BI , services réseau , Collibra ou React . Sens de la collaboration, autonomie et approche orientée solution. Objectifs et livrables : Contribution à la définition et au développement des features du workplan. Livraison de composants applicatifs fiables et documentés . Participation active aux revues techniques et réunions d’équipe . Support dans la gestion opérationnelle (RUN) et l’ amélioration continue (BUILD) des solutions Cloud & Data.
Mission freelance
Architecte Entreprise SI (Secteur Energie / Industrie)
Publiée le
Amazon S3
Apache Kafka
API
12 mois
700-810 €
Paris, France
Télétravail partiel
Notre client acteur majeur de l’agro-industrie, conduit une transformation SI d’envergure autour de la modernisation et de l’interopérabilité de son système d’information : Migration vers le cloud public Azure Mise en place d’une Data Platform Open Source (OpenShift, Kubernetes, Kafka, S3, etc.) Déploiement d’une plateforme d’interopérabilité (iPaaS) pour fluidifier les échanges inter-BU Modernisation de SAP et rationalisation des briques techniques Introduction d’un outil d’EAM (type LeanIX) pour la gouvernance du SI Le SI du groupe est complexe, hétérogène et distribué , avec des interactions entre environnements industriels, applicatifs et cloud, dans un contexte international et multi-BU . 🎯 Objectif du poste L’Architecte d’Entreprise interviendra en appui transversal des projets et participera à la structuration de la gouvernance d’architecture . Il combinera vision stratégique (urbanisation, standards, cartographie) et accompagnement opérationnel des projets IT. 🧱 Missions principales1. Accompagnement des projets IT (≈ 70%) Accompagner les équipes projets dans leurs choix d’architecture et de solutions. Garantir l’alignement avec les standards et la cohérence globale du SI. Soutenir la formalisation des besoins métiers et leur traduction en orientations techniques. Documenter les choix d’architecture dans un cadre structuré et partageable. 2. Cartographie du SI (≈ 30%) Élaborer et maintenir les cartographies du SI : métiers, applicatives, techniques et infrastructure. Mettre à disposition des représentations claires et synthétiques pour la prise de décision et la gouvernance SI . 3. Normes et Standards Définir et maintenir les principes directeurs et standards d’architecture . Garantir la cohérence, la sécurité et la maintenabilité du SI dans le temps. ⚙️ Environnement technique & organisationnel Cloud : Azure (IaaS, PaaS, intégration applicative) Data Platform : OpenShift, Kubernetes, Kafka, S3… Interopérabilité : plateforme iPaaS en cours de déploiement ERP : SAP (modernisation en cours) EAM : LeanIX (ou équivalent) Contexte : international, multi-pays, multi-langues, multi-BU 🧩 Compétences attenduesTechniques Maîtrise de l’ architecture d’entreprise et d’application (TOGAF, ArchiMate, LeanIX…) Bonne connaissance des écosystèmes Cloud Azure et environnements hybrides Capacité à formaliser des cartographies SI et modèles d’architecture Maîtrise des modèles d’intégration et d’interopérabilité (API, ESB, iPaaS, etc.) Comportementales Esprit d’analyse, de synthèse et de leadership Diplomatie et capacité à challenger sans bloquer Excellente communication orale et écrite Autonomie, rigueur et orientation résultats
Offre d'emploi
Ingénieur Stockage Objet - CDI - Charenton le pont H/F
Publiée le
75010, Paris, Île-de-France
Télétravail partiel
Qui sommes-nous ? On est une ESN spécialisée dans le domaine des infrastructures à taille humaine, avec plus de 30 ans d’histoire. Mais ce qui fait notre vraie différence ? On ne se contente pas de dire qu’on valorise nos collaborateurs, on le prouve au quotidien. Chez Artemys , on crée un univers où l’humain passe avant tout . Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. 📍 Le terrain de jeu ? Notre siège est situé au cœur du dynamique 10e arrondissement de Paris, mais nos opportunités de postes s'étendent dans tous les arrondissements parisiens et la proche banlieue. Votre mission (si vous l’acceptez) : Maîtrise des solutions de stockage en mode objet comme Amazon S3 (et/ou Scality S3). Compréhension des concepts fondamentaux du stockage objet, y compris la gestion des métadonnées, la durabilité et la redondance. Connaissance des bibliothèques Python pour interagir avec des API de stockage (Boto3 pour AWS). Capacité à écrire des scripts pour automatiser des tâches de gestion des données Compréhension des formats de fichiers (JSON, XML, etc.) souvent utilisés dans les systèmes de stockage en mode objet. Connaissance des systèmes d'exploitation Linux et des principes de configuration des serveurs. Capacité à surveiller et à analyser les performances des systèmes de stockage et à identifier les goulots d'étranglement. L’environnement technique : Scality - Confirmé - Impératif S3 - Confirmé - Impératif Python - Confirmé - Impératif Vous, notre perle rare : Vous avez 3 ans d’expérience (minimum) en environnement challengeant Vous avez déjà travaillé avec des grands comptes Vous parlez anglais (niveau conversationnel) Vous êtes rigoureux, agile, force de proposition et à l’aise à l’écrit Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 40000 - 50000 € (Selon votre expertise) Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). 12 RTT, Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Mission freelance
Ingénieur SysOps (H/F) AWS-Linux
Publiée le
Administration linux
AWS Cloud
3 ans
400-600 €
Paris, France
Télétravail partiel
SysOps AWS linux Localisation : 92 TT : 2 jours longue durée : 3 ans avec contrat 1 an renouvelable Core Skills - Maîtrise des technologies ci-dessous de l’écosystème AWS : > Services Core AWS (IAM, cloudwatch, cloudtrail, route53, S3, VPC, …) > Maitrise de la majorité des Services AWS suivants: API gateway, CloudFront, Cognito, WAF, RDS, DynamoDB, Lambda, Step function, SQS ou MQ, ECS, EKS, ECR, OpenSearch, EMR ,... > Docker, Python, Gitlab CI, Terraform, Ansible, Grafana > Participation à l'amélioration du monitoring / alerting Vos missions : - Vous allez accompagner les équipes sur l'intégration continue, des sujets de migrations - Vous allez mettre en place les éléments de monitoring - Vous ferez des préconisations sur la partie Finops
Mission freelance
Expert Devops Gitlab-CI
Publiée le
DevOps
GitLab CI
24 mois
375-750 €
Paris, France
Télétravail partiel
Propulse iT recherche un Expert Devops Gitlab-CI - Réaliser et modifier différents rôles et Playbooks Ansible - Réaliser et modifier différents modules Terraform - Réaliser et modifier différents jobs et pipelines Gitlab-CI - Assurer le support N3 de la chaine CI/CD Les compétences techniques attendues sont les suivantes : - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise des technologies et méthodologies basées sur le principe du gitops - Maitrise des technologies et méthodologies basées sur le principe d'infra as Code - Maitrise d'ansible / terraform - Maitrise de la programmation en python - Maitrise de l'outil Hashicorp Vault - Maitrise des technologies API REST - Connaissance des technologies : o Vmware Vsphere o Nutanix o Baremétal o Kubernetes o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings
Mission freelance
Expert technique DEVOPS Senior
Publiée le
DevOps
24 mois
325-650 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un expert technique devops Senior dasn le cadre de projets de conteneurisation On premise et IAC Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. Réaliser et modifier différents jobs et pipelines Gitlab-CI Les compétences techniques attendues sont les suivantes : - Maitrise de kubernetes (Openshift) o Déploiement des clusters en mode « airgap » o Troubleshooting des défaillances o Technologie CSI o Déploiement des workload (helm chart / yaml) o Exposition des Services/Ingress/routes Layer4 & 7 - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise de technologies et méthodologies basées sur le principe du gitops - Maitrise de la mise en place d'outillage de scan au build et au runtime des images de conteneur - Maitrise de l'outil de construction des images de conteneur kaniko - Maitrise de l'outil Hashicorp Vault - Connaissance des technologies : o Vmware Vsphere o Baremétal o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) - Connaissance d'ansible / terraform - Maitrise des outils de déploiement continue KUBERNETES (ArgoCd) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings
Mission freelance
IP2025045 Expert technique DEVOPS avec 5 ans d'exp
Publiée le
DevOps
24 mois
250-500 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un expert technique devops Senior dasn le cadre de projets de conteneurisation On premise et IAC Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. Réaliser et modifier différents jobs et pipelines Gitlab-CI Les compétences techniques attendues sont les suivantes : - Maitrise de kubernetes (Openshift) o Déploiement des clusters en mode « airgap » o Troubleshooting des défaillances o Technologie CSI o Déploiement des workload (helm chart / yaml) o Exposition des Services/Ingress/routes Layer4 & 7 - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise de technologies et méthodologies basées sur le principe du gitops - Maitrise de la mise en place d'outillage de scan au build et au runtime des images de conteneur - Maitrise de l'outil de construction des images de conteneur kaniko - Maitrise de l'outil Hashicorp Vault - Connaissance des technologies : o Vmware Vsphere o Baremétal o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) - Connaissance d'ansible / terraform - Maitrise des outils de déploiement continue KUBERNETES (ArgoCd) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings
Mission freelance
Développeur Full Stack Node.js / React / AWS Freelance - Paris (F/H)
Publiée le
React
6 mois
500-550 €
Paris, France
Télétravail partiel
Dans le cadre d’un projet chez l’un de nos clients grands comptes, nous sommes à la recherche d’un Développeur Node/React/AWS . Intégré(e) à une squad agile, vous interviendrez sur le développement de nouveaux modules applicatifs et leurs évolutions, dans un cadre 100 % serverless. Vos missions : Concevoir, développer et maintenir des APIs serverless (AWS Lambda + API Gateway) Développer des interfaces utilisateur performantes avec React Gérer les bases de données DynamoDB et MongoDB Participer aux cérémonies agiles (sprints de 2 semaines, daily, review…) Collaborer avec les PO, architectes, DevOps et testeurs pour livrer une solution robuste et scalable Environnement : Backend : Node.js + AWS Lambda (API Gateway, S3, CloudWatch…) Frontend : React Base de données : DynamoDB, MongoDB Méthodologie : Agile Scrum (sprints de 2 semaines) Équipe : une dizaine de développeurs full stack, testeurs QA, PO, DevOps, architectes, responsable d’équipe
Mission freelance
Architecte Infrastructure
Publiée le
API
Docker
Kubernetes
1 an
400-650 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Architecte Infrastructure. Réaliser la conception technique des architectures pour le périmètre des applications, objet du présent AO ; Cette mission est centrée sur des compétences spécifiques Kubernetes de RedHat, RehHap d'OpenShift Connaissance d'une ou plusieurs solutions d'API Management, IBM API Connect Compétences rédactionnelles Serveurs X86 WMWARE RedHat Lunix 7.x/8.x Docker/Kubernetes Infrastructures Java Accès de fichiers et protocoles S3 Livrables : Dossier de cadrage technique Dossiers de choix techniques Dossiers d'Exigence Non Fonctionnelles
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Une ESN peut-elle suspendre les paiements pour ça ?
- Déclaration d'impots et boni de liquidation au PFU
- Marché global Business Analyst / MOA / AMOA
- Comptabilité et dissolution/liquidation
- Astuce pour trouver un client final
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
31 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois