L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 94 résultats.
Mission freelance
Architecte Data
Publiée le
Amazon S3
AWS Glue
DBT
6 ans
680-700 €
Paris, France
Télétravail partiel
Dans le cadre de l’accélération de sa stratégie data & omnicanale , un acteur majeur du retail / e-commerce renforce sa Data Platform afin de mieux exploiter ses données clients, ventes, logistique et marketing. Nous recherchons un Architecte Data pour accompagner les équipes et garantir une architecture performante, scalable et sécurisée, capable de soutenir de forts volumes et des usages analytiques avancés. Votre rôle Intégré(e) aux équipes Data (Product Owners, Data Engineers, Data Scientists, équipes Marketing & Supply), vous interviendrez de manière transverse sur la conception et l’évolution de l’architecture Data de la plateforme. Vos principales responsabilités Définir et garantir la cohérence de la stack Data (ingestion, traitement, exposition) Assurer le respect des normes et standards d’architecture Data & Cloud Mettre en place et sécuriser les contrats d’interface entre les différentes équipes (data, applicatif, BI) Auditer l’architecture existante et proposer des axes d’optimisation (performance, coûts, scalabilité) Accompagner les équipes sur les bonnes pratiques data (qualité, gouvernance, sécurité) Réaliser une veille technologique et contribuer à l’introduction de nouvelles solutions data Participer aux phases de tests et d’intégration de nouvelles briques techniques 🛠️ Developer Experience & FinOps Contribution à l’écriture et à l’industrialisation de modules Terraform / Terragrunt Accompagnement des équipes sur l’ Infrastructure as Code et les pipelines CI/CD Définition des standards de développement, de déploiement et d’exploitation Mise en place du suivi budgétaire par équipe et par usage (FinOps) Implémentation des outils de monitoring, alertes et seuils Identification, priorisation et pilotage des optimisations de coûts Cloud
Mission freelance
Data Engineer AWS / Snowflake (Urgent)
Publiée le
Amazon S3
AWS Cloud
Gitlab
6 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Mission freelance
Data Engineer AWS (S3, Glue, Athena, Python) 5 à 10 ans/sal
Publiée le
AWS Glue
Python
6 mois
430-520 £GB
Paris, France
Télétravail partiel
Data Engineer AWS (S3, Glue, Athena, Python) 5 à 10 ans Anglais obligatoire Compétences recherchées : Data Engineer AWS (S3, Glue, Athena, Python) Tâches à traiter : Understanding of scientific data in the pharma CMC space Requirements clarification with stakeholders, effort estimation for PI planning Good knowledge of Lean & Agile practices AWS data engineering: S3, Glue (Jobs/Workflows), Athena ETL/ELT development: Python, Glue ETL, schema evolution, partitioning Data modeling: harmonized domain models, star/snowflake schemas, metadata management SQL optimization: Athena performance tuning, cost-aware query design, partition/pruning strategies Testing and quality: unit/integration tests for pipelines, DQ frameworks Documentation and KT: runbooks, architecture diagrams, KT planning and execution Migration experience: parallel-run strategy, cutover planning, backfill, data reconciliation
Mission freelance
Data Engineer AWS - S3, Glue, Athena, Python
Publiée le
AWS Glue
Python
6 mois
210-480 €
France
Télétravail partiel
Dans le cadre d’un programme data stratégique dans le secteur pharmaceutique (domaine CMC – Chemistry, Manufacturing & Controls), l’entreprise souhaite renforcer son équipe Data Engineering afin de soutenir la migration, l’industrialisation et l’optimisation de ses pipelines analytiques sur AWS. La mission implique une forte collaboration avec les équipes scientifiques, Data, IT et produit, afin de clarifier les besoins métiers, structurer les modèles de données, fiabiliser les flux existants et accompagner les phases de migration vers des architectures modernes. L’objectif est d’améliorer la qualité, la performance, le coût et la robustesse de la plateforme data, tout en garantissant une documentation claire et une montée en compétence durable des équipes internes.
Offre d'emploi
Administrateur plateforme de stockage objet
Publiée le
Amazon S3
Python
1 an
Toulouse, Occitanie
Télétravail partiel
Description détaillée Maîtrise des solutions de stockage en mode objet comme Amazon S3 (et/ou Scality S3). Compréhension des concepts fondamentaux du stockage objet, y compris la gestion des métadonnées, la durabilité et la redondance. Connaissance des bibliothèques Python pour interagir avec des API de stockage (Boto3 pour AWS). Capacité à écrire des scripts pour automatiser des tâches de gestion des données Compréhension des formats de fichiers (JSON, XML, etc.) souvent utilisés dans les systèmes de stockage en mode objet. Connaissance des systèmes d'exploitation Linux et des principes de configuration des serveurs. Capacité à surveiller et à analyser les performances des systèmes de stockage et à identifier les goulots d'étranglement.
Mission freelance
Expert MLOps & LLMOps
Publiée le
Amazon S3
Kubernetes
Large Language Model (LLM)
12 mois
600-650 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Expert MLOPS" pour un client dans le secteur de la finance Description 🎯 Contexte de la Mission L'environnement de travail : Le Lab Data Vous rejoindrez le Lab Data d'un acteur majeur dans son secteur, une équipe clé dont le périmètre d'action et l'impact ont considérablement augmenté. Ce Lab est au cœur de la stratégie data et IA de l'entreprise, agissant comme le moteur de l'accessibilité et de l'exploitation avancée des données ( Data Mesh et Data Lake ). L'équipe est responsable de la construction du magasin Workspace pour rendre accessibles les données et les analytics . Les Enjeux L'équipe est en pleine phase d'accélération ( Go-to-Market ) et gère actuellement une forte croissance, avec plus de 60 agents et modèles en production . L'objectif principal est de professionnaliser l'industrialisation des modèles et des agents IA. L'enjeu est critique : améliorer la vitesse et la maturité du suivi de production pour répondre à l'augmentation des utilisateurs, garantir une performance et une fiabilité irréprochables, et maintenir un onboarding rapide des nouvelles initiatives. 🚀 Missions Principales En tant qu' Expert MLOps , vous jouerez un rôle stratégique dans l'industrialisation, l'orchestration et l'opérationnalisation de la plateforme. Industrialisation des Agents et Modèles (MLOps & LLM Ops) : Définir et implémenter le ML Lifecycle Management complet (entraînement, versioning, déploiement continu et monitoring) pour tous les modèles et agents en production. Mettre en œuvre les processus LLM Ops spécifiques à l'industrialisation des Grands Modèles de Langage et des architectures avancées basées sur des agents. Orchestration et Opérationnalisation : Concevoir et maintenir les architectures d'orchestration basées sur Kubernetes . Assurer la connectivité du Data Lab, notamment via les connecteurs Spark et Workspace , et garantir la consommation des analytics par API . Soutenir l'exploitation de la Plateforme Agentique (ex. : Agent Orchestrator, Agent Catalog ) et des composants IA et Data Viz ( Elastic Search, Power BI ). Performance et Observabilité : Mener des actions pour accélérer la performance et l'exécution des flux de production. Mettre en place un système d' Observabilité avancé (critique pour cette mission) pour le suivi et l'amélioration continue de la qualité, de la stabilité et de la performance des modèles déployés. Montée en Compétence : Agir comme Professional Service en apportant votre expertise pour élever le niveau de maturité technique de l'équipe ( step up ) sur les meilleures pratiques MLOps.
Mission freelance
Consultant(e) Data Privacy & Compliance
Publiée le
Amazon S3
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE EXPERIENCE : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme,Consultant Spécialités technologiques : Gestion des projets,Migration de données,Conduite du changement,RGPD,Cybersécurité Secteurs d'activités Assurance Description et livrables de la prestation Description et livrables de la prestation Le consultant interviendra dans le cadre du renforcement de la gouvernance et de la conformité des données personnelles au sein d’un environnement international. La prestation vise à soutenir l’équipe Data Privacy dans la mise en œuvre opérationnelle des politiques de protection des données, la gestion des projets de conformité et la coordination des activités transverses entre les entités. Principaux axes d’intervention : Gouvernance et conformité - Adapter et déployer les politiques internes de protection des données conformément aux réglementations applicables (RGPD, etc.). - Maintenir le registre de traitement et assurer la conformité documentaire (consentements, notices, autorisations, etc.). - Contribuer à la mise en œuvre de contrôles permanents et au suivi des audits internes. -Participer aux comités de gouvernance et assurer le reporting vers les parties prenantes locales et centrales. Accompagnement des projets et support aux équipes - Apporter un appui opérationnel sur les projets impliquant des données personnelles : nouveaux produits, migrations, intégration d’outils IA, cloud, etc. - Réaliser ou contribuer aux Data Privacy Impact Assessments (DPIA) et évaluations de conformité. - Soutenir les activités de due diligence et d’évaluation fournisseurs (ex. Microsoft, Amazon, Cyber). - Participer à la mise en œuvre du processus de distribution des produits Data Privacy auprès de l’ensemble des entités. - Assurer un rôle d’interface avec les équipes en charge des incidents et des demandes d’accès. Transformation et conduite du changement - Accompagner les équipes dans la montée en maturité sur les enjeux Data Privacy. - Contribuer au déploiement de la plateforme OneTrust, notamment sur les aspects migration, paramétrage et intégration. - Promouvoir les bonnes pratiques et challenger les processus existants pour améliorer l’efficacité opérationnelle. Expertise souhaitée Compétences techniques et fonctionnelles - Minimum 5 ans d'expérience dans des fonctions de conformité, Data Privacy, gouvernance des données ou gestion de projets réglementaires. - Bonne compréhension du cadre RGPD et des pratiques de conformité opérationnelle. - Maîtrise ou connaissance avancée de la plateforme OneTrust (ou équivalent). - Familiarité avec les environnements IT, infrastructures, mainframe, et les enjeux de migration de données. - Capacité à collaborer efficacement avec les directions IT, cybersécurité, data et juridique. - Compétences en pilotage de projets transverses et en coordination d’acteurs multiples. Compétences comportementales - Anglais professionnel courant (environnement de travail international). - Esprit analytique, rigueur et sens de la priorisation. - Excellente communication et capacité à interagir avec des interlocuteurs de haut niveau. - Aptitude à instaurer la confiance tout en challengeant les pratiques établies. - Sens du résultat, autonomie et esprit de collaboration.
Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud
1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Mission freelance
Tech Lead Senior - H/F - 93
Publiée le
Agile Scrum
Amazon S3
Ansible
12 mois
Saint-Denis, Île-de-France
Dans le cadre du projet de refonte et d’évolution d’une application métier dans le domaine ferroviaire / industriel, nous recherchons un Tech Lead pour piloter l’équipe technique et garantir la qualité des solutions développées. Ce rôle clé allie expertise technique, leadership et collaboration transverse avec les chefs de projet et les équipes métiers. Le projet repose sur une stack technique moderne (Python, FastAPI, PostgreSQL/PostGIS, AWS, Kubernetes) et s’inscrit dans une démarche Agile/Scrum. Le Tech Lead sera responsable de l’architecture, de la performance des services back-end, et de l’amélioration continue des processus de développement. Leadership technique & Architecture Concevoir et valider l’architecture technique des solutions (back-end, BDD, ETLs). Superviser les revues de code (Python) et garantir le respect des bonnes pratiques. Optimiser les performances des services back-end (FastAPI, SQLAlchemy). Piloter les déploiements sur les environnements (dev, recette, prod) via Jenkins, AWS (S3/RDS), Ansible, Kubernetes. Automatiser les tests et les pipelines CI/CD. Encadrement & Collaboration Mentorer les développeurs et développeuses pour favoriser leur montée en compétences. Participer aux cérémonies Agile (sprints, rétrospectives) et contribuer à l’amélioration des processus. Travailler en étroite collaboration avec les chefs de projet pour aligner les roadmaps techniques et fonctionnelles. Assurer une veille technologique et proposer des innovations (outils, frameworks, bonnes pratiques). Gestion des infrastructures & Qualité Administrer les outils DevOps (Jenkins, AWS, Helm, Datadog). Documenter le code et les processus techniques. * Garantir la stabilité et la scalabilité des applications en production.
Offre d'emploi
Data Engineer AWS
Publiée le
Amazon S3
AWS Cloud
AWS Glue
40k-45k €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Expérience requise : 5 à 10 ans Anglais obligatoire Compétences recherchées : Data Engineer AWS (S3, Glue, Athena, Python) Tâches à traiter : Compréhension des données scientifiques dans le domaine pharma CMC Clarification des besoins avec les parties prenantes, estimation de l’effort pour la planification PI Bonne connaissance des pratiques Lean & Agile Ingénierie de données AWS : S3, Glue (Jobs/Workflows), Athena Développement ETL/ELT : Python, Glue ETL, évolution de schémas, partitionnement Modélisation de données : modèles de domaine harmonisés, schémas en étoile/flocon, gestion des métadonnées Optimisation SQL : amélioration des performances sous Athena, conception de requêtes optimisées en coût, stratégies de partitionnement/pruning Tests et qualité : tests unitaires/intégration pour les pipelines, frameworks de qualité des données Documentation et transfert de connaissances : runbooks, diagrammes d’architecture, planification et exécution du KT Expérience en migration : stratégie de fonctionnement parallèle, planification du cutover, backfill, rapprochement des données
Offre d'emploi
Ingénieur Stockage Objet - CDI - Charenton le pont H/F
Publiée le
75010, Paris, Île-de-France
Télétravail partiel
Qui sommes-nous ? On est une ESN spécialisée dans le domaine des infrastructures à taille humaine, avec plus de 30 ans d’histoire. Mais ce qui fait notre vraie différence ? On ne se contente pas de dire qu’on valorise nos collaborateurs, on le prouve au quotidien. Chez Artemys , on crée un univers où l’humain passe avant tout . Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. 📍 Le terrain de jeu ? Notre siège est situé au cœur du dynamique 10e arrondissement de Paris, mais nos opportunités de postes s'étendent dans tous les arrondissements parisiens et la proche banlieue. Votre mission (si vous l’acceptez) : Maîtrise des solutions de stockage en mode objet comme Amazon S3 (et/ou Scality S3). Compréhension des concepts fondamentaux du stockage objet, y compris la gestion des métadonnées, la durabilité et la redondance. Connaissance des bibliothèques Python pour interagir avec des API de stockage (Boto3 pour AWS). Capacité à écrire des scripts pour automatiser des tâches de gestion des données Compréhension des formats de fichiers (JSON, XML, etc.) souvent utilisés dans les systèmes de stockage en mode objet. Connaissance des systèmes d'exploitation Linux et des principes de configuration des serveurs. Capacité à surveiller et à analyser les performances des systèmes de stockage et à identifier les goulots d'étranglement. L’environnement technique : Scality - Confirmé - Impératif S3 - Confirmé - Impératif Python - Confirmé - Impératif Vous, notre perle rare : Vous avez 3 ans d’expérience (minimum) en environnement challengeant Vous avez déjà travaillé avec des grands comptes Vous parlez anglais (niveau conversationnel) Vous êtes rigoureux, agile, force de proposition et à l’aise à l’écrit Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 40000 - 50000 € (Selon votre expertise) Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). 12 RTT, Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Offre d'emploi
Architecte Cloud Stockage NetApp
Publiée le
AWS Cloud
Azure
High Level Design (HLD)
41k-87k €
Île-de-France, France
Télétravail partiel
Nous recherchons des Architectes Stockage NetApp avec une expertise en Cloud(Azure ou AWS). Les profils basés au Maroc et intéressés par un poste en France seront les bienvenus. Missions: Concevoir, industrialiser et piloter des architectures de stockage hybrides et multi-cloud basées sur les solutions NetApp (ON-PREM & Cloud), en assurant performance, résilience, sécurité et optimisation des coûts pour des charges de travail critiques. Responsabilités principales : • Architecture & Design o Définir les HLD/LLD pour Azure, AWS et Private Cloud VMware, intégrés aux solutions NetApp (Azure NetApp Files, FSx for NetApp ONTAP, Cloud Volumes ONTAP, ONTAP on-prem). o Modéliser les patterns : NAS (NFS/SMB), sauvegarde et archivage, multirégion/DR. o Dimensionner la capacité, la perf (IOPS/latence/throughput), et établir RPO/RTO, SLA/SLO. o Dimensionner la consolidation des données (SnapMirror/SVM-DR, XCP, BlueXP Copy & Sync). o Définir les HLD/LLD de l’observabilité (Active IQ Unified Manager, NetApp DII), capacity planning et QoS. • Sécurité & Conformité o Intégrer IAM/AAD/IAM AWS, chiffrement at-rest/in-flight, antivirus, durcissement, traçabilité. o Contribuer aux audits (ISO 27001, NIS2, DORA, etc.) et à la gestion des risques. • Optimisation & FinOps o Gouverner les coûts: tiering (FabricPool vers Blob/S3), classes de stockage, réservations/commitments. o Standards, catalogues de services, modèles Terraform réutilisables, guardrails
Mission freelance
Data Engineer AWS - PySpark/Databricks
Publiée le
Amazon S3
Apache Spark
AWS Cloud
12 mois
550-600 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
Mission freelance
Expert technique DEVOPS Senior
Publiée le
DevOps
24 mois
325-650 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un expert technique devops Senior dasn le cadre de projets de conteneurisation On premise et IAC Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. Réaliser et modifier différents jobs et pipelines Gitlab-CI Les compétences techniques attendues sont les suivantes : - Maitrise de kubernetes (Openshift) o Déploiement des clusters en mode « airgap » o Troubleshooting des défaillances o Technologie CSI o Déploiement des workload (helm chart / yaml) o Exposition des Services/Ingress/routes Layer4 & 7 - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise de technologies et méthodologies basées sur le principe du gitops - Maitrise de la mise en place d'outillage de scan au build et au runtime des images de conteneur - Maitrise de l'outil de construction des images de conteneur kaniko - Maitrise de l'outil Hashicorp Vault - Connaissance des technologies : o Vmware Vsphere o Baremétal o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) - Connaissance d'ansible / terraform - Maitrise des outils de déploiement continue KUBERNETES (ArgoCd) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings
Mission freelance
Expert Devops Gitlab-CI
Publiée le
DevOps
GitLab CI
24 mois
375-750 €
Paris, France
Télétravail partiel
Propulse iT recherche un Expert Devops Gitlab-CI - Réaliser et modifier différents rôles et Playbooks Ansible - Réaliser et modifier différents modules Terraform - Réaliser et modifier différents jobs et pipelines Gitlab-CI - Assurer le support N3 de la chaine CI/CD Les compétences techniques attendues sont les suivantes : - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise des technologies et méthodologies basées sur le principe du gitops - Maitrise des technologies et méthodologies basées sur le principe d'infra as Code - Maitrise d'ansible / terraform - Maitrise de la programmation en python - Maitrise de l'outil Hashicorp Vault - Maitrise des technologies API REST - Connaissance des technologies : o Vmware Vsphere o Nutanix o Baremétal o Kubernetes o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings
Mission freelance
IP2025045 Expert technique DEVOPS avec 5 ans d'exp
Publiée le
DevOps
24 mois
250-500 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un expert technique devops Senior dasn le cadre de projets de conteneurisation On premise et IAC Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. Réaliser et modifier différents jobs et pipelines Gitlab-CI Les compétences techniques attendues sont les suivantes : - Maitrise de kubernetes (Openshift) o Déploiement des clusters en mode « airgap » o Troubleshooting des défaillances o Technologie CSI o Déploiement des workload (helm chart / yaml) o Exposition des Services/Ingress/routes Layer4 & 7 - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise de technologies et méthodologies basées sur le principe du gitops - Maitrise de la mise en place d'outillage de scan au build et au runtime des images de conteneur - Maitrise de l'outil de construction des images de conteneur kaniko - Maitrise de l'outil Hashicorp Vault - Connaissance des technologies : o Vmware Vsphere o Baremétal o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) - Connaissance d'ansible / terraform - Maitrise des outils de déploiement continue KUBERNETES (ArgoCd) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
94 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois