L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 93 résultats.
Mission freelance
Architecte/Techlead Python AWS
Publiée le
AWS Cloud
DevOps
Python
1 an
600-650 €
Paris, France
Télétravail partiel
Le Tech Lead aura pour mission principale de diriger et de superviser l'équipe de développement, en veillant à la qualité technique des solutions mises en œuvre et au respect des meilleures pratiques de développement. Il ou elle sera responsable de l'architecture technique du projet, de la planification des tâches de développement. Le Tech Lead devra également encadrer et mentorer les développeurs et développeuses, en les accompagnant dans leur montée en compétences et en veillant à ce que les objectifs de développement soient atteints. Description détaillée des tâches qui constituent la mission • La conception et la révision du code source – python o ETLs, 2 app back, 1 schéma de BDD • La documentation du code source • La performance des services back • L’administration des infrastructures informatiques – Jenkins, AWS (S3, RDS), Ansible, Helm, Kubernetes • Les déploiements des apps back sur les différents environnements (dev, recette, intégration, production) • La revue de code des autres .s back-end En parallèle, il.elle se démarquera par sa capacité à s’imprégner des enjeux du projet. Cela passe par : • Un intérêt marqué pour comprendre les enjeux métier du projet • L’appropriation de l’outil et du code source. • Le partage de connaissance technique pour améliorer, en équipe, l’application. • La prise d’initiative sur les sujets techniques. • L’investissement dans les activités de l’équipe projet Le Tech Lead disposera d’une grande autonomie et sera force de proposition technique pour assurer le fonctionnement de l’application et garantir son adéquation avec le cahier des charges. Nous recherchons un profil Senior, proactif dans la mise en qualité de l’outil et le travail en équipe, avec une à minima une expérience en DevOPS. Il sera également très apprécié que la candidate maitrise certains des outils de l’environnement DevOps parmi les suivants : Jenkins, AWS (S3 et RDS), Ansible, Helm, Docker, Kubernetes, Datadog. Le/la tech lead devra également maitriser la méthodologie de gestion de projet Agile – Scrum ainsi que l’outil de gestion de version GitLab. La connaissance des outils de gestion de projet Jira ou Linear sera appréciée. En termes de formation, deux types de profils peuvent également être très valorisés : • Un profil ingénieur issue de grande école française • Un profil ingénieur issue d’écoles spécialisées en développements informatiques et web en sont de bons exemples Environnement technique : Le projet fait à date appel aux technologies suivantes : • Python – FastAPI, SQLalchemy, Alembic pour les services back-end • PostgreSQL – PostGIS pour les services de base de données La bonne maitrise des technologies suivantes est donc requise : • Python 3.13 o FastAPI o SQLalchemy 2 o Pydantic 2 o Pytest • PostgreSQL 14 o PostGIS
Mission freelance
Ingénieur DevOps
Publiée le
AWS Cloud
DevOps
DevSecOps
6 mois
320-430 €
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un Ingénieur DevOps Objectif global : Dév(Sec)Ops, environnement AWS Compétences techniques: Kubernetes - Expert - Impératif fluxCD helm, terraform - Expert - Impératif Description détaillée: Dans le cadre d’un grand compte, nous recherchons un devops expérimentés Le cadre est le suivant : - Méthodologie agilité à l’échelle (SAFE) - Architecture fonctionnant dans le cloud AWS (EKS / S3 / EC2 / EBS / EFS / RDS / OpenSearch / WAF / ALB ) Activités attendues : - MCO/RUN de la plaforme actuelle, - Evolutions : ex : amélioration continue de la partie CI/CD (automatisation de tests, …), - Support : o Accompagnement des équipes projets agiles, o Construction de solutions Compétences et technologies : - Kubernetes (csi driver, datadog agent, prometheus, external-secret, external dns, etc ). - fluxCD helm, terraform - Gitlab, jenkiins, artifactory sonarQube, atlantis - AWS (EKS / S3 / EC2 / EBS / EFS / RDS / OpenSearch / WAF / ALB )
Mission freelance
Product Owner Technique
Publiée le
Amazon S3
API
AWS Cloud
12 mois
430-550 €
Paris, France
Télétravail partiel
Nous recherchons un Product Owner Technique Senior pour rejoindre une équipe spécialisée dans le Platform Engineering , en charge des services et outils orientés résilience, infrastructure et FinOps . Vous piloterez des produits essentiels à la robustesse, la performance et la maîtrise des coûts d’une infrastructure Cloud AWS. Vous travaillerez avec une équipe pluridisciplinaire (Tech, SRE, Ops) et serez le garant de la qualité, de la fiabilité et de l’évolution continue des services proposés aux utilisateurs internes (équipes de développement). Vous intégrerez également une communauté de pratique Product Management , permettant échanges et montée en compétences collectives. Missions principales1. Pilotage des produits orientés résilience / FinOps Identifier les besoins prioritaires et organiser le backlog selon la valeur apportée (User Stories techniques, Epics). Suivre la construction des services de la plateforme via les rituels d’équipe (Daily Stand-up, backlog refinement, etc.). Assurer la qualité et la fiabilité des livrables techniques. 2. Suivi des performances et indicateurs Être l’interlocuteur privilégié des équipes de développement. Suivre les anomalies et incidents pour garantir des corrections rapides post-déploiement. Co-construire et suivre les indicateurs SLO/SLI, KPI FinOps, métriques DORA et DevEx, OKRs. Proposer des améliorations basées sur les données collectées (SRE, FinOps). 3. Partage de la vision et coordination Participer aux points de suivi avec les parties prenantes (Lead Devs, Architectes, Staff Engineers, Management). Recueillir les besoins des stakeholders pour faire évoluer la plateforme. 4. Contribution à la roadmap stratégique Définir les orientations produit en lien avec la fiabilité, la scalabilité et la maîtrise des coûts. Contribuer à la proposition de valeur et aux critères de succès de la plateforme. 5. Amélioration des pratiques internes Promouvoir l’amélioration continue des pratiques (REX, benchmark des outils SRE/Cloud). Livrables Roadmap produit hiérarchisée et partagée régulièrement. Backlog d’Epics et User Stories techniques prêt à être implémenté. Tableaux de bord KPI / OKRs (SLO/SLI, coûts AWS, métriques DORA et DevEx). Documentation produit (notes de release, guides d’adoption des outils). Animation des rituels Agile avec l’Agile Master.
Offre d'emploi
Expert Devops H/F
Publiée le
Exploitation
55k-65k €
93160, Noisy-le-Grand, Île-de-France
Télétravail partiel
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de Consortis, sont au cœur des enjeux actuels de Cybersécurité, Virtualisation & Cloud, Systèmes, Réseaux et Télécom, ainsi que sur les environnements Digital Workplace. Les compétences RPA et DevOps viennent renforcer ces offres pour accélérer l’agilité et l’efficacité opérationnelle des services délivrés. Expert Devops H/F C’est votre m ission Vous êtes passionné·e par la conteneurisation , les plateformes Kubernetes et l’ Infrastructure as Code ? Ce poste est fait pour vous. En tant qu’ Expert devops , vous êtes responsable du déploiement , de l’ automatisation et de la fiabilisation des plateformes conteneurisées au cœur des systèmes critiques : Côté build : Déployer et configurer des clusters Kubernetes / OpenShift (dont environnements airgap ) Concevoir et optimiser des pipelines CI/CD (GitLab CI, GitOps) Mettre en place les bonnes pratiques de sécurité des images et des pipelines (Trivy, Grype, Syft, Checkov) Automatiser les infrastructures via Terraform et Ansible Participer à la formalisation et l’évolution des standards d’exploitation Intégrer les workloads applicatifs sur les plateformes conteneurisées Côté run : Assurer le troubleshooting avancé sur Kubernetes / OpenShift Maintenir les workloads applicatifs et garantir la stabilité des clusters Surveiller, analyser et optimiser les plateformes (logs, performances, sécurité) Administrer les outils de l’écosystème : Gitlab, ArgoCD, Artifactory, Vault Contribuer à la documentation technique et aux retours d’expérience Collaborer avec les équipes projets pour les accompagner sur les bonnes pratiques DevOps C’est votre parcours Vous avez au moins 8 ans d’expérience dans des environnements DevOps exigeants. Vous aimez construire, automatiser et industrialiser sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique s’allie au collectif.. C’est votre expertise : Maîtrise de Kubernetes / Openshift (déploiement, exploitation, troubleshooting) Chaînes CI/CD & GitOps : GitLab CI, ArgoCD, Kaniko Sécurité : Trivy, Grype, Syft, Checkov IaC & automation : Ansible, Terraform Virtualisation & réseau : VMware vSphere , NSX , BigIP F5 Stockage objet : S3, MinIO Systèmes Linux / Red Hat C’est votre manière de faire équipe : Esprit d’analyse et sens du détail technique Communication claire et goût pour la transmission Proactivité et capacité à travailler en autonomie Curiosité, adaptation et volonté de faire avancer le collectif Rigueur, sens du service et culture DevOps C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Noisy Le Grand Contrat : CDI Télétravail : Hybride Salaire : De 55 K€ à 65 K€ brut annuel Famille métier : DevOps / Conteneurisation / Systèmes Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
ARCHITECTE CLOUD STOCKAGE (NetApp)
Publiée le
Ansible
AWS Cloud
Azure
3 ans
Puteaux, Île-de-France
Nous recherchons pour notre client un architecte cloud stockage pour une mission longue Concevoir, industrialiser et piloter des architectures de stockage hybrides et multi-cloud basées sur les solutions NetApp (ON-PREM & Cloud) , en assurant performance, résilience, sécurité et optimisation des coûts pour des charges de travail critiques. Responsabilités principales • Architecture & Design o Définir les HLD/LLD pour Azure, AWS et Private Cloud VMware, intégrés aux solutions NetApp (Azure NetApp Files, FSx for NetApp ONTAP, Cloud Volumes ONTAP, ONTAP on-prem). o Modéliser les patterns : NAS (NFS/SMB), sauvegarde et archivage, multirégion/DR. o Dimensionner la capacité, la perf (IOPS/latence/throughput), et établir RPO/RTO, SLA/SLO. o Dimensionner la consolidation des données (SnapMirror/SVM-DR, XCP, BlueXP Copy & Sync). o Définir les HLD/LLD de l’observabilité (Active IQ Unified Manager, NetApp DII), capacity planning et QoS. • Sécurité & Conformité o Intégrer IAM/AAD/IAM AWS, chiffrement at-rest/in-flight, antivirus, durcissement, traçabilité. o Contribuer aux audits (ISO 27001, NIS2, DORA, etc.) et à la gestion des risques. • Optimisation & FinOps o Gouverner les coûts: tiering (FabricPool vers Blob/S3), classes de stockage, réservations/commitments. o Standards, catalogues de services, modèles Terraform réutilisables, guardrails. Environnement technique • NetApp: ONTAP 9.x, Cloud Volumes ONTAP, Azure NetApp Files, Amazon FSx for NetApp ONTAP, SnapMirror/SnapVault, SnapCenter, FlexVol/FlexGroup, FlexClone, FabricPool, QoS, SVM-DR, NDMP, NFSv3/v4.1, SMB 3.x, iSCSI/MPIO. • Azure: VNet/ExpressRoute, Cloud Volumes ONTAP, ANF, Managed Disks, Storage Accounts, Key Vault, Azure VMs. • AWS: VPC/Direct Connect, FSx ONTAP, KMS. • Automatisation: Terraform, Ansible (collections NetApp). • Réseau: DNS/AD, LDAP/Kerberos, SMB signing, NFS sec, routage & pare-feu. Compétences requises • 5–8 ans d’expérience en architecture stockage dont ≥3 ans sur NetApp ONTAP (cloud & on-prem). • Maîtrise d’au moins deux environnements parmi Azure, AWS, VMware, et des patterns hybrides. • Pratique avancée des migrations (SnapMirror, XCP) et de la résilience (DRP, tests de bascule). • Solides bases en sécurité (chiffrement, IAM, clés gérées, durcissement) et réseau (NFS/SMB/iSCSI). • Connaissance en Scripting/Infra as Code (Terraform/Ansible) et automatisation d’opérations. Soft skills • Leadership technique, pédagogie, sens du service. • Capacité à formaliser (HLD/LLD, DAT, runbooks) et à défendre des choix d’architecture. • Esprit FinOps: compromis coût/perf/risque, mesure & itération. Certifications appréciées (plus) • NetApp: NCDA, NCIE, NCSA (Cloud). • Azure/AWS: AZ-104/305/700, AWS SAA/SAP. • VMware: VCP-DCV, VCP-CMA. • Sécurité: AZ-500, Security Specialty. Livrables attendus • Dossiers d’architecture (HLD/LLD), matrice RACI, DAT, schémas, plans de migration & de tests DR. • Dossiers d’exploitation (sauvegarde, restauration, PRA/PCA) et rapports de performance.
Offre d'emploi
ARCHITECTE CLOUD STOCKAGE (NetApp)
Publiée le
Ansible
AWS Cloud
Azure
3 ans
Puteaux, Île-de-France
Télétravail partiel
Nous recherchons pour notre client un architecte cloud stockage pour une mission longue Concevoir, industrialiser et piloter des architectures de stockage hybrides et multi-cloud basées sur les solutions NetApp (ON-PREM & Cloud) , en assurant performance, résilience, sécurité et optimisation des coûts pour des charges de travail critiques. Responsabilités principales • Architecture & Design o Définir les HLD/LLD pour Azure, AWS et Private Cloud VMware, intégrés aux solutions NetApp (Azure NetApp Files, FSx for NetApp ONTAP, Cloud Volumes ONTAP, ONTAP on-prem). o Modéliser les patterns : NAS (NFS/SMB), sauvegarde et archivage, multirégion/DR. o Dimensionner la capacité, la perf (IOPS/latence/throughput), et établir RPO/RTO, SLA/SLO. o Dimensionner la consolidation des données (SnapMirror/SVM-DR, XCP, BlueXP Copy & Sync). o Définir les HLD/LLD de l’observabilité (Active IQ Unified Manager, NetApp DII), capacity planning et QoS. • Sécurité & Conformité o Intégrer IAM/AAD/IAM AWS, chiffrement at-rest/in-flight, antivirus, durcissement, traçabilité. o Contribuer aux audits (ISO 27001, NIS2, DORA, etc.) et à la gestion des risques. • Optimisation & FinOps o Gouverner les coûts: tiering (FabricPool vers Blob/S3), classes de stockage, réservations/commitments. o Standards, catalogues de services, modèles Terraform réutilisables, guardrails. Environnement technique • NetApp: ONTAP 9.x, Cloud Volumes ONTAP, Azure NetApp Files, Amazon FSx for NetApp ONTAP, SnapMirror/SnapVault, SnapCenter, FlexVol/FlexGroup, FlexClone, FabricPool, QoS, SVM-DR, NDMP, NFSv3/v4.1, SMB 3.x, iSCSI/MPIO. • Azure: VNet/ExpressRoute, Cloud Volumes ONTAP, ANF, Managed Disks, Storage Accounts, Key Vault, Azure VMs. • AWS: VPC/Direct Connect, FSx ONTAP, KMS. • Automatisation: Terraform, Ansible (collections NetApp). • Réseau: DNS/AD, LDAP/Kerberos, SMB signing, NFS sec, routage & pare-feu. Compétences requises • 5–8 ans d’expérience en architecture stockage dont ≥3 ans sur NetApp ONTAP (cloud & on-prem). • Maîtrise d’au moins deux environnements parmi Azure, AWS, VMware, et des patterns hybrides. • Pratique avancée des migrations (SnapMirror, XCP) et de la résilience (DRP, tests de bascule). • Solides bases en sécurité (chiffrement, IAM, clés gérées, durcissement) et réseau (NFS/SMB/iSCSI). • Connaissance en Scripting/Infra as Code (Terraform/Ansible) et automatisation d’opérations. Soft skills • Leadership technique, pédagogie, sens du service. • Capacité à formaliser (HLD/LLD, DAT, runbooks) et à défendre des choix d’architecture. • Esprit FinOps: compromis coût/perf/risque, mesure & itération. Certifications appréciées (plus) • NetApp: NCDA, NCIE, NCSA (Cloud). • Azure/AWS: AZ-104/305/700, AWS SAA/SAP. • VMware: VCP-DCV, VCP-CMA. • Sécurité: AZ-500, Security Specialty. Livrables attendus • Dossiers d’architecture (HLD/LLD), matrice RACI, DAT, schémas, plans de migration & de tests DR. • Dossiers d’exploitation (sauvegarde, restauration, PRA/PCA) et rapports de performance.
Mission freelance
Développeur Python AWS - Data & Gen AI ( Databricks)
Publiée le
Amazon DynamoDB
Amazon S3
API
12 mois
550-680 €
Paris, France
Télétravail partiel
Missions principales : Participer à la conception, au développement et à la mise en œuvre de nouvelles fonctionnalités du plan de travail (workplan). Contribuer à la rédaction des spécifications techniques et à la documentation associée. Prendre part à la construction et à l’évolution d’une plateforme data intégrant la gouvernance, l’ingestion, la transformation, le stockage, l’exposition et l’analytique. Intervenir sur les aspects RUN et BUILD de la plateforme en soutien à l’équipe existante. Garantir la sécurité, la performance et la scalabilité des solutions déployées sur le Cloud AWS. Participer à la mise en place de solutions Gen AI au sein de l’écosystème Data/Cloud. Compétences techniques requises : Cloud AWS : maîtrise approfondie des services IAM, S3, DynamoDB, Lambda, API Gateway . Databricks et sa composante AI (Genie) . Développement Backend Python , avec une solide expérience en API / webservices / routes . Maîtrise d’un framework Python (idéalement AWS Powertools for Lambda , Flask ou FastAPI ). Infrastructure as Code : expertise en Terraform et bonne culture DevOps . Expérience dans la mise en œuvre de plateformes data (gouvernance, ingestion, transformation, stockage, exposition, analytics). Excellente capacité de communication écrite et orale en anglais . Compétences appréciées : Certifications AWS : Solutions Architect Associate , Data Engineer Associate et/ou Developer Associate . Connaissances en Power BI , services réseau , Collibra ou React . Sens de la collaboration, autonomie et approche orientée solution. Objectifs et livrables : Contribution à la définition et au développement des features du workplan. Livraison de composants applicatifs fiables et documentés . Participation active aux revues techniques et réunions d’équipe . Support dans la gestion opérationnelle (RUN) et l’ amélioration continue (BUILD) des solutions Cloud & Data.
Mission freelance
DevOps Cloud & Réseau AWS
Publiée le
Ansible
Argo CD
AWS Cloud
3 mois
100-600 €
Paris, France
Télétravail partiel
Intitulé du poste Ingénieur DevOps orienté Cloud & Réseau AWS Mission principale Assurer la mise en place et l’automatisation des infrastructures Cloud tout en garantissant la performance et la sécurité des réseaux AWS. Gérer les différents projets en cours et à venir en respectant les standards Ratpdev et les bonnes pratiques Cloud AWS. Mettre en place les chaines de déploiement CI/CD. Gérer le Run et les changements sur infrastructure AWS. Responsabilités clés · Automatisation & CI/CD : Concevoir et maintenir des pipelines CI/CD (GitLab CI/CD, Jenkins). Intégrer des tests automatisés et des contrôles qualité. · Infrastructure as Code (IaC) : Déployer et gérer des environnements via Terraform, Ansible. Implémenter des pratiques GitOps (ArgoCD). · Cloud & Conteneurisation : Administrer des environnements AWS (EC2, S3, RDS, Lambda). Gérer Kubernetes (EKS) et conteneurs Docker. · Réseau AWS : Configurer VPN, Direct Connect, et Transit Gateway pour la connectivité hybride. Superviser la sécurité réseau (pare-feu, segmentation, Zero Trust). Optimiser la latence et la résilience des architectures réseau. Mettre en places des stack network AWS Multi régions · Observabilité & Performance : Monitoring réseau et applicatif (Datadog,CloudWatch). Analyse des flux et optimisation des coûts (FinOps). · Sécurité & Conformité (DevSecOps) : Intégrer la sécurité dans les pipelines (scan vulnérabilités, secrets management). Respecter les standards de gouvernance et conformité Cloud.
Mission freelance
FREELANCE – Ingénieur de Production (H/F)
Publiée le
Administration linux
Amazon Elastic Compute Cloud (EC2)
Amazon S3
6 mois
300-350 €
Nancy, Grand Est
Télétravail partiel
Notre client basé à Nancy (54) est à la recherche d’un Ingénieur de Production (H/F) pour l’accompagner sur ses projets. MISSIONS · Prendre en charge l’intégration de nouvelles applications ou de progiciels, depuis la phase de réception jusqu’à la mise à disposition · Effectuer la réception, la validation et le packaging des composants applicatifs. · Installer et déployer les composants sur les environnements cibles · Réaliser la recette technique et l’homologation des applications avant leur mise en production · Participer activement à l’amélioration continue des processus et des outils d’industrialisation et de déploiement · Analyser le contexte technique et prenez connaissance des changements à intégrer · Compléter et exécuter le plan de tests techniques, en préparant les infrastructures nécessaires · Valider les documents et procédures destinés à la production · Réaliser les tests techniques (performance, intégration, compatibilité, etc.) et analysez les résultats · Contribuer au diagnostic et à la résolution des incidents en cas de dysfonctionnement · Rédiger des rapports détaillés facilitant la prise de décision pour la mise en production · Mettre à jour le patrimoine de tests réutilisable pour les futures intégrations · Assurer un reporting régulier et proposez des actions d’amélioration continue · Industrialiser et automatiser les tests récurrents à l’aide d’outils adaptés ENVIRONNEMENT TECHNIQUE · Systèmes : Linux · Cloud : AWS (EC2, S3, IAM, CloudFormation, EKS, etc.) · Outils DevOps : CI/CD, outils d’automatisation et de conteneurisation (OpenShift, Docker, Kubernetes) · Langages et scripting : Shell / Bash / Python
Mission freelance
consultant IBM senior H/F
Publiée le
IBM Cloud
6 mois
Suisse
Télétravail partiel
Nitrolabz accompagne les entreprises dans le développement et la concrétisation de leurs projets technologiques. De l’expertise technique à la création de solutions digitales innovantes, nous intégrons les technologies les plus avancées pour booster votre performance et vos ambitions. Aujourd'hui un de nos plus grand client souhaite renforcer son infrastructure cloud interne autour de la solution ODF (OpenShift Data Foundation) afin d’optimiser le stockage et la disponibilité des données critiques. La mission s’inscrit dans un projet stratégique visant à améliorer la résilience, la sécurité et l’efficacité des systèmes de stockage au sein de l’environnement OpenShift. Nous cherchons donc a recruter un(e) consutant(e) IBM senior qui aura pour mission: Titre de la mission : Consultant IBM – Solution ODF sur OpenShift Durée de la mission : [À préciser, ex. 6 mois avec possibilité de prolongation] Lieu : Suisse Missions principales : Déployer, configurer et administrer la solution ODF interne sur OpenShift. Assurer la gestion des différents types de stockage : bloc, file et objet (S3). Garantir la haute disponibilité des services et la continuité des opérations. Mettre en place les stratégies de sauvegarde et restauration adaptées aux différents environnements et exigences métier. Collaborer avec les équipes DevOps et infrastructure pour optimiser les performances et la sécurité du stockage. Documenter les procédures et accompagner les équipes internes sur les bonnes pratiques ODF. Livrables attendus : Plateforme ODF déployée et opérationnelle avec monitoring et alerting configurés. Stratégie de sauvegarde et plan de restauration testés et documentés. Guide de bonnes pratiques pour l’exploitation quotidienne de la solution ODF. Entreprise handi-accueillante : à compétences égales, une attention particulière est portée aux candidatures des personnes en situation de handicap.
Mission freelance
IT ENGINEERING MANAGER
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud
12 mois
580-600 €
Île-de-France, France
Télétravail partiel
Engineering Manager / Head of Engineering / Lead Technique expérimenté , capable d’apporter structure, cohérence et excellence technique dans un contexte digital multi-équipes (squads internes et prestataires). Le profil doit allier expertise technique solide , leadership naturel et vision d’ingénierie moderne orientée qualité et productivité. Expérience et parcours 8 à 12 ans d’expérience dans le développement ou l’architecture logicielle, dont au moins 3 ans en management technique ou en direction d’équipes de delivery . Expérience confirmée dans un environnement web / digital à fort trafic ou produit SaaS. Habitude de travailler dans un modèle d’équipes agiles multi-squads (internes + externes). Solide expérience dans la mise en place de standards techniques , d’ outils CI/CD , et dans la structuration d’organisations d’ingénierie . Compétences techniques clés Langages & frameworks : TypeScript, Node.js, React (niveau expert) ; Python apprécié. Architecture logicielle : Clean / Hexagonale / modulaire ; maîtrise des Design Patterns. CI/CD & DevOps : GitHub Actions, AWS CodePipeline, infrastructure AWS (EC2, Lambda, S3, CloudFront…). Outils : GitHub, Jira, Confluence, Google Workspace. Connaissance approfondie de l’ intégration continue , du testing (unitaires, intégration, E2E), et des bonnes pratiques d’ingénierie logicielle .
Mission freelance
Ingénieur MLOps Data & IA
Publiée le
Amazon S3
Apache Airflow
Apache Spark
12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Le profil interviendra sur l’ensemble du cycle de vie des solutions d’Intelligence Artificielle (IA), incluant : Industrialisation et CI/CD : Mise en place et maintenance de pipelines CI/CD (GitLab, Docker, Terraform, Kubernetes). Infrastructure et automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM…). Data Engineering & Spark : Développement et optimisation de jobs Spark pour la préparation et le traitement de données à grande échelle. MLOps / Production : Déploiement, suivi et supervision des modèles IA (MLflow, , monitoring Datadog). Collaboration transverse : Interaction quotidienne avec les Data Scientists pour fiabiliser le delivery et le suivi des modèles. Veille et amélioration continue : Participation active à l’optimisation des pipelines et à la montée en maturité technique de l’équipe. Description de la mission Le profil sera en charge de : Maintenir et faire évoluer les pipelines d’industrialisation (CI/CD, Terraform, Docker, Kubernetes). Participer à la mise en production et au suivi des modèles IA (Airflow, Datadog, , MLflow). Garantir la fiabilité des traitements Spark et la conformité des environnements AWS. Contribuer au suivi de la production et aux mises en production (MCO). Participer à l’amélioration continue des outils et pratiques Data/IA. Documenter les bonnes pratiques techniques et partager les retours d’expérience au sein de l’équipe AI Experts. Compétences techniques attendues Obligatoires (Must Have) : CI/CD (GitLab) Docker Terraform Kubernetes Spark Python AWS (S3, EMR, SageMaker, IAM…) Souhaitables (Nice to Have) : MLflow Airflow API / FastAPI Datadog Suivi de production / MEP Autres compétences : Expérience de collaboration avec des Data Scientists Veille technologique et amélioration continue Soft Skills recherchés Esprit d’équipe et forte culture du delivery Rigueur technique, curiosité et autonomie Capacité à collaborer efficacement dans un environnement pluridisciplinaire (DE, DS, OPS, PO, DEV, staff) Sens du partage et de la documentation Livrables et responsabilités principales Maintenir et faire évoluer les pipelines CI/CD et d’industrialisation Participer aux mises en production et au suivi des modèles IA Garantir la fiabilité des traitements Spark et la conformité AWS Contribuer à l’optimisation continue des outils et pratiques Documenter et partager les bonnes pratiques techniques
Offre d'emploi
Expert·e/ Architecte Backup
Publiée le
50k-70k €
Paris, France
Télétravail partiel
Pour le compte de l'un de nos clients grands comptes, vous serez rattaché·e à la direction de BSCI : Vos missions principales seront : - Support & Gestion des backups - Support & Gestion du SAN - Administration / supervision / optimisation / reporting - Validation des paliers techniques et des processus opérationnels - Relation et communication avec les métiers, élaboration et propositions d'architectures - Audit et conseils - Gestion des projets Vos environnements technique seront : - Tous les environnements de sauvegarde recherchés : CommVault, TSM (Spectrum Protect), Netbackup, Networker, Veeam, Rubrik... - DatdaDomain, VTL, Stockage S3 - OS : AIX, Linux, Solaris, Windows - Virtualisation Système : VMWare, Nutanix, HyperV
Mission freelance
POT8733 - Un développeur Springboot/Angular sur Grenoble
Publiée le
AWS Cloud
6 mois
330-420 €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un développeur Springboot/Angular sur Grenoble. Tâches & Missions : Réaliser pour l’un de nos clients différentes évolutions sur une application stratégique dans le domaine de la performance énergétique. Front : Angular Back : micro services SpringBoot Cloud : AWS, services managés AWS (Lambda, Bucket S3, SQS, RDS, etc.) DevOps : (ansible, …) Prérequis : 4 ans d’expériences attendus sur Angular & Spring Boot Une présence à Grenoble en Full time (5 jours/sem) Almatek recherche pour l'un de ses clients, un développeur Springboot/Angular sur Grenoble. Tâches & Missions : Réaliser pour l’un de nos clients différentes évolutions sur une application stratégique dans le domaine de la performance énergétique. Front : Angular Back : micro services SpringBoot Cloud : AWS, services managés AWS (Lambda, Bucket S3, SQS, RDS, etc.) DevOps : (ansible, …) Prérequis : 4 ans d’expériences attendus sur Angular & Spring Boot Une présence à Grenoble en Full time (5 jours/sem).
Mission freelance
Développeur Java/Angular
Publiée le
Angular
Java
6 mois
250-350 €
Auvergne-Rhône-Alpes, France
Télétravail partiel
Bonjour, Je suis à la recherche Développeur Java-Angular à Grenoble: Missions principales : Ø Concevoir et développer des fonctionnalités front-end en Angular. Ø Développer des microservices back-end en SpringBoot. Ø Intégrer et configurer des services managés AWS (Lambda, S3, SQS, RDS, etc.). Ø Participer à la mise en place et à l’automatisation des processus DevOps (Ansible, CI/CD). Ø Assurer la qualité du code via des tests unitaires et d’intégration. Ø Contribuer à la revue de code et au respect des bonnes pratiques. Ø Optimiser les performances et la sécurité des applications. Ø Collaborer avec les équipes fonctionnelles pour analyser les besoins et proposer des solutions techniques. Ø Participer aux réunions Agile (daily, sprint planning, rétrospectives). Ø Rédiger la documentation technique et fonctionnelle. Ø Assurer le support technique et la maintenance corrective/évolutive.
Offre d'emploi
ARCHITECTE CLOUD STOCKAGE
Publiée le
Azure
NetApp
40k-81k €
Puteaux, Île-de-France
Télétravail partiel
Nous recherchons pour notre client un architecte cloud stockage pour une mission longue Concevoir, industrialiser et piloter des architectures de stockage hybrides et multi-cloud basées sur les solutions NetApp (ON-PREM & Cloud), en assurant performance, résilience, sécurité et optimisation des coûts pour des charges de travail critiques. Responsabilités principales • Architecture & Design o Définir les HLD/LLD pour Azure, AWS et Private Cloud VMware, intégrés aux solutions NetApp (Azure NetApp Files, FSx for NetApp ONTAP, Cloud Volumes ONTAP, ONTAP on-prem). o Modéliser les patterns : NAS (NFS/SMB), sauvegarde et archivage, multirégion/DR. o Dimensionner la capacité, la perf (IOPS/latence/throughput), et établir RPO/RTO, SLA/SLO. o Dimensionner la consolidation des données (SnapMirror/SVM-DR, XCP, BlueXP Copy & Sync). o Définir les HLD/LLD de l’observabilité (Active IQ Unified Manager, NetApp DII), capacity planning et QoS. • Sécurité & Conformité o Intégrer IAM/AAD/IAM AWS, chiffrement at-rest/in-flight, antivirus, durcissement, traçabilité. o Contribuer aux audits (ISO 27001, NIS2, DORA, etc.) et à la gestion des risques. • Optimisation & FinOps o Gouverner les coûts: tiering (FabricPool vers Blob/S3), classes de stockage, réservations/commitments. o Standards, catalogues de services, modèles Terraform réutilisables, guardrails. Environnement technique • NetApp: ONTAP 9.x, Cloud Volumes ONTAP, Azure NetApp Files, Amazon FSx for NetApp ONTAP, SnapMirror/SnapVault, SnapCenter, FlexVol/FlexGroup, FlexClone, FabricPool, QoS, SVM-DR, NDMP, NFSv3/v4.1, SMB 3.x, iSCSI/MPIO. • Azure: VNet/ExpressRoute, Cloud Volumes ONTAP, ANF, Managed Disks, Storage Accounts, Key Vault, Azure VMs. • AWS: VPC/Direct Connect, FSx ONTAP, KMS. • Automatisation: Terraform, Ansible (collections NetApp). • Réseau: DNS/AD, LDAP/Kerberos, SMB signing, NFS sec, routage & pare-feu. Compétences requises • 5–8 ans d’expérience en architecture stockage dont ≥3 ans sur NetApp ONTAP (cloud & on-prem). • Maîtrise d’au moins deux environnements parmi Azure, AWS, VMware, et des patterns hybrides. • Pratique avancée des migrations (SnapMirror, XCP) et de la résilience (DRP, tests de bascule). • Solides bases en sécurité (chiffrement, IAM, clés gérées, durcissement) et réseau (NFS/SMB/iSCSI). • Connaissance en Scripting/Infra as Code (Terraform/Ansible) et automatisation d’opérations. Soft skills • Leadership technique, pédagogie, sens du service. • Capacité à formaliser (HLD/LLD, DAT, runbooks) et à défendre des choix d’architecture. • Esprit FinOps: compromis coût/perf/risque, mesure & itération. Certifications appréciées (plus) • NetApp: NCDA, NCIE, NCSA (Cloud). • Azure/AWS: AZ-104/305/700, AWS SAA/SAP. • VMware: VCP-DCV, VCP-CMA. • Sécurité: AZ-500, Security Specialty. Livrables attendus • Dossiers d’architecture (HLD/LLD), matrice RACI, DAT, schémas, plans de migration & de tests DR. • Dossiers d’exploitation (sauvegarde, restauration, PRA/PCA) et rapports de performance.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
93 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois