Trouvez votre prochaine offre d’emploi ou de mission freelance Service Cloud
Mission freelance
POT8704 - Un DBA / DevOps / AWS > 5 ans d'expérience sur La Défense
Almatek recherche pour un de ses clients, Un DBA / DevOps / AWS > 5 ans d'expérience sur La Défense Contexte : Dans le cadre de la modernisation et de l’optimisation de nos systèmes de données, nous recherchons un profil hybride : DBA confirmé avec une forte culture DevOps/Cloud. Ce rôle va au-delà des missions classiques d’administration : il s’agit d’apporter une expertise sur les bases de données, d’accompagner la migration vers AWS, d’optimiser les performances et d’automatiser la gestion des environnements. Profil recherché : DBA / DevOps / AWS Confirmé > à 5 ans d’expérience dans la fonction Expérience confirmée en DBA/administration de bases de données OnPrem. Maîtrise des environnements AWS Data Services (RDS, Aurora, Glue, Redshift). Expérience en optimisation et migration de systèmes de données. Appétence forte pour les environnements DevOps / IaC. Une expérience sur d’autres Cloud (Azure, GCP) est un plus Missions principales : Administrer et optimiser les bases de données OnPrem : PostgreSQL, Vertica, MariaDB, Oracle (11g, 19c – sortie progressive en cours). Accompagner la migration et la gestion des bases sur AWS (RDS, Aurora MySQL, Redshift, Glue). Concevoir et maintenir des pipelines ETL/ELT robustes et industrialisés. Mettre en place les standards de gouvernance des données (qualité, sécurité, conformité). Optimiser les performances (requêtes SQL, tuning, architectures de stockage). Garantir la haute disponibilité, le PRA et la continuité de service. Automatiser la gestion des environnements via IaC (Terraform, Ansible) et intégrer la donnée dans les chaînes CI/CD. Contribuer au monitoring et à l’observabilité (Prometheus, Grafana, ELK). Collaborer avec les équipes Data, BI et IT pour fournir des données fiables et performantes. Effectuer une veille sur les évolutions technologiques (Cloud, Data Lake, Big Data). Gérer l’évolution des schémas BDD via des outils de migration comme Liquibase. Compétences techniques recherchées : Bases OnPrem : PostgreSQL, Vertica, MariaDB, Oracle 11g/19c. Cloud : AWS (RDS, Aurora MySQL, Glue, Redshift). ? Maîtrise AWS = pré-requis. Azure, GCP = un plus apprécié. ETL / Data pipelines : Airflow, Dollar Universe ou équivalent. Langages : SQL avancé, Python, Shell. IaC & DevOps : Terraform, Ansible, Git, Docker, CI/CD ? pré-requis. Kubernetes = un plus apprécié. Monitoring : Prometheus, Grafana, ELK = un plus apprécié. Sécurité & conformité : IAM, chiffrement, RGPD, sauvegardes/restaurations. Gestion de schémas BDD : Liquibase (pré-requis). Soft skills clés : Vision transverse : relier la technique aux besoins métier. Communication claire : expliquer simplement les choix techniques. Esprit d’analyse et optimisation : détecter les points de blocage et proposer des solutions efficaces. Autonomie et proactivité : anticiper, être force de proposition. Collaboration : travailler en équipe pluridisciplinaire (Data, BI, IT, Cloud). Curiosité : veille permanente sur les innovations Cloud et Data. Orientation résultat : recherche de valeur ajoutée, pas uniquement de solution technique.
Offre d'emploi
Ingénieur Techlead CloudOps AWS H/F
Au sein de la Direction des Systèmes d’Information (DSIN), vous serez le garant de la fiabilité, de la performance et de l’excellence opérationnelle de notre écosystème Cloud AWS. Votre mission : construire, automatiser et faire évoluer nos infrastructures tout en accompagnant les équipes techniques dans la transformation Cloud. Vos missions sont les suivantes: Concevoir, maintenir et optimiser notre landing zone AWS pour soutenir les déploiements futurs. Piloter l’infrastructure as code (IaC) avec Terraform et les pratiques GitOps (GitLab CI, Jenkins). Travailler en mode Agile (Scrum / SAFe) pour accélérer la mise en production. Être le référent technique AWS pour les équipes de la DSI. Promouvoir les bonnes pratiques, le partage de connaissances et l’innovation. Intervenir sur les incidents complexes (niveau expert). Garantir la performance, la sécurité et la disponibilité des plateformes Cloud. Assurer une veille technologique active et proposer des pistes d’amélioration continue sur notre écosystème AWS.
Offre d'emploi
Architecte Cloud AWS - Bordeaux
Objectif : définir, auditer et industrialiser les architectures AWS selon les meilleures pratiques Cloud Native, dans un environnement à forts enjeux de résilience, sécurité et performance. Missions principales : Concevoir des architectures AWS Cloud Native (ECS, Lambda, Aurora, API Gateway, OpenSearch, etc.). Définir les standards IaC / CI-CD et accompagner leur déploiement (Terraform, GitLab CI/CD). Réaliser des audits techniques d’infrastructure et de code, proposer des plans de remédiation. Garantir la conformité des environnements aux exigences de sécurité et de résilience. Piloter ou contribuer aux revues d’architecture (WAR Tool / Well Architected Framework). Industrialiser les services AWS via des modules Terraform réutilisables (inner sourcing). Participer à la veille technique et à l’amélioration continue des bonnes pratiques Cloud.
Mission freelance
229375/Ingénieur CloudOps / SysOps AWS ou AZURE
Ingénieur CloudOps / SysOps AWS ou AZURE, Devops, Kubernetes, Linux. Responsabilités : • Intégration : Concevoir, mettre en œuvre et faire évoluer les infrastructures Cloud et les services Cloud dans un souci constant d'industrialisation, d'efficacité et de coûts (FinOps) • Définir, concevoir, documenter les solutions d'industrialisation en lien avec les équipes R&D du groupe (devOps) et les autres équipes Cloud. • Assurer le transfert de compétences auprès de l’équipe N1 pour une prise en charge au bon niveau des alertes et incidents impactant nos services et les parcours clients. • Prendre en charge des incidents escaladés par les pilotes (Niveau 1 Cegid), le customer care ou les équipes R&D du groupe pendant les phases de transition double RUN • Piloter et correspondre avec les fournisseurs SaaS, logiciels et matériels de la plateforme Cloud • Assurer le respect des processus ITIL (Change, Incident, Problem) • Assurer la mise en œuvre, le respect et l'application des processus sécurité (ISO 27001) • Participer à des groupes de travail transversaux • Définir et rédiger la documentation technique propre au périmètre • Assurer une veille technologique et obtenir les certifications requises au maintien de son expertise Background & skills Experience • Expérience en tant qu’ingénieur Cloud Operation ou infrastructure (minimum 7 ans) dans des environnements IaaS/PaaS de production exigeants (niveau de service et disponibilité) et large volumes • Expérience dans la gestion d’environnement AWS, automatisation et intégration continue • Contribution à des projets de migration cloud applicative et infrastructure (lift & shift, replatform, re build) • Expérience en gestion d’infrastructures IT (Admin System, database) avec une forte orientation en environnements de production clients avec des enjeux de disponibilités très élevés. • Expérience de la gestion des incidents et des crises • Capacité à travailler dans un environnement agile, à gérer et ajuster les priorités de l’équipe Cloud Education • Bac+5 ou supèrieur. Diplôme en informatique, ingénierie ou domaine équivalent. Required Skills • Esprit analytique, rigueur et sens de l’anticipation • Autonomie, proactivité et capacité à prendre des décisions • Appétence pour l’excellence opérationnelle • Organisation, priorisation, pragmatisme • Partage de connaissance • Communication technique avec les autres équipes, leurs managers ou dans toute instance nécessitant la présentation de projets et de leurs objectifs • Passionné avec l’envie d’apprendre et de transmettre, qui sait créer les conditions d’un échange constructif – individuel et collectif • Intègre, transparent • Anglais courant Desirable Skills Mandatory • Certification avancée sur AWS • Compute / virtualisation : Windows et/ou Linux, scripting Powershell ou python, VMWare • DB : SQL Server, Cosmos DB, Oracle, Mysql • Outils de monitoring type APM (Ex : Dynatrace, Splunk) • Terraform, Ansible, GitHub, Azure DevOps Expected skills Microsoft Azure Confirmed DEVOPS Confirmed KUBERNETES Confirmed LINUX Confirmed AWS Confirmed
Offre d'emploi
Architecte Cloud AWS / Résilience - WAR Tool - LYON
Objectif principal : Mettre en œuvre et faire évoluer les outillages AWS de résilience (FIS, Resilience Hub, WAR Tool) , piloter les revues d’architecture et accompagner les produits sur la robustesse de leurs déploiements. Missions : Concevoir et industrialiser les scénarios de panne et de test de résilience. Configurer et animer l’outil WAR Tool avec des “custom Lens” adaptées aux standards internes. Réaliser les revues d’architecture des produits (≈ 15 produits/an). Proposer et suivre les plans de remédiation et d’amélioration continue. Maintenir les modules Terraform associés aux architectures validées. Participer aux ateliers inter-disciplines (sécurité, MLOps, FinOps, observabilité).
Offre d'emploi
Data Engineer Python/AWS
La Mission à réaliser se déclinera notamment à travers ces activités : • Collecte, ingestion, traitement, transformation et restitution des données • Optimisation des coûts et des performances. • Conception et développement d'outils d'aide à la décision • Maintenance évolutive et support technique / accompagnement des utilisateurs Langages & Frameworks Python v3 — Avancé (5 à 8 ans) Design Patterns / Architecture logicielle — Confirmé (3 à 5 ans) Cloud & Infrastructures AWS — Confirmé (3 à 5 ans) Data & Big Data Lakehouse Fundamentals & Database Systems — Confirmé (3 à 5 ans) Big Data Architecture & Technologies — Confirmé (3 à 5 ans) Data Management Systems — Confirmé (3 à 5 ans) Domaines fonctionnels Marchés des matières premières (Gaz, Électricité, etc.) — Junior (< 3 ans) Soft Skills / Compétences transverses Anglais — Avancé (5 à 8 ans) Esprit d’analyse et de synthèse — Avancé (5 à 8 ans) Proactivité / Prise d’initiative / Orientation solution — Junior (< 3 ans)
Mission freelance
AWS Cloud Engineer
Responsable de la mise en œuvre de solutions dans un ou plusieurs des domaines techniques suivants : architecture d’infrastructure, technologies de conteneurs, calcul sans serveur, bases de données, connectivité réseau, sécurité et conformité. Gestion de la maintenance des environnements d’infrastructure avec des processus standardisés et des outils automatisés. Rédaction de documentation détaillée et de conception de bas niveau, avec coordination avec les autres membres de l’équipe. Responsabilité et maintenance de la plateforme de supervision.
Mission freelance
Data modeling expert - H/F - 75 + remote
Notre client recherche un expert en data modeling et gouvernance pour renforcer la cohérence, la qualité et la documentation des modèles de données au sein de la plateforme. Mission * Concevoir et maintenir les modèles conceptuels, logiques et physiques des différents domaines de données * Définir et documenter les standards de modélisation (naming conventions, relations, typologies, clés) * Garantir la cohérence et la traçabilité des données entre les couches Bronze / Silver / Gold * Collaborer avec les équipes Data Engineering, Data Science et Métiers pour assurer l’alignement fonctionnel et technique * Enrichir et maintenir le Data Catalog (DataGalaxy) : dictionnaire de données, business glossary, data lineage * Définir et suivre les indicateurs de qualité de la donnée (completude, cohérence, fraicheur) * Promouvoir les bonnes pratiques de gouvernance et documentation au sein de l’équipe
Mission freelance
Data Manager - H/F - 75 + remote
Dans un contexte de forte croissance, notre client souhaite consolider ses modèles de données analytiques et améliorer la maturité agile de son équipe Data Platform. Mission Concevoir, documenter et maintenir les modèles de données analytiques (Silver & Gold layers dans Snowflake) Collaborer avec les Data Engineers, Analysts et Data Scientists pour garantir la cohérence et la performance des modèles Contribuer à la structuration des rituels d’équipe : sprint planning, stand-ups, revues, rétrospectives Accompagner la montée en maturité sur les bonnes pratiques de delivery et de gouvernance technique Participer à la mise en place de standards de modélisation et de tests de qualité dans dbt Documenter les modèles dans DataGalaxy (data catalog, lineage, ownership)
Offre d'emploi
Senior Business Analyst - Expert Python / Postgres / AWS
ANGLAIS COURANT OBLIGATOIRE En tant que Business Analyst, vous aurez en charge: Force de proposition dans la bonne conduite des développements de flux performants en Python (connaissance des algorithmes) pour transférer et transformer le contenu et le format de schémas (postgre majoritairement), dans un environnement AWS. - support dans l'élaboration des swaggers - support du Product Owner pour la rédaction des users stories - support/préparation détailler et analyse des process - support/préparation elaboration de la solution en collaboration avec les équipes d'architecture et techniques - support testing des features et elaboration des critères de test - support/préparation suivi des livraisons - support/préparation organisation des refinements, sprint planning 2 entretiens seront à prévoir : Un premier entretien avec un exercice de coding Python sur l’IDE de votre choix (session webex 15-20min) Si le premier entretien est concluant, un deuxième entretien vous sera accordé pour échanger sur ce que vous souhaiterez (30min-1h).
Mission freelance
Techlead DevOps AWS
La mission dans les grandes lignes consiste à : Automatiser et orchestrer la livraison Cloud pour accélérer les déploiements. Simplifier les processus et assurer une traçabilité totale des opérations. Réduire les délais de livraison (Lead Time) grâce à l’automatisation et l’orchestration du déploiement Cloud Donner une visibilité complète et un suivi continu des résultats. 2 - La finalité attendue autour de l’automatisation : Déploiement de patterns d’architectures Cloud (objectif projet) Modification de ressources Cloud existantes (objectif projet et Run) Automatisation de la quality Assurance ArgoCD AWS GCP Terraform/ Enterprise GitLab / GitLab-CI Python Kubernetes (EKS/GKE) Ansible AAP Expertise sur les Pipeline CI CD (gitlab-ci, ansible, AWX, Jenkins etc.), langage python Maitrise des outils de déploiement automatisés Expérience sur des outils comme S3 (ECS, StorageGrid, Minio, ELK)
Offre d'emploi
DevOps AWS (H/F)
Dans le cadre du renforcement d'une équipe dans le secteur de l'énergie, nous recherchons un(e) Ingénieur DevOps spécialisé AWS . Missions principales Concevoir, déployer et maintenir des architectures Cloud AWS (EC2, ECS, RDS, Lambda, etc.) Mettre en place et maintenir des pipelines CI/CD (GitLab CI, GitHub Actions, Jenkins, etc.) Automatiser les déploiements avec des outils comme Terraform , CloudFormation ou Ansible Superviser les environnements de production et staging (monitoring, alerting, logs) Gérer les problématiques de scalabilité, sécurité, résilience et performance Optimiser les coûts d'infrastructure AWS Collaborer avec les équipes de développement et produit dans un contexte Agile Garantir la haute disponibilité et la sécurité des services Stack technique Cloud : AWS (EC2, ECS/Fargate, S3, RDS, Lambda, CloudWatch, IAM, Route 53, etc.) Infra as Code : Terraform, CloudFormation CI/CD : GitLab CI, GitHub Actions, Jenkins Conteneurisation : Docker, (Kubernetes ou ECS) Observabilité : Prometheus, Grafana, ELK, Datadog, CloudWatch Scripting : Bash, Python Sécurité : IAM, Secrets Manager, contrôle des accès, best practices AWS
Mission freelance
Ingénieur Data Platform (H/F)
Nous recherchons un(e) Ingénieur(e) Data Platform spécialisé(e) dans la conception, le développement et la maintenance des infrastructures soutenant les pipelines de données et les applications data-driven de l’entreprise. Le rôle consiste à bâtir un écosystème de données robuste, évolutif et fiable, en lien étroit avec les équipes Data et Cloud. Missions principales : Concevoir, développer et maintenir l’infrastructure de données basée sur Snowflake. Mettre en œuvre des modules Terraform pour Snowflake et les ressources Cloud associées. Garantir la qualité, la sécurité et l’automatisation de l’infrastructure via des workflows CI/CD Git. Gérer la configuration et la protection des secrets (HashiCorp Vault, AWS Secrets Manager, Azure Key Vault, GCP Secret Manager). Participer aux activités DevOps liées à la supervision et au déploiement.
Offre d'emploi
Data Engineer Python / AWS
Descriptif du poste Le prestataire interviendra comme développeur senior / Data Engineer sur les différentes applications IT du périmètre : Application de data management : ingestion, stockage, supervision et restitution de time series. Application de visualisation de données de marché et des analyses produites Application de calcul de prévision de prix Le prestataire devra accompagner les évolutions et assurer la maintenance corrective et évolutive sur ces différentes applications dans les meilleurs délais (time to market) tout en garantissant la qualité des livrables. Mission • Conception et développement d'outils d'aide à la décision • Conception et développement de nouvelles architectures data • Collecte, ingestion, traitement, transformation et restitution des données (météo, fundamentales..) • Optimisation des coûts et des performances • La gestion du cycle de développement, de l'infra et des mises en production (DevOps) • Maintenance évolutive et support technique / accompagnement des utilisateurs (analystes, data scientists...) • Coaching de l'équipe autour des thématiques Big Data et AWS : workshops, présentations…
Mission freelance
[SCH] Ingénieur CloudOps / SysOps AWS ou Azure - 1034
Contexte de la mission : Au sein de la direction Cloud du groupe, vous interviendrez sur la mise en œuvre, l’industrialisation et le maintien en conditions opérationnelles (MCO) des infrastructures Cloud, dans un environnement critique à forte disponibilité. Vous contribuerez activement à l’automatisation, au FinOps et à la sécurisation des services Cloud tout en assurant le support technique de niveau 2/3. Missions principales : -Concevoir, intégrer et faire évoluer les infrastructures Cloud (AWS / Azure) et les services associés. -Participer à l’industrialisation des environnements en lien avec les équipes DevOps / R&D. -Gérer les incidents, changements et problèmes (ITIL) sur des plateformes de production critiques. -Automatiser les déploiements et configurations via Terraform / Ansible / GitHub / Azure DevOps. -Assurer le MCO, le monitoring et l’optimisation continue (Dynatrace, Splunk, Prometheus…). -Contribuer à la sécurité opérationnelle (ISO 27001) et à la conformité. -Documenter les architectures, procédures et livrables techniques. -Assurer le transfert de compétences vers les équipes N1 et opérationnelles. Livrables attendus : -Documentation technique et d’exploitation à jour. -Rapports de performance et recommandations d’optimisation (FinOps, sécurité, SLA). -Scripts et pipelines d’automatisation. -Tableaux de bord de supervision / monitoring. Profil recherché : - +7 ans d’expérience en CloudOps / SysOps dans des environnements critiques (IaaS/PaaS). -Maîtrise des plateformes AWS et/ou Azure. -Solides compétences en scripting (Python / PowerShell), Linux / Windows, et CI/CD. -Expérience confirmée en Terraform, Ansible, monitoring APM (Dynatrace, Splunk). -Connaissances des bases de données (SQL Server, Oracle, MySQL, Cosmos DB). -Anglais professionnel courant. -Esprit analytique, rigueur, sens de l’anticipation et excellence opérationnelle.
Mission freelance
DevOps AWS H/F
Notre client dans le secteur Aérospatial et défense recherche un/une DevOps AWS H/F Description de la mission: Dans le cadre d'un projet à fort enjeux stratégiques pour l'un de nos clients dans le secteur de la défense nous recherchons 2 DevOps AWS en mesure de concevoir, développer, automatiser le déploiement et la migration des infrastructures et applications vers le Cloud AWS. Prestations attendues Le prestataire devra fournir une expertise avancée de migration et de déploiement automatisé d’infrastructures et d’applications sur AWS, en assurant la stabilité, la sécurité, la résilience, la scalabilité et la performance des applications et de leurs infrastructures cloud. Les prestations attendues incluent : Automatisation des déploiements Création de pipelines et de templates (Terraform, Ansible) pour industrialiser les migrations et le déploiement d’infrastructures et d’applications sur AWS, incluant les tests automatisés. Maitrise des actions standards de maintenance sur AWS (restart, up/down scaling, MEP haute disponibilité) Mise en place de templates Analyse des usages, recommandations sur l’adaptation au Cloud, en particulier à l’autoscaling, construction de templates permettant d’utiliser la flexibilité du Cloud à l’avantage des applications (autoscaling, MEP haute disponibilité, utilisation d’AMI incluant l’application…) Conception et mise en œuvre d’une usine à AMI (OS Factory) sur AWS afin de permettre la mise à disposition d’images serveurs standardisées, durcies selon les exigences de sécurité de Safran, voire de permettre aux responsables des applications de créer leurs propres images incluant leur application dans le respect de l’opérabilité, la sécurité et le respect des normes Documentation et transfert de compétences Rédaction des procédures d’exploitation, des guides d’administration et des plans de reprise d’activité. Animation de sessions de formation et production de supports en français et en anglais. Support opérationnel et gestion des incidents Participation à la résolution des incidents critiques des applications, amélioration continue des processus de gestion, et contribution aux comités techniques. Expertises techniques et compétences attendues Expert DevOps AWS (4 ans d’expérience minimum sur le Cloud AWS) : certification AWS Certified CloudOps Engineer ou AWS Certified DevOps Engineer. Maîtrise des déploiements et opérations sur les environnements AWS (EC2, CloudWatch, S3, RDS, etc.), gestion des incidents, optimisation des performances, sécurité et conformité. Expérience dans l’identification de tâches récurrentes à automatiser. Compétences en monitoring & alerting : utilisation de solutions de supervision (CloudWatch, Dynatrace, Centréon), gestion des logs (CloudTrail, ELK), définition de seuils et alertes, gestion préventive des incidents. Compétences en automatisation & IaC : utilisation de Terraform ou Ansible pour le déploiement et la gestion des infrastructures. Capacité à industrialiser les processus d’exploitation. Compétences transverses : anglais courant, capacité à collaborer avec les équipes Dev, SecOps et métiers. Rédaction de documentation technique et procédures d’exploitation. Livrables Templates Infrastructure as Code : Scripts Terraform, CloudFormation pour provisionner et maintenir les infrastructures AWS de manière reproductible et versionnée. Pipelines CI/CD : Configurations et automatisations complètes des pipelines d’intégration et de déploiement continu (fichiers GitLab CI, AWS CodePipeline). Documentation technique : Guides d’architecture, manuels de déploiement, procédures opérationnelles, consignes de sécurité et bonnes pratiques. Document de conception, d’architecture et d’exploitation de l’OS Factory (usine à AMI) Documentation liée à la migration des applications dans le cloud AWS (DAT, DEX) Scripts d’automatisation : Scripts Python, Bash, Ansible pour automatiser les tâches de maintenance, sécurité et gestion des configurations. Compétences / Qualités indispensables : DevOps Compétences / Qualités qui seraient un + : AWS Informations concernant le télétravail : 2
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.