Trouvez votre prochaine offre d’emploi ou de mission freelance Terraform à Paris

Votre recherche renvoie 66 résultats.
Freelance

Mission freelance
DATA Engineer - AWS (DataOps)

Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
AWS Glue

6 mois
450-500 €
Paris, France
Nous recherchons un Data Engineer pour industrialiser un prototype d’application existant. Le projet implique une forte dimension infra et scalabilité , avec l’objectif de passer d’un prototype à une architecture robuste, maintenable et industrialisée. Le candidat interviendra également sur des sujets de refonte de la codebase et de préparation du déploiement en infrastructure as code . 🎯 Missions principales Industrialiser un prototype d’application data en environnement SaaS Revoir la codebase existante pour anticiper les enjeux de scalabilité Concevoir et mettre en place une architecture data robuste et évolutive Participer à la mise en place d’une approche Infrastructure as Code Construire et maintenir des pipelines de données fiables et scalables Travailler sur des problématiques d’architecture cloud et d’industrialisation Collaborer avec des interlocuteurs techniques (profil très orienté tech) 🛠 Stack technique Cloud : AWS (GCP apprécié mais non obligatoire) IaC : Terraform Orchestration : Airflow Langage : Python Environnement : SaaS / Data Engineering / Infra scalable
Freelance

Mission freelance
Mission Freelance – Platform Engineer AWS (Disaster Recovery / Warm Pilot)

ARGANA CONSULTING CORP LLP
Publiée le
Argo CD
AWS Cloud
GitLab CI

6 mois
400 €
Paris, France
🚀 Mission Freelance – Platform Engineer AWS (Disaster Recovery / Warm Pilot) 🇫🇷🇲🇦 Nous recherchons des Platform Engineers AWS pour intervenir sur une mission stratégique de mise en place d’une architecture Disaster Recovery (Warm Pilot) sur AWS. 🎯 Votre rôle 🔵 Analyser et challenger l’architecture cible existante (Warm Pilot) 🔵 Concevoir et déployer l’infrastructure via Terraform / Terragrunt 🔵 Mettre en place les mécanismes de failover / failback / réplication / synchronisation des données 🔵 Orchestrer les déploiements via ArgoCD et gérer les configurations avec Helm sur Kubernetes (EKS) 🔵 Participer à l’amélioration des pratiques GitOps et CI/CD via GitLab 🔵 Rédiger la documentation technique et les procédures de reprise (DR) pour le transfert vers les équipes RUN 🚀 Votre impact 🔵 Garantir une haute disponibilité des workloads critiques 🔵 Améliorer la résilience globale de la plateforme cloud 🔵 Assurer une infrastructure propre, scalable et bien documentée 🔵 Faciliter la reprise d’activité rapide en cas d’incident majeur 🛠️ Stack & environnement 🔵 AWS (VPC, Multi-AZ, RDS, etc.) 🔵 Terraform / Terragrunt 🔵 ArgoCD (GitOps) 🔵 GitLab CI/CD 🔵 Kubernetes (EKS) 🔵 Helm 🔵 Environnement Cloud & Production critique 📌 Informations complémentaires 🔵 Mission freelance 🔵 ⏳ Durée : 3 à 6 mois (minimum 3 mois) 🔵 📍 Full remote possible 🔵 🚀 Démarrage : ASAP 🔵 Mission orientée production critique & résilience cloud
Freelance

Mission freelance
ML Platform Senior DevOps Engineer

ARGANA CONSULTING CORP LLP
Publiée le
AWS Cloud
Cloud
Docker

6 mois
400 €
Paris, France
Nous recherchons un(e) DevOps Engineer Senior pour intervenir au sein d’une équipe ML Platform & ML Lab, dans un environnement technique avancé orienté Machine Learning et infrastructure cloud à grande échelle. 🎯 Votre rôle 🔵 Configuration et gestion de l’infrastructure cloud (Lambda) pour l’accès GPU des équipes ML 🔵 Mise en place de bonnes pratiques FinOps et protection contre les erreurs critiques 🔵 Optimisation des images Docker pour réduire les temps de cold start 🔵 Mise en place et maintien des systèmes de monitoring des entraînements de modèles 🔵 Contribution aux projets ML Platform sur AWS (CI/CD, tooling, infrastructure) 🔵 Automatisation des process et amélioration continue des workflows 🔵 Renforcement de la sécurité (audit, vulnérabilités, gestion des risques) 🚀 Votre impact 🔵 Améliorer la productivité des équipes ML 🔵 Garantir la robustesse et la scalabilité des environnements de training 🔵 Accélérer les workflows via automation et CI/CD 🔵 Renforcer la fiabilité et la sécurité des infrastructures cloud 🛠️ Stack & environnement 🔵 AWS 🔵 Terraform 🔵 Docker (optimisation d’images large scale) 🔵 GitLab CI / Jenkins 🔵 Linux / UNIX 🔵 Monitoring & observability 🔵 Environnement ML / GPU / cloud (Lambda) 📌 Informations complémentaires 🔵 Mission freelance 🔵 Hybride ou remote selon organisation 🔵 Mission longue durée
Freelance

Mission freelance
Lead SRE DevOps

BEEZEN
Publiée le
Ansible
DevOps
Docker

12 mois
400-540 €
Paris, France
Je recherche un Lead DevOps SRE 8 à 12 ans min., dont 3 ans en position de lead ou d'architecte DevOps sur des environnements de production complexes. Contexte Vous intégrez une organisation en transformation DevOps pour en piloter la stratégie et l'exécution opérationnelle. Mi-ingénieur, mi-leader, vous intervenez autant sur les pipelines CI/CD que sur la gouvernance des équipes — avec une conviction simple : Dev et Ops co-construisent, ne s'opposent pas. Missions principales Fiabilité, performance et disponibilité des infrastructures de production (SRE) Automatisation des déploiements applicatifs et d'infrastructure (IaC) Conception et maintien des tests d'intégration et de charge Gestion des incidents P1/P2, analyse des causes racines, actions correctives Pilotage du plan de transformation DevOps à grande échelle (Value Stream Map, maturité) Animation de la gouvernance : cérémonies, ateliers, sponsors et parties prenantes Conseil technologique, veille, définition et suivi des KPIs DevOps Stack technologique Conteneurisation : Docker · Kubernetes Cloud: IBM Cloud IaC / Automatisation: Ansible · Terraform CI/CD: GitLab · JFrog Artifactory Bases de données: MongoDB · PostgreSQL · Redis · Elasticsearch Langages: Python · Shell · PowerShell Monitoring: DynaTrace Outils: JIRA · API Gateway Profil recherché Posture À l'aise aussi bien en revue de pipeline qu'en comité de direction. Coach autant que technicien. Méthodes SAFe, Scrum, Lean Startup, Value Stream Mapping, DORA metrics — pratique réelle, pas théorique. Soft skills Pédagogie, conduite du changement, instauration de la confiance entre équipes Dev et Ops.
Freelance

Mission freelance
Un(e) ML Engineer / MLOps Engineer

Keypeople Consulting
Publiée le
Apache Airflow
BigQuery
FastAPI

6 mois
400-500 €
Paris, France
Opportunité -| un(e) ML Engineer / MLOps Engineer – Projet Data & IA en production Dans le cadre du renforcement d’une équipe Data & IA dédiée à la personnalisation de l’expérience utilisateur , nous recherchons un(e) ML Engineer confirmé(e) pour intervenir sur des projets à fort impact, en environnement cloud et production. Vos missions Concevoir, développer et maintenir des pipelines ML robustes et scalables Industrialiser les modèles développés avec les équipes Data Science Déployer les modèles en production et accompagner les A/B tests Mettre en place le monitoring des performances et le contrôle qualité des modèles Exposer les modèles via des API REST Structurer et optimiser le stockage et la circulation des données Développer et maintenir les workflows CI/CD Garantir la stabilité, la sécurité et l’évolutivité des environnements Collaborer avec les équipes Data, Produit et Tech dans un cadre Agile 🛠️ Environnement technique Python / SQL Google Cloud Platform Vertex AI BigQuery Cloud Run Airflow FastAPI / Flask Terraform GitLab CI/CD TensorFlow / Scikit-learn 👤 Profil recherché Minimum 3 ans d’expérience en environnement Data / Machine Learning Expérience confirmée en mise en production de modèles ML Très bonne maîtrise de Python, SQL et des architectures data Solide expérience sur GCP Connaissances MLOps / industrialisation / infrastructure as code Aisance en communication avec des interlocuteurs techniques et métiers Français courant indispensable
Freelance

Mission freelance
Ingénieur senior DevOps APIM

NEXORIS
Publiée le
DevOps
Helm
JSON Web Token (JWT)

1 an
500-550 €
Paris, France
L'objectif de la mission est d'intervenir en tant qu’Ingénieur DevOps APIM au sein d’une équipe en charge de l’implémentation, de l’administration et du maintien en condition opérationnelle de plateformes d’API Management basées sur WSO2 et Kong, dans un environnement Cloud et Kubernetes. Les travaux attendus sont : - Mettre en œuvre les solutions d’API Management (WSO2, Kong). - Participer aux rituels Agile (daily meetings, backlog, roadmap). - Déployer et maintenir les plateformes API en environnement Kubernetes. - Implémenter les éléments de backlog définis par le Squad Lead. - Proposer des solutions techniques face aux problématiques rencontrées. - Collaborer avec les équipes produit et techniques. - Contribuer aux démonstrations et formations autour des solutions API. - Participer aux astreintes techniques du socle. - Assurer le support et le bon fonctionnement des plateformes (BUILD & RUN). Livrables attendus sont : - Plateformes API Management opérationnelles et maintenues. - Déploiements automatisés et documentés. - Documentation technique et supports de formation. - Résolution des incidents et amélioration continue.
Freelance

Mission freelance
Administrateur de Bases de Données

Phaidon London- Glocomms
Publiée le
Ansible
AWS Cloud
Dynatrace

3 mois
Paris, France
Administrateur de Bases de Données – Cloud & Automatisation Client : Prestataire mondial de technologies et de services Lieu : Nanterre Contrat : 3 mois À propos de l’entreprise Notre client est une organisation internationale de premier plan spécialisée dans les opérations technologiques sécurisées à grande échelle et les solutions numériques pour les environnements de travail. Avec une forte culture d’excellence technique et de fiabilité opérationnelle, l’entreprise soutient des millions d’utilisateurs dans plusieurs régions grâce à des infrastructures robustes, des initiatives de transformation cloud et des systèmes critiques. Elle est reconnue pour son haut niveau d’exigence, son modèle de delivery structuré et sa capacité à gérer des environnements technologiques complexes à l’échelle mondiale. Présentation du rôle L’équipe mondiale d’ingénierie des bases de données recherche un Administrateur de Bases de Données Senior pour accompagner des projets de transformation cloud, des initiatives d’automatisation et l’amélioration continue de la fiabilité des plateformes Oracle et SQL. Ce rôle couvre des activités d’ingénierie, de migration, de support d’incidents et d’optimisation de plateformes, au sein d’une équipe technique collaborative. Le poste exige une solide expertise Oracle, une expérience en migration vers le cloud (AWS), des compétences en automatisation, ainsi que la capacité à soutenir des services critiques de bases de données en zone EMEA. La mission inclut l’ingénierie, la supervision, la résolution d’incidents, la réplication, la sauvegarde, la reprise après sinistre et l’amélioration des frameworks d’automatisation. Une participation aux astreintes sera requise. Responsabilités principales Contribuer aux efforts d’ingénierie au sein d’une équipe DBA globale, en soutien aux initiatives de transition cloud et d’optimisation d’infrastructure. Diriger les activités de migration cloud, d’automatisation, d’ingénierie de réplication et de frameworks d’auto‑réparation. Consolider et améliorer les métriques, dashboards et solutions de supervision. Assurer le support des serveurs Oracle et SQL en EMEA : incidents, changements, migrations et plans de continuité (DRP). Mettre en œuvre et maintenir les solutions de sauvegarde, clonage et restauration (DATAPUMP, RMAN). Travailler sur les technologies de réplication, notamment GoldenGate et DataGuard. Collaborer avec des équipes transverses dans le cadre de projets d’ingénierie internationaux. Participer aux rotations d’astreinte. Compétences & Qualifications requises Minimum 5 ans d’expérience en administration Oracle. Connaissance d’autres technologies telles que SQL Server, MongoDB, PostgreSQL, Hadoop (atout). Solide exposition à AWS et aux migrations cloud. Expérience sur les clusters Oracle RAC. Maîtrise des solutions de sauvegarde, clonage et migration via DATAPUMP et RMAN. Expertise en reprise après sinistre via DataGuard. Solide expérience Linux (Red Hat). Connaissance d’outils de supervision : OEM, Sitescope, Prometheus, Dynatrace. Compétences en automatisation et scripting (Python, Java, PowerShell, Terraform). Expérience CI/CD ou d’orchestration d’automatisation (Ansible, AWX ou équivalent). Maîtrise de l’anglais (lu/parlé/écrit).
Freelance
CDI

Offre d'emploi
Cloud Security Architect AWS

KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform

3 ans
Paris, France
Nous recherchons un Cloud Security Architect AWS pour définir, piloter et renforcer la posture de sécurité des environnements cloud dans des contextes industriels et critiques. Vous serez responsable de la conception des architectures de sécurité AWS, en intégrant des modèles Zero Trust, une segmentation fine des réseaux et une gouvernance robuste des identités et des accès (IAM, SCP, Control Tower). Vous travaillerez sur la sécurisation des Landing Zones AWS, la mise en place de contrôles préventifs et détectifs (AWS Config, GuardDuty, Security Hub, Firewall Manager) et l’automatisation des politiques de sécurité via Infrastructure as Code. Vous accompagnerez les équipes DevOps et SRE dans l’intégration de la sécurité “by design” et “by default” dans les pipelines CI/CD. Vous participerez à l’analyse des risques, à la gestion des vulnérabilités et à la définition des stratégies de protection des données (chiffrement, KMS, secrets management). Vous contribuerez également à l’amélioration continue de la posture de sécurité en analysant les incidents, en proposant des remédiations et en diffusant les bonnes pratiques auprès des équipes techniques.
Freelance

Mission freelance
CONSULTANT OBSERVABILITE DATADOG

PARTECK INGENIERIE
Publiée le
AWS Cloud
Datadog
Kubernetes

12 mois
400-650 €
75000, Paris, Île-de-France
Dans le cadre de l’amélioration de la supervision et de la fiabilité des plateformes , nous recherchons un Expert Observabilité Datadog pour accompagner l’un de nos clients dans la structuration et l’optimisation de son écosystème de monitoring. L’objectif de la mission est d’améliorer la qualité de l’observabilité, la détection des incidents et l’exploitation des données de monitoring dans un environnement Cloud / DevOps / SRE . Vos missions 1. Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier les axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les équipes Optimiser l’usage de la plateforme (volumétrie des logs, sampling APM, gestion des coûts, rétention) Définir et diffuser les bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus et Grafana 2. Supervision, observabilité et fiabilité (SRE) Concevoir et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, corrélation des incidents) Définir des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et le service management Améliorer la détection proactive des incidents Assurer la cohérence entre les métriques Prometheus/Grafana et l’observabilité Datadog 3. Accompagnement des équipes et adoption Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir la documentation des standards et bonnes pratiques Profil recherché Expérience significative sur Datadog (Logs, APM, RUM, Monitors) Bonne compréhension des pratiques DevOps / SRE / Observabilité Expérience sur les outils de monitoring tels que Prometheus et Grafana Capacité à travailler en transverse avec des équipes Dev, Ops et Produit Sens de la pédagogie et capacité à structurer des standards Environnement technique Datadog – Observabilité – Monitoring – APM – Logs – RUM – Product Analytics – Prometheus – Grafana – DevOps – SRE – Cloud AWS +++ Kubernetes ++ Terraform +++
Freelance
CDI

Offre d'emploi
Architecte Cloud Network AWS - Réseaux Cloud & Connectivité Critique

KLETA
Publiée le
AWS Cloud
GitLab CI
Network

3 ans
Paris, France
Nous recherchons un Architecte Cloud Network AWS expérimenté pour concevoir, structurer et sécuriser des architectures réseau cloud complexes dans des environnements à forte exigence de disponibilité. Vous serez responsable de la définition des topologies réseau AWS (VPC, subnets, routing, segmentation), en intégrant des modèles Hub & Spoke, Transit Gateway et des mécanismes avancés de firewalling. Vous travaillerez sur la mise en place et l’optimisation des interconnexions hybrides (Direct Connect, VPN site-to-site, SD-WAN) afin de garantir une connectivité fiable entre le cloud et les infrastructures on-premise. Vous participerez à la définition des politiques de sécurité réseau (Security Groups, NACL, AWS Firewall Manager) et à l’implémentation de solutions de filtrage et d’inspection du trafic. En collaboration avec les équipes DevOps et Sécurité, vous contribuerez à l’industrialisation des configurations réseau via Infrastructure as Code (Terraform ou CloudFormation). Vous serez également impliqué dans l’analyse et l’optimisation des performances réseau, la gestion des incidents et la mise en place d’outils d’observabilité pour anticiper les dysfonctionnements. Enfin, vous définirez des standards et patterns réseau AWS réutilisables et accompagnerez techniquement les équipes projets dans leurs choix d’architecture.
CDD
CDI
Freelance

Offre d'emploi
Ingénieur en sécurité Opérationnelle –  IAM cloud Security - N3

KEONI CONSULTING
Publiée le
AWS Cloud
Python
Terraform

18 mois
20k-60k €
100-550 €
Paris, France
Contexte Accompagner Sécurisation du Cloud public Réglé Contrainte forte du projet : Expert Sécurité Cloud Public (GCP & Azure & AWS) avec une bonne maitrise de l'IAM et de l'automatisation, de Terraform et des chaines CI/CD MISSIONS Au sein d'une équipe d'experts sécurité Cloud public, nous cherchons un Expert opérationnel dans le domaine du cloud public (GCP, Azure et AWS) avec une expérience significative dans la gestion de l'IAM cloud sur AWS, Azure et GCP. Il aura comme objectifs et missions : - Élaborer une stratégie IAM adaptée aux besoins de l'entreprise et conformes à nos règles de sécurité, incluant la gestion des identités, des accès et des permissions. - Évaluer les configurations IAM actuelles sur Azure, AWS et GCP et identifier les vulnérabilités et les améliorations possibles. - Mise en œuvre des meilleures pratiques et contrôles au travers d’outils tels que AWS SCP, GCP Deny Policy et autres. - Accompagner les équipes projet sur les concepts IAM et les outils associés, et promouvoir une culture de la sécurité au sein de l'organisation. - Documenter les processus, les configurations et politiques mises en place. Compétences techniques : IAM GCP - Expert - Impératif IAM Azure - Expert - Impératif Dev. Terraform, Python - Confirmé - Impératif IAM AWS - Junior - Souhaitable Connaissances linguistiques Anglais Professionnel (Impératif) Définition du profil Mise en application de la Politique de Sécurité Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 Valide et instruit les dérogations contrevenant à la Politique de Sécurité Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) Participation aux audits (internes / externes) Mise en applications des recommandations d'audit et des demandes de remise en conformité Rédaction de guides et standards de sécurité Donne son avis pour l'implémentation des solutions de sécurité Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation Assure la veille technologique Données complémentaires
Freelance
CDI

Offre d'emploi
Ingénieur Plateforme / Services Managés - Kubernetes / IaaS / Systèmes

KLETA
Publiée le
Ansible
IaaS (Infrastructure-as-a-Service)
Kubernetes

2 ans
Paris, France
Plateforme & services managés Participer à la conception et à l’évolution d’une plateforme interne permettant de fournir à la fois : de l’ IaaS des services managés Contribuer à la réflexion sur la manière de rendre ces services simples à consommer , à industrialiser et à opérer Industrialisation & orchestration Accompagner le passage d’un socle automatisé à une logique plus complète de déploiement orchestré Challenger les choix existants et proposer des trajectoires d’amélioration Étudier la pertinence d’une approche 100 % “maison” vs l’usage de solutions du marché pour orchestrer et exposer ces services Infrastructure & systèmes Intervenir sur des sujets à forte dominante système / plateforme Travailler sur la mise à disposition de services tels que : bases de données releases conteneurisation orchestration Garantir une approche robuste, industrialisée et exploitable dans la durée Automatisation & mise à disposition S’appuyer sur les briques existantes d’automatisation Faire évoluer les pratiques pour aller vers une expérience de déploiement plus simple et plus proche des standards cloud modernes
CDI
Freelance

Offre d'emploi
ML Engineer/ MLOPS Engineer

Panda Services
Publiée le
API
BigQuery
CI/CD

12 mois
Paris, France
Panda Services est une Entreprise de Services du Numérique spécialisée en Ingénierie Informatique. Dans le cadre du renforcement d’une équipe Data & IA dédiée à la personnalisation de l’expérience utilisateur, nous recherchons un(e) ML Engineer/ MLOPS Engineer Confirmé(e) pour intervenir sur des projets à fort impact, en environnement cloud et production. Localisation = Paris Projet Data & IA en production 🎯 Vos missions Au cœur de la chaîne de valeur Data & IA, vous interviendrez sur : La conception, le développement et la maintenance de pipelines ML robustes et scalables L’ industrialisation des modèles en collaboration avec les équipes Data Science Le déploiement en production des modèles et l’accompagnement des phases d’A/B testing La mise en place de solutions de monitoring (performance, dérive, qualité des modèles) L’ exposition des modèles via des API REST L’optimisation du stockage, de la circulation et de la gouvernance des données Le développement et la maintenance des workflows CI/CD La garantie de la stabilité, sécurité et scalabilité des environnements La collaboration étroite avec les équipes Data, Produit et Tech dans un cadre Agile 🛠️ Environnement technique Vous évoluerez dans un stack moderne orienté cloud : Langages : Python, SQL Cloud & Data : Google Cloud Platform (GCP), Vertex AI, BigQuery, Cloud Run Orchestration & APIs : Airflow, FastAPI, Flask CI/CD & Infra : GitLab CI/CD, Terraform Machine Learning : TensorFlow, Scikit-learn 👤 Profil recherché Minimum 3 ans d’expérience en environnement Data / Machine Learning Expérience confirmée en mise en production de modèles ML Très bonne maîtrise de Python, SQL et des architectures data Solide expérience sur Google Cloud Platform (GCP) Bonnes connaissances en MLOps, industrialisation et Infrastructure as Code Capacité à interagir avec des interlocuteurs techniques et métiers
Freelance

Mission freelance
Applied Scientist (IA)

Celexio
Publiée le
Amazon SageMaker
Apache Airflow
AWS Cloud

6 mois
400-670 €
Paris, France
En tant qu'Applied Scientist, vous êtes la force motrice de la phase de recherche et de développement des modèles d'IA, en assurant l'alignement entre les avancées technologiques et les objectifs stratégiques de l'entreprise. Responsabilités clés 1. Recherche et développement de modèles IA/ML (Phase de recherche) : Mener la recherche, l'évaluation et l'expérimentation de modèles d'IA et d'apprentissage automatique (par exemple, Deep Learning pour la recommandation, Gen-AI, NLP/Vision pour la recherche) afin de résoudre des problèmes commerciaux complexes. Sélectionner les sources de données appropriées et déterminer les indicateurs clés à suivre et à optimiser Développer des prototypes et prouver la faisabilité ainsi que l'impact attendu des concepts avant leur industrialisation. 2. Collaboration et industrialisation (Phase de déploiement) : Travailler en étroite collaboration avec les ingénieurs en apprentissage automatique (MLE) pour garantir que les modèles développés sont robustes, évolutifs et prêts pour le déploiement en production. Contribuer activement à la phase de déploiement et d'intégration des modèles dans l'architecture technique (Snowflake, AWS). 3. Suivi et amélioration continue : Participer au suivi des modèles en production, en se concentrant sur la détection des dérives (drift) et la dégradation des performances. Concevoir et proposer des itérations (tests A/B) pour optimiser en continu les performances des produits d'IA. 4. Expertise et transmission des connaissances : Assurer une veille technologique constante sur les avancées en IA/ML. Documenter et partager les connaissances et les meilleures pratiques au sein de l'équipe et avec les autres parties prenantes (Chefs de produit, Métier).
Freelance

Mission freelance
Architecte Cloud AWS / Azure (Data Platform) - Paris

Net technologie
Publiée le
Architecture
AWS Cloud
Azure

3 mois
Paris, France
Nous recherchons un Architecte Cloud expérimenté pour accompagner la mise en place d’une nouvelle Data Platform au sein d’un programme de transformation data. 🎯 Enjeux : concevoir et piloter l’architecture SI cloud, garantir la cohérence avec la stratégie IT, et accompagner l’innovation autour des architectures Data Lakehouse . 🚀 Missions Définir et piloter l’ architecture cloud (AWS / Azure) Contribuer aux choix technologiques et à la stratégie SI Accompagner les projets dans la conception et l’intégration des solutions Définir les standards d’architecture et bonnes pratiques Garantir la sécurité, la résilience et la performance du SI Participer à l’amélioration continue et au partage des connaissances
CDI

Offre d'emploi
INGENIEUR DEVOPS/SRE & EXPERT PUPPET/RUBY H/F

AXONE BY SYNAPSE
Publiée le
Apache Kafka
AWS Cloud
Azure

55k-60k €
Paris, France
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour un poste en CDI un Ingénieur DevOps / SRE & Expert Puppet & Ruby H/F . Vous intégrerez une équipe technique engagée et interviendrez directement sur des environnements de production critiques. Votre rôle consistera à garantir la disponibilité, la sécurité et la performance des systèmes tout en contribuant activement à leur automatisation. En véritable acteur DevOps, vous participerez à l’amélioration continue des processus, à l’industrialisation des déploiements et à la fiabilisation des infrastructures. Vous serez également impliqué dans la mise en œuvre de pratiques avancées telles que le Zero Downtime Deployment et l’Infrastructure as Code. Objectif et livrable: Garantir la stabilité et la disponibilité des plateformes Automatiser les processus d’exploitation Fiabiliser les déploiements applicatifs Maintenir une documentation technique claire Améliorer en continu les performances systèmes Compétences attendues: Puppet (expert) : gestion de configuration à grande échelle, modules avancés, Hiera, rspec-puppet Ruby (confirmé) : scripting, développement de providers Puppet, automatisation avancée Linux (Debian) : administration système avancée et troubleshooting CI/CD : Git, GitLab CI, pipelines automatisés Infrastructure as Code : Terraform Conteneurs : Docker, Kubernetes Bases de données : MySQL, MongoDB, Elasticsearch, Kafka Cloud : AWS / Azure / GCP / OpenStack

Les métiers et les missions en freelance pour Terraform

Ingénieur·e devops (Cloud)

L'ingénieur·e DevOps utilise Terraform pour automatiser le déploiement et la gestion des infrastructures Cloud, garantissant une cohérence et une évolutivité des environnements.

Architecte Cloud

L'architecte Cloud conçoit des architectures robustes et automatisées en utilisant Terraform pour provisionner et gérer des infrastructures multi-clouds.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production exploite Terraform pour standardiser les processus d'infrastructure-as-code et garantir des déploiements rapides et fiables.

66 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous