Trouvez votre prochaine offre d’emploi ou de mission freelance Terraform à Paris

Votre recherche renvoie 57 résultats.
Freelance

Mission freelance
Administrer Devops plateforme Data Azure

SKILLWISE
Publiée le
Azure
Azure DevOps
Azure Kubernetes Service (AKS)

1 an
100-600 €
Paris, France

Dans le cadre du renforcement d’une plateforme data critique hébergée sur Azure , vous interviendrez sur : L’amélioration et la maintenance de la Data Platform (Snowflake sur Azure comme socle principal) Le développement et la maintenance du code Terraform (IaC) L’automatisation des déploiements, tests et processus CI/CD (Azure DevOps) Le support quotidien aux équipes Data (Architecture, Engineering, Analytics, ML & IA) L’optimisation des performances et le suivi des coûts applicatifs La mise en place de solutions de monitoring et d’alerting L’accompagnement des équipes internes dans la conception et la faisabilité des cas d’usage

Freelance

Mission freelance
Data Engineer AWS

Cherry Pick
Publiée le
AWS Cloud
C#
Python

12 mois
500 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Energie Description 🎯 Contexte & Objectifs Intégré(e) à la squad Data Platform, vous interviendrez sur les activités de build, run et automatisation d’une plateforme de données Cloud (AWS / Azure). Votre rôle sera clé pour : Participer à la réalisation du workplan et aux user stories du backlog. Contribuer aux activités de support N2/N3 (RUN) et de Build. Livrer et suivre les artefacts de mise en production. Proposer et mettre en œuvre des optimisations FinOps, sécurité et observabilité. Développer des microservices et automatiser les pipelines & déploiements. 🛠️ Missions principales Participer au développement et maintien de la Data Platform Cloud. Créer et maintenir des processus de déploiement automatisés avec Terraform. Développer des microservices en Python et maîtriser l’intégration (CI/CD). Assurer le monitoring et l’exploitation via Grafana, App Insights. Contribuer aux flux ETL/ELT et à l’alimentation du Data Lake (AWS S3, ADLS Gen2). Gérer les activités RUN/SRE : supervision, support, automatisation. Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et FinOps. Collaborer en mode Agile/Scrum avec les parties prenantes (Data Officers, Data Architects, Engineers). Maintenir la documentation et promouvoir une approche User-Centric (recueil feedbacks, amélioration UX).

Freelance

Mission freelance
DataOps AWS Engineer -MlOps

Atlas Connect
Publiée le
Apache Airflow
AWS Cloud
AWS Glue

12 mois
500-580 €
Paris, France

Nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer notre équipe data et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste s’adresse à un profil autonome, passionné par les bonnes pratiques de développement , capable de challenger les architectures existantes et de proposer des solutions robustes et scalables . 🧩 Missions principales Concevoir, développer et optimiser des pipelines de données performants, scalables et résilients . Encadrer et accompagner techniquement les équipes sur les choix d’architecture et de stack technologique . Déployer et orchestrer des traitements distribués (PySpark, AWS Glue, Airflow). Concevoir et exposer des APIs de données (via AWS API Gateway / Lambda). Industrialiser les environnements via Terraform et des pipelines CI/CD (GitLab, Jenkins…). Garantir la fiabilité, la performance et la sécurité des flux et services de données. Mettre en place du monitoring et de l’alerting pour la supervision des traitements. Contribuer à la diffusion des bonnes pratiques (tests, code review, documentation, CI/CD). Participer à la formation et au mentoring des ingénieurs juniors. 📦 Livrables attendus Schémas et modélisation des structures de données . Pipelines industrialisés et interconnectés avec les assets produits. Mise à disposition de la data vers des systèmes externes (APIs, exports, injections). Documentation technique et dashboards de suivi. Solutions conformes aux exigences RGPD / Data Privacy / éco-conception . Mise en place du monitoring et alerting en production. Contribution à l’ usine logicielle (intégration continue, tests automatisés, déploiements). Présentation régulière des réalisations techniques aux équipes métiers et produit. 🧠 Compétences techniques requises (Must Have) Python (expert). PySpark et Pandas (traitement et transformation de données). AWS (Glue, Lambda, API Gateway, ECS, IAM). Terraform (infrastructure as code). CI/CD (GitLab, Jenkins ou équivalent). Observabilité et supervision (logs, metrics, alerting). Pratiques de code propre, testé et documenté . 🌱 Compétences appréciées (Nice to Have) Airflow pour l’orchestration des jobs. AWS SageMaker pour le déploiement ou l’entraînement de modèles IA. Sensibilité MLOps et DataOps . Connaissance des standards de l’éco-conception et de la sécurité des données . Expérience en mentorat technique ou lead technique data .

CDI

Offre d'emploi
Data Engineer

Inventiv IT
Publiée le
AWS Cloud
Azure
Databricks

45k-65k €
Paris, France

Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).

Freelance

Mission freelance
Ingenieur Devops Expert

Sapiens Group
Publiée le
Ansible
AWS Cloud
Azure

6 mois
650-800 €
Paris, France

La DSI souhaite se faire assister par deux Ingénieurs Cloud & DevOps qui interviendront dans un environnement multicloud s’appuyant principalement sur Microsoft Azure et AWS. La prestation s‘effectuera en interaction avec les équipes Cloud & Intégration, les architectes, les équipes sécurité, les développeurs et les opérations, dans le cadre d’une mission visant a industrialiser, automatiser et fiabiliser les plateformes cloud et les services associés. Nous cherchons en ce sens Deux profils ( un sénior et un expert) sur la partie Cloud / OPS.

Freelance

Mission freelance
Développeur Senior Java / AWS (Asset Control & Management)

Groupe Aptenia
Publiée le
Angular
Apache Tomcat
AWS Cloud

6 mois
400-550 €
Paris, France

Rejoindre l’équipe en charge du développement et de la maintenance de la solution Asset Control & Management , dans un environnement Cloud AWS. Tu participeras activement au développement backend Java , à la mise en place des pipelines CI/CD et à la stabilité des microservices . Langage : Java 17 / 21 Frameworks : Spring Boot / Spring Batch / Spring Cloud Architecture : microservices Messaging : Kafka Infrastructure as Code : Terraform CI/CD : Jenkins, GitLab CI/CD Cloud : AWS (Lambda, ECS, EKS, S3, RDS, CloudWatch) Conteneurisation : Docker, Kubernetes Qualité / Monitoring : SonarQube, Grafana, ELK Stack Méthodologie : Agile / Scrum

CDI

Offre d'emploi
Staff Engineer - Fintech / Paiement

STHREE SAS pour HUXLEY
Publiée le

50k-85k €
75001, Paris, Île-de-France

📍 Localisation : Paris 🏡 Présence sur site : 5 jours/semaine pendant 6 mois, puis 4 jours/semaine (non négociable) 📅 Contrat : CDI 💰 Rémunération : selon profil 🕐 Disponibilité : immédiate de préférence mais possibilité d'attendre Votre rôle En tant que Staff Engineer, vous jouez un rôle clé dans la structuration technique de la plateforme. Vous intervenez sur l'architecture, le développement backend, les bonnes pratiques et l'accompagnement technique des équipes, sans responsabilités managériales. Vos missions Piloter l'architecture technique des solutions financières critiques, en garantissant scalabilité, sécurité et conformité. Développer les composants backend critiques (Python), gérer les releases. Définir les bonnes pratiques, mentorer les développeurs, rédiger les tickets. Collaborer avec les équipes produit et mobile pour aligner vision métier et exécution technique. Intervenir ponctuellement sur des sujets DevOps et infrastructure (Terraform, AWS). 40-50% : Développement backend en Python, gestion des releases. 25% : Architecture, rédaction des tickets, coaching technique. 25% ou moins : Sujets DevOps et infrastructure (Terraform, AWS). Profil recherché Les critères suivants sont obligatoires pour que le profil soit retenu : A minima 6 à 8 ans d'expérience en développement applicatif et DevOps, avec des projets concrets. De préférence Python/Terraform. Maîtrise de Python . Expérience en startup ou scale-up (au moins 1 à 2 ans). Compréhension des concepts comptables : TVA, comptes comptables, logique de flux financiers. Expérience de collaboration avec des équipes mobiles codant en natif (minimum 2 ans). Les éléments suivants sont fortement appréciés : Expérience dans le secteur du paiement . À défaut, une expérience en banque ou finance est bienvenue. Stack technique Backend : Python/Django Frontend : TypeScript/React Infra : AWS, Terraform Mobile : Kotlin (Android), Swift (iOS)

Freelance

Mission freelance
Expert Sécurité IAM Cloud Public GCP & Azure & AWS (H/F) - PARIS

Espace Freelance
Publiée le
IAM

12 mois
510-770 €
Paris, France

Espace Freelance recherche pour l'un de ses clients : Expert Sécurité IAM Cloud Public GCP & Azure & AWS (H/F) - PARIS Télétravail hybride : 2 à 3 jours sur site obligatoire. Votre mission: Audit, Identifier les vulnérabilités et les améliorations possibles, Intervenir dans la stratégie IAM, Accompagnement des équipes sur les outils en place : AWS SCP, GCP. Documentation? Environnement : IAM GCP / AWS / Terraform, Python. Maitrise de l'automatisation, de Terraform et des CI/CD

CDI
Freelance

Offre d'emploi
DevOps / Administration et MCO de la production

VISIAN
Publiée le
Ansible
Bash
Control-M

1 an
40k-47k €
200-390 €
Paris, France

Nous sommes à la recherche d'un(e) ingénieur(e) de production pour rejoindre notre service Production Data Métiers. Notre équipe dynamique et jeune, forte de 13 membres, est à la recherche d'un(e) successeur(e) passionné(e) et expérimenté(e) pour renforcer notre effectif. Le(a) candidat(e) idéal(e) aura une expérience solide en milieu de production, ayant travaillé dans des environnements industrialisés et sur le cloud public avec des bases solides en DevOps. Avoir des compétences sur Google Cloud Platform (GCP) sera fortement apprécié. Les principales missions qui vous seront confiées : - Surveillance et maintenance : Assurer la surveillance et la maintenance de notre service de production afin de garantir sa performance et sa disponibilité. - Conception et optimisation : Concevoir, mettre en place et optimiser les pipelines pour améliorer l'efficacité de notre travail. - Automatisation des processus : Automatiser les processus de déploiement et industrialiser les livraisons des infrastructures pour renforcer la fiabilité et la rapidité. - Documentation : Rédiger et maintenir la documentation des processus et des systèmes mis en place pour assurer la traçabilité et la réversibilité.

Les métiers et les missions en freelance pour Terraform

Ingénieur·e devops (Cloud)

L'ingénieur·e DevOps utilise Terraform pour automatiser le déploiement et la gestion des infrastructures Cloud, garantissant une cohérence et une évolutivité des environnements.

Architecte Cloud

L'architecte Cloud conçoit des architectures robustes et automatisées en utilisant Terraform pour provisionner et gérer des infrastructures multi-clouds.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production exploite Terraform pour standardiser les processus d'infrastructure-as-code et garantir des déploiements rapides et fiables.

57 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous