Trouvez votre prochaine offre d’emploi ou de mission freelance Terraform à Paris
Mission freelance
Administrer Devops plateforme Data Azure
Dans le cadre du renforcement d’une plateforme data critique hébergée sur Azure , vous interviendrez sur : L’amélioration et la maintenance de la Data Platform (Snowflake sur Azure comme socle principal) Le développement et la maintenance du code Terraform (IaC) L’automatisation des déploiements, tests et processus CI/CD (Azure DevOps) Le support quotidien aux équipes Data (Architecture, Engineering, Analytics, ML & IA) L’optimisation des performances et le suivi des coûts applicatifs La mise en place de solutions de monitoring et d’alerting L’accompagnement des équipes internes dans la conception et la faisabilité des cas d’usage
Mission freelance
Data Engineer AWS
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Energie Description 🎯 Contexte & Objectifs Intégré(e) à la squad Data Platform, vous interviendrez sur les activités de build, run et automatisation d’une plateforme de données Cloud (AWS / Azure). Votre rôle sera clé pour : Participer à la réalisation du workplan et aux user stories du backlog. Contribuer aux activités de support N2/N3 (RUN) et de Build. Livrer et suivre les artefacts de mise en production. Proposer et mettre en œuvre des optimisations FinOps, sécurité et observabilité. Développer des microservices et automatiser les pipelines & déploiements. 🛠️ Missions principales Participer au développement et maintien de la Data Platform Cloud. Créer et maintenir des processus de déploiement automatisés avec Terraform. Développer des microservices en Python et maîtriser l’intégration (CI/CD). Assurer le monitoring et l’exploitation via Grafana, App Insights. Contribuer aux flux ETL/ELT et à l’alimentation du Data Lake (AWS S3, ADLS Gen2). Gérer les activités RUN/SRE : supervision, support, automatisation. Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et FinOps. Collaborer en mode Agile/Scrum avec les parties prenantes (Data Officers, Data Architects, Engineers). Maintenir la documentation et promouvoir une approche User-Centric (recueil feedbacks, amélioration UX).
Mission freelance
DataOps AWS Engineer -MlOps
Nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer notre équipe data et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste s’adresse à un profil autonome, passionné par les bonnes pratiques de développement , capable de challenger les architectures existantes et de proposer des solutions robustes et scalables . 🧩 Missions principales Concevoir, développer et optimiser des pipelines de données performants, scalables et résilients . Encadrer et accompagner techniquement les équipes sur les choix d’architecture et de stack technologique . Déployer et orchestrer des traitements distribués (PySpark, AWS Glue, Airflow). Concevoir et exposer des APIs de données (via AWS API Gateway / Lambda). Industrialiser les environnements via Terraform et des pipelines CI/CD (GitLab, Jenkins…). Garantir la fiabilité, la performance et la sécurité des flux et services de données. Mettre en place du monitoring et de l’alerting pour la supervision des traitements. Contribuer à la diffusion des bonnes pratiques (tests, code review, documentation, CI/CD). Participer à la formation et au mentoring des ingénieurs juniors. 📦 Livrables attendus Schémas et modélisation des structures de données . Pipelines industrialisés et interconnectés avec les assets produits. Mise à disposition de la data vers des systèmes externes (APIs, exports, injections). Documentation technique et dashboards de suivi. Solutions conformes aux exigences RGPD / Data Privacy / éco-conception . Mise en place du monitoring et alerting en production. Contribution à l’ usine logicielle (intégration continue, tests automatisés, déploiements). Présentation régulière des réalisations techniques aux équipes métiers et produit. 🧠 Compétences techniques requises (Must Have) Python (expert). PySpark et Pandas (traitement et transformation de données). AWS (Glue, Lambda, API Gateway, ECS, IAM). Terraform (infrastructure as code). CI/CD (GitLab, Jenkins ou équivalent). Observabilité et supervision (logs, metrics, alerting). Pratiques de code propre, testé et documenté . 🌱 Compétences appréciées (Nice to Have) Airflow pour l’orchestration des jobs. AWS SageMaker pour le déploiement ou l’entraînement de modèles IA. Sensibilité MLOps et DataOps . Connaissance des standards de l’éco-conception et de la sécurité des données . Expérience en mentorat technique ou lead technique data .
Offre d'emploi
Data Engineer
Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).
Mission freelance
Ingenieur Devops Expert
La DSI souhaite se faire assister par deux Ingénieurs Cloud & DevOps qui interviendront dans un environnement multicloud s’appuyant principalement sur Microsoft Azure et AWS. La prestation s‘effectuera en interaction avec les équipes Cloud & Intégration, les architectes, les équipes sécurité, les développeurs et les opérations, dans le cadre d’une mission visant a industrialiser, automatiser et fiabiliser les plateformes cloud et les services associés. Nous cherchons en ce sens Deux profils ( un sénior et un expert) sur la partie Cloud / OPS.
Mission freelance
Développeur Senior Java / AWS (Asset Control & Management)
Rejoindre l’équipe en charge du développement et de la maintenance de la solution Asset Control & Management , dans un environnement Cloud AWS. Tu participeras activement au développement backend Java , à la mise en place des pipelines CI/CD et à la stabilité des microservices . Langage : Java 17 / 21 Frameworks : Spring Boot / Spring Batch / Spring Cloud Architecture : microservices Messaging : Kafka Infrastructure as Code : Terraform CI/CD : Jenkins, GitLab CI/CD Cloud : AWS (Lambda, ECS, EKS, S3, RDS, CloudWatch) Conteneurisation : Docker, Kubernetes Qualité / Monitoring : SonarQube, Grafana, ELK Stack Méthodologie : Agile / Scrum
Offre d'emploi
Staff Engineer - Fintech / Paiement
📍 Localisation : Paris 🏡 Présence sur site : 5 jours/semaine pendant 6 mois, puis 4 jours/semaine (non négociable) 📅 Contrat : CDI 💰 Rémunération : selon profil 🕐 Disponibilité : immédiate de préférence mais possibilité d'attendre Votre rôle En tant que Staff Engineer, vous jouez un rôle clé dans la structuration technique de la plateforme. Vous intervenez sur l'architecture, le développement backend, les bonnes pratiques et l'accompagnement technique des équipes, sans responsabilités managériales. Vos missions Piloter l'architecture technique des solutions financières critiques, en garantissant scalabilité, sécurité et conformité. Développer les composants backend critiques (Python), gérer les releases. Définir les bonnes pratiques, mentorer les développeurs, rédiger les tickets. Collaborer avec les équipes produit et mobile pour aligner vision métier et exécution technique. Intervenir ponctuellement sur des sujets DevOps et infrastructure (Terraform, AWS). 40-50% : Développement backend en Python, gestion des releases. 25% : Architecture, rédaction des tickets, coaching technique. 25% ou moins : Sujets DevOps et infrastructure (Terraform, AWS). Profil recherché Les critères suivants sont obligatoires pour que le profil soit retenu : A minima 6 à 8 ans d'expérience en développement applicatif et DevOps, avec des projets concrets. De préférence Python/Terraform. Maîtrise de Python . Expérience en startup ou scale-up (au moins 1 à 2 ans). Compréhension des concepts comptables : TVA, comptes comptables, logique de flux financiers. Expérience de collaboration avec des équipes mobiles codant en natif (minimum 2 ans). Les éléments suivants sont fortement appréciés : Expérience dans le secteur du paiement . À défaut, une expérience en banque ou finance est bienvenue. Stack technique Backend : Python/Django Frontend : TypeScript/React Infra : AWS, Terraform Mobile : Kotlin (Android), Swift (iOS)
Mission freelance
Expert Sécurité IAM Cloud Public GCP & Azure & AWS (H/F) - PARIS
Espace Freelance recherche pour l'un de ses clients : Expert Sécurité IAM Cloud Public GCP & Azure & AWS (H/F) - PARIS Télétravail hybride : 2 à 3 jours sur site obligatoire. Votre mission: Audit, Identifier les vulnérabilités et les améliorations possibles, Intervenir dans la stratégie IAM, Accompagnement des équipes sur les outils en place : AWS SCP, GCP. Documentation? Environnement : IAM GCP / AWS / Terraform, Python. Maitrise de l'automatisation, de Terraform et des CI/CD
Offre d'emploi
DevOps / Administration et MCO de la production
Nous sommes à la recherche d'un(e) ingénieur(e) de production pour rejoindre notre service Production Data Métiers. Notre équipe dynamique et jeune, forte de 13 membres, est à la recherche d'un(e) successeur(e) passionné(e) et expérimenté(e) pour renforcer notre effectif. Le(a) candidat(e) idéal(e) aura une expérience solide en milieu de production, ayant travaillé dans des environnements industrialisés et sur le cloud public avec des bases solides en DevOps. Avoir des compétences sur Google Cloud Platform (GCP) sera fortement apprécié. Les principales missions qui vous seront confiées : - Surveillance et maintenance : Assurer la surveillance et la maintenance de notre service de production afin de garantir sa performance et sa disponibilité. - Conception et optimisation : Concevoir, mettre en place et optimiser les pipelines pour améliorer l'efficacité de notre travail. - Automatisation des processus : Automatiser les processus de déploiement et industrialiser les livraisons des infrastructures pour renforcer la fiabilité et la rapidité. - Documentation : Rédiger et maintenir la documentation des processus et des systèmes mis en place pour assurer la traçabilité et la réversibilité.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Terraform
Ingénieur·e devops (Cloud)
L'ingénieur·e DevOps utilise Terraform pour automatiser le déploiement et la gestion des infrastructures Cloud, garantissant une cohérence et une évolutivité des environnements.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e devops (Cloud) .
Découvrir les offresArchitecte Cloud
L'architecte Cloud conçoit des architectures robustes et automatisées en utilisant Terraform pour provisionner et gérer des infrastructures multi-clouds.
Explorez les offres d'emploi ou de mission freelance pour Architecte Cloud .
Découvrir les offresResponsable des infrastructures et de la production
Le / La responsable des infrastructures et de la production exploite Terraform pour standardiser les processus d'infrastructure-as-code et garantir des déploiements rapides et fiables.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offres