Trouvez votre prochaine offre d’emploi ou de mission freelance GitLab CI à Paris
Votre recherche renvoie 53 résultats.
Offre d'emploi
Architecte Cloud GCP & DevOps
Publiée le
Google Cloud Platform (GCP)
Terraform
2 ans
Paris, France
Télétravail partiel
Responsabilités principales1. Ingénierie de la Landing Zone Concevoir, faire évoluer et maintenir les briques d'infrastructure GCP (IAM, réseau, sécurité, compute, services managés). Déployer et maintenir des environnements multiples : production, préproduction, projets, services partagés. 2. Infrastructure as Code & Automatisation Développer des modules Terraform modulaires, versionnés et documentés. Mettre en place des pipelines CI/CD automatisés (GitLab CI), incluant tests, scans de sécurité et contrôles de conformité. Créer des scripts d’automatisation (Python / Bash). 3. Sécurisation et conformité Mettre en œuvre IAM, durcissement réseaux/VM, gestion des clés, supervision sécurité. Produire les rapports de conformité et tableaux de bord de sécurité. Garantir la traçabilité et l’auditabilité de tous les déploiements. 4. Performance et FinOps Optimiser l’allocation des ressources et les coûts cloud. Suivre les consommations et proposer des recommandations d’optimisation. 5. Documentation & transfert de compétences Produire et maintenir les modes opératoires, guides Terraform, dossiers d’exploitation. Réaliser démonstrations techniques et ateliers de transfert de compétences.
Mission freelance
Senior Data Engineer
Publiée le
Google Cloud Platform (GCP)
Python
Terraform
210 jours
Paris, France
Télétravail partiel
Contexte de la mission Un grand groupe du secteur média / audiovisuel mène plusieurs projets stratégiques autour de la valorisation de la donnée au sein de sa Direction Technique du Numérique. L’objectif global est d’utiliser la donnée comme levier de croissance , d’optimisation des produits numériques et d’amélioration de la connaissance utilisateur. La mission est intégrée à une équipe transverse (Product Owner + Data Engineers) en charge d’un produit interne visant à fournir des données fiables, structurées et exploitables pour le pilotage des activités numériques. Objectifs principaux Maximiser la collecte de données dans le respect des normes légales. Améliorer la connaissance et l’expérience utilisateur via la donnée. Mettre à disposition des outils d’aide à la décision basés sur des données fiables. Garantir la disponibilité, la qualité et la gouvernance des pipelines data. Environnement technique Python, SQL, dbt, Apache Spark BigQuery, Dataplex Universal Catalog Airflow Terraform, Terragrunt GitLab CI/CD Google Cloud Platform Responsabilités attendues Au sein de l’équipe data Maintenir et faire évoluer le produit data existant ainsi que les dispositifs associés. Mettre en place et suivre un contrôle qualité rigoureux des données. Accompagner les utilisateurs internes dans l’usage des datasets. En tant que Data Engineer Participer aux phases de conception, planification et développement. Construire et maintenir des pipelines robustes, scalables et résilients. Structurer et organiser le stockage des données. Déployer et optimiser les infrastructures cloud en réponse à la croissance des volumes. Contribuer aux initiatives de gouvernance : qualité, intégrité, fiabilité. Maintenir les workflows CI/CD et sécuriser les environnements. Documenter les développements et partager les bonnes pratiques au sein de l’équipe. Réaliser une veille technologique continue. Compétences requises Expérience Minimum 3 ans en tant que Data Engineer (7 à 10 ans souhaité pour le niveau sénior). Compétences techniques indispensables Python, SQL, Spark, dbt BigQuery, Dataplex Airflow Terraform, Terragrunt GitLab CI/CD Méthodologies Agile (Scrum / Kanban) Compétences transverses Capacité à vulgariser des sujets techniques. Rigueur, autonomie, communication claire. Modalités d’exécution Présence sur site : 50 % minimum . Pas d’astreinte prévue. Matériel conforme aux normes de sécurité (chiffrement, antivirus, mises à jour…). Langue de travail : français
Mission freelance
Ingénieur SysOps (H/F) AWS-Linux
Publiée le
Administration linux
AWS Cloud
3 ans
400-600 €
Paris, France
Télétravail partiel
SysOps AWS linux Localisation : 92 TT : 2 jours longue durée : 3 ans avec contrat 1 an renouvelable Core Skills - Maîtrise des technologies ci-dessous de l’écosystème AWS : > Services Core AWS (IAM, cloudwatch, cloudtrail, route53, S3, VPC, …) > Maitrise de la majorité des Services AWS suivants: API gateway, CloudFront, Cognito, WAF, RDS, DynamoDB, Lambda, Step function, SQS ou MQ, ECS, EKS, ECR, OpenSearch, EMR ,... > Docker, Python, Gitlab CI, Terraform, Ansible, Grafana > Participation à l'amélioration du monitoring / alerting Vos missions : - Vous allez accompagner les équipes sur l'intégration continue, des sujets de migrations - Vous allez mettre en place les éléments de monitoring - Vous ferez des préconisations sur la partie Finops
Mission freelance
Architecte infrastructure réseau/sécurité
Publiée le
Architecture
Réseaux
1 an
550-650 €
Paris, France
Télétravail partiel
En tant qu’Architecte Infrastructure avec une forte dominante Réseau & Sécurité, vous interviendrez au cœur d’un système d’information complexe et en constante évolution. Votre rôle consistera à concevoir, sécuriser et faire évoluer les socles techniques permettant d’assurer la performance, la résilience et la robustesse de l’ensemble des environnements. Vos principales missions : Concevoir des architectures techniques robustes, sécurisées et évolutives , en cohérence avec les orientations stratégiques de l’organisation. Définir, maintenir et faire évoluer les socles techniques : réseaux, stockage, virtualisation, conteneurisation, supervision, etc. Accompagner la migration vers le cloud (public, privé, hybride) en intégrant les principes de sécurité dès la conception ( SecOps / DevSecOps ). Contribuer à l’ automatisation des infrastructures via des outils tels que Terraform, Ansible, GitLab CI/CD. Participer à la mise en œuvre des PCA/PRA , à la gestion de la résilience et au suivi des environnements critiques. Collaborer étroitement avec les équipes projets, sécurité, production et urbanisation dans une approche DevSecOps . Rédiger des dossiers d’architecture , standards techniques, modèles et référentiels contribuant à la gouvernance du SI. Assurer une veille technologique continue sur les sujets cloud, infrastructure as code, sécurité, observabilité et meilleures pratiques du marché.
Mission freelance
Data Engineer DBT / Snowflake
Publiée le
DBT
3 mois
400-500 €
Paris, France
Télétravail partiel
Acteur majeur du luxe Le poste Développer et maintenir les modèles DBT dans l’environnement Snowflake Réaliser les tests unitaires pour garantir la fiabilité et la performance des pipelines Documenter le code et les flux de données selon les standards internes Collaborer étroitement avec les équipes Data Engineering et BI Participer à l’amélioration continue des pratiques de développement et d’intégration Stack technique DBT (Data Build Tool) – confirmé (4 ans min) Snowflake – confirmé Git / GitLab CI/CD Python (pour scripting ou ingestion) DataOps / FinOps / QA (environnement du client) Modélisation : Kimball, Data Vault (bonus)
Offre d'emploi
QA Technico-fonctionnel - Secteur Luxe (H/F)
Publiée le
Postman
1 an
46k-56k €
400-520 €
Paris, France
Télétravail partiel
Nous recherchons un QA technico-fonctionnel pour intervenir dans le secteur du luxe. 1. Conception & stratégie de tests Analyser les besoins fonctionnels et techniques à partir des User Stories, spécifications fonctionnelles et techniques. Définir les plans de tests (fonctionnels, techniques, API, non-régression, bout-en-bout). Évaluer les risques et contribuer à la stratégie qualité du produit. 2. Exécution des tests Réaliser les tests manuels fonctionnels et techniques. Effectuer des tests API via Postman (collections, scripts, validations, environnements). Vérifier la conformité des résultats, documenter les anomalies et suivre leur résolution. 3. Gestion des anomalies & reporting Créer et suivre les tickets Jira (défauts, tâches QA, documentation). Assurer un reporting régulier sur l’avancement des campagnes de tests. Participer aux rituels Agile (daily, sprint planning, rétrospectives). 4. Support & coordination Travailler en étroite collaboration avec les équipes Dev, PO, UX, Data, OPS. Apporter un support qualité durant les mises en production. Vérifier la cohérence fonctionnelle pour garantir une expérience client irréprochable. Compétences techniques Tests API : Postman (collections, scripts tests, environnements). Gestion de projet & anomalies : Jira. Base de données : Maîtrise des requêtes SQL (lecture, jointures, vérification des données). Méthodologie : Scrum, gestion des User Stories et critères d'acceptation. Connaissance d’outils de test : Zephyr, TestRail, Xray (souhaité). Connaissance d’outils CI/CD (Jenkins, Gitlab CI) est un plus.
Mission freelance
DevOps / Cloud Platform Engineer – AWS & Terraform
Publiée le
AWS Cloud
CI/CD
DevOps
12 mois
550-600 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de sa plateforme cloud , une grande organisation internationale recherche un DevOps / Cloud Platform Engineer pour intervenir sur la conception, l’industrialisation et l’exploitation d’une plateforme AWS sécurisée et scalable. Vous rejoindrez une équipe Platform Engineering transverse, au service de multiples équipes produits, avec un fort enjeu d’automatisation, de standardisation et de fiabilité. La mission s’inscrit dans la durée (minimum jusqu’à fin 2026, avec possibilité de prolongation). Missions En tant que DevOps / Cloud Platform Engineer , vous interviendrez sur l’ensemble du cycle de vie de la plateforme cloud : Infrastructure & Cloud AWS Concevoir et maintenir une plateforme AWS multi-comptes (Organizations, Control Tower, gouvernance, sécurité). Définir des architectures cloud robustes et alignées avec les bonnes pratiques AWS . Mettre en place et maintenir des blueprints / golden paths pour différents types de workloads : Conteneurs (EKS, ECS, Fargate) Serverless (Lambda) Workloads traditionnels (EC2, Auto Scaling) Infrastructure as Code & Terraform Concevoir et développer des modules Terraform réutilisables (réseau, sécurité, compute, data). Gérer Terraform à l’échelle : Remote state (S3, DynamoDB) Versioning et lifecycle des modules Multi-environnements Détection et correction du drift CI/CD & Automatisation Construire et maintenir des pipelines CI/CD (GitLab CI, Jenkins) pour : Infrastructure et applications Tests automatisés Policy-as-Code (OPA / Conftest) Scans de sécurité (tfsec, Checkov) Déploiements automatisés (Atlantis, Spacelift, Terraform Cloud) Automatiser les tâches récurrentes via scripts Bash/Python ou outils internes. Exploitation, Sécurité & Fiabilité Mettre en place la supervision et l’observabilité : CloudWatch, OpenTelemetry Prometheus / Grafana Datadog, OpenSearch Définir et suivre les SLI/SLO . Assurer la sécurité des environnements : IAM en moindre privilège KMS, gestion des secrets (Secrets Manager, SOPS) Patching, scans IaC et images Participer au support avancé (L2/L3), à la gestion des incidents et aux post-mortems. Migration & Accompagnement Accompagner les équipes dans la migration de workloads on-premise vers AWS : Audits et assessments Choix des patterns d’architecture Adoption des templates et outils Support et coaching des équipes
Mission freelance
Développeur Java - Angular
Publiée le
Angular
Apache Maven
Java
12 mois
450-500 €
Paris, France
Télétravail partiel
Renforcement de l’équipe projet Refonte du portail LCL Entreprises (marché des Entreprises) Recherche de 1 consultant développeur Fullstack, avec une appétence pour le Frontend, dont les missions sont les suivantes : Développement des fonctionnalités et évolutions Développement des tests unitaires et d’intégration Correction des dysfonctionnements Revues de code Analyses techniques Déploiement dans les différents environnements techniques Fonctionnement en méthodologie agile Maîtrise technique attendue sur : Java - Angular sont les plus importants Spring-boot - Maven (Java 11/17/+) Typescript - Angular 14/18/+ - Javascript - NodeJS HTML – CSS - SCSS Docker - Kubernetes - Kafka - MongoDB Connaissances appréciées sur : Notions de sécurité Accessibilité (HTML / CSS) Javascript Architecture technique, REST, architecture micro-services Pipelines des déploiements (Kubernetes, Gitlab CI/CD, ArgoCD, Vault) Monitoring (Elk, Grafana, Dynatrace) Oauth2 / Open ID
Mission freelance
Développeur Python (Full remote)
Publiée le
FastAPI
Python
9 mois
370-420 €
Paris, France
Télétravail 100%
📌 Fiche de Poste – Développeur Python FastAPI 🎯 Contexte Nous recherchons un Développeur Backend Python spécialisé sur FastAP I pour renforcer une équipe tech travaillant sur des applications modernes et scalables. Le poste est ouvert en full remote (avec possibilité d’intervenir ponctuellement à Paris si souhaité). 🚀 Missions principales En collaboration avec les autres développeurs, Product Owner et DevOps, vos responsabilités incluront : • Développer et maintenir des API REST performantes avec FastAPI. • Concevoir et implémenter des microservices robustes et sécurisés. • Intégrer et optimiser les bases de données ( PostgreSQL, MongoDB, etc.). • Écrire des tests unitaires et d’intégration pour garantir la qualité du code. • Participer aux revues de code et à l’amélioration continue des bonnes pratiques. • Contribuer à la documentation technique et au suivi des User Stories. • Collaborer avec l’équipe produit et les QA pour assurer des livraisons fiables. 🛠️ Stack technique & environnement • Langage : Python 3.x • Framework : FastAPI • Bases de données : PostgreSQL , MongoDB, Redis • CI/CD : GitLab CI/CD, Docker, Kubernetes • Tests : Pytest, coverage • Cloud : AWS / GCP (selon projet) • Outils : Git, Jira, Confluence ⭐ Bonus • Connaissance des principes SOLID et du Clean Code. • Pratique de l’approche DDD ou Event-Driven Architecture. • Expérience dans des environnements Agile / Scrum.
Mission freelance
Machine Learning Ops
Publiée le
MLOps
RAG
1 an
400-650 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Machine Learning Ops. Le rôle consiste à garantir l'industrialisation, la fiabilisation, et la mise en production robuste et sécurisée de l'ensemble de nos modèles d'Intelligence Artificielle. Vous serez un pilier dans l'établissement des bonnes pratiques MLOps (Monitoring, Sécurité, Reproductibilité) et collaborerez en étroite collaboration avec les Data Scientists, Ingénieurs ML, le Product Owner, et l'équipe DevOps. Cette prestation est essentielle pour transformer la recherche en solutions opérationnelles à forte valeur ajoutée. Expertises requises dans le cadre de la réalisation de la prestation - 3 ans minimum d'expérience prouvée en développement/industrialisation IA/ML/DL ciblant des environnements de production. - Maitrise Avancée de Python et des librairies clés de Data Science/ML (e.g., NumPy, Pandas, Scikit-learn, PyTorch/TensorFlow). - Maîtrise de SQL pour l'accès et la manipulation des sources de données. - Pipeline MLOps et Outils : - Conception et Implémentation de Pipelines CI/CD dédiés aux modèles ML (GitLab CI ou équivalent), incluant le versioning des modèles et des datasets. - Conteneurisation Maîtrisée : Capacité à packager, déployer et maintenir des services IA via Docker. - Tracking et Registre de Modèles : Expérience obligatoire avec des outils de gestion du cycle de vie des modèles comme MLflow ou équivalent (p. ex. Comet ML). - Expertise Modèles de Langage (LLM/NLP) - Maîtrise de l'architecture RAG (Retrieval-Augmented Generation) et de son industrialisation. - Mise en place et intégration d'outils d'orchestration de LLM (e.g., LangChain/LangSmith, Semantic Kernel, ou équivalent) dans un contexte de production. - Cloud et Déploiement : Maîtrise avérée d'un Cloud Provider avec une expérience significative en déploiement de services serverless ou conteneurisés - Optimisation et Feedback : capacité à intégrer des boucles de feedback continu pour l'amélioration des modèles (Monitoring de la dérive, Retraining automatique, concepts de Human-in-the-Loop). C ompétences souhaitées : - Orchestration et Scalabilité : expérience pratique du déploiement de charges d’activité IA sur Kubernetes (K8s) et des concepts d'opérateurs MLOps (KubeFlow, Argo). - Expérience dans la mise en place de tests de performance et de montée en charge spécifiques aux services d'inférence ML/LLM (benchmarking, stress testing, choix du hardware). - Techniques de Modélisation Avancées : - Connaissance des techniques d'optimisation de modèles pour la production (Quantization, Distillation, Pruning) ou de Fine-Tuning/PEFT (LoRA). - Expérience en Computer Vision (déploiement de modèles de détection/classification) ou en SLM (Small Language Models). - Qualité et Assurance IA : - Mise en œuvre de métriques d'évaluation non-traditionnelles pour les LLM (e.g., AI as a Judge, évaluation du Hallucination Rate, Grounding Score).
Offre d'emploi
QA Automation Engineer Mobile & Web
Publiée le
QA
50k-60k €
Paris, France
Télétravail partiel
Missions : · Définir et piloter la stratégie de tests automatisés (mobile, web, API) · Concevoir, développer et maintenir des tests end-to-end couvrant l’ensemble de l’expérience utilisateur (frontend mobile/web + backend) · Automatiser les tests mobile (iOS & Android) à l’aide de WebdriverIO + Appium · Mettre en place des tests API : créer et gérer des collections, écrire des tests d’intégration et de non-régression · Intégrer les tests dans les pipelines CI/CD (GitHub Actions, GitLab CI..) · Collaborer avec les équipes produit, dev (backend / mobile / web) pour identifier les scénarios critiques à automatiser · Analyser les résultats des tests, remonter les bugs, proposer des améliorations · Participer à la documentation des pratiques QA et à la montée en compétences de l’équipe · Aider à stabiliser les builds et réduire la “dette test” via la refactorisation des tests
Mission freelance
Expert Cloud
Publiée le
Cloud
24 mois
400-800 €
Paris, France
Télétravail partiel
PROPULSE IT recherche pour un de ses clients un Expert Cloud Dans le cadre de notre transformation numérique (Go2Cloud) et de l'optimisation des infrastructures d'hébergement d'applications web et des sites internet, notre client recherche un Expert Cloud capable de concevoir, déployer et maintenir des architectures cloud robustes et sécurisées. Ce rôle clé impliquera une forte expertise technique ainsi qu'une capacité à accompagner les équipes dans la modernisation des applications et l'industrialisation des processus. Cette modernisation a pour objectif la préparation à la migration d'une API architecturée en MicroServices (Symfony PHP / API REST) actuellement sur un hébergement « OnPremise » chez un hébergeur (Virtual Machine VMWare) vers un hébergement dans le Cloud public. Les compétences du profil sont demandées sur l'environnement Microsoft Azure ET sur Amazon Web Services. En effet un arbitrage interne est en cours pour déterminer le Cloud cible, cet arbitrage aura été effectué pour le début de cette mission. L'expert Cloud interviendra sur les aspects suivants : 1. Modernisation des applications - Accompagnement à la transformation applicative (microservices, conteneurisation, mise en place de workflows) - Refactorisation / Réarchitecture des applications nécessaires - Migration d'applications vers le cloud en respectant les meilleures pratiques du Cloud Provider choisi (Azure ou AWS) 2. Déploiement et exploitation des plateformes Cloud public - Mise en place et gestion des infrastructures dans la landing zone Cloud public - Supervision et optimisation des performances des environnements cloud - Maitrise des coûts générés par les ressources cloud 3. Conception et architecture cloud - Définition d'architectures scalables, sécurisées et résilientes - Gestion de la sécurité et des bonnes pratiques sur le Cloud public 4. Orchestration et gestion des conteneurs - Déploiement et administration d'applications conteneurisées - Maîtrise de Kubernetes et des services Cloud public associés - Automatisation et gestion des workflows via des outils adaptés 5. Automatisation et DevOps - Mise en œuvre d'outils Infrastructure as Code : Terraform, Helm, ArgoCD - Développement et optimisation des pipelines CI/CD (DevOps, GitLab CI/CD) - Déploiement et gestion des stratégies GitOps
Mission freelance
DevOps Cloud & Réseau AWS
Publiée le
Ansible
Argo CD
AWS Cloud
3 mois
100-600 €
Paris, France
Télétravail partiel
Intitulé du poste Ingénieur DevOps orienté Cloud & Réseau AWS Mission principale Assurer la mise en place et l’automatisation des infrastructures Cloud tout en garantissant la performance et la sécurité des réseaux AWS. Gérer les différents projets en cours et à venir en respectant les standards Ratpdev et les bonnes pratiques Cloud AWS. Mettre en place les chaines de déploiement CI/CD. Gérer le Run et les changements sur infrastructure AWS. Responsabilités clés · Automatisation & CI/CD : Concevoir et maintenir des pipelines CI/CD (GitLab CI/CD, Jenkins). Intégrer des tests automatisés et des contrôles qualité. · Infrastructure as Code (IaC) : Déployer et gérer des environnements via Terraform, Ansible. Implémenter des pratiques GitOps (ArgoCD). · Cloud & Conteneurisation : Administrer des environnements AWS (EC2, S3, RDS, Lambda). Gérer Kubernetes (EKS) et conteneurs Docker. · Réseau AWS : Configurer VPN, Direct Connect, et Transit Gateway pour la connectivité hybride. Superviser la sécurité réseau (pare-feu, segmentation, Zero Trust). Optimiser la latence et la résilience des architectures réseau. Mettre en places des stack network AWS Multi régions · Observabilité & Performance : Monitoring réseau et applicatif (Datadog,CloudWatch). Analyse des flux et optimisation des coûts (FinOps). · Sécurité & Conformité (DevSecOps) : Intégrer la sécurité dans les pipelines (scan vulnérabilités, secrets management). Respecter les standards de gouvernance et conformité Cloud.
Offre d'emploi
DATA ENGINEER GCP (480€ MAX)
Publiée le
Google Cloud Platform (GCP)
3 mois
40k-81k €
370-480 €
Paris, France
Télétravail partiel
• Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery • Expériences intégrant les langages Python et SQL • Expériences intégrant PySpark • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques 1 . Déployer les cas d’usages en lien avec la personnalisation de l’expérience utilisateur 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets
Offre d'emploi
Architecte Technique H/F
Publiée le
Linux
VMware vSphere
Windows Server
1 an
Paris, France
Contexte de la mission Un acteur du secteur de la protection sociale, de l’assurance et de la retraite complémentaire recherche un Architecte Technique confirmé pour accompagner les projets métiers et IT4IT de son plan de transformation. La mission consiste à apporter une expertise avancée en architecture fonctionnelle et technique, en garantissant la cohérence, la performance et l’évolution maîtrisée du système d’information. Missions :Architecture fonctionnelle et technique Élaborer l’architecture fonctionnelle globale du SI et définir sa trajectoire de mise en œuvre. Décliner cette architecture pour les projets contribuant à l’évolution du SI, en assurant une vision transverse cohérente. Définir les architectures techniques : bases de données, réseaux, téléphonie, postes de travail, infrastructures, outils et systèmes. Garantir la cohérence globale de la cartographie technique, des référentiels et de l’architecture cible. Stratégie Contribuer à l’élaboration du plan stratégique SI. Participer aux choix de solutions en cohérence avec les orientations stratégiques. Assurer une veille technologique et promouvoir des solutions innovantes adaptées à l’entreprise. Conception du SI Construire, maintenir et promouvoir les normes et principes d’architecture du SI. Analyser les impacts des nouvelles solutions sur le SI. Proposer des évolutions pour les produits et services métier. Formuler des recommandations pour intégrer de nouvelles solutions en toute sécurité. Amélioration continue Promouvoir les orientations d’architecture SI. Faciliter le transfert de connaissances et la diffusion des bonnes pratiques au sein des équipes. Gestion de la connaissance Communiquer et partager les principes d’architecture, les standards SI et les innovations au sein des communautés d’architectes. Compétences attendues :Compétences métier Alignement stratégique du SI Conception d’architecture Innovation technologique Analyse de besoins Amélioration des processus Élaboration de plans d’activités Veille technologique Gouvernance des SI Relation client interne Compétences requises : Obligatoires : VMware vSphere, Linux, Windows Server Importantes : Sécurité / ZTNA, modularité applicative, Docker, AWS, MS SQL Server Appréciées : Middleware / APIM / MFT, CI/CD (Jenkins, GitLab CI, Azure DevOps), TOGAF, SAFe
Offre d'emploi
DATA ENGINEER
Publiée le
BigQuery
MySQL
Python
6 mois
40k-45k €
400-550 €
Paris, France
Contexte : Nous recherchons un Data Engineer GCP confirmé pour accompagner nos clients dans la mise en place et l’industrialisation de leurs pipelines data au sein d’environnements Cloud exigeants. Missions : Conception et développement de pipelines data dans GCP (Dataflow, Dataproc, Composer). Modélisation et optimisation des tables dans BigQuery. Mise en place de bonnes pratiques CI/CD (Cloud Build, GitLab CI, Terraform…). Industrialisation, monitoring et optimisation des workflows. Collaboration étroite avec les équipes Data, Produit et Architecture. Compétences recherchées : Maîtrise des services GCP Data (BigQuery, Dataflow, Pub/Sub, Composer). Très bonne expertise Python et frameworks ETL. Connaissances des bonnes pratiques DevOps (Docker, Terraform…). Expérience en environnement Data à forte volumétrie. Esprit analytique, autonomie et capacité à travailler en équipe. Profil attendu : 3 à 5 ans d’expérience en Data Engineering. Expérience significative sur GCP obligatoire. Une certification GCP Data Engineer est un plus.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Futur freelance architecte logiciel
- Ingénieur preuve de concept, logiciel, simulateur, démonstrateur
- Motif légitime de report de rendez-vous France Travail (création entreprise freelance)
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
53 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois