Trouvez votre prochaine offre d’emploi ou de mission freelance CI/CD à Paris

Ce qu’il faut savoir sur CI/CD

CI/CD (Continuous Integration / Continuous Delivery ou Continuous Deployment) est une méthodologie DevOps qui automatise les étapes du développement logiciel, depuis l'intégration du code jusqu'à sa mise en production. La Continuous Integration (CI) consiste à intégrer régulièrement les modifications de code dans un dépôt central, suivi d'une série de tests automatisés pour détecter rapidement les erreurs. Cela assure la stabilité et la qualité du code, tout en facilitant la collaboration entre les développeurs. La Continuous Delivery (CD) étend la CI en automatisant la préparation des versions prêtes pour le déploiement. Les équipes peuvent ainsi livrer fréquemment des fonctionnalités à leurs utilisateurs avec un minimum d'efforts manuels. La Continuous Deployment (CD), une étape supplémentaire, pousse automatiquement les modifications validées en production sans intervention humaine, rendant le processus encore plus rapide et fluide. CI/CD est essentiel pour les projets agiles, permettant de réduire les délais de livraison, d'améliorer la qualité des logiciels et de favoriser des itérations rapides en environnement sécurisé.

Votre recherche renvoie 361 résultats.
Freelance

Mission freelance
Data Architect (Secteur Luxe)

Nicholson SAS
Publiée le
Azure DevOps
Git
Github

8 mois
1 200 €
Paris, France
Pour le compte de l’un de nos clients basé à Paris, nous recherchons un Data Architect (Secteur de Luxe) afin d’intervenir sur une mission stratégique autour de l’architecture et de la valorisation des données. Missions: Concevoir et mettre en œuvre des solutions de données de bout en bout dans Azure Fabric (Lakehouse, Data Warehouse, modèles sémantiques). Intégration avec Power BI et modèles d'évolutivité. Définir les zones/hiérarchie de données (couches Bronze, Argent, Or). Établir des cadres de gouvernance des données. Modélisation des données et conception de pipelines ETL/ELT. Définir la logique de transformation et les règles métier. Gérez les charges incrémentielles, les dimensions et les contrôles de qualité. Optimisez les performances des requêtes et l’efficacité du stockage. (Outils : SQL, Python (PySpark), Azure Data Factory, Fabric Notebooks, dbt). Expertise en développement Python et SQL : rédigez des scripts Python efficaces (PySpark) pour la transformation des données dans Fabric Notebooks. SQL pour les requêtes complexes, les agrégations et l'optimisation des performances. Développer des bibliothèques de code et des fonctions réutilisables. Gérer la validation de la qualité des données et la gestion des erreurs. Représentation du fata dans la propriété finale du tableau de bord. Gestion du pipeline CI/CD et du contrôle de version GitHub : mettre en œuvre des flux de travail CI/CD pour le déploiement de produits de données. Gestion des référentiels de codes, stratégies de branchement. Suivre les modifications et maintenir des pistes d'audit. Outils : GitHub, Azure DevOps Pipelines, GitHub Actions, Git CLI, règles de protection des branches. Gouvernance des données, sécurité et contrôle d'accès basé sur les rôles (RBAC) : définissez des politiques de gouvernance pour le traçage des données, la gestion des métadonnées et les normes de qualité des données. Implémentez le contrôle d’accès basé sur les rôles (RBAC) pour les espaces de travail et les ensembles de données Fabric. Configurez la sécurité au niveau de l’espace de travail, de l’ensemble de données et des lignes. Établir des schémas de classification des données.Outils : Azure Fabric RBAC, Azure AD/Entra ID, Purview (gouvernance des métadonnées), rôles d'espace de travail Fabric, Power BI RLS (Row-Level Security). Cartographie des données E2E et définition des KPI : Documentez le lignage complet des données depuis les systèmes sources (D365, bases de données héritées) jusqu'aux magasins de données finaux. Créez des documents de cartographie détaillés (champs sources → colonnes cibles). Définissez la logique métier et les règles de transformation à chaque couche. Identifier et définir des KPI alignés avec les objectifs business. Établir la logique de calcul, les seuils et le suivi des KPI. Créez des dictionnaires de données et des glossaires métier. Outils : Confluence (documentation), Visio/Lucidchart (diagrammes de flux de données), Excel (matrices de cartographie), Power BI (tableaux de bord KPI). Documentation du cadre, normes et composants de ressources : établir des normes d'architecture de données et une documentation sur les meilleures pratiques. Conventions de dénomination, structures de dossiers, modèles de conception. Créez des modèles pour les blocs-notes, les scripts SQL et les fichiers de configuration. Définir les règles de qualité des données et les cadres de validation. Documenter les procédures de déploiement, les guides de dépannage et les runbooks. Tenir à jour les enregistrements de décisions d'architecture (ADR). Fournir des guides d'intégration pour les nouveaux membres de l'équipe. Profil : Data Architect Nombre d’années d’expérience : +7 ans Site : Paris ; sur site Prix d’achat max : 1200 euros Date de démarrage : asap Date de fin : 31/12/2026 Compétences techniques requises : Microsoft Azure Microsoft Azure Service Fabric Azure DevOps Pipelines SQL PySpark Git CLI, GitHub Power BI RLS
Freelance

Mission freelance
Data Engineer H/F

OUICODING
Publiée le

1 mois
420-580 €
Paris, Île-de-France
Mission : Concevoir, développer et opérer des pipelines data fiables et scalables, contribuer à l'industrialisation de la plateforme (standards, outillage, observabilité), et accompagner les équipes métiers et IT dans la mise en production et l'adoption. Responsabilités principales : -Ingestion & intégration : ingestion multi-sources (API, fichiers, bases de données), batch et/ou quasi temps-réel, gestion des erreurs et reprises. -Modélisation & transformations : implémentation des transformations (SQL et Python), optimisation des traitements, structuration des données (zones/étapes de transformation). -Industrialisation & CI/CD : contribution aux pipelines CI/CD (Azure DevOps/Git), packaging, déploiements, gestion des environnements. -Qualité, performance, observabilité : tests, contrôles de qualité, monitoring, alerting, analyse des incidents, amélioration continue. -Documentation & standards : documentation technique, bonnes pratiques de développement, revues de code, support à la montée en compétence. Stack / environnement (indicatif) : Azure (services data & automatisation), Snowflake, SQL, Python (dont Snowpark le cas échéant), Git, CI/CD, supervision (logs/metrics), outils de dataviz type Power BI en interface. CDC Prestation Data PDA 3 ETP v...
Freelance

Mission freelance
AppSec Engineer

Cherry Pick
Publiée le
Cybersécurité
Static Application Security Testing (SAST)
Vulnerability management

5 mois
600-650 €
Paris, France
Au sein d'un groupe leader dans l'édition de logiciels financiers, vous rejoignez l'équipe Application Security pour accompagner la transformation DevSecOps des équipes Engineering. L'enjeu est de concilier une forte cadence de livraison logicielle avec un niveau d'exigence cyber élevé. Vous intervenez en tant que partenaire des équipes de développement pour industrialiser la sécurité au sein du cycle de vie logiciel (SDLC) et garantir la robustesse de nos applicatifs en production. Missions : Votre rôle est d'infuser la sécurité à chaque étape du développement : Déploiement du SDLC Sécurisé : Industrialiser l'identification des risques dès le cadrage, définir les bonnes pratiques de développement (Frontend, Backend, IaC, Chiffrement) et valider la mise en production. Gestion des Vulnérabilités : Analyser, prioriser et accompagner la remédiation des failles détectées par nos scanners ( SAST, DAST, SCA ) ou lors de pentests. Un focus fort est attendu sur la réactivité (SLA de 48h sur le critique). Optimisation DevSecOps : Collaborer avec l'équipe Software Factory pour intégrer et améliorer l'outillage de sécurité au sein des pipelines CI/CD (GitLab Ultimate, outils de scan réseau et applicatifs). Acculturation : Sensibiliser et former les équipes engineering aux enjeux de cybersécurité de manière globale. Indicateur de succès : Volume et vélocité de traitement des vulnérabilités (CVE), avec une priorité sur les failles critiques.
Freelance

Mission freelance
Chef de projet Agile Devop - Paris

Net technologie
Publiée le
DevOps
Gestion de projet

1 an
Paris, France
🚀 Opportunité – Senior IT Project Manager / Tribe Scrum Master (H/F) Dans le cadre d’un programme stratégique de transformation IT au sein d’un grand acteur international des services financiers (Fund Administration), nous recherchons un profil senior pour piloter des projets structurants autour de la modernisation des systèmes (Cloud, API, DevOps, Data & IA). 🎯 Missions clés : Leadership Agile @Scale (Tribe Scrum Master) Pilotage de projets IT complexes (cadrage, architecture, gouvernance) Déploiement DevOps & Cloud (CI/CD, tests automatisés) Contribution aux cas d’usage IA Coordination transverse Business / IT / Architecture
CDI

Offre d'emploi
Ingénieur DevOps / Cloud – OpenStack / Docker / Ansible

TOHTEM IT
Publiée le

45k-55k €
Paris, France
Contexte de la mission Dans le cadre d’un projet pour le ministère de l’Intérieur , nous recherchons un Ingénieur DevOps expérimenté afin de renforcer les activités d’intégration, d’exploitation et de transformation cloud des applications. La mission s’inscrit dans un environnement technique exigeant et sécurisé, avec des enjeux autour de l’automatisation des déploiements, de la supervision des applications et de la migration vers les plateformes cloud du ministère . Le consultant interviendra en étroite collaboration avec les équipes de développement et d’exploitation afin de garantir la qualité des livraisons applicatives et la stabilité des environnements. Missions principales Réceptionner et contrôler les packages applicatifs livrés par les équipes de développement Installer les applications à l’aide des outils du ministère ( Forge DTNUM , Ansible ) Maintenir et faire évoluer les procédures et dossiers d’installation Participer à la construction des versions applicatives Assister les équipes de développement dans la gestion des évolutions et des releases Analyser et qualifier les anomalies détectées en phase de recette Participer à l’ exploitation et au traitement des incidents en production Contribuer à la migration vers les plateformes cloud du ministère (PI Gen2 / PI Native) Veiller au respect des normes de sécurité et des bonnes pratiques OPS Livrables attendus Mise à jour et partage de la documentation technique Contribution au partage de connaissances avec la communauté OPS Suivi des activités via les outils de pilotage ( JIRA, Kanban ) Mise en place de solutions de supervision et monitoring Gestion et suivi des demandes d’ouverture de flux réseau Déploiement et maintien d’outils d’observabilité (Prometheus, Grafana) Environnement technique Systèmes & Réseaux Linux ( Debian ) Administration système avancée Cloud & Conteneurisation OpenStack OpenShift Docker Podman Infrastructure as Code Ansible Terraform Terragrunt Bases de données & Middleware PostgreSQL Redis Kafka Consul Etcd Supervision & Observabilité Elasticsearch Prometheus Grafana AlertManager NodeExporter Pratiques DevOps CI/CD Automatisation des déploiements Revue de code Documentation technique
CDI

Offre d'emploi
Développeur·se Fullstack Node.js / React {CDI}

BLOOMAYS
Publiée le
Docker
Jenkins
Linux

65k-80k €
Paris, France
Ton rôle En tant que développeur·se fullstack, tu joues un rôle clé dans la construction et l’évolution d’un produit SaaS stratégique , avec un vrai impact. Conception & développement Participer aux choix techniques et à l’architecture globale Développer des fonctionnalités cœur produit, côté front et back Travailler sur la performance , la scalabilité et la robustesse Garder un œil constant sur l’UX et les usages réels des clients Qualité & engineering Faire vivre les standards d’ingénierie (code review, tests, CI/CD…) Être moteur sur la qualité : tests, sécurité, refacto, dette technique Mentorer les profils plus juniors Proposer des améliorations sur les process, outils et stack Infra / fiabilité Contribuer à la stabilité et à la fiabilité de la plateforme (Docker, Linux, monitoring, observabilité) Utiliser des outils comme Datadog ou Sentry Stack & environnement TypeScript – React – Node.js MongoDB Docker / Linux Jenkins Material-UI
Freelance

Mission freelance
Développeur·se Full-Stack - Svelte/NodeJS

Buy The Way
Publiée le
NestJS
Node.js
Svelte

12 mois
Paris, France
🎯 Le projet Dans le cadre de la modernisation d’un outil stratégique interne d’un grand groupe national, nous recherchons un·e développeur·se Full-Stack confirmé·e pour contribuer à la refonte complète d’un portail de gestion et contribution de contenus. L’objectif : créer un outil nouvelle génération, orienté expérience utilisateur, permettant aux équipes éditoriales et métiers de produire, rechercher et exploiter des contenus de manière fluide et performante. L’équipe actuelle est composée d’un Product Manager, d’un UX Designer, d’un Coach Agile et de 2 développeurs. 🛠 Vos responsabilités Développement Front & Back du portail Contribution à l’architecture et aux choix techniques Documentation et maintien en condition opérationnelle Suivi performance, disponibilité, scalabilité Mise en place d’indicateurs techniques et amélioration continue Collaboration étroite avec les architectes et l’équipe produit 💻 Stack technique Front : Svelte, HTML, CSS, TypeScript, Jest, Playwright Back : NodeJS / TypeScript, NestJS (architecture hexagonale) BDD : PostgreSQL Search : ElasticSearch Messaging : RabbitMQ Environnement : Docker, Git, GitLab CI, Kubernetes, ArgoCD
Freelance
CDI
CDD

Offre d'emploi
INTEGRATEUR TECH-OPS

KEONI CONSULTING
Publiée le
Mongodb
PostgreSQL
YAML

18 mois
20k-60k €
100-500 €
Paris, France
Contexte : Nous recherchons un TechOps, un référent transversal garant de la qualité d’intégration, de la fiabilité opérationnelle, et de l’exploitabilité by design des solutions déployées au sein de l’équipe Infrastructure. Il participera à renforcer la fiabilité opérationnelle (RUN), l’amélioration continue, la standardisation, l’automatisation des processus d’exploitation et la montée en maturité vers les pratiques modernes de Platform Engineering. La ressource devra s’impliquer pour devenir un référent technique transverse, capitalisant sur les périmètres applicatifs et les solutions techniques. La répartition indicative des activités sera de 60 % au sein du Bureau Technique et 40 % en contributions techniques transverses (documentation, automatisation, amélioration continue, outillage). MISSIONS OBJET DE LA PRESTATION Préparation, coordination et suivi des mises en production. Contrôle et validation des livrables techniques. Intégration et paramétrage des solutions logicielles. Réalisation des tests techniques : unitaires, intégration, validation d’exploitabilité. Installation des nouveaux modules et des évolutions applicatives. Participation aux analyses d’impacts techniques. Contribution à l’évaluation des risques techniques. Vérification de la conformité aux normes de sécurité, d’architecture et d’exploitation. Respect strict des normes, standards, architectures, procédures et bonnes pratiques d’exploitation. Participation active à l’évolution des standards techniques du TechOps. - - - - - - - - - - - - Déploiement et maintien de solutions techniques et d’automatisations (scripts, pipelines CI/CD, supervision, IaC lorsque applicable). Standardisation des outils, patterns et bonnes pratiques. Contribution aux services et solutions opérées par l’équipe Platform Engineering. Production et mise à jour de la documentation technique (DEX, référentiels, procédures…). Reporting régulier auprès du responsable Infrastructure et des ISM (Integration Service Managers). Accompagnement, vulgarisation et partage de connaissances auprès des équipes internes. Participation à l’acculturation DevOps au sein du Bureau Technique. Solide rigueur technique et capacité d’analyse. Aisance rédactionnelle et esprit de synthèse. Excellente communication orale et écrite. Aptitude à vulgariser et à accompagner les équipes dans la montée en compétences. Capacité à être force de proposition et à mener une veille technologique régulière. PROFIL & ENVIRONNEMENT TECHNIQUE L’environnement technique de l’équipe d’Infrastructure est composé des éléments ci Compréhension limitée des concepts de production et DevOps, capacité à exécuter des tâches simples sous supervision (par exemple, exécution de scripts ou suivi des indicateurs de performance). Capacité à configurer des environnements de développement et de production, à utiliser des outils de gestion de version (comme Git) et à exécuter des tâches de maintenance préventive. Maîtrise des outils d'intégration et de déploiement continu (CI/CD), capacité à gérer des conteneurs (Docker, Kubernetes), et à optimiser les processus de production tout en surveillant les performances. Compétences expertes Expertise dans la gestion d'infrastructures cloud (AWS, Azure, GCP), capacité à concevoir des architectures résilientes, à implémenter des pratiques de sécurité, et à diriger des initiatives d'amélioration continue. Systèmes & Architecture Infrastructure Unix, Linux ,Windows Server ,Orchestration & Scheduling,Control-M ,supervision / Observabilité, Zabbix, Instana, Prometheus,Grafana, Kibana ,Scripting & Programmation, Shell, Python (scripting), powerShell, Python (dev),YAML,SQL,Java, NodeJS, ReactJS, Réseau & Équilibrage, HAProxy, Nginx3, API & Intégration, API REST, gestion & Analyse des Logs, Loki, Elasticsearch, Workflows & Traitements techniques, Apache Airflow ,Gestion de code (VCS) Compétences techniques essentielles (obligatoires) - - - - - - - - Systèmes & Architecture Infrastructure o Très bonne maîtrise des systèmes d’exploitation Linux et Windows Server (niveau expert). o Compréhension des environnements Unix/AIX et des mécanismes de haute disponibilité (HACMP, VCS, Windows Cluster). o Bonne compréhension des architectures d’infrastructure toutes couches (OS, réseau, middleware, API, stockage, supervision). Cloud & Modernisation o Connaissance solide des concepts Cloud (public, privé, hybride). o Compréhension des principes d’architecture Cloud (scalabilité, résilience, sécurité, patterns d’intégration). o Savoir travailler dans des environnements Cloud et accompagner la migration de solutions legacy. Automatisation & Infrastructure-as-Code o Maîtrise d’Ansible pour l’automatisation des configurations et des déploiements. o Connaissance de Terraform (IaC) pour comprendre ou valider les modèles d’infrastructure automatisée. o Connaissance de Vault pour la gestion sécurisée des secrets. o Capacité à intégrer et à standardiser les outils DevOps dans la chaîne d’exploitation. Orchestration & Traitements o Maîtrise d’Apache Airflow pour l’orchestration de workflows techniques et applicatifs. CI/CD & DevOps o Bonne connaissance des chaînes CI/CD (GitLab CI, GitHub Actions, Jenkins). o Capacité à valider l’exploitabilité d’un pipeline et à définir les prérequis techniques. o Capacité à intégrer des solutions DevOps, sans nécessairement développer des pipelines complexes. Langages & Scripting o Maîtrise d’un langage de programmation tel que Java ou Python (lecture, compréhension, validation technique). o Très bonne maîtrise du Shell (niveau expert), Python scripting et PowerShell. o Bonne maîtrise de YAML pour la lecture des configurations modernes (CI/CD, Kubernetes, Airflow). o Connaissances de base en SQL (lecture, diagnostic simple). Observabilité / Supervision / Logs o Connaissance des outils de supervision (Zabbix, Instana). o Capacité à lire et interpréter des logs via Loki, Elasticsearch, Kibana, Grafana, Prometheus. o Savoir identifier des incohérences, anomalies ou points d'amélioration sur la chaîne d’exploitabilité. Réseau, API & Équilibrage - - o Bonne compréhension du fonctionnement des API REST (consommation, contrats, validations). o Connaissance des équilibreurs de charge (HAProxy, Nginx). o Comprendre les mécanismes de SLB/GSLB (Load Balancing global/local). Écosystème applicatif & composants techniques o Compréhension des serveurs d’applications (Apache, Tomcat, JBoss). o Connaissance des systèmes de messagerie (Kafka, RabbitMQ, IBM MQ Series). o Connaissance des solutions de transferts (TOM/CFT/PeSIT). o Familiarité avec les bases de données (MS SQL, Redis, MongoDB, PostgreSQL) et leurs outils (DBeaver/SQL Manager). Les compétences optionnelles apportant un plus sont : - - - - - Maîtrise supplémentaire de langages : YAML avancé, C++, C#, HTML/CSS. Connaissance des solutions de virtualisation (VMWare, Hyper-V…). Connaissance de PostgreSQL et MongoDB (niveau opérationnel). Familiarité avec la gestion de projet et les méthodologies agiles. Compréhension plus avancée des solutions de coffre-fort (Vault, CyberArk…).
Freelance

Mission freelance
Lead / Développeur Senior Backend .Net

Cherry Pick
Publiée le
.NET

12 mois
550-600 €
Paris, France
Lead / Développeur Senior Backend .Net Contexte Le projet démarre mi-avril avec une phase de setup dès mi-mars (Sprint 0). Nous recherchons un Lead/Développeur Senior Back (.NET Core) pour accompagner ce lancement. Missions Participer à la phase de cadrage et au Sprint 0 Contribuer à la conception technique de la solution Back-end / API Développer les fonctionnalités liées au tunnel de souscription en ligne Garantir la qualité, la robustesse et la standardisation du produit Back-end Travailler en collaboration avec : PO / BA Architecte Équipes internationales Participer aux revues de code Utiliser les outils DevOps standards (GitLab, CI/CD) Être à l’aise avec les assistants de développement Environnement technique Back : .NET Core Infra & DevOps : AWS Kubernetes GitLab Jira Une appétence DevOps est un plus. Profil recherché Hard skills Expérience significative en développement .NET Expérience en tant que Lead Expérience en environnement structuré / produit Bonne compréhension des architectures modernes (Microservices, API) Sensibilité Cloud (AWS) appréciée Expérience CI/CD Soft skills (critères clés) Forte curiosité Intérêt pour le produit Capacité à monter en compétence sur un domaine fonctionnel Bon relationnel et esprit collaboratif À l’aise dans un environnement international Bon niveau d’anglais Une expérience en finance est un plus mais non obligatoire. Organisation Équipe cible : 7 dev + 2 QA Encadrement technique expérimenté Collaboration avec des équipes internationales Méthodologie Agile
Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP

UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform (GCP)
MySQL

6 mois
40k-71k €
400-630 €
Paris, France
Je recherche pour un de mes clients un Data Engineer GCP : Prestations attendues : Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels Accompagner les utilisateurs dans leurs usages Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe Construire et maintenir des pipelines data robustes et scalables Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l’évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data Compétences solides en data : structures de données, code, architecture France Expériences dans la conception et la réalisation de pipelines data Expériences dans un environnement du cloud Google (GCP) Expériences intégrant BigQuery et Dataplex Universal Catalog Expériences intégrant les langages Python et SQL Expériences intégrant Spark Expériences intégrant dbt Expériences intégrant Terraform et Terragrunt Expériences intégrant Gitlab et Gitlab CI/CD Expériences intégrant les méthodologies Agile : Scrum ou Kanban Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance

Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data

Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark

3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
Freelance

Mission freelance
Ingénieur DevOps Senior Plateforme Cloud H/F

TechOps SAS
Publiée le
AWS Cloud
DevOps
Google Cloud Platform (GCP)

10 mois
550-650 €
Paris, France
Dans le cadre du renforcement de sa plateforme cloud, notre client recherche un Ingénieur DevOps / Platform Cloud senior pour concevoir, structurer et faire évoluer un environnement AWS robuste et hautement sécurisé. Vous interviendrez sur la création de modules Terraform industrialisés et maintenables, la structuration d’une architecture multi-comptes ainsi que la définition de standards de déploiement pour des environnements conteneurisés, serverless et traditionnels. Vous contribuerez à l’automatisation complète des pipelines CI/CD avec contrôles qualité et sécurité, au monitoring avancé, à la gestion de la résilience et à l’accompagnement des équipes dans la migration et l’adoption des bonnes pratiques cloud.
CDI

Offre d'emploi
Ingénieur DevOps / Kubernetes (H/F)

UMANTIC
Publiée le

60k-70k €
Paris, Île-de-France
Dans le cadre du renforcement d'une équipe DevOps orientée Cloud Native, nous recherchons un Ingénieur DevOps spécialisé Kubernetes pour intervenir sur des environnements à forte exigence en matière d'orchestration, de déploiement continu et d'observabilité. Vous évoluerez dans un écosystème moderne axé automatisation, GitOps et monitoring avancé. Vos missions * Administrer et optimiser des clusters Kubernetes en production * Concevoir et maintenir des CRDs / Custom Resources * Gérer et maintenir des charts Helm * Mettre en oeuvre des stratégies de déploiement continu (GitOps) * Participer à l'amélioration de l'observabilité (monitoring & logging) * Contribuer aux pipelines CI/CD * Collaborer avec les équipes Dev, SRE et Infra
Freelance

Mission freelance
Ingenieur de Production DevOps H/F

AMBITION Technologies
Publiée le
AWS Cloud
Cloud
DevOps

3 ans
400-450 €
Paris, France
Dans le cadre de projets métier menés en mode équipe produit (squad) , nous recherchons un Ingénieur OPS / DevOps Cloud pour garantir l’exploitabilité, la performance et la sécurité des solutions mises en production. Missions principales Réaliser les installations et mises en production (MEP, CAB) sur tous les environnements Automatiser les déploiements via les toolchains CI/CD (GitLab CI, XL Release, Ansible…) Mettre en place et faire évoluer le monitoring End-to-End (Dynatrace) Représenter la Production au sein des squads et garantir l’exploitabilité des solutions Définir, piloter et garantir les SLO/SLA , gérer les incidents récurrents Contribuer à l’ architecture technique (Cloud, Kubernetes, Docker) Accompagner les équipes de développement pour sécuriser et accélérer les livraisons Participer à l’ amélioration continue des services de production Mettre en place la documentation, les consignes d’exploitation et plans de continuité (ICP/DR) Contexte DevOps / CI Intégration de nouveaux services dans GitLab CI Migration Jenkins → GitLab CI Création et maintenance de pipelines CI/CD Développement de services CI (bash, python, yaml, groovy) Création et maintenance d’ images Docker Support et résolution d’incidents CI/CD
Freelance

Mission freelance
Ingénieur Cloud Data plateforme

Cherry Pick
Publiée le
Amazon S3
AWS Cloud
Data Lake

12 mois
500-550 €
Paris, France
Pour un client du domaine de l'énergie, vous intégrerez la squad Data & Analytics Platform . Dans un environnement technologique en mutation rapide, cette équipe est responsable de la conception, de la construction et du support de la plateforme de données utilisée à l'échelle mondiale par l'ensemble des entités du groupe. Le poste est basé à Paris (75002) avec un rythme de travail hybride (3 jours de présence sur site impératifs). Missions : En tant que membre clé de la squad, vos activités principales se concentrent sur l'automatisation, la sécurité et la fiabilité de l'écosystème Data : Infrastructure as Code (IaC) : Développement, mise à jour et maintenance du code Terraform (environnements AWS et Azure) en respectant les standards de sécurité et de conformité internes. Automatisation CI/CD : Conception et maintenance des chaînes de déploiement automatisées via GitHub Actions pour garantir des mises en production fluides et sécurisées. Administration de Data Lake : Exploitation et optimisation du stockage (Amazon S3), gestion des cycles de vie des données (Lifecycle policies) et pilotage de la performance/coûts (FinOps). Sécurité et Gouvernance : Mise en œuvre des politiques d'accès (IAM), gestion de la configuration réseau (VPC, NSG, ACLs) et respect des réglementations sur l'exploitation de la donnée. Développement de Services : Création et maintenance de micro-services et d'APIs (REST, Event-driven) en Python. Support et Documentation : Rédaction et enrichissement de la documentation technique à destination des utilisateurs finaux et monitoring de la plateforme (supervision).
Freelance

Mission freelance
Lead MLOps – Expert Python RAG Conversationnel Production (Azure Cloud – Full Microsoft)

5COM Consulting
Publiée le
Agent IA
Azure AI
IA Générative

1 an
650-700 €
Paris, France
Lead MLOps – Expert PythonRAG Conversationnel Production (Azure Cloud – Full Microsoft) Dans un contexte cabinet / finance / environnement régulé, nous recherchons un Lead MLOps senior , expert Python, ayant déjà mis en production un RAG conversationnel sur Azure . Il ne s’agit pas d’un rôle de Data Scientist ni d’un profil POC. Nous cherchons un Lead Engineering capable d’industrialiser, structurer et opérer un système GenAI en production , dans un environnement complexe et multi-acteurs. Mission Transformer un RAG conversationnel (POC ou existant) en système production-grade . Concevoir et structurer l’architecture technique sur Azure Cloud . Mettre en place les pipelines CI/CD et MLOps adaptés aux systèmes LLM/RAG. Déployer, monitorer et opérer la solution en production. Définir les standards de gouvernance IA, versioning, auditabilité et conformité. Interagir étroitement avec les architectes Azure et équipes Ops Cloud . Être force de proposition, cadrer, arbitrer et assumer les décisions techniques. Passer du POC à la PROD de manière structurée et mesurable . Expertise Azure (indispensable) Maîtrise concrète des environnements Azure : Azure OpenAI Azure AI Search / Vector Search Azure ML / Fabric / Databricks Azure DevOps / GitHub Actions AKS ou services managés Azure Monitoring Azure (logs, métriques, alerting) Capacité à dialoguer techniquement avec les architectes et équipes Ops Azure. RAG Conversationnel – Exigences Architecture modulaire (ingestion / retrieval / génération découplés) Gestion du contexte conversationnel Optimisation retrieval (chunking, reranking, hiérarchisation) Contrôle des hallucinations Monitoring qualité & performance Évaluation automatisée (LLM-as-a-Judge, métriques retrieval, A/B testing) MLOps – Cœur du rôle Pipelines CI/CD pour ML / GenAI Versioning code / data / modèles Tests unitaires & intégration Monitoring technique (latence, coûts, erreurs) Monitoring sémantique (qualité des réponses) Rollback & gestion des incidents Gouvernance IA & standards engineering Engineering Python expert (FastAPI, modularité, clean architecture) Structuration claire du code Gitflow maîtrisé Scalabilité & résilience Documentation et standards d’équipe Profil recherché 7–10+ ans d’expérience Lead MLOps / ML Engineering senior Expérience démontrée de mise en production RAG conversationnel sur Azure Habitué aux environnements cabinet / finance / régulés Leadership affirmé, capacité à s’imposer Capable de proposer des solutions pragmatiques et surtout de les exécuter Environnement de travail Localisation : Paris centre Télétravail partiel possible Environnement exigeant mais agile Culture d’équipe forte, esprit “team spirit” Mode de fonctionnement dynamique, proche d’un esprit startup Forte exposition aux enjeux stratégiques IA Ce que nous ne recherchons pas Profils orientés uniquement Data Science RAG prototype / non production-grade Expérience Azure superficielle Manque d’expérience MLOps réelle Profil incapable de structurer et gouverner

Les métiers et les missions en freelance pour CI/CD

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise des pratiques CI/CD pour automatiser l'intégration, le test, le déploiement et la mise en production d'applications, en assurant une livraison continue et fiable dans des environnements Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux implémente et gère des pipelines CI/CD pour automatiser la gestion des configurations et les déploiements d'infrastructure, contribuant ainsi à la fiabilité et à la rapidité des mises à jour.

Lead developer / Tech lead

Le/ La Lead developer / Tech lead supervise l'intégration continue et le déploiement continu au sein des équipes de développement, en mettant en place des pipelines CI/CD efficaces pour améliorer la qualité du code et accélérer le processus de livraison.

Développeur·euse fullstack

Le/ La Développeur·euse fullstack conçoit et développe des applications avec une approche CI/CD, en intégrant des outils d'automatisation pour assurer des déploiements rapides et une intégration fluide entre le front-end et le back-end.

361 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous