Trouvez votre prochaine offre d’emploi ou de mission freelance CI/CD

Ce qu’il faut savoir sur CI/CD

CI/CD (Continuous Integration / Continuous Delivery ou Continuous Deployment) est une méthodologie DevOps qui automatise les étapes du développement logiciel, depuis l'intégration du code jusqu'à sa mise en production. La Continuous Integration (CI) consiste à intégrer régulièrement les modifications de code dans un dépôt central, suivi d'une série de tests automatisés pour détecter rapidement les erreurs. Cela assure la stabilité et la qualité du code, tout en facilitant la collaboration entre les développeurs. La Continuous Delivery (CD) étend la CI en automatisant la préparation des versions prêtes pour le déploiement. Les équipes peuvent ainsi livrer fréquemment des fonctionnalités à leurs utilisateurs avec un minimum d'efforts manuels. La Continuous Deployment (CD), une étape supplémentaire, pousse automatiquement les modifications validées en production sans intervention humaine, rendant le processus encore plus rapide et fluide. CI/CD est essentiel pour les projets agiles, permettant de réduire les délais de livraison, d'améliorer la qualité des logiciels et de favoriser des itérations rapides en environnement sécurisé.

Votre recherche renvoie 887 résultats.
Freelance
CDI

Offre d'emploi
Lead Data Engineer (H/F)

Publiée le
Apache Spark
Big Data
Data management

3 ans
40k-71k €
400-700 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Lead Data Engineer / Data Engineer Senior pour renforcer une équipe data travaillant sur une plateforme moderne Azure / Databricks . Votre rôle : concevoir, industrialiser et optimiser des pipelines Big Data, tout en jouant un rôle de référent technique auprès de l’équipe. Compétences indispensables Big Data : Spark, Databricks Ingestion / Streaming : Kafka, Apache NiFi Cloud : Microsoft Azure Langages : Scala ou Java + Python + SQL Orchestration : Airflow CI/CD & DevOps : Azure DevOps, Git Compétences appréciées Dataiku Ansible Connaissance Data Lake / architectures medallion Vos missions Concevoir et industrialiser des pipelines Big Data (batch & streaming). Développer des flux d’ingestion avec NiFi, Kafka, Spark. Optimiser performance, qualité et scalabilité. Participer à l’architecture et aux choix techniques. Encadrer techniquement l’équipe (guidelines, bonnes pratiques, code review). Contribuer aux automatisations et à l’orchestration (Airflow, Ansible, DevOps).
Freelance
CDD
CDI

Offre d'emploi
Consultant Data Databricks (F/H)

Publiée le
Apache Spark
Databricks
DevOps

3 ans
60k-75k €
550-610 €
Paris, France
Télétravail partiel
🔎 Contexte de la mission Intervention au sein de la Direction des Systèmes d’Information d’un acteur bancaire. Mission réalisée dans une équipe de données transverses opérant en support des directions : Finance Marketing Crédit L’équipe n’intervient pas sur des sujets cybersécurité , mais se concentre sur : Les enjeux réglementaires Le reporting opérationnel et financier La mise à disposition de données à d’autres équipes (dont IA et modernisation Azure) 👥 Organisation Équipe de 10 à 15 personnes (mix France + offshore Inde) 3 internes / plusieurs prestataires externes Encadrement par un IT Lead ⚙️ Environnement technique Cloud & orchestration Azure Azure Databricks Azure DevOps (CI/CD) Data pipeline Python (Airflow, FastAPI) SQL / PostgreSQL Spark DataVault (modélisation) DBT (prochainement intégré) Fichiers via couche FTP Visualisation & automatisation Power BI (rationalisation en cours) Power Automate Azure AI / ML (projets IA à venir en 2026) Gouvernance & data Data Store Domain Atlas Autres informations 📍 Localisation : Paris 8ème 🕒 Durée estimée : 3 ans 🗓️ Démarrage souhaité : ASAP selon disponibilité 🗣 Langue de travail : anglais courant (collaboration avec équipes offshore)
CDI
Freelance

Offre d'emploi
Développeur Backend Symfony – Secteur Environnement / Services

Publiée le
PHP
PostgreSQL
Symfony

1 an
40k-45k €
280-400 €
Thiverval-Grignon, Île-de-France
Télétravail partiel
📍 Thiverval-Grignon (78) 🌍 Nearshoring / Offshoring possible – Francophone obligatoire 🚀 Démarrage : ASAP 📅 Mission longue – 6 mois renouvelables 🛑 Pas de freelance en direct Nous recherchons un Développeur Backend Symfony confirmé à senior pour intervenir sur un projet métier stratégique au sein d’un acteur majeur du secteur des services et de l’environnement. Vous rejoindrez une équipe tech engagée, orientée bonnes pratiques et qualité logicielle. 🎯 Vos missions Concevoir et développer un outil de supervision en Symfony 7 Créer et documenter des API REST performantes, maintenables et évolutives Participer aux revues de code , au pair programming et à l'amélioration continue Contribuer aux choix d’architecture et aux design patterns selon votre niveau d’expertise Produire un code conforme aux standards internes : KISS, SOLID, Clean Code, PSR 🛠️ Environnement technique Cible : PHP 8.x Symfony 7 PostgreSQL Bonus appréciés : Notions en React.js Tests automatisés Docker, CI/CD Sensibilité architecture propre (Clean Architecture)
Freelance

Mission freelance
Data Architect / Engineer Senior – Écosystème IoT & Sport

Publiée le
Architecture
Big Data

3 mois
400-550 €
Lille, Hauts-de-France
ANGLAIS COURANT OBLIGATOIRE Acteur majeur du secteur du sport et de l'innovation depuis plus de 40 ans, nous réinventons constamment le marché grâce à des produits accessibles et technologiques. Notre mission est de rendre les bienfaits du sport accessibles au plus grand nombre via un écosystème numérique complet : coaching virtuel, expériences connectées en magasin, services de location et produits intelligents. Vous rejoindrez une équipe technique de plus de 2 500 experts (ingénieurs, product managers, data experts) répartis entre Paris et Lille, dédiée à répondre aux besoins de 500 millions d'utilisateurs. Contexte de la mission Au sein de la division Connected Sports Platform (CSP) , nous accélérons notre transformation digitale via l'implémentation de solutions IoT. L'équipe Data est au cœur de ces enjeux : elle développe les briques nécessaires à l'ingestion, au stockage et à l'exposition des données échangées entre le cloud, les appareils connectés (vélos électriques, machines de fitness, etc.) et les applications mobiles. Objectifs : Optimiser l'exploitation des données pour la BI, la maintenance prédictive, la détection d'incidents et le design intelligent. Vos responsabilités En tant que Data Architect / Engineer (Freelance) , vous accompagnerez les projets dans leurs choix architecturaux et techniques avec les priorités suivantes : Architecture : Concevoir l'architecture d'ingestion et de stockage des données IoT (directes ou via mobile). Pipeline : Construire des pipelines de données structurées et non structurées scalables. Stratégie Tech : Définir la stratégie des stacks techniques et garantir le CI/CD. Optimisation : Maintenir et refondre les datasets existants pour de nouveaux cas d'usage. Qualité & Gouvernance : Assurer la fiabilité, l'accessibilité et la confidentialité des données (Data Privacy). Standardisation : Définir les standards d'architecture et assurer l'alignement entre la vision technique et les besoins utilisateurs. Profil recherché Expérience : +5 ans en tant que Senior Data Engineer dans un environnement microservices avec échanges de données en temps réel. Expertise Technique : Maîtrise de la modélisation de données, des systèmes distribués et de l'optimisation de requêtes. Stack : Maîtrise de Python (Scala ou Java sont un plus) et des technologies Kafka et Spark . Méthodologie : Culture Agile, GIT, Code Review et Peer Programming. Soft Skills : Excellente capacité de synthèse, communication fluide et esprit d'équipe. Langues : Français courant et anglais professionnel. Le "plus" pour cette mission : Expérience sur l'environnement AWS Big Data (Lambda, Redshift, S3). Expérience confirmée sur des produits IoT ou des appareils connectés. Modalités pratiques Durée : Mission longue durée. Lieu : Paris ou Lille (déplacements ponctuels à prévoir sur Lille si basé à Paris). Télétravail : Rythme hybride (environ 2 jours de télétravail par semaine). Matériel : Choix de l'environnement de travail (Mac, Windows). Compétences clés attendues (Récapitulatif) CompétenceNiveau attenduKafka / Spark Avancé AWS (Lambda, Redshift, S3) Confirmé Data Modeling Confirmé Écosystème IoT Confirmé Data Governance Confirmé
Freelance

Mission freelance
[FBO] Data Engineer avec expertise MLOps

Publiée le
Planification
Python

3 ans
400-590 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
CDI
Freelance

Offre d'emploi
Data Architect / Data Engineer (H/F)

Publiée le
Cloud

1 an
La Défense, Île-de-France
Télétravail partiel
Nous recherchons un profil technique pour accompagner des projets data stratégiques au sein d’un acteur spécialisé dans la transformation et l’architecture des systèmes d’information. Vos missions Concevoir et faire évoluer des architectures data modernes (cloud, data lake, data warehouse, data mesh… selon les projets). Définir les standards et bonnes pratiques d’ingénierie des données. Concevoir, développer et optimiser des pipelines de données robustes et industrialisés. Participer aux choix technologiques et contribuer à la mise en place d’une gouvernance data efficace. Collaborer avec les équipes projet (data engineers, data analysts, product owners…) pour garantir la qualité et la fiabilité de la donnée. Compétences recherchées Maîtrise d’un ou plusieurs environnements cloud : AWS, Azure ou GCP. Expérience avérée en conception d’architectures data (batch, streaming, event-driven…). Solide pratique des langages et écosystèmes data : Python, SQL, Spark, DBT, Kafka, Airflow… Bonne compréhension des modèles de stockage et de traitement (Delta Lake, BigQuery, Snowflake…). Connaissance des bonnes pratiques de CI/CD, observabilité, sécurité et gouvernance data. Profil 3 à 7 ans d’expérience en data engineering ou en architecture data. Capacité d’analyse, rigueur technique et vision d’ensemble des systèmes de données. Aisance en communication et capacité à travailler en équipe sur des projets multidisciplinaires. Ce que nous offrons Participation à des projets à forte valeur ajoutée. Environnement orienté expertise, innovation et montée en compétences. Culture technique stimulante et possibilités d’évolution.
CDI
Freelance

Offre d'emploi
DevOps

Publiée le
Datadog
Docker
Github

12 mois
38k-42k €
300-350 €
Lezennes, Hauts-de-France
Au sein de notre agence lilloise, pour le compte de notre client spécialisé dans la Grande Distribution, nous recherchons un DevOps (H/F). La mission est basée à Lézennes (59) . Contexte : En tant qu'Ingénieur DevOps, votre mission principale consiste à fluidifier, automatiser et sécuriser le cycle de vie des applications, de la conception au déploiement en production, incluant l'intégration et l'exploitation. Vous serez garant(e) de la fiabilité, de la performance et de la scalabilité des systèmes, tout en favorisant une collaboration efficace entre les équipes de développement et d'opérations. Plus particulièrement, vos tâches seront les suivantes : • Participer à la définition des architectures techniques et des stratégies DevOps pour les produits du domaine. • Mettre en œuvre les principes de l'Infrastructure as Code (IaC) pour le provisionnement, la configuration et la gestion des environnements (développement, test, production). • Intégrer les bonnes pratiques de sécurité (DevSecOps) dès la phase de conception. • Déployer, gérer et maintenir les applications sur des plateformes conteneurisées • Assurer le Maintien en Condition Opérationnelle (MCO) et la supervision proactive des infrastructures et applications. • Mettre en place et optimiser les systèmes de monitoring, d'alerting et de logging pour garantir la haute disponibilité et la performance. • Développer des scripts et outils d'automatisation pour optimiser l'ensemble des processus (tests, déploiements, opérations, gestion des données). • Industrialiser les processus pour garantir la compatibilité multi-BU, la scalabilité et la reproductibilité des solutions. • Contribuer à l'amélioration continue des outils, des plateformes et des pratiques DevOps au sein de l'équipe et du domaine • Travailler en étroite collaboration avec les équipes de développement, les Product Owners et les équipes opérationnelles. • Partager les connaissances et accompagner les équipes sur les bonnes pratiques DevOps. • Promouvoir une culture d'amélioration continue, de partage et de responsabilité collective. • Intégrer des stratégies de tests automatisés (unitaires, d'intégration, de performance, de sécurité) dans les pipelines CI/CD. • Identifier, mettre en œuvre et suivre les KPI techniques liés à la performance, la fiabilité et la sécurité des applications. • Optimiser les performances des applications et des infrastructures.
Freelance

Mission freelance
Architecte Data IoT

Publiée le
Apache Kafka
Architecture
IoT

12 mois
730-750 €
Lille, Hauts-de-France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Architecte Data IoT" pour un client dans le secteur du retail. Description La Data est centrale dans notre écosystème IoT : elle alimente la BI, la maintenance prédictive, la détection d'accidents et la conception intelligente de nos futurs produits. 🎯 Votre Mission : Architecturer la Data de l'IoT du Groupe Au sein de l'équipe "Cloud IoT Platform - Data Solution", vous agissez en tant que Data Architect / Lead Engineer . Vous êtes le garant des choix techniques et de l'architecture permettant d'ingérer, stocker et exposer les données venant du Cloud, des "Devices" et du Mobile. Vos responsabilités clés : Architecture & Stratégie : Imaginer et concevoir l'architecture Data pour collecter les données IoT (directement des appareils ou via mobile). Définir la stratégie des stacks techniques et garantir les standards d'architecture. Assurer l'alignement entre la vision technique, les priorités business et les besoins utilisateurs. Engineering & Pipelines : Construire des pipelines de données (structurées et non structurées) robustes et scalables. Maintenir et redesigner les pipelines existants pour servir de nouveaux cas d'usage (Analytics, IA, etc.). Garantir l'industrialisation des processus de transformation et le CI/CD. Qualité & Gouvernance : Assurer la scalabilité, l'élasticité et la fiabilité des infrastructures. Garantir la qualité de la donnée, son accessibilité, ainsi que le respect des normes de Privacy et Data Governance (Lineage). Leadership Technique : Contribuer activement à la communauté des Data Engineers. Assurer une veille technologique constante pour orienter la sélection des nouveaux outils. 🛠 Environnement Technique Langages : Python, Scala, Java. Big Data & Streaming : Kafka, Spark. Cloud & Infrastructure : AWS (Lambda, Redshift, S3), Microservices. Concepts : Systèmes distribués, Data Modeling, Real-time data exchanges.
Freelance

Mission freelance
Devops Azure H/F

Publiée le
Azure DevOps
Entreprise Java Bean (EJB)

2 ans
450-550 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Devops Azure H/F à Paris, France. Les missions attendues par le Devops Azure H/F : Nous recherchons un Développeur DevOps Azure expérimenté pour rejoindre notre équipe de développement. Missions principales : Concevoir et mettre en œuvre des pipelines CI/CD sur Azure DevOps. Gérer et automatiser l'infrastructure avec des outils tels que Terraform et Azure Resource Manager. Mettre en place le déploiements sur les différents environnements. Surveiller et optimiser les performances des applications en production. Collaborer avec les équipes de développement pour améliorer les processus de livraison. Participer à l'amélioration continue des pratiques DevOps au sein de l'équipe. Partager les connaissances avec les autres membres de l'équipe.
Freelance
CDI

Offre d'emploi
Développeur Senior React JS / SSR

Publiée le
React

3 ans
Ivry-sur-Seine, Île-de-France
Télétravail partiel
Contexte : Rejoins l’équipe stratégique Pages Produit de notre client : un levier business majeur, au cœur de l’expérience client et exposé à un trafic massif. Chaque optimisation en production impacte des millions d’utilisateurs. Tu travailleras au quotidien avec un architecte, un tech lead, des devs expérimentés et une équipe design qui fait vivre notre Design System. Ta mission : • Concevoir et développer des interfaces Front ambitieuses et performantes (React, Next.js, TypeScript, Web component), orientées SEO et Core Web Vitals, accessibles (RGAA/WCAG). • Porter la qualité logicielle (Software Craftsmanship) : TDD, clean code, design simple & robuste, revues de code, pair/mob programming. • Collaborer avec l’architecte & le tech lead pour faire évoluer l’architecture (SSR/SSG, caching, observabilité, monitoring). • Faire grandir le Design System Fnac Darty en coopération avec l’équipe ad-hoc (Storybook, tokens, guidelines d’accessibilité), et accompagner son adoption dans les produits. • Améliorer en continu : CI/CD, tests automatisés, feature flags, A/B testing, observabilité et feedback loops. Responsabilités clés : • Front : pages produit haute performance (SSR/SSG), gestion de l’état, data fetching, routing, optimisations (images, scripts, bundles, lazy & code splitting), accessibilité et SEO by design. • Qualité : stratégie de tests multi-niveaux (unitaires, intégration, contract tests, E2E), dette maîtrisée, ADRs, sécurité (OWASP), revues structurées. • Ops & Delivery : pipelines CI/CD, déploiements progressifs, monitoring et SLOs, analyse d’incidents/post-mortems, culture data-driven. • Engagement : évangélisation craft, animation de rituels, capacité à challenger avec bienveillance et à faire converger les décisions. Stack & outils (référence) : Front : • React, Next.js, Web components, Javascript/Typescript, Sass, ... • Storybook, Design Tokens, ESLint/Prettier • Tests : Vitest, Jest, Playwright, ... • Build : Vite, Webpack, Bundle Analyzer... Qualité & Delivery : • CI/CD : Gitlab • SonarQube, Dependabot/Renovate • Observabilité : OpenTelemetry, Datadog • Perf tests : Lighthouse, WebPageTest, ... • Accessibilité (RGAA/WCAG)
Freelance

Mission freelance
Expert NoSQL

Publiée le
AWS Cloud
Docker
Elasticsearch

12 mois
400-500 €
Paris, France
Télétravail partiel
Nous recherchons un Expert NoSQL Objectif global : Accompagner le client avec une Expertise NoSQL Les livrables sont: POC et guides d’architecture NoSQL Souches et scripts conteneurisés (Docker/OpenShift) Rapports d’audit et documentation technique consolidée Compétences techniques: ElasticSearch / GraphDB (Cypher, RDF, LPG) - Expert - Impératif Docker / Kubernetes / OpenShift / Linux RedHat - Confirmé - Impératif DevOps – CI/CD (GitLab, Jenkins, Cloud AWS/GCP) - Confirmé - Impératif Description: Recherche un Expert NoSQL confirmé pour accompagner la création d’un centre de compétences interne autour des technologies NoSQL (ElasticSearch, GraphDB). Vous interviendrez sur la conception, l’industrialisation et l’optimisation d’environnements conteneurisés (Docker/OpenShift) hébergés sur cloud hybride (on-premise / AWS / GCP). Mission longue Compétences essentielles : - ElasticSearch / GraphDB (Cypher, RDF, LPG) - Docker / Kubernetes / OpenShift / Linux RedHat - DevOps – CI/CD (GitLab, Jenkins, Cloud AWS/GCP) Livrables principaux : - POC et guides d’architecture NoSQL - Souches et scripts conteneurisés (Docker/OpenShift) - Rapports d’audit et documentation technique consolidée
Freelance
CDI

Offre d'emploi
Développeur Full Stack Senior Java / Vue.js (H/F)

Publiée le
AWS Cloud
Docker
Java

15 mois
55k-65k €
480-580 €
Paris, France
Contexte du poste : Intégré(e) à une équipe Agile/SCRUM, vous participerez au développement et à l’évolution d’une application web stratégique dans un environnement collaboratif et dynamique. Travail hybride : 1 jour en présentiel par semaine, reste en télétravail. Missions principales : Concevoir, développer et tester de nouvelles fonctionnalités en Java Spring Boot et Vue.js Maintenir et faire évoluer les systèmes existants Respecter les bonnes pratiques de développement (Clean Code, sécurité, performance) Collaborer avec les Product Owners, le Tech Lead et les autres développeurs Participer aux revues de code, à la documentation et aux rituels agiles Être force de proposition sur l’amélioration des performances et de l’expérience utilisateu Compétences techniques : Backend : Java 21 / Spring Boot 3 (expert) Architecture microservices REST API / Swagger Docker (apprécié) Frontend : JavaScript (ES6+), Vue.js 3 (expert) HTML5, CSS3 / SASS Tests unitaires (Jest) Outils : NPM, Vite, Storybook CI/CD & Cloud : GitLab CI/CD (apprécié) Connaissance AWS (un plus) Environnement de travail : Git / GitLab, Jira, Confluence, Notion, Teams, méthodologie Agile/SCRUM
CDI
Freelance

Offre d'emploi
Architecte cloud AZURE SAP

Publiée le
Azure
SAP

2 ans
40k-75k €
600-800 €
Île-de-France, France
Télétravail partiel
En tant qu’ Architecte Cloud Azure SAP , vous accompagnerez les équipes projet sur la bonne réalisation d’un projet de migration. Établir les standards, normes et bonnes pratiques (architecture, sécurité, FinOps, DevOps). SecurityByDesign (Chiffrement, gestion des accès (IAM), monitoring, sauvegardes). Accompagnement du projet de migration Maîtrise avancée d’ Azure (IaaS, PaaS, SAP on Azure) : conception d’architectures performantes, sécurisées et scalables. Expérience sur les projets SAP Rise, S/4HANA Cloud , et migration de workloads SAP vers Azure. Expérience en migration de VM et d’applications ( Lift & Shift, replatforming, refactoring ) avec la solution Azure Migrate , gestion des interconnexions (ExpressRoute, VPN, peering VNet). Maîtrise des outils d’ automatisation (Terraform, Ansible, Azure DevOps) . Support post-migration : anticiper les incidents et les besoins d’optimisation après la bascule. Concevoir des architectures Azure performantes et sécurisées . Réaliser des études techniques détaillées (infrastructure & applicatif). Rédiger les dossiers d’architecture technique et d’exploitation . Définir les processus d’ industrialisation et d’automatisation (IaC, CI/CD). Piloter les projets cloud dans le respect des coûts, délais et qualité . Maîtrise des bonnes pratiques DevOps et Agilité . Accompagner les équipes projet et assurer le transfert de compétences (approche shift-left). Assurer le support de niveau 3 et l’animation d’ateliers techniques. Gestion de projet, reporting, coordination multi-équipes. Environnement technique Cloud : Azure (infrastructure & applicatif) Systèmes : Linux (RedHat, CentOS), Windows Outils DevOps : Azure DevOps, Ansible, Terraform Méthodologies : FinOps, DevOps, Infrastructure as Code
Freelance

Mission freelance
Data Engineer AWS

Publiée le
AWS Cloud
PySpark
Python

12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Freelance

Mission freelance
Tech Lead CIAM/AUTH0

Publiée le
oauth

6 mois
600-700 €
Île-de-France, France
Télétravail partiel
Implémentation & Développement Développer les composants CIAM : actions (ex: post-login), custom DB scripts. Support sur des flows avec ACUL Mettre en place les configurations avancées Auth0 (applications, connexions, policies, MFA). Assister pendant les intégrations front, back et mobile selon les patterns définis par l’architecte. Configuration & Intégration Gérer l’intégration de nouvelles applications Préparer des configurations “plug-and-play” pour accélérer l’onboarding des nouvelles apps. Mettre en place et maintenir les pipelines CI/CD spécifiques à la gestion des configurations Auth0. Assurer la gestion du contrôle de version des configurations (GitOps, Terraform, etc.). Support & Run Assurer le support de niveau 2 sur le CIAM : troubleshooting, résolution de bugs, diagnostics techniques. Analyser les incidents liés à l’authentification, aux tokens, aux intégrations API ou SDK. Suivre et traiter les alertes, évolutions et communications du vendor (Auth0), en lien avec le Core Team / Global CoE. Travail transverse Collaborer avec les équipes backend, frontend et mobile pour garantir une intégration cohérente. Travailler en support de l’architecte solution pour valider les choix techniques. Contribuer aux ateliers techniques et aux échanges produit/sécurité/juridique lorsque nécessaire.
Freelance
CDI

Offre d'emploi
Ingénieur Développement Logiciel (C++ / Python) F/H

Publiée le
C/C++

6 mois
Rungis, Île-de-France
📑 CDI / Freelance / Portage Salarial - 📍 Rungis (94) – 🔒 Projet Confidentiel Défense Au sein d’une équipe dédiée à l’orchestration réseau, vous contribuez au développement d’un building block logiciel déployé sur de nombreux projets. Cette brique permet de configurer dynamiquement des stations aussi bien sur des réseaux satcom que sur des réseaux tactiques. Les plateformes de test sont menées à grande échelle, dans un environnement exigeant et en constante évolution. Voici un aperçu détaillé de vos missions 🎯 : Vous intervenez au cœur du cycle de développement logiciel, de l’analyse des besoins jusqu’à l’intégration auprès des équipes utilisatrices : - Analyser les spécifications et participer à la conception de nouvelles fonctionnalités. - Développer en C++ (C++20 sous Linux) et Python, puis assurer la mise au point et la fiabilité des fonctionnalités développées. - Concevoir et maintenir des tests fonctionnels. - Contribuer à l’amélioration continue de la plateforme CI/CD. - Accompagner les équipes clientes lors des phases d’intégration et de validation. - Travailler au sein d’une équipe Agile, dans un environnement collaboratif.

Les métiers et les missions en freelance pour CI/CD

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise des pratiques CI/CD pour automatiser l'intégration, le test, le déploiement et la mise en production d'applications, en assurant une livraison continue et fiable dans des environnements Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux implémente et gère des pipelines CI/CD pour automatiser la gestion des configurations et les déploiements d'infrastructure, contribuant ainsi à la fiabilité et à la rapidité des mises à jour.

Lead developer / Tech lead

Le/ La Lead developer / Tech lead supervise l'intégration continue et le déploiement continu au sein des équipes de développement, en mettant en place des pipelines CI/CD efficaces pour améliorer la qualité du code et accélérer le processus de livraison.

Développeur·euse fullstack

Le/ La Développeur·euse fullstack conçoit et développe des applications avec une approche CI/CD, en intégrant des outils d'automatisation pour assurer des déploiements rapides et une intégration fluide entre le front-end et le back-end.

887 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous