Trouvez votre prochaine offre d’emploi ou de mission freelance CI/CD

Ce qu’il faut savoir sur CI/CD

CI/CD (Continuous Integration / Continuous Delivery ou Continuous Deployment) est une méthodologie DevOps qui automatise les étapes du développement logiciel, depuis l'intégration du code jusqu'à sa mise en production. La Continuous Integration (CI) consiste à intégrer régulièrement les modifications de code dans un dépôt central, suivi d'une série de tests automatisés pour détecter rapidement les erreurs. Cela assure la stabilité et la qualité du code, tout en facilitant la collaboration entre les développeurs. La Continuous Delivery (CD) étend la CI en automatisant la préparation des versions prêtes pour le déploiement. Les équipes peuvent ainsi livrer fréquemment des fonctionnalités à leurs utilisateurs avec un minimum d'efforts manuels. La Continuous Deployment (CD), une étape supplémentaire, pousse automatiquement les modifications validées en production sans intervention humaine, rendant le processus encore plus rapide et fluide. CI/CD est essentiel pour les projets agiles, permettant de réduire les délais de livraison, d'améliorer la qualité des logiciels et de favoriser des itérations rapides en environnement sécurisé.

Votre recherche renvoie 1 407 résultats.
Freelance

Mission freelance
Chef de projet MOA SI (H/F)

Pickmeup
Publiée le
Gestion de projet
Infrastructure
Réseaux

6 mois
400-530 €
Montigny-le-Bretonneux, Île-de-France
Nous recherchons un Chef de projets Assistance à Maîtrise d’Ouvrage avec une connaissance assez large des problématiques SI (Applicatives / Infrastructures), dans le domaine de l’ingénierie avec pour principales missions : - Piloter les projets informatiques dont il a la charge sur le périmètre OP (et/ou ADF) : o Assurer le recueil des besoins auprès du métier (la MOA), enclencher la démarche projet puis suivre le processus projet de bout en bout jusqu’au passage en production. o Garantir la qualité de la définition du besoin en relation avec le RFA (métier) o Animer la démarche de choix de solution, qu’elle soit dans les standards existants ou qu’il s’agisse d’une solution nouvelle, avec validation le cas échéant en Design Authority et/ou en CSIG o Négocier le planning et le budget d’étude et de réalisation de chaque projet avec les domaines de mise en œuvre en se portant garant des intérêts de la BU OP. o Piloter la préparation de toute la documentation nécessaire aux franchissements d’étapes CPC (M1, M3, M5) et CSIG et cadencer le déroulement des projets avec le Chef de projet MOE; mener le processus de WYNS et contribuer à l’analyse de risques o Suivre l’avancement en vue du respect des différents jalons en relation avec le CDP MOE en participant aux comités projets hebdomadaires et aux comités de pilotage mensuels ; valider les comptes-rendus et les plans d’actions ; lever les alertes lorsque justifié o Rédiger les demandes d’investissements, déclencher les commandes liées aux projets et assurer les réceptions - Apporter sa contribution au bon fonctionnement du RUN et des activités SI au quotidien: o Se coordonner avec les CI pour les aspects End-User, relayer auprès d’eux la politique de la DPTD (les CI sont rattachés à la BU OP) et leur apporter un appui pour la bonne réalisation de leurs missions (accès aux outils, commandes d’accessoires, conseils et aides à la décision, appui auprès du Groupe …) o Se coordonner avec les RI pour tous les sujets en relation avec le GIE et ses sous-traitants, en particulier demander leur intervention pour les escalades de tickets de sorte qu’ils soient pris en charge par les bonnes équipes et avec le niveau de priorité adéquat (les RI sont rattachés au GIE du Groupe) o Se coordonner avec les Pilotes Opérationnels (PO) en cas d’incidents applicatifs ou d’indisponibilités planifiées (changements) ; lorsque nécessaire établir le lien avec les RFA des applications (les PO font généralement partie des domaines au sein de la DPTD, les RFA sont localisés côté BU/métier) o Prendre en charge et instruire les demandes SI de toutes natures formulées par les utilisateurs-clés au sein de la BU OP. - Contribuer à l’amélioration continue et aux différentes démarches de la DPTD (DSI groupe) : o S’inscrire dans l’amélioration de performance et la réalisation des plans d’actions suite aux enquêtes de satisfaction utilisateurs et au traitement des irritants o Systématiser les retours d’expérience, l’analyse des défaillances et viser l’excellence opérationnelle o Connaître l’organisation et les modes de fonctionnement de la DPTD et contribuer à les faire connaître et à les améliorer
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Freelance

Mission freelance
Data Engineer (F/H)

CELAD
Publiée le

1 an
450-550 €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

45k-55k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Freelance
CDI

Offre d'emploi
Consultant DevOps IaC

KLETA
Publiée le
Ansible
Terraform

3 ans
Paris, France
Dans le cadre d’un programme de transformation DevOps, nous recherchons un Consultant DevOps Automation pour structurer et automatiser l’ensemble du cycle de delivery des infrastructures et applications. Vous analyserez les pratiques existantes et proposerez une trajectoire cible basée sur l’Infrastructure as Code, l’automatisation des configurations et l’orchestration des déploiements. Vous guiderez la mise en place de solutions utilisant Terraform, Ansible, Helm ou équivalent, et travaillerez à la standardisation des environnements (dev, staging, prod). Vous serez responsable de la fiabilisation des pipelines CI/CD, de l’intégration de contrôles automatisés (tests, scans de sécurité, validation de conformité) et de la mise en place de mécanismes de rollback. Vous collaborerez étroitement avec les équipes Cloud, DevOps et SRE pour améliorer la résilience, la traçabilité et la reproductibilité des déploiements. Vous aurez également un rôle clé dans l’accompagnement des équipes techniques, l’animation d’ateliers et la diffusion des bonnes pratiques d’automatisation et de delivery continu.
CDI

Offre d'emploi
Ingénieur QA Automation – Mise en place de Framework de Test (H/F)

CELAD
Publiée le

40k-45k €
Toulouse, Occitanie
Vous aimez structurer les choses proprement ? Mettre en place un framework de test qui tient dans le temps, s’intègre dans une CI et facilite vraiment le travail des équipes ? Nous recherchons un(e) QA Automation expérimenté(e) pour concevoir et implémenter un framework de test automatisé, avec un focus fort sur les tests d’API, intégré dans une chaîne CI existante. Ici, l’enjeu n’est pas simplement d’écrire des tests. Il s’agit de poser un cadre robuste, maintenable et utile pour les équipes produit et tech. Vos missions : Concevoir et mettre en place un framework de test automatisé adapté au contexte. Structurer les tests API (fonctionnels, intégration, non-régression). Intégrer et maintenir ces tests dans une chaîne CI. Définir les bonnes pratiques (architecture du framework, organisation des tests, reporting). Collaborer avec les équipes de développement pour améliorer la qualité globale. Participer à l’amélioration continue des processus de test. Environnement technique : ️ Une architecture orientée services / microservices. Des déploiements automatisés via des pipelines d’intégration continue. Des outils tels que GitLab CI/CD, Jenkins ou Tekton. Des cycles de livraison réguliers avec un besoin fort de fiabilité et de rapidité de feedback. Les équipes travaillent en proximité (développement, produit, ops), avec une volonté claire de renforcer la qualité dès les phases amont. Le framework que vous mettrez en place devra s’intégrer naturellement dans cet écosystème : exécution automatisée dans les pipelines, reporting exploitable, stabilité dans le temps et simplicité d’usage pour les équipes.
CDI

Offre d'emploi
Ingénieur.e DevOps (cloud et kubernetes)

Les Filles et les Garçons de la Tech
Publiée le
Cloud
DevOps
Kubernetes

52k-65k €
Paris, France
Envie de donner de l’impact à votre expertise technique au sein d’une entreprise engagée ? Les Filles & les Garçons de la Tech recrutent un.e Ingénieur.e DevOps (Cloud & Kubernetes) pour rejoindre leur équipe. Au quotidien, vous accompagnerez nos clients sur les missions suivantes : Concevoir, déployer et opérer des plateformes Kubernetes (on-premise et managées), avec de fortes exigences de sécurité, disponibilité et scalabilité Mettre en place et maintenir des pipelines CI/CD pour le build, le test et le déploiement d’applications Cloud Native Industrialiser les déploiements Cloud Native via GitOps (ArgoCD, Helm, Kustomize) Automatiser et standardiser les infrastructures Cloud via l’Infrastructure as Code (OpenTofu / Terraform, Crossplane) Implémenter la gestion des secrets et du chiffrement (Vault, secrets Kubernetes / intégration Cloud providers) Mettre en œuvre l’observabilité et de monitoring (Prometheus, Grafana, Loki / ELK) dans une approche SRE (SLI/SLO, alerting, fiabilité) Standardiser les pratiques (templates, modules, charts, pipelines) et améliorer l’exploitabilité des plateformes Intervenir auprès des équipes clientes ( recommandations et accompagnement technique, montée en compétence DevOps)
Freelance
CDI

Offre d'emploi
DataOps Kafka

KLETA
Publiée le
Apache Kafka
DevOps

3 ans
Paris, France
Dans le cadre d’un programme d’industrialisation data, nous recherchons un DataOps Kafka pour fiabiliser, automatiser et exploiter des plateformes de streaming en production. Vous analyserez les pipelines existants, identifierez les points de fragilité et proposerez des améliorations en matière de résilience, de monitoring et de gouvernance des flux. Vous guiderez la mise en place de pratiques DataOps autour de Kafka : automatisation des créations de topics, gestion des schémas, versioning, tests de compatibilité et mise en place de contrôles qualité sur les événements. Vous serez responsable de l’intégration de Kafka dans les chaînes CI/CD, de la mise en place de mécanismes d’observabilité (métriques, alerting, tracing) et de la gestion proactive des incidents. Vous travaillerez main dans la main avec les équipes Data Engineering, DevOps et SRE pour optimiser les performances, la disponibilité et la traçabilité des flux. Vous participerez également à l’amélioration continue des pratiques d’exploitation et à la diffusion d’une culture DataOps autour du streaming.
Freelance

Mission freelance
Ingénieur QA Automation – Mise en place de Framework de Test (H/F)

CELAD
Publiée le

1 an
400-460 €
Toulouse, Occitanie
Vous aimez structurer les choses proprement ? Mettre en place un framework de test qui tient dans le temps, s’intègre dans une CI et facilite vraiment le travail des équipes ? Nous recherchons un(e) QA Automation expérimenté(e) pour concevoir et implémenter un framework de test automatisé, avec un focus fort sur les tests d’API, intégré dans une chaîne CI existante. Ici, l’enjeu n’est pas simplement d’écrire des tests. Il s’agit de poser un cadre robuste, maintenable et utile pour les équipes produit et tech. Vos missions : Concevoir et mettre en place un framework de test automatisé adapté au contexte. Structurer les tests API (fonctionnels, intégration, non-régression). Intégrer et maintenir ces tests dans une chaîne CI. Définir les bonnes pratiques (architecture du framework, organisation des tests, reporting). Collaborer avec les équipes de développement pour améliorer la qualité globale. Participer à l’amélioration continue des processus de test. Environnement technique : ️ Une architecture orientée services / microservices. Des déploiements automatisés via des pipelines d’intégration continue. Des outils tels que GitLab CI/CD, Jenkins ou Tekton. Des cycles de livraison réguliers avec un besoin fort de fiabilité et de rapidité de feedback. Les équipes travaillent en proximité (développement, produit, ops), avec une volonté claire de renforcer la qualité dès les phases amont. Le framework que vous mettrez en place devra s’intégrer naturellement dans cet écosystème : exécution automatisée dans les pipelines, reporting exploitable, stabilité dans le temps et simplicité d’usage pour les équipes.
CDI

Offre d'emploi
DevOps AWS H/F

DAVRICOURT
Publiée le
DevOps

45k-50k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Ingénieur DevOps AWS / InfraOps pour l'un de nos clients du secteur de la grande distribution. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes :) - Faire évoluer et maintenir l'infrastructure Data multi-cloud, notamment l'offre compute basée sur AWS EKS ; - Automatiser la chaîne CI/CD, industrialiser les déploiements et éliminer les tâches manuelles ; - Concevoir, développer et maintenir les API internes de la plateforme (Python, microservices) ; - Gérer la sécurité, l'observabilité, le monitoring et le support N3 de l'infrastructure cloud ; - Proposer et animer les bonnes pratiques DevOps au sein de l'équipe InfraOps et accompagner les projets Data. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Freelance

Mission freelance
Architecte node.js Sophia Antipolis/o

WorldWide People
Publiée le
Node.js

6 mois
400 €
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Architecte node.js Sophia Antipolis Profil recherché - 7 ans d’expérience minimum dont plusieurs années en rôle d’architecture - Leadership technique reconnu - Excellentes capacités de communication et de pédagogie - Autonomie, rigueur et vision long term Au sein des équipes Mobile, l’Architecte Node.js intervient sur la conception et l’évolution d’architectures applicatives critiques supportant des services à forte volumétrie et à haute disponibilité. Il joue un rôle clé de référent technique auprès des équipes de développement et des parties prenantes. Missions principales - Définir et faire évoluer l’architecture des applications back-end en Node.js - Garantir la cohérence technique des solutions au sein des équipes Mobile - Accompagner les équipes de développement dans les choix techniques et les bonnes pratiques - Participer à la conception des API (REST, événements, microservices) - Assurer la performance, la sécurité et la scalabilité des solutions - Contribuer à la mise en place des standards d’architecture et de développement - Participer aux rituels agiles et aux instances d’architecture transverse - Être force de proposition sur l’innovation et l’amélioration continue Environnement technique - Langage : Node.js (TypeScript apprécié) - Architectures : microservices, event-driven, API REST - OS : Linux - CI/CD : GitLab, pipelines automatisés - Cloud / Conteneurisation : Kubernetes, Docker - Observabilité : logs, métriques, dashboards (ELK, Grafana) - Méthodologie : Agile / Scrum - Outils : Jira, Confluence Compétences requises - Expertise confirmée en Node.js et architectures back-end - Solide expérience en conception d’architectures distribuées - Maîtrise des problématiques de performance, sécurité et résilience - Bonne connaissance des environnements cloud et CI/CD - Capacité à encadrer techniquement et à challenger les équipes Profil recherché - 7 ans d’expérience minimum dont plusieurs années en rôle d’architecture - Leadership technique reconnu - Excellentes capacités de communication et de pédagogie - Autonomie, rigueur et vision long term
Freelance
CDI

Offre d'emploi
Data Scientist Generative IA (4jrs TT) sur 92

EterniTech
Publiée le
Data science
IA Générative
Pytorch

3 mois
Hauts-de-Seine, France
Je recherche pour un de mes clients un Data Scientist Generative IA avec 4 jours TT sur 92 VOTRE MISSION** * Concevoir et industrialiser des solutions d’IA Générative (LLMs, Agents, RAG) répondant aux besoins des AI Catalysts, priorisés par le PO. * Intégrer les composants GenAI à l’écosystème existant (GenAI Core, OneAPI, Azure AI Foundry), tout en respectant les normes de sécurité et de coûts. * Définir et implémenter les architectures techniques : choix de modèles, orchestration d’agents, conception RAG, gestion des sessions. * Développer et maintenir le code (principalement Python) et les briques réutilisables (librairies de prompts, agents). * Industrialiser le déploiement : conteneurisation (Docker), Kubernetes, CI/CD, Infrastructure as Code (Terraform), et monitoring. * Mettre en œuvre des pratiques MLOps : suivi des expériences, versioning de modèles, tests de régression, validations en pré-prod. * Assurer la qualité et l’observabilité : métriques de performance, tests adversariaux, suivi des dégradations en production. * Collaborer avec le PO, le Software Engineer, les AI Catalysts et la DSI pour garantir la sécurité et l’adoption des solutions. * Contribuer à la documentation, aux templates et à la formation des équipes internes. *VOTRE PROFIL * Bac +3 à Bac +5 en informatique, data science ou équivalent. * 3 à 5 ans d’expérience en développement d’applications utilisant l’IA, avec un accent sur l’IA Générative (Agents, RAG, LLMs). * Maîtrise de Python et des bibliothèques ML/IA (PyTorch, Transformers). * Connaissances des frameworks GenAI : LangChain, LangGraph, LangFuse, et des moteurs de recherche sémantique (Qdrant, Milvus). * Compétences en architecture cloud Azure (AI Foundry, AKS, WebApp) et en conteneurisation/orchestration (Docker, Kubernetes). * Familiarité avec CI/CD et Infrastructure as Code (Terraform). * Sensibilité aux enjeux de cybersécurité et de conformité. * Rigueur dans l’ingénierie logicielle : tests, documentation et automatisation des pipelines. * Capacité à travailler en équipe et à vulgariser les concepts techniques. * Anglais professionnel (lu/écrit) ; français courant indispensable. Définition du profil DATA SCIENTIST: - En charge du développement d'algorithmes (Machine Learning et Intelligence Artificielle) pour créer de la valeur métier à partir de données (structurées, non structurées, vidéos, images, etc.). - Doit comprendre les demandes de l'entreprise et les challenger pour fournir la meilleure réponse possible. - Apporte un support à la décision sur d'éventuelles innovations, l'amélioration des performances et décisions relatives au service client. - Industrialise les projets de Data Science avec les Data Engineers. - Maintient et documente les algorithmes industrialisés (selon les rôles et les responsabilités définis par le projet).
Freelance

Mission freelance
Concepteur développeur MAINFRAME

INFOTEL CONSEIL
Publiée le
COBOL

1 an
400-480 €
Nantes, Pays de la Loire
Je recherche un Concepteur Developpeur Mainframe confirmé avec les éléments ci dessous présents dans son CV. La mission est sur nantes avec 3 jours sur site et 2 jours en TT (non négociable) Compétences INCONTOURNABLES - si absentes du CV, ne pas le déposer : COBOL, JCL zOS (TSO/MVS/COBOL/DB2/SQL) Compétences souhaitées : REXX Attendu du poste : => S'intégrer à l'équipe => Participer à l'amélioration de notre CI/CD MAINFRAME tout en accompagnent les squads métier => S'intéresser au monde OPEN pour contribuer aux liens avec les MAINFRAME
Freelance
CDI

Offre d'emploi
Data Engineer Kubernetes

KLETA
Publiée le
Helm
Kubernetes

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Kubernetes pour concevoir, optimiser et industrialiser des plateformes de traitement de données déployées sur des environnements conteneurisés. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, containerisation des traitements, optimisation de l’orchestration et de la scalabilité) et guiderez leur mise en œuvre avec Kubernetes et les outils associés (Helm, ArgoCD, Operators, Kubernetes Jobs). Vous serez responsable de la conception et de la fiabilisation des pipelines data exécutés sur Kubernetes, de l’amélioration des performances et de l’intégration de mécanismes de résilience, d’observabilité et de gestion des ressources. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering en environnement Kubernetes. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance

Mission freelance
DevOps GCP Senior (3 jours/semaine) – Data Platform & Industrialisation

HOXTON PARTNERS
Publiée le
DevOps
Google Cloud Platform (GCP)

6 mois
Paris, France
Description de la mission : Nous recherchons un consultant DevOps GCP senior pour intervenir au sein d’une Data Factory orientée Digital Marketing. La mission s’inscrit dans un environnement data à fort enjeu, avec pour objectif de sourcer des données issues de plateformes Social & Marketing, interfacer des solutions SaaS de Data Connector avec une plateforme Data sur GCP, et industrialiser la création ainsi que le cycle de vie des connecteurs. Le consultant interviendra sur la structuration et l’industrialisation de l’infrastructure et des environnements, avec une forte composante automatisation et fiabilisation des déploiements. Responsabilités : Mettre en place et maintenir l’infrastructure via Terraform (Infrastructure as Code) Structurer et optimiser les pipelines CI/CD (GitHub Actions) Superviser les environnements via Cloud Logging et Cloud Monitoring Gérer la sécurité des accès (IAM, Secret Manager) Déployer et maintenir des services sur GKE et Cloud Run Contribuer à l’industrialisation des flux data et des connecteurs Participer à la rédaction de la documentation technique et fonctionnelle
Freelance
CDI

Offre d'emploi
Data Engineer GCP

KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.

Les métiers et les missions en freelance pour CI/CD

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise des pratiques CI/CD pour automatiser l'intégration, le test, le déploiement et la mise en production d'applications, en assurant une livraison continue et fiable dans des environnements Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux implémente et gère des pipelines CI/CD pour automatiser la gestion des configurations et les déploiements d'infrastructure, contribuant ainsi à la fiabilité et à la rapidité des mises à jour.

Lead developer / Tech lead

Le/ La Lead developer / Tech lead supervise l'intégration continue et le déploiement continu au sein des équipes de développement, en mettant en place des pipelines CI/CD efficaces pour améliorer la qualité du code et accélérer le processus de livraison.

Développeur·euse fullstack

Le/ La Développeur·euse fullstack conçoit et développe des applications avec une approche CI/CD, en intégrant des outils d'automatisation pour assurer des déploiements rapides et une intégration fluide entre le front-end et le back-end.

1407 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous