Trouvez votre prochaine offre d’emploi ou de mission freelance CI/CD

Ce qu’il faut savoir sur CI/CD

CI/CD (Continuous Integration / Continuous Delivery ou Continuous Deployment) est une méthodologie DevOps qui automatise les étapes du développement logiciel, depuis l'intégration du code jusqu'à sa mise en production. La Continuous Integration (CI) consiste à intégrer régulièrement les modifications de code dans un dépôt central, suivi d'une série de tests automatisés pour détecter rapidement les erreurs. Cela assure la stabilité et la qualité du code, tout en facilitant la collaboration entre les développeurs. La Continuous Delivery (CD) étend la CI en automatisant la préparation des versions prêtes pour le déploiement. Les équipes peuvent ainsi livrer fréquemment des fonctionnalités à leurs utilisateurs avec un minimum d'efforts manuels. La Continuous Deployment (CD), une étape supplémentaire, pousse automatiquement les modifications validées en production sans intervention humaine, rendant le processus encore plus rapide et fluide. CI/CD est essentiel pour les projets agiles, permettant de réduire les délais de livraison, d'améliorer la qualité des logiciels et de favoriser des itérations rapides en environnement sécurisé.

Votre recherche renvoie 1 431 résultats.
CDI

Offre d'emploi
Data Engineer | Databricks

Hexateam
Publiée le
AWS Cloud
Databricks
Python

Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Freelance
CDI

Offre d'emploi
Développeur Power Platform

R&S TELECOM
Publiée le
Azure
Microsoft Fabric
Power Apps

1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : L'objectif est de développer une solution interne stratégique pour renforcer les capacités de l'équipe commerciale. Cette solution doit fournir des outils et des insights basés sur les données, afin de favoriser une croissance commerciale plus efficace. Pour cela, un développeur spécialisé en Power Platform (Power Apps, Power Automate, Microsoft Fabric) est recherché pour concevoir, intégrer et optimiser des solutions avancées, performantes et sécurisées, adaptées aux enjeux de l'entreprise. Tâches à réaliser : Concevoir et développer des applications Power Apps Canvas et Model-Driven avancées, en utilisant Power Fx et en assurant leur responsivité. Intégrer la solution avec Microsoft Fabric, notamment en connectant efficacement OneLake, Lakehouses, et Data Warehouses via SQL endpoints. Concevoir et implémenter des workflows complexes avec Power Automate, incluant une gestion avancée des erreurs, des branchements parallèles, et des architectures parent-enfant. Modéliser et gérer les données dans Dataverse, en assurant la sécurité, la configuration des variables d’environnement, et l’alignement avec l’architecture Medallion. Développer des composants UI personnalisés en utilisant TypeScript/JavaScript via le Framework PCF. Créer et intégrer des connecteurs personnalisés pour envelopper des API RESTful et assurer l’intégration avec des systèmes externes ou des services Azure. Gérer le déploiement et la synchronisation des environnements en utilisant Azure DevOps ou GitHub, en automatisant les processus de CI/CD. Optimiser les performances des applications et workflows, notamment en résolvant les limites de délégation et en améliorant la gestion des requêtes sur de grands datasets. Mettre en œuvre des mesures de sécurité d’entreprise, telles que la sécurité au niveau des lignes (RLS), les politiques DLP, et l’authentification via Entra ID. Concevoir des interfaces utilisateur intuitives, performantes et accessibles, conformes aux standards WCAG.
CDI
Freelance

Offre d'emploi
Platform Engineer – Observabilité

Ela Technology
Publiée le
Git
Kubernetes
Python

1 an
50k-57k €
520-550 €
Montpellier, Occitanie
Rejoignez l’équipe Observabilité et contribuez à la construction, l’évolution et la fiabilité des plateformes du Groupe. En tant que Platform Engineer , vous jouerez un rôle clé dans l’automatisation, la standardisation et la sécurisation de l’environnement technique, dans une logique Platform-as-a-Product au service des équipes internes (dev, ops, data…). Missions principales 1. Automatisation & Industrialisation Maintenir et faire évoluer les infrastructures virtualisées et conteneurisées (VMs, Kubernetes). Mettre en place des workflows GitOps robustes (ArgoCD, GitLab CI, Ansible). Gérer tout le cycle de vie des environnements (dev → prod). 2. Support & Accompagnement des équipes Onboarding des équipes techniques et accompagnement à l’usage des outils. Support plateforme : diagnostic, amélioration continue, documentation. Contribution aux golden paths (déploiement, logs, monitoring). 3. Conception de modules réutilisables Création de blueprints, templates et modules. Gestion du portail interne de la plateforme. 4. Sécurité & Conformité Intégration des exigences sécurité (CyberAct, politiques internes). Automatisation des contrôles (images, secrets, règles Kubernetes, audits). Contribution au contrôle d’accès. 5. Fiabilité de la plateforme Travaux sur la résilience, HA, automatisation des redémarrages, rollback. Intervention sur incidents, post-mortems, réduction du MTTR. Suivi des SLOs et indicateurs de performance. 6. Collaboration transverse Travail conjoint avec le Product Owner sur les évolutions. Participation aux choix d’architecture et d’outillage. Documentation claire et structurée. Activités clés Pilotage de la livraison des plateformes d’observabilité. Conception, développement et intégration de solutions d’observabilité. PoC et démonstrations. Optimisation des requêtes, tuning de clusters, modélisation de données. Résolution de problématiques data complexes. Travail étroit avec les équipes d’exploitation. Mentorat / coaching interne.
Freelance

Mission freelance
Développeur GenAI Python / GCP (H/F)

HOXTON PARTNERS
Publiée le
GenAI
Google Cloud Platform (GCP)
Python

1 an
400-520 €
Paris, France
Dans le cadre du développement de solutions d’intelligence artificielle avancées, nous recherchons un Développeur GenAI Python avec expertise GCP afin de contribuer à la conception et au développement de services applicatifs basés sur des modèles d’IA générative. Le consultant interviendra sur la conception et le développement de services applicatifs autour des LLM , l’intégration de modèles d’intelligence artificielle, ainsi que la mise en place d’architectures cloud scalables dans un environnement Google Cloud Platform. L’objectif est de construire des composants robustes permettant d’exploiter l’IA générative dans des applications à forte exigence de performance, de sécurité et de scalabilité. La mission couvre l’ensemble du cycle de développement : design d’API, développement de microservices, intégration des modèles d’IA, mise en production et optimisation des performances dans un environnement cloud moderne. Le consultant contribuera également à la mise en place de mécanismes d’orchestration d’agents IA, d’intégration avec des modèles LLM et de couches d’intégration sécurisées , afin de garantir des systèmes fiables et performants. Responsabilités principales Développer des services applicatifs autour de l’IA générative et des modèles LLM Concevoir et développer des microservices en Python Mettre en place des API REST sécurisées et performantes Intégrer des LLM (OpenAI, Anthropic, Vertex AI) dans les applications Développer des mécanismes de routage et d’orchestration pour agents IA Concevoir des architectures cloud scalables et résilientes sur GCP Optimiser les performances pour garantir faible latence et haute disponibilité Mettre en œuvre les bonnes pratiques de sécurité applicative et IA Environnement technique Cloud Google Cloud Platform : Cloud Run, Cloud Build, Cloud Functions Vertex AI Backend Python FastAPI Pydantic SQLAlchemy Bases de données Firestore Redis NoSQL GenAI Intégration LLM (OpenAI, Anthropic, Vertex AI) Prompt engineering Architectures d’agents IA Frameworks d’orchestration (LangChain, ADK) DevOps Docker GitHub CI/CD Monitoring Cloud Logging Cloud Monitoring Outils de développement GitHub Outils de développement assistés par IA
CDI
Freelance

Offre d'emploi
Ingénieur DevOps

VISIAN
Publiée le
DevOps
VMware

1 an
40k-45k €
400-500 €
Île-de-France, France
Description des missions Le service Cloud Management Platform (Squad CMP) du Pôle CCXP développe et expose les offres de services proposées par une organisation leader et permettant de gérer (provisionnement), contrôler (selfcare) et optimiser l'utilisation des ressources au sein de notre Cloud Privé. Ces offres sont exposées à travers un portail Self Service IT (PSSIT) et orchestrées aujourd'hui par des plateformes basées sur des produits de gestion de services et d'orchestration. Les services proposés peuvent être : Des services IaaS : Par exemple, une VM avec un OS Des services PaaS : Par exemple, une plateforme Docker s'exécutant sur une VM Des services SaaS : Par exemple, un runner Gitlab s'exécutant sur une chaîne CI Des services DbaaS : Par exemple, une VM avec un OS Linux et une Instance Postgres Des services Mwaas : Par exemple, une VM avec un OS Linux et une instance Tomcat Missions en tant qu'Ingénieur DevOps Au sein de la Squad CMP, vos missions seront les suivantes : Fabriquer des composants techniques et automatiser les opérations en exploitant les services DevOps Analyser et concevoir les besoins opérationnels et techniques des offres de services Développer les offres de service au sein de notre plateforme Réaliser les tests unitaires et d'intégration sur les environnements hors-production Apporter une expertise à l'équipe RUN dans le cadre de la gestion d'incidents et l'analyse post-incident Documenter les offres Apporter une expertise technique Mettre en production en respectant les processus en vigueur Participer à la définition des architectures Participer au Daily Meeting animé par le Product Owner Participer au Sprint Planning animé par le Product Owner Participer aux réunions de co-construction de la roadmap et à sa mise en œuvre
Freelance

Mission freelance
Data Engineer Python / Azure Cloud (H/F)

Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)

12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet
Freelance

Mission freelance
Tech Lead Software Engineer Full Stack (8+ ans) ( profil habilitable)

Signe +
Publiée le
Angular

12 mois
550 €
Issy-les-Moulineaux, Île-de-France
Contexte Pilotage technique de projets IA et définition de l’architecture logicielle Encadrement technique d’équipes de développement et data science Missions Concevoir et piloter l’architecture technique des solutions Encadrer techniquement les équipes de développement Garantir la qualité des livrables logiciels (code, tests, CI/CD, documentation) Accompagner les équipes dans les pratiques de software craftsmanship Superviser la sécurité applicative, l’observabilité et le MCO/MCS Coordonner les développements et assurer l’alignement avec les standards techniques Compétences requises Frontend : ReactJS, Angular ou Vue.js Backend : Python, Node.js ou Java Expertise architectures applicatives, API REST / GraphQL Software craftsmanship : TDD, BDD, DDD CI/CD, Git, SAST/DAST, Terraform, Ansible Kubernetes, OIDC/OpenID Connect, bases SQL/NoSQL Observabilité : Prometheus, Grafana, ELK Leadership technique et mentoring d’équipe Informations Localisation : Issy-les-Moulineaux Démarrage : ASAP
Freelance

Mission freelance
Un DevOps Sénior Kafka Kubernetes sur la région parisienne

Almatek
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Kubernetes

3 mois
Paris, France
Almatek recherche pour l'un de ses clients, Un DevOps Sénior Kafka Kubernetes Data Platform Sur la région parisienne. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. Maîtriser les technologies GCP (Google Cloud Platform) telles que Google Kubernetes Engine (GKE), Cloud Storage, Cloud SQL et Cloud Monitoring. Maîtriser en profondeur Apache Kafka, de sa confi guration avancée (partitionnement, réplication, compaction) à son exploitation en production, en passant par le tuning des performances, la gestion fi ne des topics et des offsets, la mise en oeuvre de la sécurité (TLS, SASL, ACL) et l’intégration avec des outils de supervision comme Prometheus et Grafana Avoir une solide expérience avec Kubernetes, notamment la création et la gestion de clusters, le déploiement d'applications et la supervision des performances. Être à l'aise avec les concepts DevOps, tels que l'intégration continue (CI) et la livraison continue (CD), et les outils associés. Connaissance des bonnes pratiques de sécurité et de la mise en place de politiques d'accès. Compréhension des concepts de base des bases de données relationnelles. Maîtrise des scripts de scripting (bash, Python, etc.). Esprit d'analyse et d'amélioration continue : Capacité à évaluer le code et ses impacts, ainsi qu'à remettre en question les solutions existantes pour les améliorer. Capacité à travailler de manière autonome et à gérer son temps effi cacement. Excellente communication écrite et orale : Aptitude à produire des livrables et des reportings de haute qualité. Esprit d'équipe : Capacité à collaborer effi cacement avec les membres de l'équipe pour atteindre des objectifs communs. Maîtrise des concepts d’Agilité (Scrum, Sprint Planning, Backlog…). Le/la consultant(e) doit disposer de son propre matériel, adapté aux besoins de la mission : OS & CPU : Windows (Intel Core i7 ou i9, AMD Ryzen 7 ou 9), MacOS (M2 ou supérieur), Linux (AMD Ryzen 7 ou 9) RAM : minimum 16 Go, idéalement 32 Go ou plus Stockage SSD) : minimum de 512 Go, idéalement 1 To ou plus
Freelance

Mission freelance
Développeur ServiceNow CMDB (H/F) – ITSM / ITOM

MSI Experts
Publiée le
CMDB
ServiceNow

3 ans
400-500 €
Paris, France
Concevoir, développer et maintenir la CMDB ServiceNow, ainsi que les intégrations et automatismes associés, afin de garantir la qualité des données de configuration et de soutenir les processus ITSM/ITOM (incident, problème, changement, asset, monitoring). Responsabilités Concevoir et faire évoluer le modèle de données CMDB (classes de CI, attributs, relations, alignement CSDM). Configurer et développer sur la plateforme ServiceNow (tables, formulaires, business rules, UI policies, workflows/Flow Designer, scripts serveur & client). Mettre en œuvre Discovery / Service Mapping et les intégrations (MID Server, API, connecteurs SCCM, outils de supervision, cloud, etc.) pour alimenter la CMDB. Mettre en place et maintenir les rapports et tableaux de bord de santé de la CMDB (complétude, duplications, conformité, obsolescence). Participer à la définition et à la mise en œuvre de la gouvernance CMDB (règles, rôles, processus de création/mise à jour/suppression de CI). Analyser et corriger les anomalies de données, les problèmes de performance ou de cohérence dans la CMDB. Collaborer avec les équipes ITSM, infra, réseaux, applicatif et sécurité pour comprendre les besoins et traduire les exigences en solutions techniques ServiceNow. Documenter l’architecture, les développements et les procédures d’exploitation de la CMDB. Contribuer aux tests (unitaires, intégration, non régression) lors des évolutions de la plateforme et des montées de version.
CDI

Offre d'emploi
Développeur Java Angular

Peppermint Company
Publiée le
Angular
Azure DevOps
Java

Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte du poste L’équipe Gaia intervient sur un périmètre fonctionnel et technique particulièrement vaste, couvrant : Plus d’une trentaine d’applicatifs hébergés sur Azure pour le projet INFOGREFFE, Plus d’une trentaine d’applications hébergées chez Docaposte, Environ une trentaine d’applicatifs complémentaires déployés sur Azure, Ainsi qu’une quinzaine de batchs de centralisation. Le poste s’inscrit dans un environnement technique complexe et hybride, combinant les écosystèmes Azure et Legacy, et impliquant de forts enjeux de qualité, d’intégration et de coordination transverse entre les différentes équipes de Docaposte : Gaia (Ingestion et exposition des données des entreprises ainsi que des produits vendus sur le site ), Atlas( Devops), Orion (Grille Tarifaire et Paiement), la TMA Legacy, et autres acteurs techniques connexes. Objectifs et livrables Le titulaire du poste occupe un rôle de Tech Lead. Il contribue à la conception technique, au pilotage des bonnes pratiques de développement, à la résolution des problématiques complexes et à la coordination transverse des sujets techniques au sein de Gaia et plus largement de Docaposte. Leadership technique - Concevoir et documenter les solutions techniques sur des problématiques complexes ou transverses - Participer aux comités d’architecture (conception, décision, résolution transverse) - Garantir la cohérence des choix techniques et la qualité globale des livrables - Assurer le relais technique avec les équipes Atlas et TMA Legacy pour les livraisons en pré-production et production - Résoudre les blocages transverses liés à l’écosystème Azure / Legacy (ex : pipelines Azure DevOps, Datadog, interconnexions) - Définir ou réaliser des Proof of Concept (POC) permettant d’améliorer le cadre technique ou les outils de développement - Préparer et présenter les revues techniques de fin de sprint (qualité, architecture, incidents, recommandations) Encadrement et accompagnement technique - Veiller à la mise à jour et à la qualité des documentations techniques - Soutenir l’équipe dans la résolution et le débogage des anomalies complexes - S’assurer du respect des normes de codage, des revues de code et des bonnes pratiques - Valider les conceptions détaillées sur les périmètres Azure et Legacy Transversalité et support Docaposte - Garantir un niveau de qualité homogène entre les différents contextes Docaposte - Apporter un soutien opérationnel sur des problématiques de DevOps, conception, livraison ou debugging - Contribuer à la mise en place et à l’optimisation des chaînes CI/CD (notamment sur Azure DevOps) - Favoriser la coordination entre les équipes Build et TMA - Accompagner et conseiller les équipes projet et les clients internes sur les orientations techniques - Participer à la mise en place de chaînes d’automatisation (tests de non-régression, campagnes de tests fonctionnels, industrialisation DevOps) - Contribuer activement à la démarche qualité (mesure de la qualité, tests automatisés, fiabilisation des déploiements) (modifié)
Freelance

Mission freelance
Tech Lead CRM Dynamics 365 (PowerApps, PowerAutomate)

WINSIDE Technology
Publiée le
Azure
Microsoft Dynamics

3 ans
500-650 €
Paris, France
Le CRM du client, basé sur la technologie Microsoft Dynamics 365 for Sales, est le CRM de tous les métiers du client (1 000 utilisateurs quotidiens à date). Il contient plus d’un million de fiches entreprises et plus de contacts. Il couvre l’ensemble des usages CRM du client avec la solution de Microsoft ou des solutions tiers selon les cas (approche plateforme ouverte : mixe entre best of suite et best of breed). L’ambition du clientFamily est de donner à tous les collaborateurs un accès à l’ensemble des informations de l’ensemble des clients afin de simplifier, améliorer et développer la relation avec ceux-ci. Cette meilleure connaissance et relation permet de mieux répondre à ces besoins et donc permet aux entreprises clientes de se développer. Le développement de ces entreprises profite à la croissance de l’économie Française. L’ensemble de la mission se fait en interaction avec le PM, les autres PO, le reste de l’équipe produit et en partenariat avec les autres directions du client (directions métiers, conformité, DPO, DSI, risques, stratégie, etc.) ainsi que les équipes Front (directions et commerciaux). Objectif poursuivi pour cette mission : Nous renforçons l’équipe technique. Nous cherchons des profils qui combinent : • Une solide expertise en configuration et développement Dynamics (entités, champs, règles, Sales Accelerator, Power Automate, etc.) • La capacité à analyser les besoins métiers et à proposer d’abord des solutions standards avant d’aller vers le développement. • Une maîtrise des développements spécifiques (plug-ins C#, JavaScript, APIs) quand c’est nécessaire. • Une aptitude à travailler en proximité avec les PO, BA et le Tech Lead pour garantir la cohérence globale. Compétences métier souhaitables : h3. Missions principales : • Configurer et adapter Dynamics 365 aux besoins exprimés (entités, vues, formulaires, règles métiers, BPF, séquences, etc.) • Analyser les besoins des PO/BA et proposer des solutions standard Dynamics avant toute personnalisation • Participer aux rituels d’équipe, cadrer les US techniquement (chiffrage, faisabilité, solution design) • Réaliser les développements nécessaires (C#, JS, Power Automate, Plugins…) • Contribuer aux revues techniques avec le Tech Lead, garantir la cohérence des livrables • Assurer un support technique niveau 2 lors des phases de run h3. Compétences attendues : • Maîtrise Connaissance de Microsoft Dynamics 365 UCI for Sales : modèle de données, configuration, Sales Accelerator, Customer Insights • Connaissance fine du modèle de données : entités, relations, sécurité, solutions • Capacité à développer dans l’écosystème Dynamics : C#, Angular JS, JavaScript, Power Platform, Azure • Expérience CI/CD, intégration via APIs • Connaissance de Microsoft PowerPlatform (PowerApps, PowerAutomate) • Connaissance sectorielle : Connait l’univers de la Banque • Méthodologie projet : a déjà réalisé des missions Agile (Scrum). SAFe est un plus.
Freelance

Mission freelance
QA Automaticien Senior / SDET – Mobile & Web (Freelance)

Tenth Revolution Group
Publiée le
Appium
Cypress
Docker

1 an
450-580 €
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre du renforcement de ses équipes, notre client recherche un(e) QA Automaticien Senior / SDET pour intervenir sur un produit web & mobile à forte volumétrie d’utilisateurs . Vous intégrerez une équipe senior , dans un environnement technique exigeant, avec de forts enjeux de qualité, de fiabilité et de scalabilité. Vos missions Définir, mettre en place et faire évoluer la stratégie de tests automatisés (UI, API, E2E) Automatiser les tests web et mobile (iOS / Android) Garantir un haut niveau de qualité sur un produit à fort trafic Intégrer les tests dans les pipelines CI/CD Collaborer étroitement avec les équipes Produit et Développement Être force de proposition sur les bonnes pratiques QA (BDD, standards, outillage) Contribuer ponctuellement aux tests de performance Environnement technique (ou équivalent) Automatisation : Playwright, Cypress, Selenium Mobile : Appium (ou équivalent) API : Postman, Newman CI/CD : GitLab CI, GitHub Actions, Jenkins Conteneurisation : Docker Performance : JMeter, Gatling, k6
Freelance

Mission freelance
DATA SCIENTIST

Codezys
Publiée le
Azure
Azure AI Foundry
Azure DevOps Services

12 mois
450-500 €
Nanterre, Île-de-France
Description détaillée : VOTRE MISSION Concevoir et industrialiser des solutions d’intelligence artificielle générative (modèles de langage de grande taille, agents intelligents, RAG) en réponse aux besoins identifiés par la cellule AI Catalysts, priorisés par le Product Owner (PO). Intégrer ces composants GenAI au sein de l’écosystème existant (GenAI Core, OneAPI, Azure AI Foundry), tout en respectant les normes de sécurité et de gestion des coûts. Définir et mettre en œuvre les architectures techniques appropriées : sélection des modèles, orchestration des agents, conception des systèmes RAG, gestion des sessions utilisateur. Développer et maintenir le code, principalement en Python, ainsi que les composants réutilisables tels que les librairies de prompts et d’agents. Industrialiser le déploiement des solutions via la conteneurisation (Docker), l’orchestration Kubernetes, les pipelines CI/CD, l’Infrastructure as Code (Terraform), et assurer le suivi opérationnel (monitoring). Appliquer les bonnes pratiques MLOps : suivi des expérimentations, versioning des modèles, tests de régression, validations en environnement pré-production. S’assurer de la qualité, de la performance et de l’observabilité des solutions : mise en place de métriques, tests adversariaux, surveillance des dégradations en production. Collaborer étroitement avec le Product Owner, les ingénieurs logiciels, les AI Catalysts et la DSI afin d’assurer la sécurité et l’adoption des solutions proposées. Participer à la documentation, à la création de templates, ainsi qu’à la formation des équipes internes. Profil recherché : Data Scientist Responsable du développement d’algorithmes en Machine Learning et Intelligence Artificielle, visant à générer de la valeur métier à partir de données (structures, non structurées, vidéos, images, etc.). Capable de comprendre et d’interroger les demandes de l’entreprise pour fournir des solutions optimales. Apporte un support stratégique à la décision, notamment en proposant des innovations, en améliorant les performances et en optimisant le service client. Participe à l’industrialisation des projets de Data Science en collaboration avec les Data Engineers. Assure la maintenance et la documentation des algorithmes industrialisés, conformément aux rôles et responsabilités définis par le projet. Localisation : Paris – Niveau avancé (minimum 9 ans d’expérience dans le domaine) Ce descriptif ne doit pas dépasser 3000 caractères, intégrant l’ensemble des éléments en HTML pour garantir une mise en forme claire et professionnelle.
CDI
Freelance

Offre d'emploi
Data Engineer

LEVUP
Publiée le
AWS Cloud
Python
Snowflake

12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
CDI
Freelance

Offre d'emploi
Data Engineer AWS expérimenté

UCASE CONSULTING
Publiée le
Apache Spark
AWS Cloud
Python

1 an
50k-60k €
500-600 €
Île-de-France, France
Dans le cadre du renforcement de l'équipe Data de notre client, nous recherchons un(e) Data Engineer AWS expérimenté(e) (5 à 7 ans d’expérience minimum), capable d’intervenir sur des plateformes data à forte volumétrie et à forts enjeux de performance, de sécurité et de coûts. Missions 1️⃣ Maintien en condition opérationnelle de la plateforme Contrôler et garantir la disponibilité des données et des services Assurer le suivi des traitements et la gestion des incidents Répondre aux demandes de données ad hoc et analyser les anomalies Développer des correctifs et des évolutions si nécessaire Contribuer à la qualité des données et à l’industrialisation de la plateforme Communiquer avec les utilisateurs et accompagner les équipes 2️⃣ Design & construction de services et pipelines data Concevoir et mettre en place des flux de données (acquisition, transformation, exposition) Développer des pipelines robustes et performants (batch et temps réel) Réaliser des modélisations de données adaptées aux usages métiers Mettre en place les traitements sur différents formats (CSV, XML, JSON, Parquet) Ordonnancer les traitements et gérer les dépendances (Airflow) Développer et maintenir des flux temps réel via Kafka (MSK) Réaliser les tests unitaires et d’intégration Participer aux revues de code et veiller au respect des standards Gérer les déploiements sur l’ensemble des environnements Enrichir et maintenir la documentation technique Environnement technique AWS : S3, EMR, EKS, EC2, Lambda, Athena Spark (Scala), Python, SQL Kafka Airflow Dataiku GitLab & GitLab CI Terraform
CDI

Offre d'emploi
DBA PostgreSQL - Sénior H/F

CONSORT GROUP
Publiée le

50k-65k €
94220, Charenton-le-Pont, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de Consortis, sont au cœur des enjeux actuels de Cybersécurité, Virtualisation & Cloud, Systèmes, Réseaux et Télécom, ainsi que sur les environnements Digital Workplace. Les compétences RPA et DevOps viennent renforcer ces offres pour accélérer l’agilité et l’efficacité opérationnelle des services délivrés. Ingénieur PostgreSQL H/F C’est votre mission Vous êtes passionné·e par les bases de données , la haute disponibilité et les environnements de production complexes ? Ce poste est fait pour vous. En tant qu’ Expert Bases de Données PostgreSQL / MySQL , vous êtes responsable de la conception, de l’exploitation et de l’optimisation des plateformes bases de données dans des contextes techniques riches, majoritairement On Premise , avec une forte exigence de fiabilité et de performance. Côté build : Concevoir et mettre en place des architectures PostgreSQL robustes et hautement disponibles. Déployer et administrer des clusters PostgreSQL basés sur Patroni en environnement On Premise. Définir et implémenter des stratégies de sauvegarde et de restauration (PITR). Conseiller les équipes sur les meilleures pratiques d’architecture et d’exploitation bases de données. Participer aux choix techniques et à l’amélioration continue des plateformes SGBD. Contribuer à l’industrialisation via l’automatisation (Ansible / scripting). Côté run : Administrer et maintenir les bases PostgreSQL et MySQL en environnement de production. Garantir la disponibilité, la performance et la sécurité des bases de données. Gérer les incidents complexes et participer aux analyses de causes racines. Assurer les opérations de maintenance, mises à jour et montées de version. Collaborer avec les équipes DevOps et applicatives sur les pipelines CI/CD. Superviser les environnements via les outils de monitoring. C’est votre parcours Vous justifiez d’au moins 5 ans d’expérience en production sur des environnements bases de données exigeants. Vous aimez concevoir, fiabiliser et optimiser des systèmes critiques. Vous recherchez un environnement où l’expertise technique et le conseil ont une vraie valeur. C’est votre expertise : Bases de données : PostgreSQL (expert), MySQL (confirmé) Haute disponibilité : Patroni, clusters PostgreSQL Sauvegardes & restauration : PITR Systèmes : Red Hat Enterprise Linux Automatisation : Ansible Tower / AAP2 / AWX CI/CD & collaboration : Jenkins, Bitbucket, Jira Monitoring : Zabbix Langages & outils complémentaires : Python, Artifactory Une première expérience sur MongoDB ou Singlestore est un plus C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Charenton-le-Pont Contrat : CDI Télétravail : Hybride Salaire : De 50 K€ à 60 K€ brut annuel Famille métier : Bases de données / Systèmes / DevOps Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.

Les métiers et les missions en freelance pour CI/CD

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise des pratiques CI/CD pour automatiser l'intégration, le test, le déploiement et la mise en production d'applications, en assurant une livraison continue et fiable dans des environnements Cloud.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux implémente et gère des pipelines CI/CD pour automatiser la gestion des configurations et les déploiements d'infrastructure, contribuant ainsi à la fiabilité et à la rapidité des mises à jour.

Lead developer / Tech lead

Le/ La Lead developer / Tech lead supervise l'intégration continue et le déploiement continu au sein des équipes de développement, en mettant en place des pipelines CI/CD efficaces pour améliorer la qualité du code et accélérer le processus de livraison.

Développeur·euse fullstack

Le/ La Développeur·euse fullstack conçoit et développe des applications avec une approche CI/CD, en intégrant des outils d'automatisation pour assurer des déploiements rapides et une intégration fluide entre le front-end et le back-end.

1431 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous