Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 266 résultats.
Freelance

Mission freelance
POT9115 - Un Data Engineer Airflow Confirmé sur Tours

Almatek
Publiée le
Python

6 mois
Tours, Centre-Val de Loire
Almatek recherche pour l'un de ses clients un Un Data Engineer Airflow Confirmé sur Tours. Objectif : Analyser l’usage, l’organisation et/ou la performance d’Airflow dans le service, afin d’identifier des axes d’amélioration, risques ou optimisations. Compétences requises: Airflow - Confirmé - Impératif Python - Confirmé - Impératif Power BI - Confirmé - Appréciable Mission possible en Full Distanciel avec quelques déplacement à Tours au démarrage Almatek recherche pour l'un de ses clients un Un Data Engineer Airflow Confirmé sur Tours. Objectif : Analyser l’usage, l’organisation et/ou la performance d’Airflow dans le service, afin d’identifier des axes d’amélioration, risques ou optimisations. Compétences requises: Airflow - Confirmé - Impératif Python - Confirmé - Impératif Power BI - Confirmé - Appréciable Mission possible en Full Distanciel avec quelques déplacement à Tours au démarrage
CDI
Freelance

Offre d'emploi
Data Engineer Apache NiFi/SQL/JSON/XML/API

OBJECTWARE
Publiée le
Apache NiFi
API
JSON

3 ans
40k-68k €
400-550 €
Île-de-France, France
Objectif de la mission Dans le cadre du déploiement d’une plateforme Data destinée à centraliser, fiabiliser et gouverner l’ensemble des données des domaines banque et assurance, vous intégrez la squad Data Flux. Cette équipe, composée de trois développeurs Data, d’un architecte technique, d’un Business Analyst et d’un Product Owner, est responsable des missions suivantes : la conception et l’implémentation des flux de données, l’intégration et la transformation de données provenant de sources multiples, la sécurisation et l’industrialisation des flux, en conformité avec les standards attendus en matière de qualité et de traçabilité. Une expérience dans les secteurs de l’assurance, de la banque ou de la finance est vivement recommandée, notamment sur des développements de flux conformes à la norme Penelop, ainsi que sur des flux de données liés aux domaines assurantiels ou aux données clients. - Conception et développement de pipelines de données : Concevoir des flux robustes et évolutifs pour l’ingestion, la transformation et la diffusion des données dans le cadre du modèle Bronze / Silver / Gold. - Développement et intégration sur Apache NiFi : Implémenter et paramétrer des workflows NiFi pour collecter et normaliser les données issues de différentes sources (fichiers XML/CSV, API REST). - Transformation et modélisation des données : Participer à la modélisation du socle de données structurées et au développement des transformations afin de constituer les vues consolidées du MDM. - Contrôles de qualité et traçabilité : Mettre en place des mécanismes d’audit, de logs et de contrôle (complétude, unicité, cohérence, versioning des données). - Optimisation et performance : Surveiller les performances des pipelines, identifier les goulots d’étranglement et proposer des améliorations continues. - Sécurité et conformité : Veiller à la sécurité des données (authentification, chiffrement, gestion des accès) dans le cadre des standards du groupe. - Documentation et partage de connaissances : Documenter les processus, les schémas et les bonnes pratiques afin d’assurer la maintenabilité et la transmission des savoirs au sein de la squad. PREREQUIS TECHNIQUES : - Maîtrise d’Apache NiFi (ingestion, orchestration, monitoring) - Solides connaissances en SQL et modélisation de données relationnelles (PostgreSQL) - Connaissance des modèles de stockage objet (S3, Blob) - Connaissance des formats et protocoles : JSON, XML, CSV, REST API - Compétences en scripting (Python, Bash) appréciées - Sensibilité aux enjeux de qualité, sécurité et gouvernance des données Compétences Techniques : SQL, Python, Bash, Gitlab
Offre premium
Freelance

Mission freelance
Développeur Fullstack Java / React

Izyfree
Publiée le
Apache Kafka
Java

1 an
400-450 €
Lille, Hauts-de-France
Au sein du Centre de Services Interne Supply, rattaché à l’équipe SI Supply, nous recherchons un Développeur Fullstack Java / React intermédiaire / expérimenté pour accompagner les équipes dans le cadre de la MCO / TMA, ainsi que pour participer aux différents projets de l’entreprise. Note sur le poste : la mission est à forte dominante Backend. La partie développement Frontend (React) représente environ 20 % du temps de travail. L’objectif du Centre de Services Interne Supply est d’assurer le développement et la maintenance opérationnelle des applications appartenant aux trois différents pôles du SI Supply. Missions Le collaborateur contribuera à : Développer et maintenir les fonctionnalités des produits de la Supply Assurer la maintenance corrective et évolutive (MCO / TME) du produit Veiller à la qualité du code et au respect des bonnes pratiques de développement
Freelance

Mission freelance
Developpeur fullstack expert (Java 21+ Springboot )

HAYS France
Publiée le
Apache Kafka
CSS
HTML

3 ans
100-450 €
Lille, Hauts-de-France
Au cœur de la stratégie de contenu des enseignes, les espaces communautaires et canaux d'inspiration viennent enrichir les intéractions entre clients, illustrer les fiches produits, inspirer nos clients dans l’amélioration de leur habitat ou les aider dans la réalisation de leurs projets (tutoriels)... Nous recherchons un développeur full stack pour créer et maintenir les pages et composants implémentés sur ces sujets dans les sites Web du client en Europe. Le développeur évoluera dans une équipe de 5 à 7 personnes ; PO, Tech Lead, développeurs...
CDI
Freelance

Offre d'emploi
Data Engineer Confirmé / Senior

CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
Batch

1 an
Rennes, Bretagne
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer confirmé / senior : Participer à la définition de l'architecture Data Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
CDI

Offre d'emploi
Administrateur système Linux H/F

OBJECTWARE
Publiée le
Administration linux
Apache

Nantes, Pays de la Loire
Nous recherchons un administrateur système Linux H/F pour une mission à Nantes. Missions : Assurer le maintien en condition opérationnelle des infrastructures Linux Diagnostiquer, analyser et résoudre les incidents de production de niveau 2/3 Réaliser des scripts d’automatisation et d’optimisation Administrer les serveurs web Apache Participer à la documentation technique et au transfert de connaissances Proposer des améliorations continues tout en respectant les contraintes d’un environnement en mode run
Freelance

Mission freelance
Chef de projet - data API Management, ETL, Kafka, NIFI, SAP BI4 Nantes ( 3 jours TT)/du

WorldWide People
Publiée le
API
Pilotage

12 mois
340-370 €
Nantes, Pays de la Loire
Chef de projet avec connaissances data API Management, ETL, Kafka, NIFI, SAP BI4 Nantes ( 3 jours de télétravail) Notre client a en charge le maintien en conditions opérationnelles, l’amélioration du service des socles Echange de données : plateformes mutualisées (ETL, Anonymisation, API Management, KAFKA) ou composants applicatifs (NIFI). Le Chef de Projet aura pour principales tâches: -Pilotage des travaux de build et de MCO de ces plateformes de services -Garant de la qualité des services dont il aura la charge -Amélioration continue Nous recherchons pour cette prestation un chef de projet IT confirmé et qui a des connaissances autour de sujets orientés data
Freelance
CDI

Offre d'emploi
Data Engineer GCP / Spark – Plateforme Data (H/F)

Etixway
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
40k-65k €
400-600 €
Paris, France
Dans le cadre du renforcement d’une équipe Data au sein d’un grand groupe du secteur des médias, nous recherchons un Data Engineer confirmé pour intervenir au cœur d’une plateforme data stratégique. Tu rejoindras une équipe en charge de la collecte, la centralisation et la transformation de données issues de sources hétérogènes , avec des enjeux forts de volumétrie, de performance et de qualité. Tes principales missions : Concevoir, développer et maintenir des pipelines data robustes et scalables Assurer l’ ingestion et la transformation de données multi-sources Optimiser les performances des traitements (Spark / SQL) Orchestrer les flux de données via Airflow Structurer et organiser le stockage des données Participer à l’ industrialisation des traitements (CI/CD, infrastructure) Garantir la qualité, la sécurité et la fiabilité des données Contribuer aux échanges techniques et à l’amélioration continue des pratiques
Freelance

Mission freelance
Developpeur java MIRAKL (x2)

HAYS France
Publiée le
Apache Kafka
Java

3 ans
100-460 £GB
Lille, Hauts-de-France
Objectifs de la mission Vous interviendrez sur des enjeux cœur business Marketplace avec un fort niveau d’exigence technique. Vos responsabilités : ✔ Développer et maintenir les fonctionnalités des produits Marketplace Interne et Externe ✔ Assurer la maintenance corrective et évolutive (MCO / TME) ✔ Participer aux projets transverses de l’entreprise ✔ Contribuer à l’amélioration continue de la plateforme ✔ Veiller à la qualité du code , aux bonnes pratiques et à la performance des flux ✔ Travailler sur des échanges API / event-driven à fort volume 🛠️ Environnement technique Java Plateforme Mirakl (indispensable) Kafka (très forte exigence) MongoDB API REST GitLab Architecture orientée services / event-driven
Freelance

Mission freelance
CHEF DE PROJET IT (TRANSORMATION PLATEFORME FINANCE DE MARCHE)

PARTECK INGENIERIE
Publiée le
Apache Kafka
DevOps
Microservices

12 mois
400-680 €
75000, Paris, Île-de-France
ANGLAIS MANDATORY Contexte Dans le cadre d’un programme de transformation, une institution financière modernise sa plateforme Middle & Back Office dédiée au traitement de produits dérivés. L’environnement cible repose sur une architecture moderne (microservices, APIs, messaging, bases de données relationnelles, interface web). Objectif Piloter un projet de transformation en garantissant la livraison conforme aux objectifs fonctionnels, techniques, de qualité et de délais. Responsabilités principales Pilotage du projet Définition et suivi de la roadmap (analyse, conception, développement, tests, déploiement) Gestion du périmètre, des livrables et des critères d’acceptation Suivi du planning, du budget et des ressources Gestion des parties prenantes Animation des comités projet et techniques Coordination entre métiers, opérations et équipes IT Gestion des demandes d’évolution (change management) Méthodologie Agile Animation des rituels Scrum Suivi des indicateurs Agile (backlog, avancement, qualité) Risques & conformité Identification et pilotage des risques (techniques, opérationnels, réglementaires) Mise en conformité avec les exigences de sécurité et de régulation Qualité & delivery Supervision des phases de tests et de validation Mise en place et suivi des processus CI/CD Garantie du respect des standards techniques et documentaires Reporting & communication Suivi des KPIs et reporting régulier aux sponsors Communication sur l’avancement et les points critiques Accompagnement du changement Formation et transfert de compétences aux équipes opérationnelles Support à la mise en production et suivi post-déploiement Profil recherché Expérience Expérience significative en gestion de projets IT complexes, idéalement en environnement financier Compétences Maîtrise des méthodologies Agile Bonne compréhension des architectures modernes (microservices, APIs, DevOps) Connaissance des environnements Middle/Back Office appréciée Qualités personnelles Leadership et capacité à coordonner des équipes pluridisciplinaires Excellente communication Esprit d’analyse et orientation résultats
Freelance
CDI

Offre d'emploi
Lead devops

Proxiad
Publiée le
Ansible
Apache Kafka
Python

3 ans
40k-55k €
400-610 €
Île-de-France, France
Notre mission est de concevoir, développer et opérer des plateformes d’infrastructure modernes (PaaS, IaaS, CaaS) à destination de l’ensemble des métiers. Dans ce contexte, nous recherchons un profil DevOps senior pour renforcer la Squad Kafka, en charge de plusieurs offres Kafka industrielles, opérées à la fois On‑Premise et sur IBM Cloud. Le profil recherché devra être au minimum équivalent en compétences, et idéalement contribuer au renforcement de l’équipe sur les sujets Kafka As Code et Kubernetes.
Freelance
CDI

Offre d'emploi
Senior Data Engineer Python / Kafka / Flink (On-Premise)

Deodis
Publiée le
Apache Kafka
Python

1 an
40k-45k €
400-500 €
Île-de-France, France
Nous recherchons un(e) Senior Data Engineer pour concevoir, déployer et maintenir une plateforme de données robuste et performante dans un environnement entièrement on-premise. Vous serez responsable du développement de pipelines batch et temps réel en Python, de l’orchestration via Apache Airflow et du traitement de flux avec Apache Flink, tout en assurant l’exploitation de Apache Kafka pour le streaming à grande échelle. Vous contribuerez également à l’observabilité et à la qualité des données via la stack Elasticsearch / Logstash / Kibana, en collaboration étroite avec les équipes Data et DevOps. Ce rôle clé implique un haut niveau d’exigence technique, la fiabilité des systèmes en production et l’accompagnement des ingénieurs plus juniors
CDI

Offre d'emploi
Développeur Java Lille

CBTW
Publiée le
Apache Kafka
Apache Maven
Git

Lille, Hauts-de-France
Chez CBTW, nous recrutons des collaborateurs qui souhaitent avoir un impact technologique durable à l’échelle globale. Nous concevons, implémentons et opérons des solutions technologiques complexes, en nous appuyant sur : Des expertises internationales, Des Service Lines structurées, Des modèles de delivery industrialisés. Pourquoi nous rejoindre ? Projets variés et ambitieux : cloud distribué, automatisation avancée, infrastructures scalables, observabilité à grande échelle, sécurité cloud. Vision internationale avec opportunités d’évolution dans plusieurs pays. Culture collaborative et apprentissage continu : initiative, partage, montée en compétences. Formations et certifications : AWS, Terraform, Kubernetes, CI/CD, sécurité. Communauté Software engineering : experts passionnés, retours d’expérience, labs, partage de bonnes pratiques.
Freelance
CDI

Offre d'emploi
Développeur / Ingénieur Apache Camel (H/F)

OMICRONE
Publiée le
Apache
Docker
Kubernetes

2 ans
40k-45k €
400-450 €
Île-de-France, France
📢 Recherche – Développeur / Ingénieur Apache Camel (H/F) Dans le cadre de plusieurs projets d’intégration et de modernisation SI, nous recherchons des profils expérimentés Apache Camel pour intervenir sur des environnements techniques exigeants. 🔹 Missions Conception et développement de flux d’intégration avec Apache Camel Mise en place d’architectures ESB / microservices Intégration d’applications via API, messaging, systèmes distribués Participation à la résolution d’incidents et à l’optimisation des performances Collaboration avec les équipes architecture, data et métiers 🔹 Profil recherché Expérience significative sur Apache Camel Bonne maîtrise des patterns d’intégration (EIP) Connaissances en Java / Spring Boot Expérience sur des environnements API / messaging (Kafka, MQ, etc.) Capacité à intervenir en autonomie sur des sujets techniques complexes Anglais professionnel requis 🔹 Environnement technique (selon projets) Java, Spring Boot, Apache Camel Kafka / RabbitMQ / ActiveMQ REST APIs / Microservices Docker / Kubernetes Cloud (AWS / Azure) 🔹 Conditions 📍 Localisation : France 💼 Mission long terme 🚫 Non ouvert à la sous-traitance
Freelance
CDI

Offre d'emploi
DataOps Kafka

KLETA
Publiée le
Apache Kafka
DevOps

3 ans
Paris, France
Dans le cadre d’un programme d’industrialisation data, nous recherchons un DataOps Kafka pour fiabiliser, automatiser et exploiter des plateformes de streaming en production. Vous analyserez les pipelines existants, identifierez les points de fragilité et proposerez des améliorations en matière de résilience, de monitoring et de gouvernance des flux. Vous guiderez la mise en place de pratiques DataOps autour de Kafka : automatisation des créations de topics, gestion des schémas, versioning, tests de compatibilité et mise en place de contrôles qualité sur les événements. Vous serez responsable de l’intégration de Kafka dans les chaînes CI/CD, de la mise en place de mécanismes d’observabilité (métriques, alerting, tracing) et de la gestion proactive des incidents. Vous travaillerez main dans la main avec les équipes Data Engineering, DevOps et SRE pour optimiser les performances, la disponibilité et la traçabilité des flux. Vous participerez également à l’amélioration continue des pratiques d’exploitation et à la diffusion d’une culture DataOps autour du streaming.
Freelance

Mission freelance
Développeur Centura / OpenText Gupta IA

INSYCO
Publiée le
Apache
CI/CD
Copilot

6 mois
Strasbourg, Grand Est
Bonjour, Nous recherchons pour notre client grand compte un Développeur Centura / OpenText Gupta avec maîtrise du développement assisté par IA Nous étudions - prioritairement - les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour en français Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence FDU/DCG/5274 dans l'objet de votre message Contexte de la mission Notre client est un grand groupe européen opérant une chaîne de télévision linéaire 24h/24 ainsi qu'une plateforme non linéaire de streaming et de vidéo à la demande disponible en plusieurs langues. Dans ce contexte, le client recherche des profils expérimentés pour assurer la maintenance et l'évolution de services back-end construits sur des technologies legacy (OpenText Gupta / Centura), au sein d'un environnement d'ingénierie structuré et orienté qualité. Missions principales Participation à la maintenance, à l'évolution et au reverse-engineering de services back-end existants Analyse approfondie de bases de code legacy et formulation de retours constructifs Développement et maintien de la logique base de données (requêtes SQL, procédures PL/SQL, Oracle) Intégration et évolution des API dans le respect des bonnes pratiques d'architecture Utilisation obligatoire d'agents de codage IA (Cursor, Copilot ou équivalent) pour automatiser le refactoring et le développement de fonctionnalités Rédaction de prompts complexes pour le reverse-engineering de logique legacy et la génération de code Supervision humaine responsable des outputs générés par IA avant intégration dans les bases de code Synchronisation quotidienne du code produit avec l'environnement de versioning du client Livrables attendus Fonctionnalités décrites dans les user stories du client, déployées et installées sur l'infrastructure désignée (système d'exploitation, base de données, serveur web) Ensemble des classes et scripts nécessaires à l'intégration fluide du travail produit dans le système d'intégration continue Scripts de surveillance, de test de charge, d'administration et de déploiement nécessaires au bon fonctionnement de la solution livrée Commentaires inline clairs sur l'objectif et la responsabilité de chaque classe et méthode Documentation complète rédigée en anglais et maintenue dans l'outil de wiki interne (Confluence) Exigences de disponibilité opérationnelle Utilisation quotidienne obligatoire des outils de gestion de projet du client (JIRA, Tempo, Confluence) Synchronisation quotidienne du code produit avec le dépôt GitHub du client Suivi du temps via l'outil de reporting interne (JIRA / Tempo)

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

266 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous