Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 266 résultats.
CDI
CDD

Offre d'emploi
Expert technique Kafka et Kafka Stream

OCTOGONE
Publiée le
Apache Kafka

6 mois
Grenoble, Auvergne-Rhône-Alpes
Vous intervenez en tant qu’expert technique sur une plateforme de data streaming dédiée à la collecte et au traitement de données énergétiques issues d’équipements terrain (capteurs IoT, automates, systèmes de gestion technique de bâtiments). L’objectif de la plateforme est de permettre le pilotage intelligent de systèmes de chauffage et de climatisation, en exploitant des flux de données en temps réel afin d’optimiser la consommation énergétique tout en garantissant le confort des occupants. Vous évoluez dans un contexte à forte volumétrie de données , avec ingestion massive de flux issus de centaines de milliers d’équipements, nécessitant des traitements fiables, performants et scalables. Vous contribuez directement à la conception et à l’optimisation de pipelines de streaming critiques, avec des enjeux de latence, de throughput, de résilience et de cohérence des données. En tant qu’expert Kafka / Kafka Streams, vous êtes un référent technique clé sur les problématiques de streaming et intervenez sur des sujets avancés liés aux architectures event-driven et aux systèmes distribués.
Freelance

Mission freelance
INTEGRATEUR APPLICATIF TOMCAT / APACHE EXPERIMENTE

PROPULSE IT
Publiée le
Apache

24 mois
250-500 €
Paris, France
Pour un démarrage sous un mois environ, nous recherchons un(e) intégrateur technique d'application freelance très expérimenté pour intégrer les application web chez notre client, en lien avec la production et les équipes de développement. Très Important : le profil recherché n'est pas un ingénieur de production qui gère des procédures d'intégration applicative mais un consultant habitué à être intercalé entre les équipes de développements et la production et qui prépare les documents d'installation. de plus il doit être expert et parfaitement autonome avec beaucoup d'expérience sur Tomcat / Apache. Pas de Devops dans le périmètre. Astreintes possibles soir et week-end - répartition selon l'équipe Livrables sont : - Dossier d'installation - Composants applicatifs -Configuration applicative Description détaillée - Capable de configurer/installer tomcat manuellement sur windows ou linux - Capable d'analyser les logs tomcat en cas d'erreur - Capable de configurer/installer manuellement un serveur httpd - Capable d'analyser les logs httpd en cas d'erreur - Savoir évoluer dans un environnement linux - Récupération des livrables de développement sur les outils de Gestion de configuration (SVN, GIT) - Installation des packages sur les plateformes de tests - Qualification des packages sur les plateformes de tests selon les normes en vigueur - Vérification de la conformité des applications vis à vis des contraintes de production - Rédaction et validation des documents d'installation et d'exploitation - Rédaction et exécution des plans de tests techniques - Assistance et support technique à la mise en production - Communication avec l'équipe projet - Reporting
CDI
Freelance

Offre d'emploi
Expert KAFKA

SMILE
Publiée le
Apache Kafka
Kubernetes

6 mois
40k-70k €
400-700 €
Paris, France
Bonjour, Nous recherchons un Expert Kafka, avec des compétences sur Kubernetes, java et angular pour une mission secteur bancaire. Pilotage technique Définir et faire respecter les bonnes pratiques de développement, de versioning et d’industrialisation des pipelines sous Gitlab CI Réaliser des tests techniquement approfondis de bon fonctionnement applicatif, assurer la cohérence et la robustesse technique des traitements Participer à la conception des architectures cibles en lien avec les architectes et les équipes DSI Contribuer à l’amélioration continue des performances et de la stabilité des pipelines 2. Conception et industrialisation Concevoir, développer et maintenir des pipelines Gitlab CI, KSQLDB (Kafka) Mettre en œuvre les solutions d’orchestration et d’automatisation Revue et validation des dossiers de conception réalisés par les équipes de développement Veiller à la documentation, à la supervision et au monitoring des traitements. 3. Encadrement et accompagnement Accompagner techniquement les développement dans leurs développements et leur montée en compétence Promouvoir les bonnes pratiques DataOps (CI/CD, tests, observabilité, monitoring). Faciliter les échanges entre les équipes Projet , Architecture, Sécurité et Métier. 4. Gouvernance et qualité Contribuer à la mise en place des standards de qualité, de traçabilité et de sécurité des données. Collaborer avec la Release Manager et être garant du respect par l'équipe projet, des process qualité de gestion des releases Participer à aux chantiers instancés par l'équipe Sécurité, par exemple la mise en œuvre du plan de secours informatique 2 fois par an Compétences techniques/fonctionnelles Langages et outils CI/CD & Infra : GitLab CI, Docker, Kubernetes Base de donnée : Mongo shell, PostgreSQL, Elastic Search Architecture & bonnes pratiques Architecture microservices Performance et optimisation des traitements applicatifs sur Kubernetes Sécurité, gouvernance et qualité des données Supervision et observabilité (logs, alertes, métriques)
Freelance
CDI

Offre d'emploi
Expertise Kafka / DATA ENGINEERING

Digistrat consulting
Publiée le
Apache Kafka
ELK

3 ans
40k-70k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : 💡Objectif global : Expert kafka 💡Description détaillée Le contexte de la mission : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA 💡Principales technologies utilisées : • Kafka => IMPERATIF • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Freelance
CDI

Offre d'emploi
DevOps / Kafka Engineer (Niveau 3)

AVA2I
Publiée le
Apache Kafka
IBM Cloud
Kubernetes

12 mois
Île-de-France, France
Missions principales 1. Administration Kafka On-Premise Administration avancée de clusters Kafka Activités Build & Run Support technique expert Automatisation des opérations via Ansible et Bash 2. Maintien Kafka PaaS (en fin de vie – IBM Cloud) Contribution au développement (Java / microservices Kafka) Maintien en conditions opérationnelles Accompagnement de la phase de décommissionnement 3. Déploiement Kafka as Code (offre stratégique) Automatisation du provisioning Kafka sur Cloud Développement de pipelines internes Mise en place de pratiques CI/CD et GitOps Industrialisation via outils d’infrastructure as code ⚠️ Exploitation Participation aux astreintes Gestion des incidents de production Support transverse sur les différentes offres Kafka 🛠️ Environnement techniqueCompétences indispensables Apache Kafka (administration avancée) Python Linux (RedHat) Git / GitLab Bash / scripting Ansible Compétences appréciées GitOps (ArgoCD) Apache Airflow Terraform Docker / Kubernetes Java & microservices Kafka Helm / Kustomize 🌍 Langues Anglais professionnel requis
Freelance

Mission freelance
CONSULTANT APACHE SUPERSET

PROPULSE IT
Publiée le
Apache

24 mois
250-500 €
Paris, France
Dans le cadre d'un renfort d'équipe chez l'un de nos clients : Nous recherchons un consultant Data / BI / Dataviz avec une expertise sur "Apache Superset" Missions principales : Configuration de dashboards superset : Création de dashboards dynamiques et interactifs pour répondre aux besoins spécifiques de l'entreprise Intégration de données provenant de différentes sources Mise en forme des données pour une visualisation claire et efficace Développement de plugins : Création de plugins personnalisés pour étendre les fonctionnalités de Superset Intégration de nouvelles sources de données Automatisation des tâches de reporting Informations complémentaires : Type de contrat : Prestation de service Début de mission : Immédiat Lieu de travail : Castres / Full Remote
Freelance

Mission freelance
Ingénieur Middleware Kubernetes _ Apache

CAT-AMANIA
Publiée le
Apache
Docker
Infrastructure

1 an
500-600 €
Orléans, Centre-Val de Loire
Je suis à la recherche d'un Ingénieur Middleware Kubernetes _ Apache. • Administration des Middleware (Aplacation sous Kubernetes - Apache) et des outils associés d'industrialisation et de déploiement (30% de l'activité), • Support de niveau 3 auprès des équipes de production, de projet sur les middlewares (40% de l'activité), • Réalisation des projets d'implementation et de migration des progiciels (30% de l'activité). Objet de la prestation Une prestation d'Ingénierie Middleware pour la réalisation des tâches liées au plan d'actions en cours et à venir. La mission portera principalement sur les axes suivants : • Assurer le support niveau 3 sur les middlewares (analyse des problèmes de performance, de sécurité, administration...) • Gestion du RUN • Installer des progiciels sur RHEL Linux ou KUBERNETES Des astreintes à distances sont possible dans le cadre de l'accompagnement des projets de solutions à mettre en oeuvre en HNO (connexion VPN à distance). Obligatoire : Linux, JBOSS, SPRINGBOOT, KUBERNETES,APACHE, Java, JEE, SQL, Infra as code (outils d'automatisation) Recommandé : SPRINGBOOT, Docker, Promethéus, TroubleShooting
Freelance

Mission freelance
Data Engineer Spark Scala, Airflow, Hive, Jenkins, Nexus, HDFS, Gitlab Nantes ( 3 à 4 jours TT)

WorldWide People
Publiée le
Scala

12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Spark Scala Scala, Spark, Airflow, Hive, Jenkins, Nexus, HDFS, Gitlab Nantes ( 3 à 4 jours de télétravail) Scala, Spark, Airflow, Hive, Jenkins, Nexus, HDFS, Gitlab Le data engineer travaillera sur un datalake( MCO, évolutions fonctionnelles). Les principales tâches seront: -Réaliser les développements en langage SCALA, - Réaliser les travaux jusqu’en environnement de production - Réaliser le support N3 de la production - Réaliser la supervision des traitements - Documenter les réalisations. Nous recherchons un data engineer confirmé qui maitrise nécessairement Spark et Scala
Freelance
CDI

Offre d'emploi
Développeur / Ingénieur Apache Camel (H/F)

OMICRONE
Publiée le
Apache
Docker
Kubernetes

2 ans
40k-45k €
400-450 €
Île-de-France, France
📢 Recherche – Développeur / Ingénieur Apache Camel (H/F) Dans le cadre de plusieurs projets d’intégration et de modernisation SI, nous recherchons des profils expérimentés Apache Camel pour intervenir sur des environnements techniques exigeants. 🔹 Missions Conception et développement de flux d’intégration avec Apache Camel Mise en place d’architectures ESB / microservices Intégration d’applications via API, messaging, systèmes distribués Participation à la résolution d’incidents et à l’optimisation des performances Collaboration avec les équipes architecture, data et métiers 🔹 Profil recherché Expérience significative sur Apache Camel Bonne maîtrise des patterns d’intégration (EIP) Connaissances en Java / Spring Boot Expérience sur des environnements API / messaging (Kafka, MQ, etc.) Capacité à intervenir en autonomie sur des sujets techniques complexes Anglais professionnel requis 🔹 Environnement technique (selon projets) Java, Spring Boot, Apache Camel Kafka / RabbitMQ / ActiveMQ REST APIs / Microservices Docker / Kubernetes Cloud (AWS / Azure) 🔹 Conditions 📍 Localisation : France 💼 Mission long terme 🚫 Non ouvert à la sous-traitance.
Freelance

Mission freelance
Développeur senior en Active Pivot (6.x) Spark;

BI SOLUTIONS
Publiée le
ActivePivot
J2EE / Java EE

2 ans
400-500 €
Île-de-France, France
Développeur senior en Active Pivot (6.x) Spark 500 e par j Le tout en environnement AWS. Un bon niveau Active Pivot avec maitrise des post processeurs Java obligatoire - Springboot / React.js et / ou JavaSpark -Une maitrise de GIT, Jenkins et des outils de CI/CD est obligatoire -Docker et Kubernetes (souhaité). -Une expérience de fonctionnement en mode agile (Scrum, Safe...) est obligatoire. Bonne capacité d'adaptation , bonne expression ecrite et orale Active Pivot obligatoire TJM : 500 Mobilité : Montrouge 92 Anglais : mandatory
Freelance

Mission freelance
Data Engineer / DevOps Kafka Senior

Deodis
Publiée le
Kubernetes

1 an
500 €
Île-de-France, France
Rejoignez une équipe au cœur de la transformation technologique en tant que Data Engineer / DevOps Kafka Senior, où vous interviendrez sur la conception, l’exploitation et l’automatisation de plateformes Kafka industrielles déployées en environnements On-Premise et cloud. Vous serez impliqué dans l’administration avancée de clusters, le développement de solutions “Kafka as Code”, ainsi que dans la mise en place de pipelines CI/CD et d’outils d’automatisation (Python, Terraform, Ansible). Vous contribuerez également au maintien en conditions opérationnelles d’offres existantes, à leur évolution progressive, et participerez aux dispositifs de support et d’astreinte, tout en améliorant en continu la fiabilité, la supervision et l’industrialisation des systèmes dans des environnements conteneurisés (Docker, Kubernetes).
Freelance
CDI

Offre d'emploi
Expert ELK / Kafka (H/F)

SAS GEMINI
Publiée le
Apache Kafka
Elasticsearch

3 ans
Montreuil, Île-de-France
Dans le cadre des missions de l'équipe Log Analytics, nous souhaitons une prestation d'expertise technique de RUN et de Build sur les produits Kafka et de la stack Elastic (Data Architecture + OPS + Data Engineering + notions Data Analyse). Les missions sont : - Intégration dans une équipe d'experts techniques pour maintenir en conditions opérationnelles des plateformes de données très ambitieuses - Participation aux évolutions des plateformes, des services rendus, améliorer la fiabilité et les performances des clusters mis en place (setup, configuration, optimisation, troubleshooting) - Accompagnement nos clients dans leurs usages, les guider dans les meilleurs usages des produits - Force de proposition pour automatiser, industrialiser et rendre plus efficientes nos implémentations et nos interactions clients - Prise en charge le monitoring de nos plateformes afin de permettre et garantir le respect de nos SLAs - Prise en charge le RUN niveau 1/2/3 de nos platformes
Freelance
CDI

Offre d'emploi
DevOps senior Kafka

VISIAN
Publiée le
Apache Kafka
Python

1 an
Île-de-France, France
Contexte Une filiale d’un grand groupe bancaire est au cœur de la transformation technologique du groupe. Sa mission est de concevoir, développer et opérer des plateformes d’infrastructure modernes (PaaS, IaaS, CaaS) à destination de l’ensemble des métiers. Dans ce contexte, un profil DevOps senior est recherché pour renforcer la Squad Kafka, en charge de plusieurs offres Kafka industrielles. Ce besoin s’inscrit dans le remplacement d’une ressource clé quittant la squad. Le profil devra être au minimum équivalent en compétences, et idéalement contribuer au renforcement de l’équipe sur les sujets Kafka As Code et Kubernetes. Missions La personne interviendra sur trois offres Kafka distinctes : Kafka On‑Premise Administration avancée de clusters Kafka Activités Build & Run Support niveau expert Automatisation via Ansible et Bash Kafka PaaS V4 (offre en fin de vie) Offre actuellement exploitée sur IBM Cloud Contributions Java / microservices Kafka Maintien en conditions opérationnelles Accompagnement de la fin de vie progressive de l’offre Kafka As Code Offre stratégique en forte montée en puissance Exploitée sur IBM Cloud Automatisation du provisioning Kafka Développement et maintenance d’outils et de pipelines internes (Python, Airflow, Terraform) Intégration CI/CD et GitOps Par ailleurs, certains composants et agents CI/CD sont déployés sur des environnements conteneurisés (Docker / Kubernetes / OpenShift).
Freelance

Mission freelance
Développeur MIRAKL OU SHOPIFY - JAVA KAFKA (OBLIGATOIRE)

HAYS France
Publiée le
Apache Kafka
Java

3 ans
100-500 €
Lille, Hauts-de-France
Contexte de la mission Au sein du département Commerce, rattaché à l'équipe produit Marketplace Interne/Externe. Nous recherchons un développeur pour nous accompagner pour de la MCO/TME une participation aux différents projets de l'entreprise. L'objectif du produit Marketplace Externe est d'exposer les offres du client à nos partenaires. Objectifs et livrables Tu contribueras à : ✔ Développer et maintenir les fonctionnalités du produit Marketplace Interne et Externe ✔ Assurer la maintenance corrective et évolutive (MCO/TME) du produit ✔ Veiller à la qualité du code et au respect des bonnes pratiques de développement
Freelance

Mission freelance
Lead DevOps Kafka H/F

LOMEGARD
Publiée le
Ansible
Apache Kafka
Kubernetes

1 an
550-630 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe en charge de plusieurs offres autour de Kafka, nous recherchons un profil DevOps Senior pour intervenir sur des environnements critiques, exploités à la fois sur des infrastructures On-Premise et sur cloud public. L’intervention couvre plusieurs offres Kafka avec des enjeux différents : MCO, administration avancée, automatisation, support expert et accompagnement de l’évolution des plateformes. Volet 1 — Plateformes Kafka On-Premise Assurer l’administration avancée des clusters Kafka Prendre en charge les activités de build et de run Apporter un support de niveau expert sur les incidents et problématiques complexes Contribuer à l’automatisation des tâches d’exploitation via Ansible et Bash Volet 2 — Offre Kafka PaaS en phase de transition Participer au maintien en conditions opérationnelles d’une offre historique hébergée sur IBM Cloud Contribuer à certains développements autour de composants Java et de microservices liés à Kafka Accompagner la trajectoire de fin de vie progressive de la plateforme Garantir la stabilité du service durant cette période de transition Volet 3 — Offre Kafka As Code Intervenir sur une offre stratégique en fort développement Automatiser le provisioning et l’exploitation des environnements Kafka Développer et maintenir des outils internes et des pipelines techniques Contribuer aux chaînes CI/CD, aux pratiques GitOps et à l’industrialisation des déploiements Participer à des développements en Python, Airflow et Terraform Environnements techniques complémentaires Intervention possible sur des socles Docker, Kubernetes et OpenShift
Freelance
CDI

Offre d'emploi
Développeur CONFIRME Big Data Hadoop/PySpark/Python - 3 à 6 ans

Digistrat consulting
Publiée le
Apache Hive
Apache Spark
Hadoop

3 ans
38k-43k €
300-400 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

266 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous