Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 290 résultats.
Freelance

Mission freelance
INTEGRATEUR APPLICATIF TOMCAT / APACHE EXPERIMENTE

PROPULSE IT
Publiée le
Apache

24 mois
250-500 €
Paris, France

Pour un démarrage sous un mois environ, nous recherchons un(e) intégrateur technique d'application freelance très expérimenté pour intégrer les application web chez notre client, en lien avec la production et les équipes de développement. Très Important : le profil recherché n'est pas un ingénieur de production qui gère des procédures d'intégration applicative mais un consultant habitué à être intercalé entre les équipes de développements et la production et qui prépare les documents d'installation. de plus il doit être expert et parfaitement autonome avec beaucoup d'expérience sur Tomcat / Apache. Pas de Devops dans le périmètre. Astreintes possibles soir et week-end - répartition selon l'équipe Livrables sont : - Dossier d'installation - Composants applicatifs -Configuration applicative Description détaillée - Capable de configurer/installer tomcat manuellement sur windows ou linux - Capable d'analyser les logs tomcat en cas d'erreur - Capable de configurer/installer manuellement un serveur httpd - Capable d'analyser les logs httpd en cas d'erreur - Savoir évoluer dans un environnement linux - Récupération des livrables de développement sur les outils de Gestion de configuration (SVN, GIT) - Installation des packages sur les plateformes de tests - Qualification des packages sur les plateformes de tests selon les normes en vigueur - Vérification de la conformité des applications vis à vis des contraintes de production - Rédaction et validation des documents d'installation et d'exploitation - Rédaction et exécution des plans de tests techniques - Assistance et support technique à la mise en production - Communication avec l'équipe projet - Reporting

Freelance
CDI
CDD

Offre d'emploi
Consultant Support Airflow & Spark sur Kubernetes

LOMEGARD
Publiée le
Apache Airflow
Apache Spark
Kubernetes

1 an
40k-70k €
400-600 €
Île-de-France, France

Dans le cadre du renforcement de notre capacité de support N2, nous recherchons des prestataires spécialisés dans l’exploitation et le support de plateformes Big Data. Contexte : Notre équipe est responsable du maintien en condition opérationnelle des plateformes suivantes qui tournent sur Kubernetes et bientôt sur OpenShift : Apache Spark Apache Airflow/Astronomer Starburst (trino) La prestation visera à : Assurer le support de niveau 2 en production des plateformes mentionnées (PROD). Intervenir dans la gestion des incidents, l’analyse des root causes et la résolution. Participer à l’ optimisation des traitements Spark sur Kubernetes (tuning, configuration, dimensionnement), à l' optimisation de l'orchestration Airflow , à la gestion des catalogues Starburst Accompagner les équipes métiers dans l’utilisation efficace et sécurisée des plateformes. Contribuer à la documentation et à l’amélioration continue de l’écosystème d’exploitation.

Freelance

Mission freelance
CONSULTANT APACHE SUPERSET

PROPULSE IT
Publiée le
Apache

24 mois
250-500 €
Paris, France

Dans le cadre d'un renfort d'équipe chez l'un de nos clients : Nous recherchons un consultant Data / BI / Dataviz avec une expertise sur "Apache Superset" Missions principales : Configuration de dashboards superset : Création de dashboards dynamiques et interactifs pour répondre aux besoins spécifiques de l'entreprise Intégration de données provenant de différentes sources Mise en forme des données pour une visualisation claire et efficace Développement de plugins : Création de plugins personnalisés pour étendre les fonctionnalités de Superset Intégration de nouvelles sources de données Automatisation des tâches de reporting Informations complémentaires : Type de contrat : Prestation de service Début de mission : Immédiat Lieu de travail : Castres / Full Remote

Freelance
CDI

Offre d'emploi
Senior Big Data Consultant (Spark on Kubernetes / Airflow / Kubernetes)

KLETA
Publiée le
Apache Airflow
Apache Spark
Kubernetes

3 ans
Paris, France

Concevoir, industrialiser et opérer des plateformes data “cloud-native” sur Kubernetes, incluant l’orchestration de pipelines via Airflow sur Kube, afin d’accélérer l’ingestion, le traitement et la mise à disposition de données à grande échelle (batch & near-real time) avec des standards élevés de fiabilité, sécurité et coûts. Responsabilités clés Architecture & design Définir l’architecture Data on Kube (ingestion, stockage, calcul, orchestration, observabilité). Modéliser et standardiser les data pipelines (DAGs Airflow) et patterns d’infrastructure (Helm/Kustomize). Industrialisation & déploiement Packager et déployer Airflow sur Kube (Helm chart officiel/Astro/OSS) avec HA, RBAC, autoscaling. Mettre en place des opérateurs Airflow (KubernetesPodOperator, SparkK8sOperator, etc.). Automatiser via GitOps (Argo CD/Flux) et CI/CD (GitHub Actions/GitLab CI). Opérations & SRE Gérer la capacité, le autoscaling (HPA/VPA/Karpenter), la QoS et l’optimisation des coûts (requests/limits, Spot/Preemptible). Observabilité end-to-end (logs, metrics, traces) et runbook d’incident (SLA/SLO/SLI). Sécuriser la plateforme (NetworkPolicy, Secrets, IAM, image signing, pod security). Data Engineering sur Kube Exécuter Spark/Flink/Beam sur K8s ; optimiser ressources, shuffle, I/O. Normaliser les environnements d’exécution (Docker base images, Python/Java runtimes). Gouvernance & qualité Mettre en place un data contract / schema registry , tests de données (Great Expectations/Deequ), lineage (OpenLineage/Marquez). Accompagnement Enablement des équipes data (templates, cookbooks), code reviews , mentorat et evangelism des bonnes pratiques.

Freelance

Mission freelance
Ingénieur Production Kubernetes / Airflow / Spark – Secteur Bancaire

SKILLWISE
Publiée le
Apache Airflow
Apache Spark
CI/CD

3 mois
350-450 €
Paris, France

Nous recherchons un Ingénieur Production expérimenté pour rejoindre une équipe projet dans le secteur bancaire. Vous interviendrez sur des environnements critiques à forte volumétrie de données. Compétences obligatoires : Apache Spark Apache Airflow CI/CD Kubernetes OpenShift Python Anglais courant Profil recherché : +7 ans d’expérience en environnement de production Bonne capacité à travailler dans un contexte exigeant et international Esprit collaboratif et sens de la communication Conditions de mission : Lieu : Paris (2 jours de télétravail/semaine) Démarrage : ASAP Durée : longue mission (renouvelable)

Freelance

Mission freelance
Lead Data Engineer Streaming

STHREE SAS pour HUXLEY
Publiée le
Apache Kafka
Apache Spark

12 mois
700-850 €
75013, Paris, Île-de-France

Contexte de la mission Dans le cadre du programme de modernisation de la plateforme data du Groupe, vous rejoignez la direction Data Engineering de la DSI Banque de Proximité et Assurance (BPA) en tant que Lead Data Engineer spécialisé en streaming. Vous serez responsable de la conception, de l’industrialisation et de l’optimisation des pipelines de données temps réel, en lien avec les enjeux métiers autour de la fraude, de la connaissance client, et de la supervision des parcours digitaux. Vous encadrerez une équipe de 3 à 5 data engineers et collaborerez étroitement avec les architectes, les data scientists et les équipes cloud. Stack technique & environnement Streaming & ingestion : Apache Kafka (Confluent), Kafka Connect, REST Proxy Traitement temps réel : Apache Spark Structured Streaming, Apache Flink (POC en cours) Orchestration : StreamSets, Airflow Cloud & stockage : Google Cloud Platform (BigQuery, Cloud Storage), Hadoop (legacy) Langages : Python, Scala, SQL CI/CD & Infra : GitLab CI, Terraform, Docker, Kubernetes (GKE) Monitoring : Grafana, Prometheus, Elastic Stack

CDI
Freelance

Offre d'emploi
Data engineer ETL Airflow

IT-EXPLORER
Publiée le
Apache Airflow

3 ans
40k-45k €
400-500 €
Île-de-France, France

Data/ML Engineer – Secteur bancaire (IDF) – DISPO ASAP – MISSION LONGUE Contexte : Accélération IA – chantier Knowledge Management pour constituer une base de connaissance à partir de documents non structurés (PDF, Word, HTML). Un pipeline initial existe et doit être industrialisé pour une exécution fiable, scalable et maintenable. Objectif : Développer les pipelines d’ingestion, transformation et alimentation de la base, en assurant versioning et traçabilité . Activités : Modéliser l’architecture technique (ingestion → stockage) Développer des flux ETL modulaires (OCR, transformation, enrichissement) Standardiser le format pivot et les conventions de métadonnées Assurer l’historisation, le versioning et la traçabilité des documents Implémenter un orchestrateur (Airflow/Dagster/Prefect) si nécessaire Suivre la robustesse sur des volumes variés Collaborer avec les équipes KM et Data Science Documenter l’ensemble des flux de traitement

Freelance

Mission freelance
Data Engineer Apache Flink H/F

LeHibou
Publiée le
Apache
Azure Kubernetes Service (AKS)
Elasticsearch

4 mois
500-620 €
Paris, France

Dans le cadre de la mise en production d’une solution de traitement de flux temps réel , une grande entreprise internationale du secteur du luxe et de la beauté recherche un Data Engineer confirmé pour finaliser et industrialiser un POC développé avec Apache Flink (Python) . L’objectif principal est de stabiliser la pipeline de streaming existante , d’assurer la compatibilité avec l’infrastructure actuelle (notamment Elasticsearch), et de garantir un passage en production performant et fiable . Le consultant interviendra au sein d’une équipe Data pluridisciplinaire (Data Engineers, DevOps, experts cloud) et jouera un rôle clé dans la réussite du projet, de la revue technique du POC jusqu’à la mise en production sur Kubernetes .

Freelance

Mission freelance
Ingénieur Control-M & Airflow / Paris

Signe +
Publiée le
Apache Airflow
Control-M

6 mois
400-500 €
Paris, France

Bonjour, Nous recherchons pour le compte de l'un de nos clients intégrateurs un ingénieur ayant des compétences sur Control M et Airflow pour intervenir sur un projet qui a déjà démarré. Secteur d'activité client final : service public Démarrage : poste à pourvoir assez rapidement Lieu : Mission avec présence sur site La Défense + télétravail partiel Rythme de travail : temps plein Contexte de la mission : Migration de chaines d’ordonnancements Control-M vers Airflow Compétences obligatoires : Control M et Airflow

Freelance

Mission freelance
TECH LEAD PHP KAFKA

PARTECK INGENIERIE
Publiée le
Apache Kafka
PHP

12 mois
400-550 €
Neuilly-sur-Seine, Île-de-France

Tech Lead PHP / Kafka – Neuilly-sur-Seine (4 jours sur site ) Nous recherchons un Tech Lead PHP expérimenté pour rejoindre la DSI et encadrer des développements applicatifs, notamment avec une équipe offshore en Inde. Vos missions : Encadrer et accompagner les développeurs (bonnes pratiques, CI/CD, merge requests). Participer à la conception technique et aux estimations. Suivre et améliorer l’exploitabilité des applications (monitoring, dashboards). Collaborer avec architectes et autres tech leads, contribuer à l’animation technique. Environnement technique : PHP 7/Laravel 8, PostgreSQL/MySQL, JavaScript/TypeScript, Kafka, Git, Jenkins, Docker, Kubernetes, AWS. Profil recherché : Maîtrise PHP & SQL (PostgreSQL idéalement). Experience probante sur des projets ou le MBroker etait KAFKA Expérience CI/CD, Git, outils qualité (Jenkins, SonarQube). Bon niveau d’anglais (écrit & oral). Esprit d’équipe, autonomie et leadership.

Freelance

Mission freelance
Developpeur Struts Développeur Struts (Java/JEE) Sophia Antipolis

WorldWide People
Publiée le
Apache Struts

6 mois
320-360 €
Sophia Antipolis, Provence-Alpes-Côte d'Azur

Developpeur Struts Développeur Struts (Java/JEE) Sophia Antipolis Nous recherchons un Développeur Java/JEE confirmé et/ou expérimenté pour rejoindre nos équipes de développement pour notre client de la sécurité sociale. Le candidat devra posséder une solide expérience dans la conception, le développement et la maintenance d'applications web robustes en utilisant le framework Apache Struts (idéalement Struts 1 et/ou Struts 2). Vous participerez activement à l'évolution et à l'optimisation de notre plateforme existante (legacy), en assurant la qualité du code et la performance des applications.

Offre premium
Freelance
CDI

Offre d'emploi
Développeur Senior - 17+ Full Stack Kafka Spring Flux Paiement

ARENA SI
Publiée le
Java

12 mois
75002, Paris, Île-de-France

Contexte Le projet comprend la construction d’une plateforme de services destinés aux prestataires de services de paiement (PSP), ces derniers gérant toutes les interactions avec les utilisateurs (particuliers, entreprises, administrations) d’une monnaie numérique. Mission La mission porte sur le développement d’un composant responsable du règlement (vérification, exécution, enregistrement) des transactions de paiement. Date de début et de fin du contrat : début novembre 2025 (mission longue) Statut : CDI / Freelance Activités : - Conception et développement des composants et des prototypes - Définir et implémenter les tests unitaires des modules - Respecter les standards de développement, revues de code - Assurer le respect des exigences de performance, montée en charge, résilience) - Rédiger de la documentation technique (en anglais) Compétences techniques attendues - Solides compétences en traitement et organisation de l’information - Excellente maîtrise du language de programmation Java (17+) - Connaissance de Kafka, Kafka Connect, Spring, base de données relationnelle et NOSQL - Expérience dans des environnements distribués sous fortes contraintes en matière de performance, intégrité et disponibilité - Méthodologie agile (SAFE) - Méthodologie DevOps, Autres compétences attendues - Expérience significative dans le secteur banque-finance - Bonne maitrise des formats et systèmes de paiement - Capacité à travailler en équipe dans un environnement international (Anglais B2 minimum)

CDI
Freelance

Offre d'emploi
Expert Kafka H/F

Reboot Conseil
Publiée le
Apache Kafka
ELK

12 mois
40k-50k €
400-550 €
Toulouse, Occitanie

Missions principales : Installer, configurer et administrer la plateforme Kafka (notamment Confluent). Maintenir la plateforme en condition opérationnelle (gestion proactive de la disponibilité, de la performance et de la montée en charge) Automatiser les déploiements, opérations de RUN et tâches de maintenance grâce à du scripting (Bash, Python, etc.) et des outils d’orchestration CI/CD. Assurer la sécurité, l’intégrité et la scalabilité des données transitant via la plateforme (HA, encryption, règles d’accès). Monitorer et analyser l’activité de Kafka avec des outils type ELK ou Prometheus/Grafana, mettre en place des alertes pertinentes et documenter les incidents. Suivre et accompagner les évolutions de l’écosystème Kafka (Kafka streams, Connect, REST Proxy), rédiger/améliorer la documentation associée, réaliser une veille techno continue. Stack et Environnement : Kafka/Confluent, clusters multi-noeuds, automation CI/CD (Gitlab), conteneurisation Docker/Kubernetes en contexte hybride cloud/on-premise. Outillage de monitoring : ELK, Prometheus, Grafana. Ecosystème cloud et outils afférents (Gitlab, Artifactory/JFrog, Keycloak pour IAM, APIs REST/Async).

Freelance

Mission freelance
Business Analyst Technique

Lùkla
Publiée le
Apache Kafka
Apache NiFi
Grafana

1 an
Toulon, Provence-Alpes-Côte d'Azur

Dans le cadre du renforcement de ses équipes , notre client, recherche un Business Analyst Technique pour son site basé à Toulon . Missions principales : 🔹 Analyser les besoins fonctionnels et techniques liés aux systèmes complexes. 🔹Rédiger les spécifications fonctionnelles et techniques. 🔹Participer à la conception et configuration des flux de données via Apache NiFi et Kafka. 🔹Contribuer à la création de scripts Python pour l’exploitation, le traitement et l’analyse de données. 🔹Développer et maintenir des tableaux de bord Grafana pour le suivi et la supervision en temps réel. 🔹Collaborer avec les équipes techniques et métiers pour optimiser les solutions déployées. Compétences requises : 🔹Expérience confirmée en analyse fonctionnelle et technique sur des systèmes complexes. 🔹Maîtrise de Python, Apache NiFi, Kafka et Grafana. 🔹Excellente capacité de rédaction de spécifications techniques et de communication transverse. 🔹Autonomie, sens de l’initiative et esprit collaboratif.

Freelance

Mission freelance
[FBO] DEVELOPPEUR JAVA6 / STRUTS Habilitable - 929

ISUPPLIER
Publiée le

5 mois
1-350 €
Toulouse, Occitanie

Contexte de la mission 4-5 ans d'expérience Dans la cadre d'une refonte de l'application JAVA 6/ STRUST Site Inetum Toulouse Besoin à pourvoir immédiatement Nécessite Habilitation Profil Autonome JAVA /STRUST Savoir être : - Rigueur, autonomie et réactivité - Esprit d'équipe et capacité d'adaptation Objectifs et livrables Maintenance applicative - Refonte

Freelance
CDI

Offre d'emploi
Expert Spark (Spark /Airflow /Superset )

AVA2I
Publiée le
Apache Airflow
Apache Spark
SQL

3 ans
40k-70k €
400-600 €
La Défense, Île-de-France

Dans le cadre de son initiative Big Data FR sur plateforme Open Source , GRDF recherche un Expert Spark afin de renforcer son équipe Data. L’objectif est de contribuer à la conception, à l’optimisation et au déploiement de pipelines Big Data à grande échelle, avec un focus sur la performance et la fiabilité. 🚀 Missions principales: Participer à la conception et au développement de pipelines de données distribués basés sur Spark. Optimiser la performance des traitements et garantir la scalabilité des solutions. Déployer, monitorer et maintenir les workflows de données via Airflow . Créer et améliorer des dashboards et visualisations de données avec Superset . Collaborer avec les équipes Data Engineering, Data Science et métiers pour intégrer les besoins fonctionnels dans la plateforme Big Data. Assurer une veille technologique et proposer des solutions innovantes dans l’écosystème Big Data Open Source.

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

290 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous