Find your next tech and IT Job or contract Apache

Your search returns 198 results.
Contractor

Contractor job
CONSULTANT APACHE SUPERSET

Published on
Apache

24 months
250-500 €
Paris, France
Remote
Dans le cadre d'un renfort d'équipe chez l'un de nos clients : Nous recherchons un consultant Data / BI / Dataviz avec une expertise sur "Apache Superset" Missions principales : Configuration de dashboards superset : Création de dashboards dynamiques et interactifs pour répondre aux besoins spécifiques de l'entreprise Intégration de données provenant de différentes sources Mise en forme des données pour une visualisation claire et efficace Développement de plugins : Création de plugins personnalisés pour étendre les fonctionnalités de Superset Intégration de nouvelles sources de données Automatisation des tâches de reporting Informations complémentaires : Type de contrat : Prestation de service Début de mission : Immédiat Lieu de travail : Castres / Full Remote
Contractor

Contractor job
INTEGRATEUR APPLICATIF TOMCAT / APACHE EXPERIMENTE

Published on
Apache

24 months
250-500 €
Paris, France
Hybrid
Pour un démarrage sous un mois environ, nous recherchons un(e) intégrateur technique d'application freelance très expérimenté pour intégrer les application web chez notre client, en lien avec la production et les équipes de développement. Très Important : le profil recherché n'est pas un ingénieur de production qui gère des procédures d'intégration applicative mais un consultant habitué à être intercalé entre les équipes de développements et la production et qui prépare les documents d'installation. de plus il doit être expert et parfaitement autonome avec beaucoup d'expérience sur Tomcat / Apache. Pas de Devops dans le périmètre. Astreintes possibles soir et week-end - répartition selon l'équipe Livrables sont : - Dossier d'installation - Composants applicatifs -Configuration applicative Description détaillée - Capable de configurer/installer tomcat manuellement sur windows ou linux - Capable d'analyser les logs tomcat en cas d'erreur - Capable de configurer/installer manuellement un serveur httpd - Capable d'analyser les logs httpd en cas d'erreur - Savoir évoluer dans un environnement linux - Récupération des livrables de développement sur les outils de Gestion de configuration (SVN, GIT) - Installation des packages sur les plateformes de tests - Qualification des packages sur les plateformes de tests selon les normes en vigueur - Vérification de la conformité des applications vis à vis des contraintes de production - Rédaction et validation des documents d'installation et d'exploitation - Rédaction et exécution des plans de tests techniques - Assistance et support technique à la mise en production - Communication avec l'équipe projet - Reporting
Contractor

Contractor job
Ingénieur Expert Serveurs d’Applications – WAS / IHS / JBoss / Tomcat / Apache (H/F)

Published on
Ansible
Apache
Apache Tomcat

1 year
400-430 €
Toulouse, Occitania
Hybrid
Nous recherchons un Ingénieur Expert Serveurs d’Applications pour intervenir dans un environnement technique exigeant et fortement orienté production. Vous rejoindrez une équipe chargée de concevoir, maintenir et optimiser des socles serveurs d’applications mis à disposition via un cloud interne. Vous interviendrez sur des plateformes critiques basées sur WAS / IHS (et JBoss, Tomcat, Apache) et apporterez votre expertise sur le design, le déploiement, la configuration, la supervision et la résolution d’incidents complexes. Vos missions : 🔹 Catalogue & MCO des socles serveurs d’applications Intégrer les solutions « clés en main » au catalogue interne et assurer leur maintien en condition opérationnelle. Maintenir en état opérationnel les outillages de configuration associés (Ansible Tower, XLD/XLR). Documenter les architectures, procédures et bonnes pratiques. 🔹 Support & expertise Niveau 3 Prendre en charge les incidents critiques (N3) en production et hors production. Diagnostiquer les causes profondes, proposer des corrections et solutions de contournement. Assurer des astreintes régulières sur l’ensemble du périmètre serveurs d’applications. 🔹 Ingénierie & projets (Design / Build / Run) Contribuer aux études d’architecture, POC, prototypes et choix techniques. Concevoir, installer et paramétrer les environnements applicatifs. Garantir la disponibilité, la performance et la sécurité des infrastructures. Participer aux actions de capacity planning et optimisations. 🔹 Gouvernance & amélioration continue Assurer la veille technologique sur les serveurs d’applications. Participer à la définition des normes et standards. Proposer des solutions innovantes pour améliorer performance, qualité et coûts d’exploitation. Rédiger documentations techniques, rapports d’activité, guides d’exploitation
Permanent
Contractor

Job Vacancy
Développeur.euse Java APACHE CAMEL EIP (Enterprise Integration Patterns)

Published on
Java
Unit testing

3 years
54k-60k €
400-550 €
Puteaux, Ile-de-France
Hybrid
Vous interviendrez en tant que développeur.e Java EIP au sein de l’équipe Middleware. Vous serez chargé.e d’analyser et de développer des interfaces entres les différentes applications de gestion (SAP, applications internes, …). Votre rôle Développement & Intégration d’interfaces • Développer des interfaces entre les différentes applications de gestion notamment avec JBOSS FUSE • Participer à l’analyse et à la conception technique des interfaces dans le respect du cahier des charges et en collaboration avec les différents acteurs du projet (Chef de Projet, Architecte...) Tests & Qualité • Mettre en place des tests unitaires et de non régression • Améliorer les tests de non régression afin d’assurer une qualité de livraison suite aux changements Performance & Optimisation • Optimiser les traitements, requêtes et paramétrages pour améliorer les performances et fonctionnalités des interfaces • Assurer le suivi des performances et proposer des améliorations Veille technologique & bonnes pratiques • Assurer une veille technologique afin de mettre en place des solutions conformes aux standards du marché • Promouvoir les bonnes pratiques de développement et d’intégration au sein de l’équipe
Permanent
Contractor

Job Vacancy
Développeur.euse Java APACHE CAMEL EIP (Enterprise Integration Patterns)

Published on
Java
JSON
Middleware

3 years
52k-65k €
400-550 €
Puteaux, Ile-de-France
Hybrid
Vous interviendrez en tant que développeur.e Java EIP au sein de l’équipe Middleware. Vous serez chargé.e d’analyser et de développer des interfaces entres les différentes applications de gestion (SAP, applications internes, …). Votre rôle Développement & Intégration d’interfaces • Développer des interfaces entre les différentes applications de gestion notamment avec JBOSS FUSE • Participer à l’analyse et à la conception technique des interfaces dans le respect du cahier des charges et en collaboration avec les différents acteurs du projet (Chef de Projet, Architecte...) Tests & Qualité • Mettre en place des tests unitaires et de non régression • Améliorer les tests de non régression afin d’assurer une qualité de livraison suite aux changements Performance & Optimisation • Optimiser les traitements, requêtes et paramétrages pour améliorer les performances et fonctionnalités des interfaces • Assurer le suivi des performances et proposer des améliorations Veille technologique & bonnes pratiques • Assurer une veille technologique afin de mettre en place des solutions conformes aux standards du marché • Promouvoir les bonnes pratiques de développement et d’intégration au sein de l’équipe
Permanent
Contractor

Job Vacancy
Ingénieur développement N3 – Java

Published on
Apache Kafka
Java

12 months
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Hybrid
Compétences techniques requises Java 21+ — Expert — Impératif Spring 6 — Expert — Impératif Angular 20 — Confirmé — Souhaitable Compétences linguistiques Français courant — Impératif Anglais lu, écrit — Impératif 1. Mission / Objectifs L’environnement du projet concerne des solutions destinées à des acteurs du paiement et du commerce, incluant l’émission de moyens de paiement, la fidélisation, l’optimisation des coûts et l’amélioration des parcours d’achat. Le projet vise : À proposer progressivement une offre élargie, du point d’encaissement aux services de paiement. À renforcer la relation avec les clients en se positionnant au centre de leurs enjeux. À valoriser les expertises internes en développant des solutions à forte valeur ajoutée. Vous intégrerez une équipe d’une dizaine de personnes , travaillant sur les traitements back-end liés à la gestion de comptes dans le cadre d’un établissement de paiement. Votre rôle principal sera le développement de nouvelles fonctionnalités sur des services on-premise et cloud . 2. Responsabilités Analyser les besoins et proposer des solutions techniques adaptées. Développer des applications dans le respect des standards. Assurer la maintenance corrective et évolutive. Participer à l’amélioration continue des pratiques de développement. Collaborer avec les équipes produit, QA, DevOps et développement. Rédiger et maintenir la documentation technique. 3. Connaissances techniques Java (V17+) Spring 6, Spring Boot 3, Spring Batch Kafka API REST et Web Services Git / GitLab Moteur de workflows : Camunda Environnement cloud : EKS, HBase, Kafka Base de données : PostgreSQL Environnement de développement : IntelliJ
Contractor

Contractor job
Consultant IDR – Data Replication & Kafka (H/F)

Published on
Apache Kafka

5 days
Clipperton Island, France
Remote
Nous recherchons un consultant senior pour accompagner l’évolution d’un modèle de réplication de données vers une architecture Publish & Subscribe dans un environnement IBM. Missions principales : Analyser l’architecture de réplication existante. Configurer et optimiser CDCRE for Kafka . Paramétrer les User Exit et propriétés Kafka. Assurer la publication au format key/value. Stabiliser la chaîne de réplication et documenter les bonnes pratiques. Conseiller sur les évolutions cibles et les modèles de réplication adaptés.
Contractor

Contractor job
[MISSION LONGUE] Administrateur Lakehouse / Cloudera – Expert Big Data (H/F)

Published on
Apache
Apache NiFi
Apache Spark

12 months
400-650 €
Paris, France
Hybrid
Client final : secteur paiement – mission longue – environnement Cloudera CDP Nous recherchons un Administrateur Lakehouse / Administrateur Cloudera confirmé ou senior pour accompagner l’un de nos clients grands comptes dans la gestion et l’exploitation de son écosystème Big Data. 🎯 Compétences OBLIGATOIRES (critères majeurs) 👉 Maîtrise parfaite des composants Lakehouse suivants : Apache Ranger (Data Security) Apache Atlas (Gouvernance & Lineage) Spark + Apache Zeppelin (Processing) NiFi (Ingestion) Apache Impala (Analytics) Hadoop (HDFS) + Apache Kudu (Data Lake) Hue (Serving / SQL UI) ➡️ Ces compétences sont indispensables : seuls les profils maîtrisant ces briques seront retenus. 🧩 Vos responsabilités Administrer et maintenir l’écosystème Cloudera / CDP (Cloudera Manager, HDFS, Yarn, Zookeeper…). Assurer le MCO/MCS : disponibilité, performances, sécurité, supervision. Documenter les procédures d’exploitation & rédiger des rapports synthétiques. Respecter les SLA et intervenir en cas d’incident. Travailler en environnement ITIL (gestion incidents, problèmes, changements). Automatiser les déploiements via Ansible (certificats, keystores, configurations). Utiliser les outils DevOps : GitHub , Jenkins . Exploiter les environnements Linux (analyse de logs, diagnostic). Participer aux réunions d’équipe, aux projets et aux comités. Être force de proposition sur l’amélioration continue et la supervision. 🌍 Environnement technique Cloudera CDP • Cloudera Manager • HDFS • Yarn • Zookeeper Apache Ranger • Apache Atlas • Spark • Zeppelin • NiFi • Impala Hadoop • Kudu • Hue Ansible • GitHub • Jenkins • Linux 📌 Profil recherché 5 à 7+ ans en administration Big Data / Hadoop / Cloudera impératif. Très forte expertise sur les briques Lakehouse listées ci-dessus. À l’aise en production, ITIL, sécurité, automatisation. Bon niveau d’anglais (échanges éditeurs Cloudera & fournisseurs). Consultant autonome, structuré, capable de rendre compte et d’améliorer l’existant. 🚀 Disponibilité immédiate ou rapide Si vous maîtrisez Cloudera + Ranger + Atlas + Spark + NiFi + Impala + Kudu , contactez-moi directement.
Contractor
Permanent

Job Vacancy
Data Ops

Published on
Apache Spark

1 year
40k-45k €
400-550 €
Quartier du Montparnasse, France
Hybrid
· Déploiement et administration avancée des applications Spark, Trino ou Jupyter sur Kubernetes. · Tuning et optimisation des performances : ajustement des configurations, analyse des logs, debugging avancé, optimisation des requêtes SQL (Trino), tuning des jobs Spark. · Gestion du RUN et support applicatif : diagnostic et résolution des incidents, amélioration continue des performances, accompagnement des utilisateurs sur l’optimisation des requêtes. · Mise en place de l’approche GitOps : automatisation complète du déploiement et de la gestion des applications avec Terraform, Ansible, Git, ArgoCD/FluxCD. · Sécurisation et monitoring avancé : implémentation de métriques et alertes sur Prometheus, Grafana, Loki, gestion des accès et des logs applicatifs.
Premium Job
Contractor
Permanent

Job Vacancy
Tech Lead – Squad Projets OKARA H-F

Published on
Apache Kafka
Java
Kubernetes

9 months
60k-64k €
570-650 €
Lille, Hauts-de-France
Hybrid
Lille | CDI ou Freelance CDI : à partir de 60K€ brut annuel Freelance : à partir de 600€/jour Ton rôle OKARA constitue sa première squad Projets : une équipe pilier qui posera les standards pour les suivantes. Et c’est là que tu interviens. En binôme avec Johann, tu construis et pilotes cette première squad. Ensemble, vous poserez les bases de l’organisation, des pratiques techniques et de la culture d’équipe. Tes missions Définir la composition et les compétences clés de la squad projet, et participer activement au recrutement des talents (2 à 4 développeurs, un lead dev, un PO). Faire grandir l’équipe par la formation, le mentoring et la transmission de tes bonnes pratiques. Structurer les futurs centres de service internes, socle des prochains projets OKARA. Garantir la qualité technique des recrutements, via une évaluation juste et exigeante. Contribuer activement au build, en gardant un rôle technique fort : Java, Angular, Kubernetes, Kafka. Cette liste n’est ni exhaustive ni figée : elle évoluera avec ta vision et tes propositions.
Permanent
Contractor

Job Vacancy
Architecte technique / Plateforme de flux

Published on
Apache Kafka
RabbitMQ

4 months
40k-80k €
590-810 €
Paris, France
Hybrid
Diagnostic & état des lieux Cartographie des solutions d’échanges existantes (MQ, API, Kafka, CFT/FTP (Artemis), …). Identification des cas d’usage, volumes, contraintes techniques et réglementaires. Analyse des pratiques actuelles (choix des flux, coûts, délais, limitations, volumes). Politique d’échanges de flux applicatifs Formalisation des principes directeurs (SLO/SLA, sécurité, observabilité, gouvernance). Élaboration d’une matrice de décision pour orienter le choix MQ / Kafka / API / CFT / … selon les cas d’usage (latence, volumétrie, synchronicité, criticité, confidentialité, B2B vs interne, coûts/TCO, réutilisation). Formalisation d’un document « Politique d’échanges de flux applicatifs » incluant les mécanismes de gouvernance nécessaires. Formalisation d’une roadmap/trajectoire pour convergence de l’existant vers la cible. Étude Artemis 2.0 Formalisation de l’existant Artemis : capacités, limites, coûts, TCO, qualité des rapports (passages OK/KO), dette, roadmap actuelle (“Artemis 2.0”) Finalisation du Benchmark des solutions alternatives. Une première analyse a été faite mais non finalisé. Il faudra capitaliser sur cette première analyse. Options à instruire (au minimum) avec les équipes du Client : Conserver l’outillage actuel “as is” ; Remplacer l’outillage actuel par une autre technologie (étude de marché, shortlist) ; Conserver l’outillage actuel et industrialiser/automatiser la création des flux (“Artemis as code”, API d’intégration, self‑service). Pour chaque option : bénéfices/risques, TCO 3–5 ans, impact et prérequis techniques, trajectoire de migration, critères de décision. Formalisation d’une roadmap/trajectoire pour convergence de l’existant vers la cible. Formalisation d’une note de décision à partager avec les CIO. Flux Back-to-Back Internes Formalisation des limitations actuelles avec Apigee pour des échanges internes PF. Formalisation des contraintes de sécurité, d’auditabilité et d’observabilité (traces, métriques, corrélation), et modalités d’onboarding. Formalisation de patterns alternatifs adaptés (légers, sécurisés, rapides à mettre en oeuvre). Estimation du cout d’implémentation de la solution et roadmap. Ces documents seront formalisés avec les inputs du Client.
Contractor

Contractor job
Tech Lead Kafka/Angular/fa

Published on
Angular
Apache Kafka

12 months
Paris, France
Hybrid
Tech Lead Kafka/Angular/fa Kafka (kafka streams) Java 21 Kubernetes API RESTclient Banque basé à Paris Gare de Lyon, un Tech Lead - Expérimenté avec un minimum de 4 ans d’expériences sur des projets similaires. Démarrage ASAP Localisation Paris 12e/ Télétravail Durée de la mission : 2 ans Projet : Maintenir une solution permettant de prioriser la liste des clients à contacter dans le cadre de la gestion de la relation client Concevoir et développer des solutions pour les équipes et les Conseillers. Assurer l’assistance fonctionnelle auprès des utilisateurs Principaux livrables : Assurer la conception, l’intégration et le développement des projets et solutions ainsi que les maintenances correctives et évolutives Préparer la mise en production avec les équipes expertes Gérer et maintenir la documentation fonctionnelle et technique Assurer l’assistance à l’utilisation des applications Assurer le diagnostic et la résolution des dysfonctionnements Compétences requises : Kafka (kafka streams) Java 21 Kubernetes API REST Autres Compétences : Conception technique Conception archi Volontaire Bon relationnel
Contractor

Contractor job
Architecte / Ingénieur Data Senior (H/F) PARIS

Published on
Apache Kafka
Apache Spark
Java

12 months
400-500 €
Paris, France
Hybrid
Espace Freelance recherche pour l'un de ses clients un : Architecte / Ingénieur Data Senior (H/F) Vos missions Concevoir l’architecture data pour l’ingestion, le stockage et l’exposition des données IoT. Développer des pipelines évolutifs pour données structurées et non structurées. Définir la stratégie technique et garantir l’intégration/déploiement continu (CI/CD). Maintenir et optimiser les pipelines existants pour de nouveaux cas d’usage (BI, maintenance prédictive, détection d’accidents…). Assurer la qualité, la gouvernance et la traçabilité des données. Contribuer à la communauté Data et participer au choix des outils et normes d’architecture.
Contractor

Contractor job
Lead Data Engineer Azure Databricks

Published on
Apache NiFi
Databricks
PySpark

3 years
600 €
Ile-de-France, France
Hybrid
🔍 Nous recherchons un(e) Lead Data Engineer Azure Databricks avec une forte posture de transmission, coaching et mise en place des standards, pour accompagner une équipe en montée de maturité sur Databricks. 📅 Démarrage ASAP 📍 Île-de-France 🎯 Missions clés : ✅ Optimisation & fiabilisation des jobs Databricks (PySpark / Spark) ✅ Mise en place des standards & bonnes pratiques Data Engineering ✅ Coaching, mentoring, animation de la communauté Tech Lead ✅ Contribution aux migrations & à la modernisation du DataLake ✅ Travail sur l’industrialisation (CI/CD – Azure DevOps)
Contractor

Contractor job
Tech lead Python - FastAPI

Published on
Apache Kafka
FastAPI
Python

12 months
550-600 €
Paris, France
Hybrid
Contexte du poste Nous recherchons un Tech Lead expérimenté pour encadrer une équipe de 4 personnes (2 développeurs et 2 QA) au sein d’un environnement agile et orienté produit. Le rôle exige un haut niveau d’expertise technique , en particulier autour de Python et FastAPI , avec une participation active au développement et aux revues de code. En étroite collaboration avec le Product Owner , le Tech Lead sera responsable de la définition des besoins fonctionnels et techniques, de la conception de l’architecture, ainsi que du découpage des tâches pour l’équipe. Il jouera également un rôle clé dans l’amélioration continue des pratiques d’ observabilité et de sécurité . Missions principales Encadrer et accompagner une équipe composée de 2 développeurs et 2 QA. Participer activement au développement backend en Python et intervenir directement sur le code. Assurer des revues de code rigoureuses pour maintenir un haut niveau de qualité. Travailler conjointement avec le Product Owner pour : définir les besoins, concevoir l’architecture technique, découper les tâches et prioriser les développements. Mettre en place et améliorer les solutions d’ observabilité (logs, métriques, traces, dashboards). Renforcer les bonnes pratiques de sécurité applicative et d’architecture. Garantir la qualité, la performance et la maintenabilité des composants techniques développés. Compétences techniques recherchées Maîtrise avancée de Python (expert). Excellente connaissance de FastAPI et de la conception d’API performantes. Expérience significative avec Kafka (publication/consommation, patterns d’event streaming). Connaissances solides en observabilité : monitoring (ex. Grafana), logs, métriques, traces distribuées. Sensibilité forte à la sécurité applicative et infrastructurelle . Pratique confirmée des revues de code et des bonnes pratiques d’ingénierie logicielle. Capacité avérée à encadrer une équipe technique , accompagner les développeurs et structurer les travaux. Profil recherché Tech Lead / avec au moins 5 à 7 ans d’expérience , dont au moins une expérience en tant que Tech Lead. Forte culture engineering, sens du détail et exigence sur la qualité du code. Bon relationnel, capacité à collaborer étroitement avec un Product Owner et les QA. Esprit d’analyse, structuré, orienté solution. Envie de faire monter l’équipe en compétence et de participer activement aux décisions technologiques.
Contractor
Permanent

Job Vacancy
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans

Published on
Apache Spark
Hadoop
Python

3 years
38k-43k €
300-400 €
Paris, France
Hybrid
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données

Contract roles and jobs for Apache

Unix System Administrator (Linux...)

The Unix system administrator uses Apache to configure and manage web servers on Linux, ensuring the availability and performance of web services.

Systems & Networks Engineer

The systems and network engineer administers Apache servers, configures communication protocols, and optimizes the performance of websites and web applications.

Operations Engineer

The operations engineer uses Apache to deploy and maintain web servers, monitoring their performance and availability while ensuring the security of web applications.

Infrastructure and Production Manager

The infrastructure and production manager oversees the use of Apache to host applications and websites, ensuring the security and performance of the infrastructure.

198 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us