Find your next tech and IT Job or contract Apache

Your search returns 197 results.
Contractor
Permanent

Job Vacancy
INGENIEUR SUPPORT FONCTIONNEL & TECHNIQUE

Published on
Apache
Apache Tomcat
Dynatrace

3 years
40k-55k €
400-500 €
Ile-de-France, France
Hybrid
INGENIEUR SUPPORT FONCTIONNEL & TECHNIQUE Démarrage : Janvier 2026 Durée : 3 Ans Localisation : Ile de France (Proche Paris) Télétravail : 50% Profil : Experience : 3 - 5 ans d'experience Anglais : Professionnel (Parlé, lu, écrit) Mission : - Support et gestion des incidents de production - Triage et qualification des demandes utilisateurs - Priorisation des demandes Support et gestion des incidents de production - Traitement des demandes - Monitoring et animation des meetings de gestion et incidents de production
Contractor
Permanent

Job Vacancy
Intégrateur technique niveau 2 et 3

Published on
Apache Kafka

18 months
10k-50k €
100-500 €
Strasbourg, Grand Est
Hybrid
CONTEXTE La prestation se situe dans la Direction de la Fabrication, au sein du département « Paiements, Services Digitaux et Retraits », dans l’équipe Services Digitaux émission. L’équipe Services Digitaux assure la maîtrise d’œuvre des domaines applicatifs suivants : • Services temps réel HomeBanking (Card Services) • Services temps réel Paiement Mobile (Digital Card) MISSIONS 1. Intégration de projets monétiques • Analyse des spécifications des partenaires (Banques, réseaux monétiques, éditeur SOPRA Banking…) • Contribution à la définition du release plan (planning et contenu des livraisons) • Réception et déploiement des nouvelles versions du progiciel et du paramétrage métier • Réalisation des tests d’intégration (non-régression et évolutions) • Réalisation de campagnes de tests de performance (si évolution majeure de la solution) • Assistance technique et fonctionnelles aux équipes d’homologation (banque) • Coordination des actions entre les différents acteurs : Maîtrise d’ouvrage, Direction Technique, Homologation, partenaires externes… 2. Suivi opérationnel des environnements • Monitoring et suivi quotidien de l’environnement en production • Gestion des incidents détectés par le client ou un de ses partenaires en production et homologation • Suivi et résolution des problèmes identifiés 3. Contribution à l’industrialisation de la solution et amélioration de nos outils/méthodes • Identification des axes d'améliorations (méthodologie, technique, organisationnelle, exploitation…) • Enrichissement documentation technique et modes opératoire internes • Réalisation de petites évolutions sur nos outils internes (HTML/JavaScript ou Java) 4. Contribution possible au développement d’une IHM (10% de l’activité de l’équipe seulement) • front-end HTML/Javascript (React) • back-end Java (Spring Boot) Précisions • Activité d’intégration quasi exclusivement : La très grande majorité des développements applicatifs sont réalisés par notre éditeur SOPRA Banking. Il est donc important de partager avec les consultants qu’il ne s’agit pas d’une mission de développement. • Environnement technique : Notre socle applicatif historique s’appuie sur une architecture J2E « classique » (serveurs d’application WebLogic + BDD Oracle) dont il est intéressant de maîtriser les grands principes. Mais les nouveaux projets sont développés par notre éditeur en Cloud Native. Des notions sur les technologies Cloud sont donc un vrai plus (cf. compétences techniques optionnelles ci-dessous) même si notre onboarding prévoit des présentations sur ces technologies cloud.
Contractor
Permanent

Job Vacancy
Data Engineer AWS / Spark / Scala /Python

Published on
Apache Spark
PySpark
Scala

1 year
40k-56k €
400-600 €
Paris, France
Hybrid
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Contractor

Contractor job
Data Integration Specialist H/F

Published on
Apache Kafka
API REST
Apigee

6 months
500-550 €
Paris, France
Hybrid
Nous recherchons un Data Integration Specialist pour rejoindre un grand groupe international du secteur Luxe & Cosmétique dans le cadre d’une mission stratégique visant à moderniser et optimiser ses flux d’intégration de données. Le consultant interviendra au sein d’équipes IT et métier exigeantes, dans un environnement fortement orienté qualité, performance et continuité de service. Localisation : Aulnay-sous-Bois Télétravail : 2 à 3 jours par semaine Démarrage : Janvier 2026 Durée : 6 mois renouvelables Description du poste Le Data Integration Specialist sera en charge de concevoir, développer et maintenir les flux d’intégration entre les différentes applications du groupe (SAP, Salesforce, plateformes internes, outils Data, etc.), en environnement temps réel et batch. Les principales responsabilités incluent : Concevoir, implémenter et optimiser des flux d’intégration basés sur APIs, événements et web services. Comprendre et analyser les besoins des équipes métier, puis les traduire en solutions techniques robustes. Développer et maintenir les modèles de données, mappings, schémas d’intégration et documentation associée. Superviser et exécuter les tests fonctionnels, techniques, de performance et de charge. Assurer le support de niveau avancé sur les flux existants, diagnostiquer les incidents et garantir leur résolution. Participer à l’amélioration continue des standards techniques, des pratiques d’intégration et des outils.
Contractor

Contractor job
Développeur KAFKA & Analyste Fonctionnel – Projets et Support Applicatif

Published on
Apache Kafka

3 years
Ile-de-France, France
Hybrid
Contexte et périmètre : Le poste s’inscrit dans le suivi et le développement d’applications critiques pour la banque, couvrant des domaines tels que : Lutte Anti-Fraude et Sécurité Financière Conformité réglementaire Activités boursières Lutte contre le blanchiment d’argent et le financement du terrorisme Offres commerciales et gestion de la relation client Gestion des successions Le consultant participe à la fois à des missions de projets (développement et évolution d’applications) et de support applicatif (résolution d’incidents, suivi des applications).
Contractor

Contractor job
LEAD DATA ENGINEER H/F

Published on
Ansible
Apache Airflow
Apache Kafka

3 months
Levallois-Perret, Ile-de-France
Hybrid
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un Lead Data Engineer H/F chargé de concevoir, développer et industrialiser des pipelines Big Data dans un environnement Azure et Databricks. Le rôle implique l’ingestion, le streaming, la mise en place de standards techniques et la participation active à une communauté de Tech Leads. Objectif et livrable: Concevoir et industrialiser des pipelines d’ingestion Big Data haute performance. Mettre en place des standards de développement, bonnes pratiques et guidelines techniques. Optimiser la performance, la fiabilité et la scalabilité des traitements Spark/Databricks. Assurer l’intégration et l’orchestration des flux via NiFi, Kafka et Airflow. Accompagner techniquement l’équipe et jouer un rôle de référent au sein de la communauté Tech Leads. Produire une documentation claire, complète et pérenne couvrant architectures, patterns, et flux d’ingestion. Compétences attendues: Spark (expert) Databricks Kafka NiFi Azure Airflow Ansible Scala/Java, Python, SQL CI/CD (Azure DevOps, Git) N'hésitez pas à m'envoyer votre CV!! (L’objectif est de pérenniser ce poste en interne, les pré-embauches sont fortement privilégiées.)
Contractor

Contractor job
Testeur Cucumber & Cypress

Published on
Apache Kafka
Cucumber
Cypress

3 years
100-350 €
Lille, Hauts-de-France
Dans le cadre de cette mission, vous intervenez sur les composants Cost Component Repository et Eco-contributions rattachés à l'expérience Pricing & Profitability de la plateforme PDP Les principales tâches attendues sont les suivantes : - rédaction et exécution des cas de test manuels - création des plans de test pour chaque campagne - rédaction du rapport de synthèse des tests réalisés pour chaque sprint - analyse, animation et suivi des anomalies remontées par l'équipe et les key-users - manipuler des données en BDD afin de constituer les jeux de données nécessaires à l'exécution des campagnes (MongoDB) et utilisation des interfaces (Bruno / Kafka) - participation à l'automatisation des tests sur les composants (Gherkin, Cucumber, Cypress, Playwright)
Contractor

Contractor job
Big data / Scala / Spark engineer

Published on
Apache Spark
Big Data
Scala

6 months
400-640 €
Paris, France
Remote
Hanson Regan is looking for a Big data / Scala / Spark engineer for a 6 month renewable contract in remote with some travel to Belgium Advanced Data & Application Lifecycle Data Engineering Principles (Datalake, Lakehouse, SCD Types 1 & 2, PIT, ...), Application design, development, testing & deployment, Requirement Analysis Advanced Data Processing & Programming Language Apache Spark, Scala, SQL Advanced Real-time Processing Streaming Technologies (Apache Spark) or Flink Advanced Data Storage Iceberg, Delta Table, Parquet, Avro, CSV,JSON Cloud Platforms AWS, Snowflake (preferred) or Zure Databricks Intermediate Development Tools GIT CI/CD, DBT, Containers Afin de répondre aux besoins de nos clients, nous n'acceptons que les candidatures de freelances travaillant au sein de leur propre entreprise (SAS, SASU, SARL, EURL, etc.). N'hésitez pas à me contacter si vous souhaitez discuter de ce poste plus en détail.
Contractor

Contractor job
Développeur Java/Kafka/Kubernetes

Published on
Apache Kafka
Java
Kubernetes

1 year
400-550 €
Paris, France
Hybrid
Je suis à la recherche d'un Développeur Java/Kafka/Kubernetes. Maitrise des compétences techniques suivantes : - Kafka (kafka streams) - Java 21 - Kubernetes - API REST Autres Compétences - Conception technique - Conception archi - Volontaire - Bon relationnel - Assurer la conception, l’intégration et le développement des projets et solutions ainsi que les maintenances correctives et évolutives - Préparer la mise en production avec les équipes expertes - Gérer et maintenir la documentation fonctionnelle et technique - Assurer l’assistance à l’utilisation des applications - Assurer le diagnostic et la résolution des dysfonctionnements Au sein de cette Tribu, vous intégrerez la squad Proactivité Commerciale composée d’un PO/SM/Expert solution et 6 membres de la dev team (Business analysts/développeurs) et qui a pour missions de : - Maintenir une solution permettant de prioriser la liste des clients à contacter dans le cadre de la gestion de la relation client - Concevoir et développer des solutions pour les équipes Marketing et les Conseillers des Caisses Régionales - Assurer l’assistance fonctionnelle auprès des utilisateurs
Contractor

Contractor job
Ingénieur Production & DevOps – DSN/Prévoyance | Linux/Shell, Flux CFT/SFTP, Apache/Tomcat, ELK

Published on
Dynatrace
Scripting

2 years
360-500 €
Ile-de-France, France
Hybrid
Descriptif Nous renforçons l’équipe Run/DevOps d’un concentrateur DSN/IP (déclarations sociales) au cœur des échanges entre entreprises et institutions de prévoyance . Vous prenez en charge le suivi de production de la plateforme (webservices externes, batchs Quartz/daemons, IHM Angular adossée à ELK), l’ industrialisation et l’ automatisation des opérations. Missions Superviser la production (concentrateurs DSN/SNGI et IHM), traiter les incidents et contribuer à la résolution côté partenaires. Accompagner les mises en production et l’ orchestration des traitements. Automatiser les process récurrents (scripts, pipelines, observabilité) dans une démarche DevOps . Gérer les flux sécurisés (CFT, SFTP, Secure Transport, Sentinelle, SSL) et produire statistiques/justificatifs d’audit , désarchivage/réémission . Réaliser des POC/outils , documenter et fournir des comptes-rendus d’activité .
Permanent
Contractor

Job Vacancy
Expert Kafka, Nifi, Ansible H/F

Published on
Apache Kafka

3 years
Ile-de-France, France
Le service réalise le développement de l'ensemble des services BIGDATA , et garantit : - L’exploitabilité des présentations mises en œuvre - L'expertise des ensembles applicatifs - Le planning global de production - Le support au pilotage. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : - L’automatisation basée sur Cloudera CDP 7.1 à base d’Ansible et Terraform dans un contexte hybride cloud interne et serveurs physiques - Maintien de la production - La gestion des nouvelles demandes de nos bénéficiaires - Livraisons des projets qui apportent de la valeur à nos bénéficiaires - L’automatisation de l'administration et des demandes (self-service, API, scripts) - La mise en place des tests de nouveaux composants Environnement technique :  Ansible  Apache NiFi  Hadoop (Big Data)  Kafka  Scripting (GuitHub, Ansible, AWX, shell, vba)
Contractor

Contractor job
Business analyst IT - Paiement & Services

Published on
Apache Kafka
Oracle
PostgreSQL

3 years
Ile-de-France, France
Hybrid
Evolution au sein de l'équipe Paiement & Services qui a comme périmètre des applications concernant par exemple : la monétique (Cycle de vie des CB, Kit de contestation d'opération, ...), les virements instantanés et Hors Zone SEPA, la mobilité bancaire, le service "Verification of Payee" ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ---------- ----------
Contractor

Contractor job
Lead Data Engineer Streaming

Published on
Apache Kafka
Apache Spark

12 months
700-850 €
Paris, France
Hybrid
Contexte de la mission Dans le cadre du programme de modernisation de la plateforme data du Groupe, vous rejoignez la direction Data Engineering de la DSI Banque de Proximité et Assurance (BPA) en tant que Lead Data Engineer spécialisé en streaming. Vous serez responsable de la conception, de l’industrialisation et de l’optimisation des pipelines de données temps réel, en lien avec les enjeux métiers autour de la fraude, de la connaissance client, et de la supervision des parcours digitaux. Vous encadrerez une équipe de 3 à 5 data engineers et collaborerez étroitement avec les architectes, les data scientists et les équipes cloud. Stack technique & environnement Streaming & ingestion : Apache Kafka (Confluent), Kafka Connect, REST Proxy Traitement temps réel : Apache Spark Structured Streaming, Apache Flink (POC en cours) Orchestration : StreamSets, Airflow Cloud & stockage : Google Cloud Platform (BigQuery, Cloud Storage), Hadoop (legacy) Langages : Python, Scala, SQL CI/CD & Infra : GitLab CI, Terraform, Docker, Kubernetes (GKE) Monitoring : Grafana, Prometheus, Elastic Stack
Contractor

Contractor job
Data Engineer Spark/Scala

Published on
Apache Spark
Scala

3 months
330-400 £GB
Paris, France
Hybrid
Data Engineer Spark/Scala Paris o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Contractor

Contractor job
Développeur Java Linux

Published on
Apache Maven
Java
Jenkins

3 months
Osny, Ile-de-France
Pour l'un de nos clients finaux à Osny, nous recherchons un développeur Java - Linux. (1 jour de télétravail). Démarrage dès que possible pour 3 mois (potentiellement renouvelable). - Participer aux travaux de conception des features - Participer à la définition et la mise en œuvre des tests unitaires automatisés - Effectuer les travaux de développement conformément aux besoins exprimés, en suivant les bonnes pratiques en termes de développement sécurisé - Participer à la rédaction de la documentation technique - Participer à la déclaration et à la correction des anomalies - Participer aux revues de code
Contractor
Permanent

Job Vacancy
Lead Data Engineer / Data Engineer senior H/F

Published on
Ansible
Apache Airflow
Apache Kafka

6 months
65k-80k €
650-760 €
Levallois-Perret, Ile-de-France
Hybrid
Nous recherchons pour le compte de notre client un Lead Data Engineer / Data Engineer Senior H/F pour une mission en freelance ou portage salarial de 6 mois renouvelable à pourvoir dès que possible dans le département 92 (Ile-de-France). Un début de mission en janvier 2026 peut-être envisageable. Notre client propose 2 jours de télétravail maximum par semaine. Responsabilités principales : Mise en place de standards de développement et bonnes pratiques Expertise en performance, fiabilité et scalabilité Participation à la communauté des Tech Leads avec les différentes Lines of Business de notre client Développement de flux d’ingestion

Contract roles and jobs for Apache

Unix System Administrator (Linux...)

The Unix system administrator uses Apache to configure and manage web servers on Linux, ensuring the availability and performance of web services.

Systems & Networks Engineer

The systems and network engineer administers Apache servers, configures communication protocols, and optimizes the performance of websites and web applications.

Operations Engineer

The operations engineer uses Apache to deploy and maintain web servers, monitoring their performance and availability while ensuring the security of web applications.

Infrastructure and Production Manager

The infrastructure and production manager oversees the use of Apache to host applications and websites, ensuring the security and performance of the infrastructure.

197 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us