Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 257 résultats.
Freelance
CDI

Offre d'emploi
Ingénieur Support et Exploitation Plateformes Data

VISIAN
Publiée le
Apache Spark
Kubernetes

1 an
40k-45k €
400-650 €
Paris, France
Descriptif du poste Notre équipe est responsable du maintien en condition opérationnelle des plateformes suivantes qui tournent sur IKS (Kubernetes IBM) et bientôt sur OpenShift : Apache Spark Apache Airflow/Astronomer Starburst (trino) Dans le cadre du renforcement de notre capacité de support sur la nouvelle offre "DATAHUB V2", nous recherchons des prestataires spécialisés dans l'exploitation et le support de ces plateformes. Missions La prestation visera à : Assurer le maintien en condition opérationnelle en production des plateformes (Airflow, Spark, Starburst) Intervenir dans la gestion des incidents, l'analyse des root causes et la résolution Participer à l'optimisation des traitements Spark sur Kubernetes (tuning, configuration, dimensionnement), à l'optimisation de l'orchestration Airflow, à la gestion des catalogues Starburst Accompagner les équipes métiers dans l'utilisation efficace et sécurisée des plateformes Contribuer à la documentation et à l'amélioration continue de l'écosystème d'exploitation
Freelance
CDI

Offre d'emploi
Tech Lead Data Engineer

ANDEMA
Publiée le
Apache Kafka
Apache Spark
Hadoop

12 mois
50k-60k €
450-500 €
Lille, Hauts-de-France
Dans le cadre d'un dispositif Data Factory , nous recherchons un(e) Tech Lead Data Ingénieur(e) expérimenté pour intervenir sur une plateforme Big Data au cœur d’un projet critique en cours de déploiement . Vous jouerez un rôle clé dans la montée en puissance de la plateforme et dans la montée en compétences du client sur la stack data, dans un contexte présentant plusieurs points de fragilité nécessitant robustesse, leadership technique et sens des responsabilités . Missions : Réaliser les développements permettant d’ accélérer la mise à disposition des données sur la plateforme Big Data, dans le cadre d’un projet critique. Encadrer techniquement l’équipe de développement : - Suivi technique - Garantie des bonnes pratiques de développement - Qualité, performance et robustesse des livrables Faire monter en compétences l’équipe technique et le client sur la stack data (accompagnement, transmission, pédagogie). Environnement & conditions : Langue française obligatoire, anglaise apprécié Localisation : Hauts-de-France, proximité Lille Présence : 3 jours par semaine sur site Démarrage : ASAP
CDI
Freelance

Offre d'emploi
Data Engineer Java / Spark

Signe +
Publiée le
Java

24 mois
50k-55k €
358-550 €
Paris, France
Profil : Data Engineer Profil expérimenté avec des connaissances dans les déclaratifs réglementaires de l'Assurance-Vie Compétences techniques requises : Maîtrise avancée de Java Spark, y compris Java 11 et SparkSQL. Connaissance approfondie de l'écosystème Big Data, en particulier Hadoop, Spark et Kafka. Expérience significative en Build et en Run dans des environnements Big Data. Utilisation avancée d'outils DevOps tels que GitLab, Jenkins, Nexus, Maven, Docker, Kubernetes, ArgoCD, Sonar, etc. Solide compréhension des pratiques Agiles/SAFe et compétence dans l'utilisation de JIRA. Excellente maîtrise de Hive et Shell pour la manipulation et la transformation de données. Expérience confirmée avec des clusters on-premise MapR, y compris la gestion et l'optimisation. Compréhension approfondie des domaines de l'assurance, en particulier Assurance vie et Prévoyance. Connaissance avancée des bases de données relationnelles et non relationnelles. Excellentes compétences de communication pour collaborer efficacement avec les équipes. Leadership technique pour encadrer et orienter les membres de l'équipe. Esprit d'initiative et capacité à résoudre des problèmes techniques complexes. Capacité à travailler dans un environnement Agile et à gérer les priorités en conséquence. Gérer les clusters Hadoop MapR on-premise avec un accent sur l'optimisation des performances et le chargement de données en streaming (Kafka/MaprES) et en batch.
Freelance

Mission freelance
Administrateur Middleware Tomcat, JBoss EAP, ORLEANS

WorldWide People
Publiée le
Middleware

12 mois
330-350 £GB
Orléans, Centre-Val de Loire
Administrateur Middleware Tomcat, JBoss EAP, ORLEANS Le poste est en full présentiel avec deux jours de télétravail par semaine par la suite Compétences requises : - Serveurs d’applications : Tomcat, JBoss EAP, - Systèmes d'exploitation : Linux, Windows, - Autres : ElasticSearch, IBM MQ, ACE, Datapower, IBM API Connect, Keycloak, - Environnements : développement à production. Description de la mission : - Assurer le support et le conseil aux équipes de la Direction DSI, - Jouer un rôle de conseil et d’expertise technique auprès des équipes projets, - Mettre en œuvre, industrialiser et administrer des serveurs d’applications (Tomcat, JBoss EAP), - Préconiser et traiter les besoins de supervision et d’automatisation, - Industrialiser les tâches récurrentes, - Analyser les problèmes de performance et participer aux campagnes de benchmark, - Contrôler et maintenir les dispositifs de sauvegarde et de restauration pour assurer la continuité de service, - Traiter les incidents et les problèmes, - Qualifier et mettre en œuvre toute évolution technique du périmètre Middleware, - Adapter et maintenir les outils d’exploitation. Liste des tâches et des livrables : - Rédiger et actualiser les notes, procédures et comptes-rendus, - Contrôler la bonne application des procédures et des règles. Compétences requises : - Serveurs d’applications : Tomcat, JBoss EAP, - Systèmes d'exploitation : Linux, Windows, - Autres : ElasticSearch, IBM MQ, ACE, Datapower, IBM API Connect, Keycloak, - Environnements : développement à production. Compétences souhaitables : - Environnement d’infrastructure middleware, - Expérience solide en administration système, - Bonnes pratiques du fonctionnement d’une exploitation
Freelance
CDI

Offre d'emploi
Data Ingénieur Spark

R&S TELECOM
Publiée le
Batch
Docker
Git

1 an
Rennes, Bretagne
En tant que Data Engineer Senior, vous interviendrez sur l’ensemble du cycle de vie de la donnée. Tâches à réaliser : Concevoir, développer et maintenir des pipelines d’ingestion batch et streaming Implémenter des traitements Data robustes, industrialisés et observables Participer à la construction d’une architecture Lakehouse moderne Garantir la qualité, la traçabilité et la fiabilité des données Contribuer à l’industrialisation (CI/CD, DataOps, automatisation) Collaborer étroitement avec les Data Architects, Platform Engineers, Product Owners et équipes métier Appliquer les bonnes pratiques de sécurité by design et de conformité Participer à la documentation et au transfert de connaissances
Freelance

Mission freelance
Développeur Java – Middleware / Systèmes de Trading

AVA2I
Publiée le
Apache
Apache Kafka
Java

3 ans
450-550 €
Île-de-France, France
Dans le cadre d’un projet IT critique en environnement bancaire de marché , nous recherchons un Développeur Java pour intervenir sur un progiciel Middleware stratégique , utilisé comme interface centrale entre plusieurs systèmes de trading. La mission s’inscrit dans un contexte à forts enjeux de performance, de fiabilité et de continuité de service . 🎯 La mission Au sein d’une équipe IT spécialisée, vous interviendrez sur : Le développement et la maintenance d’un middleware critique L’intégration de flux entre différents systèmes applicatifs de trading La mise en œuvre et l’évolution d’une architecture microservices Les problématiques de performance, de résilience et de robustesse La collaboration avec des équipes techniques et métiers exigeantes 🛠️ Stack technique Java / Spring Architecture microservices Apache Camel RabbitMQ Kafka
Freelance
CDI

Offre d'emploi
Développeur Backend C# .NET Core – Kafka / Cassandra (F/H)

AVA2I
Publiée le
.NET
Apache Kafka
Big Data

3 ans
40k-45k €
400-550 €
Île-de-France, France
Dans le cadre d’un projet sur une plateforme moderne orientée services, nous recherchons un Développeur Backend C# / .NET Core (confirmé à senior) pour intervenir sur des services critiques en environnement Big Data . Le profil attendu devra être autonome , capable de comprendre rapidement une architecture existante et d’être force de proposition . Missions principales Développement backend en C# / .NET Core Contribution à l’évolution d’une architecture SOA / microservices Gestion des flux Kafka (production / consommation) Intervention sur la couche Data Layer (analyse, optimisation, maintenance) Maintenance applicative et amélioration continue Rédaction de documentation technique Mise en place et maintien des tests ( unitaires / intégration ) Compétences techniques clés C# / .NET Core (solide expérience en développement backend) Architecture orientée services ( SOA / microservices ) Kafka Cassandra (fortement apprécié, voire clé sur la mission) Bonne compréhension des couches Data Layer Expérience en maintenance applicative Pratique de la documentation technique et des tests (unitaires / intégration) Contexte & environnement Environnement ALM / Treasury (connaissance fonctionnelle appréciée mais non obligatoire) Contexte Big Data Plateforme moderne et industrialisée, orientée services
Freelance

Mission freelance
Ingénieur Industrialisation Middleware (H/F) - 45

Mindquest
Publiée le
Ansible
Apache Tomcat

3 mois
400-550 €
Orléans, Centre-Val de Loire
Contexte : La Direction des Systèmes d’Information de notre client, recherche, pour son domaine Exploitation – Infrastructure/Middleware, un prestataire capable d’assurer les développements Ansible permettant de réaliser l’administration des infrastructures middleware, ainsi que l’industrialisation et l’automatisation des actions récurrentes sur la plateforme Ansible. Mission - Mise en œuvre, industrialisation et administration des serveurs d’applications (Tomcat, JBoss EAP), - Industrialisation et automatisation des tâches récurrentes via Ansible Automation Platform, - Préconisation et traitement des besoins liés à la supervision et à l’automatisation, - Contrôle et maintien des dispositifs de sauvegardes et de restauration, en garantissant la continuité de service, - Qualification et mise en œuvre des évolutions techniques du périmètre Middleware, - Adaptation et maintien des outils d’exploitation. Liste des tâches et des livrables : - Rédaction, mise à jour et maintien de la documentation (notes, procédures, CR…), - Contrôle de la bonne application des procédures et des règles. *
Freelance
CDI

Offre d'emploi
Administrateur Infrastructures HDP/CDP

VISIAN
Publiée le
Apache Airflow
Apache Spark
Hortonworks Data Platform (HDP)

1 an
40k-45k €
400-540 €
Paris, France
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement pour assurer le MCO des Infrastructures HDP et CDP, administration des Clusters. Les consultants retenus auront pour mission : Administration et optimisation de clusters HDP/CDP Installation, configuration et maintenance des clusters Gestion des mises à jour et des patchs de sécurité Surveillance des performances et optimisation des ressources Gestion/administration de clusters Kubernetes Automatisation des déploiements avec Operators Sécurisation et monitoring des environnements conteneurisés Orchestration des workflows avec Apache Airflow Développement et optimisation des DAGs pour la gestion des pipelines de données Gestion des dépendances et optimisation des temps d'exécution Intégration avec les autres outils de l'écosystème Traitement et analyse des données avec Apache Spark Développement et optimisation des jobs Spark (batch et streaming) Gestion des performances et tuning des jobs Intégration avec les systèmes de stockage distribués Optimisation des requêtes et accès aux données avec Starburst Configuration et administration de Starburst Optimisation des requêtes SQL distribuées Sécurisation et gestion des accès aux différentes sources de données
Freelance

Mission freelance
241992/Développeur Java/Kafka Gitlab CI/CD KAFKA JAVA WEBLOGIC Bodeaux

WorldWide People
Publiée le
Apache Kafka
Java

3 mois
300-340 £GB
Bordeaux, Nouvelle-Aquitaine
Développeur Java/Kafka Bodeaux Gitlab CI/CD KAFKA JAVA WEBLOGIC expérience confirmée sur plusieurs clients pour croiser les expériences de production avec Weblogic Activité orientée 100% RUN sur le périmètre des infras historiques Sous snow : Gestion des changements, suivi des incidents, traitement des demandes de démantèlement des infra obsolètes Utilisation, JIRA et confluence pour le pilotage backlog et documentation produit. Objectifs et livrables Participation aux RPI incident majeur pour capitaliser en interne Organisation de PRI interne potentiellement Participation au copil bus Gestion de ses propres taches au quotidien sous jira comme les autres personnes de la team Organisation équipe en mode kanban flux tiré (lean IT), pas de sprint Compétences techniques Weblogic immédiate (autonomie attendue) Connaissance et expérience de production sur des Version WLS10.3.6 - WLS 12.2.1.2 - WLS 12.2.1.4 -API J2EE utilisé sur nos infras o JPA – JMS – SAF – MQSerie – Stockage NAS - SAF – API REST Gestion des domaines wls en mode cluster et mode standalone Installation domaine WLS et configuration bout en bout sur env FAB et PROD Manipulation de l’arbre JNDI Manipulation et configuration des files JMS Configuration des DNS Déploiements d’application, ear, war Manipulation des données dans les SAF Tests sur des environnement de tests de changement de configuration ou paramètres Support N2 / N3 Industrialisation (scripting shell, playbook ansible) autour des infra bus actuelles Diagnostic des logs avec utilisation ELK Autres compétences utiles Pouvoir manipuler des données sur une base oracle 19 (dump, requête SQL) connaissance GoldenGate - capacité à faire du scripting shell, playbook ansible pour automatiser certaines routines capacité à pouvoir installer des automatisations depuis d’autre CI CD (GitLab, jenkins, concourse) développement micro service Quarkus, déploiement et production sous K8S -administration socle Kafka Strimzi, Confluent (Kafka connect, Kafka stream, control center, schema registry ) - CI CD GitLab Compétences demandées Compétences Niveau de compétence Gitlab CI/CD Confirmé KAFKA Confirmé JAVA Confirmé WEBLOGIC Confirmé
Freelance

Mission freelance
DevSecOps (H/F)

Insitoo Freelances
Publiée le
Apache Maven
Docker
Jenkins

2 ans
400-600 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un DevSecOps (H/F) à Lyon, France. Contexte : Les missions attendues par le DevSecOps (H/F) : Mettre en place et maintenir les chaînes d'intégration et de déploiement continu (CI/CD) Automatiser les tests (unitaires, d’intégration, de non-régression) dans la chaîne CI Gérer les pipelines de build et de déploiement Piloter la gestion des vulnérabilités (détection, remédiation, suivi) Participer à l'élaboration de l'architecture sécurisée du produit avec les experts cybersécurité Promouvoir les bonnes pratiques de développement sécurisé auprès des équipes Automatiser la gestion des infrastructures via des outils IaC Identifier des leviers d'amélioration sur la rapidité, la qualité ou la stabilité des livraisons Terraform, Gitlab, Docker, Jenkins, Maven Sécurité: Checkmarx SAST, Checkmarx SCA, Checkmarx KICS, AWS Inpector, AWS Security Hub AWS (scanner Prowler, TestSSL) Monitoring : CloudWatch, Synthetics, Grafana Certification AWS SysOps Admin Associate / AWS DevOps Professional / AWS Security Specialty / AWS Cloud Practitioner Foundational demandées Profils lyonnais ou périphérie IMPERATIF Fonctionnement 2 jours non consécutifs et 3 jours de télétravail
Freelance

Mission freelance
Ingénieur Data Oracle/SQL/Python

CS Group Solutions
Publiée le
Apache Airflow
Oracle
Python

12 mois
380-400 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Ingénieur Data Oracle/SQL/Python Objectif global : Développement Data Engineer Oracle/SQL/Python Contrainte du projet: Contexte Data Les livrables sont: Développement des nouvelles fonctionnalités TU / Spécifications techniques MCO/RUN Compétences techniques: Oracle - Confirmé - Impératif SQL - Confirmé - Impératif Python - Junior - Important Airflow - Junior - Souhaitable Description détaillée: Nous cherchons un data ingénieur ASAP pour une mission longue durée Compétences : ORACLE impératif SQL impératif Python : c’est un plus mais pas obligatoire Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client
Freelance

Mission freelance
Expert Technique Cash Management (Swiftnet et ISO20022 OBLIGATOIRE)

Comet
Publiée le
Apache Kafka
Apache Spark

6 mois
600-750 €
Paris, France
Objectifs de la mission Intervenir en tant qu’expert technique sur des applications critiques de Cash Management dédiées au traitement de flux financiers à forte volumétrie. La mission couvre l’ingestion, la transformation et la diffusion de flux batch et temps réel , ainsi que l’intégration sécurisée avec l’écosystème bancaire international via SWIFTNet et les messages ISO 20022 , dans un environnement distribué basé sur Scala, Java, Python, Kafka, Spark et Hadoop . Rôle et responsabilités Concevoir, développer et maintenir des composants back-end robustes en Scala / Java / Python Intervenir sur des architectures orientées événements et streaming ( Kafka, Spark, ) Garantir la performance, la qualité du code et la stabilité des traitements de flux critiques Contribuer aux choix d’architecture, d’optimisation et de supervision ( Docker, Kubernetes, Jenkins, Sonar, Datadog ) Travailler en étroite collaboration avec les équipes métier Cash Management / Paiement dans un cadre agile
Freelance
CDI

Offre d'emploi
Data Engineer Elastic/OpenSearch et Kafka

VISIAN
Publiée le
Ansible
Elasticsearch

1 an
40k-45k €
400-620 €
Île-de-France, France
Descriptif du poste Dans le cadre de l'équipe Data Analytic, nous créons et maintenons des architectures Big Data pour les besoins internes de l'entreprise. Pour renforcer notre équipe support, nous proposons une mission de Data Engineering sur Elastic/OpenSearch et Kafka. Technologies principales Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) OpenSearch et Kafka Technologies couramment utilisées L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées :
CDD
Freelance

Offre d'emploi
Administrateur Ordonnancement / Intégrateur Applicatif DevOps

Espritek
Publiée le
Apache
Apache Tomcat
Keycloak

12 mois
31k-36k €
290-300 €
Nantes, Pays de la Loire
Dans un environnement de production critique, multi-applications et multi-environnements, le poste vise à assurer l’intégration, l’ordonnancement, la stabilité et l’exploitabilité des applications . Le rôle est opérationnel , orienté fiabilité, automatisation et industrialisation. Objectif du poste : Garantir que les applications : s’exécutent au bon moment dans le bon environnement de manière fiable, traçable et documentée avec un minimum d’intervention manuelle Missions principales 1. Ordonnancement – Visual TOM Administration et exploitation de l’ordonnanceur Visual TOM Création, paramétrage et maintenance des chaînes de traitements Gestion des dépendances, calendriers, fenêtres de traitement Supervision des flux batch et gestion des incidents d’exécution Optimisation et fiabilisation des plans d’ordonnancement 2. Intégration applicative / DevOps Déploiement et intégration d’applications sur des environnements : Apache Tomcat PHP Keycloak Participation à l’industrialisation des déploiements Interaction avec les équipes de développement et d’exploitation Gestion des configurations applicatives et middleware Contribution aux chaînes CI/CD (sans être un pur développeur) 3. Systèmes Administration systèmes Linux : SUSE Ubuntu Oracle Linux Utilisation de SUSE Manager Interventions ponctuelles sur Windows Server Gestion des services, logs, performances et incidents Respect des standards d’exploitation et de sécurité 4. Documentation et procédures Rédaction de : procédures d’exploitation modes opératoires documentation technique Mise à jour continue de la documentation Transmission du savoir et capitalisation technique
CDI
Freelance

Offre d'emploi
Data Engineer Opensearch/Kafka/Elasticsearch

OBJECTWARE
Publiée le
Apache Kafka
Elasticsearch

3 ans
38k-85k €
400-660 €
Île-de-France, France
Objectif de la mission Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur ELASTIC/OPENSEARCH et KAFKA Les principales technologies utilisees • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) • Open Search et Kafka L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs Prestations demandées La mission consiste à: Support, automatisation et maintien en conditions opérationnelles des plateformes ELK/Opensearch/Kafka ( ELK etant la priorite) Participation aux developpmenent de l equipe data Analytics Support plateforme WWW Environnement anglophone

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

257 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous