Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 302 résultats.
CDI
Freelance

Offre d'emploi
Ingénieur Technico Fonctionnel KCM / Apache Guacamole

AVALIANCE
Publiée le
Cybersécurité
Gestion des accès privilégiés (PAM)

1 an
40k-74k €
400-750 €
Montreuil, Île-de-France
Nous cherchons un profil technico fonctionnel qui puisse nous aider à la mise en place / évolution / durcissement d’un bastion d’administration basé sur Keeper Connection Manager (Guacamole). • Maîtrise technique de KCM / Apache Guacamole : architecture, protocoles (RDP/SSH…), configuration avancée. • Pilotage & change management : gestion des évolutions, mise en production, conduite du changement, documentation et formation. • Modèle de rôles (RBAC avancé) : conception, structuration et mapping des rôles/groupes (AD) vers les permissions KCM, gestion du moindre privilège et des politiques d’accès granulaires.
Freelance
CDI

Offre d'emploi
Data Engineer Python / Scala / Cloud

Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
API REST

12 mois
Paris, France
Contexte Dans le cadre du développement d’une Data Marketplace interne pour un grand groupe international du secteur de l’énergie, nous recherchons un Data Engineer expérimenté afin de renforcer une équipe produit data. La plateforme permet de centraliser l’ensemble du parcours data des utilisateurs : découverte de données, data quality, data governance, transformation de données, monitoring de pipelines et BI. Elle sera progressivement déployée auprès de plusieurs milliers d’utilisateurs dans un environnement international. Le consultant interviendra sur la conception et l’évolution des pipelines de données ainsi que sur l’optimisation de la qualité et de la performance des flux. Missions Développement et maintenance de pipelines de données en Python et Scala Conception et évolution d’une architecture data scalable et modulaire Gestion et optimisation des flux de données Mise en place de processus de data quality et validation des données Optimisation des performances des ingestions de données Participation aux rituels agiles et aux revues de code Documentation des choix techniques et de l’architecture Environnement technique Python Scala / Spark Cloud : AWS et Azure AWS : Lambda, Glue, Redshift, Step Functions, DynamoDB Streaming : Kafka, Kinesis, EventHub, EventGrid API REST Git CI/CD Big Data Architecture Connaissance de Langchain ou Langgraph appréciée.
CDI
Freelance

Offre d'emploi
Developpeur Senior Python (H/F)

1G-LINK CONSULTING
Publiée le
Apache Kafka
API REST
Soap

12 mois
Île-de-France, France
Contexte : Nous recherchons pour l'un de nos client un(e) développeur senior python. La mission s’inscrit dans le cadre des activités de détection, de prévention et de réponse aux incidents de sécurité affectant les réseaux opérateurs et les systèmes d’information de l’entreprise. Missions : Scripts : Développer des scripts automatisés pour optimiser les processus et les tâches récurrentes. Applications : Concevoir et implémenter des applications robustes et performantes répondant aux besoins fonctionnels. Conception : Élaborer des architectures techniques détaillées et des spécifications fonctionnelles claires. Documentations : Rédiger et maintenir une documentation complète et à jour pour l'ensemble des composants et processus. Rigueur : Appliquer une méthodologie rigoureuse à chaque étape du cycle de vie du projet. Qualité de code : Assurer la production d'un code source de haute qualité, maintenable et évolutif Tests : Mettre en œuvre une stratégie de tests exhaustive pour garantir la fiabilité et la conformité des livrables
CDI
Freelance

Offre d'emploi
Data Engineer/Architecte

OBJECTWARE
Publiée le
Apache Spark
AWS Cloud
DBT

3 ans
41k-91k €
400-710 €
Île-de-France, France
Missions principales Conception et optimisation de pipelines de données à grande échelle (batch, streaming, API) Structuration des données selon le modèle Médaillon (Bronze / Silver / Gold) Développement et industrialisation via DBT, Spark et Iceberg Orchestration des workflows ETL/ELT via Airflow Déploiement cloud sur AWS et infrastructure as code avec Terraform Conteneurisation des traitements ( Docker, Kubernetes ) Supervision, observabilité, gestion des incidents et qualité des données Documentation et conformité RGPD Accompagnement de profils juniors
Freelance
CDI

Offre d'emploi
DataOPs Kubernetes /MinIo -Trino

JEMS
Publiée le
Apache Spark
Kubernetes

3 ans
40k-65k €
400-550 €
Paris, France
Ingénieur Big Data expérimenté pour administrer et optimiser des solutions Big Data (Spark, Trino, MinIO) sur un cluster Kubernetes au sein d’un grand groupe. Ce rôle requiert une forte expertise en tuning applicatif, support et approche DevOps/GitOps. · Déploiement et administration avancée des applications Spark, Trino ou MinIO sur Kubernetes. · Tuning et optimisation des performances : ajustement des configurations, analyse des logs, debugging avancé, optimisation des requêtes SQL (Trino), tuning des jobs Spark. · Gestion du RUN et support applicatif : diagnostic et résolution des incidents, amélioration continue des performances, accompagnement des utilisateurs sur l’optimisation des requêtes. · Mise en place de l’approche GitOps : automatisation complète du déploiement et de la gestion des applications avec Terraform, Ansible, Git, ArgoCD/FluxCD. · Sécurisation et monitoring avancé : implémentation de métriques et alertes sur Prometheus, Grafana, Loki, gestion des accès et des logs applicatifs.
Freelance
CDI

Offre d'emploi
développeur java confirmé ( H/F)

AVA2I
Publiée le
Apache Kafka
Docker
Hibernate

1 an
Île-de-France, France
Nous recherchons un développeur back-end Java confirmé (H/F) pour intervenir sur la plateforme d’intégration du système d’information Trade Finance . Cette plateforme assure l’ interfaçage entre différents portails métiers liés aux activités de Trade Finance (lettres de crédit, garanties, collections, opérations d’import/export) et les systèmes de back-office . L’environnement technique repose sur une architecture microservices , avec des technologies d’intégration et de messaging. Les principales missions seront : Contribuer à la maintenance corrective et évolutive des applications . Concevoir et développer de nouvelles fonctionnalités d’interfaçage avec des portails clients , afin d’alimenter les systèmes de back-office. Participer aux différentes phases du cycle de développement : développement tests unitaires tests fonctionnels tests d’intégration tests de performance. Apporter un support aux tests d’intégration IT et métier (UAT) . Participer aux rituels Agile / Scrum et contribuer à l’amélioration continue (code review, refactoring, bonnes pratiques de développement). Étudier la faisabilité technique des solutions et participer aux estimations. Analyser et diagnostiquer les incidents remontés par les utilisateurs . Contribuer aux réflexions autour des évolutions technologiques et des outils .
Freelance

Mission freelance
Product Owner - Portail Investisseur (H/F)

Freelance.com
Publiée le
Apache Kafka
API
eFront

3 ans
400-640 €
Paris, France
Poste : Product Owner Portail Investisseur Localisation : Paris (2 jours présentiel mardi et vendredi, 3 jours télétravail) Expérience : +9 ans Mission : Longue, 3 ans Démarrage : ASAP Au sein du Train Agile Investissement , le Product Owner / Business Analyst prendra en charge la gestion du backlog produit "Portail Investisseur" en lien avec les métiers, les équipes éditeur et les équipes Digital / DSI. Le rôle inclut : Élaborer et partager la vision du produit avec les équipes métiers et l’équipe agile. Prioriser le backlog produit et rédiger les user stories avec critères d’acceptance. Assurer l’exécution des recettes fonctionnelles et applicatives , ainsi que le support utilisateur et l’assistance à la production (tickets d’incidents). Collaborer étroitement avec le Product Manager, le pilote digital, l’architecte et l’éditeur pour garantir la cohérence du produit avec la vision stratégique . Ce poste nécessite une capacité à coordonner plusieurs parties prenantes et à évoluer dans un contexte distribué, multi-sites.
Freelance

Mission freelance
Data Engineer Senior – Databricks / AWS / Airflow (Core Data Platform)

CHOURAK CONSULTING
Publiée le
Apache Airflow
AWS Cloud
CI/CD

3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe Data stratégique au sein d’un acteur international, avec des enjeux forts autour de la performance financière et de la fiabilité des données RH & Finance . 🎯 Contexte de la mission Vous intégrerez une équipe Core Data Product composée d’un Product Manager et de plusieurs Data Engineers. La Data est au cœur des décisions stratégiques. L’équipe est actuellement engagée dans une revue globale de son architecture et de sa modélisation , avec un objectif clair : moderniser la plateforme et transformer la stack legacy vers les nouveaux standards Data Platform. ⚙️ Missions principales Concevoir, construire et maintenir des pipelines et infrastructures data robustes et performantes . Optimiser l’architecture et la modélisation des flux. Participer à la transformation vers les nouveaux standards de la Data Platform. Garantir la qualité, la fiabilité et la gouvernance des données (Finance & HR). Assurer un RUN de qualité selon le principe “You build it, you run it”. Promouvoir les bonnes pratiques : CI/CD, revue de code, qualité du code . Garantir la sécurité et la conformité des données (RGPD). Évoluer en environnement Agile au sein d’une équipe internationale (anglais quotidien).
Freelance

Mission freelance
Concepteur JAVA JEE Lille H/F

LOMEGARD
Publiée le
Apache Tomcat
Hibernate
J2EE / Java EE

1 an
390-410 €
Lille, Hauts-de-France
Au sein d’une organisation spécialisée dans les solutions de paiement et d’authentification, vous intervenez au sein d'une Team qui assure les activités de Build et Run autour d'un produit interne. Dans le cadre de l’évolution de ce produit, une nouvelle application doit être développée from scratch afin de permettre la réception et le traitement de flux d’autorisation de paiement provenant d’une carte privative. Le projet est conduit en méthodologie Agile . Vos missions: Conception & Architecture Rédaction des spécifications fonctionnelles et techniques . Participation à la définition de l’architecture applicative. Contribution à la modélisation des flux et à la conception des APIs. Accompagnement & Développement Assistance technique auprès des développeurs. Participation aux développements (Java / Spring). Mise en place des bonnes pratiques de qualité, sécurité et performance. Qualité & Tests Réalisation des tests unitaires . Participation à la recette fonctionnelle . Exécution ou supervision des tests de charge . RUN & Exploitation Analyse des incidents. Prise en compte des contraintes d’exploitation et de supervision. Contribution à l’amélioration continue du produit.
Freelance

Mission freelance
Tech Lead Java

Cherry Pick
Publiée le
Apache Kafka
Java
Spring

12 mois
580-630 €
Paris, France
La compétence TECH LEAD JAVA KAFKA sera intégrée à l’équipe 3PO qui comprendra principalement : 1 chef de projet, 1 Responsable MOE, développeurs, des architectes et des AMOA. Les prestations, objet de ce cahier des charges, se dérouleront au sein du Cellule Maintenance Omega et auront pour objectif (liste non exhaustive), sous pilotage du Responsable MOE 3PO : La maitrise sur la technologie Java ; La participation à l’analyse des besoins et aux travaux préparatoires au développement ; La contribution à la conception technique des applications backend, des interfaces, modèles de données, diagrammes de séquence, gestion des modes dégradés, gestion des logs, ... en appui du MOE ; Le développement de l’application back-end & les tests associés La correction des anomalies de recette détectées par l’équipe AMOA ainsi que lors des tests métiers La revue de code de ces pairs La contribution à la rédaction de la documentation technique (spécifications techniques détaillées, PTI, PTE, Dossier de MEP...) en appui du MOE ; L’apport de son expertise sur les bonnes pratiques / outillage ; La proposition de pistes d’amélioration ; De maitriser les enjeux métiers autour de l’application ; Compétences techniques : Contribution (relecture/MAJ) aux spécifications techniques, contrats d’interfaces, MCD, MPD, flux, et à la gestion de modes dégradés - Spécialiste Architecture Hexagonale - Spécialiste Intégration : • Connaissance de la gestion de l’intégration d’une application au sein d’un SI (gestion des interfaces interapplicatives, format pivots, Kafka, web services, API …) - Maîtrise Expertise Langage de programmation web et frameworks : Java 17+ - Spécialiste Spring, Springboot 3 - Spécialiste Spring JPA, Spring Kafka, Spring Batch, Spring Web, Spring Security - Spécialiste Connaissance et mise en place de micro-services - Spécialiste Bus d’échange : Apache kafka - Spécialiste Usine logicielle (Git,GitLab, GitLabCI, SonarQube) - Maîtrise Base de données : PostGreSql, langage SQL, hibernate - Spécialiste Base de données : ElasticSearch - Notion REST / JSON - Spécialiste Sécurité applicative - Spécialiste Connaissances méthodologiques / certifications Méthodologie projet itératif / agile - Maîtrise Gestion de tests unitaires et d’intégration - Maîtrise
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer DBT senior

PRIMO CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD

1 an
40k-60k €
400-520 €
Paris, France
Pour l'un de nos grands comptes, nous recherchons un Data Engineer pour travailler dans une équipe composée de 1 Product Owner et de 2 Data Engineer : Participer aux phases de conception, de planification et de réalisation des tâches Construire et maintenir des pipelines Data robustes et scalables Produire des modèles DBT pour la transformation sur un environnement GCP (Bigquery) Expérience en méthodologie Agile (scrum ou kanban) Maîtriser la Stack technique : DBT, Python, SQL, GCP, Bigquery, Terraform, Airflow, Ci/cd.
CDI

Offre d'emploi
Développeur Fullstack Java/ Angular ou React F/H

cty
Publiée le
Apache Kafka
Apache Maven
CI/CD

Île-de-France, France
À propos de l’entreprise CTY est un cabinet de conseil fondé en 2015, dans le but de répondre à une problématique collaborative entre le besoin client et les attentes de nos consultants. Nous accompagnons nos clients (BFI, Assets Managers, Brokers, Editeurs de logiciels...) dans leurs projets IT les plus stratégiques via notre expertise : - Technique #DEVOPS #BigData #Hadoop #AngularJS #NoSQL # #Java - Gestion de projet #Agile #Scrum #Craftsmanship #Kanban #PMI #Lean Management - Métier #Pricers #TradingElectronique #TempsRéel #Risques #Réglementaires Mission: Concevoir, développer et maintenir des applications fullstack en s'appuyant sur une architecture microservices avec Java (Spring) Participer aux discussions techniques et contribuer aux choix architecturaux des projets Collaborer étroitement avec les équipes DevOps afin d’assurer une intégration fluide des systèmes Rester en veille sur les évolutions technologiques et s’impliquer activement dans l’amélioration continue des processus de développement Modéliser, concevoir et implémenter des bases de données robustes Effectuer les tests unitaires, d’intégration et de performance pour garantir la qualité des livrables Rédiger une documentation technique complète à destination des parties prenantes internes et externes Assurer la maintenance corrective et évolutive des applications existantes Environnement Technique : Langage : Java (Spring, Hibernate... ) et Angular, React Testing : Cypress, Tests unitaires et d’intégration Base de données : PostgreSQL, Oracle, SQL server Infra & Outils : AWS, GitLab, Jenkins, Sonar, Terraform, Suite Atlassian (Jira), Python (scripting), Kafka,
Freelance

Mission freelance
Data Engineer -CLOUD GOOGLE-

DEVIK CONSULTING
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
400-650 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Data Engineer Spécialisé sur Google Cloud afin de rejoindre la Squad data pour le pilotage commercial Tâches principales Développement de pipeline de données sur Cloud Composer / Airflow Optimisation des performances et coûts des traitements sur GCP Participation aux choix d'outils et des solutions techniques sur GCP et développement de nouvelles application Modélisation des données sur BigQuery Maintenir l'existant en condition opérationnelle Préparer et mettre en œuvre l’interopérabilité avec de nouveaux systèmes opérationnels Proposer des simplifications et/ou optimisations selon les normes internes Compétences demandées GCP : Confirmé Big Query : Expert Base de donnée : Confirmé Python : confirmé Lieu : Paris
Freelance

Mission freelance
Développeur NIFI

Nicholson SAS
Publiée le
Apache NiFi
BigQuery
CSV

9 mois
450 €
Île-de-France, France
Bonjour, Nous recherchons un Développeur Apache NiFi pour intervenir sur une mission en Île-de-France. 📍 Localisation : Île-de-France (2 jours/semaine sur site) 💰 TJM : 450 € 📅 Démarrage : 01/04/2026 📆 Fin de mission : 31/12/2026 🚀 Missions Au sein de l’équipe Run Flux , vous interviendrez sur des environnements critiques autour des plateformes Apache NiFi (environ 100 instances). À ce titre, vous serez en charge de : La mise en place, l’administration et la sécurisation des plateformes NiFi La conception et le développement de flux de données critiques L’automatisation des déploiements sur des environnements Cloud (GCP / Azure) en IaaS & CaaS Le monitoring de la disponibilité et des performances des plateformes L’automatisation avancée via scripting (Groovy) Contexte 24/7 , avec interventions possibles en heures non ouvrées selon la criticité. 🛠️ Environnement technique Apache NiFi (expertise avancée requise) Groovy / Java (scripting & automatisation) GitLab / GitHub Bases de données : Oracle, SQL Server, PostgreSQL Data & stockage : BigQuery, BigTable Langages & formats : SQL, JSON, XML, CSV Environnements Cloud : GCP / Azure 🎯 Compétences attendues Maîtrise des architectures de flux de données et des plateformes NiFi Capacité à concevoir, industrialiser et documenter des solutions techniques Autonomie dans la résolution de problématiques techniques complexes Bonne compréhension des enjeux de qualité, sécurité et traçabilité des données Expérience en environnement DevOps 🤝 Soft skills Excellente communication (écrite et orale en français) Esprit d’analyse et force de proposition Rigueur, respect des délais et sens de la qualité Esprit d’équipe et partage des connaissances Démarche d’amélioration continue 🎓 Profil recherché Formation Bac+5 (école d’ingénieur ou université) ou équivalent Minimum 3 ans d’expérience sur des problématiques de flux/data Une expérience dans le secteur retail / grande distribution est un plus 🔎 Profil cible Développeur Apache NiFi Expérience : 3 ans et + Compétences clés : Apache NiFi, Groovy
Freelance

Mission freelance
[SCH] Ingénieur Middleware / Support N2-N3 Java J2EE (JBoss/Tomcat) - 1287

ISUPPLIER
Publiée le

10 mois
350-400 €
Niort, Nouvelle-Aquitaine
Renfort de l’équipe Middleware chez le client pour du support opérationnel autour d’applications Java/J2EE hébergées sur JBoss/Tomcat, avec une forte composante Run (incidents/problèmes) et une ouverture sur l’industrialisation (containers / OpenShift). Mission : -Gérer les incidents N2/N3 et le problem management (analyse cause racine, actions correctives) -Réaliser le diagnostic applicatif : logs, APM, JMX, métriques -Administrer les serveurs Java (JBoss, Tomcat) : paramétrage, déploiements, redémarrages, supervision -Faire de la lecture de code Java (identifier erreurs, comportements, pistes de correction) -Gérer patching / sécurité et interventions planifiées -Contribuer à l’industrialisation (conteneurs, OpenShift) Profil attendu : -Autonome sur le support N2/N3 en environnement Middleware Java -Capable de diagnostiquer via logs + APM + JMX et d’identifier une cause probable rapidement -À l’aise en admin JBoss/Tomcat (config, déploiement, exploitation) -Sait lire du code Java pour aider au troubleshooting (sans forcément faire du dev feature) -Rigueur sécurité/patching, sens du service, communication claire (tickets, escalades) -OK pour interventions planifiées ; astreintes appréciées
Freelance

Mission freelance
Data engineer GCP

NEOLYNK
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Looker Studio

3 ans
300-450 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Lille 2 jours de TT par semaine démarrage asap mission longue 3 ans

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

302 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous