Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 265 résultats.
CDI

Offre d'emploi
Ingénieur Data & API (H/F)

SYAGE
Publiée le
Apache Kafka
API REST
GraphQL

Monaco-Ville, Monaco
Mission : Au sein de l’équipe d’Ingénierie Logicielle, vous interviendrez dans les projets digitaux sur l’intégration de flux de données inter-applicatifs et DATA, et la mise en œuvre de l’exposition d’API via une plateforme d’API Management (). Principales Activités : Vous serez chargé(e) de l’architecture et l’intégration des flux dans la plateforme KESTRA (batch, ETL, event streaming...) Vous assurerez l’implémentation script ETL Python dans le cadre des flux de données Vous prendrez en charge l’exposition et la création d’API sur la plateforme d’API Management avec notamment : sécurisation, filtrage, médiation de protocole Lien hiérarchique : Responsable Informatique Ingénierie logicielle Manager : Non
CDI

Offre d'emploi
Ingénieur.e de production DevOps junior

Atlanse
Publiée le
Apache Tomcat
CFT (Cross File Transfer)
DevOps

40k-50k €
Île-de-France, France
Chez ATLANSE, nous construisons l’avenir avec nos clients Grands Comptes en offrant des infrastructures résilientes, des productions applicatives fiables, et une expérience utilisateur toujours améliorée. Pour cela, nous nous appuyons sur notre capital humain : des consultants confirmés et experts, reconnus pour leurs compétences techniques et leurs méthodologies éprouvées. En rejoignant notre équipe, vous contribuerez au maintien en conditions opérationnelles et aux déploiements d’applications critiques au sein d’un environnement bancaire exigeant. Le poste implique des astreintes régulières ainsi que des opérations planifiées certains week-ends. Votre rôle Déploiement et gestion des changements · Participer aux mises en production applicatives et techniques · Réaliser les déploiements sur des environnements Linux et Windows · Analyser et résoudre les incidents liés aux déploiements · Contribuer aux activités de gestion des changements · Participer aux opérations planifiées et aux interventions en horaires décalés Support de production et fiabilité des applications · Assurer le maintien en conditions opérationnelles des applications · Superviser les environnements de production et traiter les alertes · Diagnostiquer les incidents techniques et participer aux analyses de causes Automatisation et amélioration continue · Automatiser certaines tâches récurrentes liées aux déploiements · Faire évoluer les procédures pour fiabiliser les mises en production et faciliter le support · Rédiger et maintenir la documentation associée
CDI
Freelance

Offre d'emploi
DevSecOps Engineer

Halian
Publiée le
Apache Kafka
CI/CD
Openshift

4 ans
Strasbourg, Grand Est
Nous recherchons un(e) DevSecOps Engineer pour définir, mettre en œuvre et faire évoluer la stratégie DevSecOps au sein de projets IT complexes. Le rôle vise à intégrer la sécurité dès les phases de développement, tout en optimisant les processus de livraison et d’exploitation. Responsabilités principales Définir et déployer une stratégie DevSecOps alignée avec les besoins projets et les standards internes. Concevoir, développer et maintenir les outils, pipelines CI/CD et infrastructures supportant le cycle de vie applicatif. Réaliser des analyses de code , revues de sécurité et formuler des recommandations aux équipes de développement. Collaborer étroitement avec les équipes de développement, opérations et sécurité afin d’assurer des livraisons fiables et sécurisées. Participer à la supervision des environnements (réseau, serveurs, applications) et contribuer à l’amélioration continue des pratiques. Rédiger et présenter de la documentation technique claire à destination des équipes internes et des parties prenantes. Profil recherché Minimum 5 ans d’expérience en tant que DevSecOps Engineer ou rôle équivalent. Excellente compréhension du cycle de vie de développement logiciel (SDLC) . Solide expérience des outils d’automatisation et de CI/CD . Maîtrise de technologies DevSecOps telles que Git/GitHub, OpenShift, Helm, Kafka, Istio . Bonne connaissance des environnements cloud et conteneurisés. Aisance en communication écrite et orale, capacité à travailler dans des environnements multiculturels et internationaux.
CDI

Offre d'emploi
Developpeur Java Back End Expérimenté - Montpellier H/F

█ █ █ █ █ █ █
Publiée le
Apache Kafka
Docker
Java

Montpellier, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Développeur.se back end

Okara
Publiée le
Apache Kafka
Java
TypeScript

6 mois
Lille, Hauts-de-France
Tu souhaites relever un défi technique de taille au sein d'une structure agile et innovante ? Nous accompagnons un acteur en pleine croissance dans un projet ambitieux de transformation de son socle applicatif. Ta mission principale consistera à analyser et découper la codebase Java actuelle pour ré-implémenter progressivement les fonctionnalités clés vers une stack moderne en TypeScript. Au quotidien, tes responsabilités seront les suivantes : - Extraire des modules spécifiques du monolithe Java (comme la brique complexe de calcul de prix). - Assurer la cohabitation fluide et le décommissionnement progressif entre l'ancien et le nouveau système. - Garantir la robustesse fonctionnelle face aux enjeux réglementaires du secteur. - Évoluer dans un environnement technologique cohérent et innovant, où la maîtrise du langage prime sur l'attachement à un framework unique. Pourquoi postuler ? Rejoindre ce projet, c'est intégrer une start-up dynamique où tu auras un impact direct sur la transformation d'un système cœur de métier via une migration de legacy. Tu rejoindras une équipe de tech passionné·e·s qui valorisent l'excellence technique et le partage de connaissances. En intégrant le collectif Okara pour cette mission, tu bénéficieras d'un environnement stimulant où ton esprit d'initiative sera encouragé au sein d'une communauté d'expert·e·s qui placent l'humain et l'innovation au centre de leurs préoccupations.
Freelance

Mission freelance
Ingénieur Data Oracle/SQL/Python

CS Group Solutions
Publiée le
Apache Airflow
Oracle
Python

12 mois
380-400 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Ingénieur Data Oracle/SQL/Python Objectif global : Développement Data Engineer Oracle/SQL/Python Contrainte du projet: Contexte Data Les livrables sont: Développement des nouvelles fonctionnalités TU / Spécifications techniques MCO/RUN Compétences techniques: Oracle - Confirmé - Impératif SQL - Confirmé - Impératif Python - Junior - Important Airflow - Junior - Souhaitable Description détaillée: Nous cherchons un data ingénieur ASAP pour une mission longue durée Compétences : ORACLE impératif SQL impératif Python Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client
Freelance

Mission freelance
Expert Kafka / Infra - Mission Longue Freelance

Tenth Revolution Group
Publiée le
Apache Kafka
Grafana
Kubernetes

12 mois
400-520 €
Nouvelle-Aquitaine, France
Contexte Mon client, acteur majeur basé en Nouvelle Aquitaine, modernise son système d'information et souhaite renforcer son expertise Kafka. L'objectif : concevoir, industrialiser et automatiser une plateforme Kafka robuste et scalable, intégrée à un environnement Kubernetes/OpenShift. Vous intervenez en tant que référent technique, avec un périmètre étendu à la stack Elastic. Missions — Conseiller les équipes sur le choix des solutions, méthodes et services, notamment dans le cadre du MCO — Définir, mettre en place et contrôler l'application des bonnes pratiques et standards Kafka — Administrer et faire évoluer les normes, outils et référentiels du domaine — Participer aux études, développements et analyses techniques ponctuelles — Assurer une veille technologique et informer des évolutions pertinentes — Produire les livrables attendus : dossiers d'expertise, référentiels, dossiers d'architecture, tickets JIRA Environnement technique Kafka / Confluent (maîtrise indispensable) · Kubernetes / OpenShift · Ansible · Python · Prometheus / Grafana · AKHQ · Kafka GitOps Un plus apprécié : expérience sur la stack Elastic. Conditions de travail Localisation : Nouvelle Aquitaine Présence sur site : 2 jours minimum par semaine Démarrage : ASAP Durée : mission longue Expérience requise : 7 à 10 ans
Freelance

Mission freelance
Ingénieur(e) QA Back End

Byrongroup
Publiée le
Apache Kafka
API
API REST

1 an
380-480 €
Île-de-France, France
🎯 Dans le cadre d'un projet en banque, vos missions seront les suivantes : • Recueil et formalisation des besoins de tests • Concevoir la stratégie de tests • Rédiger et exécuter les campagnes de tests • Prioriser les scénarios • Définir les stratégies de validation de la qualité des données • Qualifier et diagnostiquer les dysfonctionnements • Collaborer avec les équipes techniques pour la correction des écarts • Vérifier la fiabilité des échanges de données • Pilotage de la qualité et du reporting • Coordination et suivi du planning
Freelance

Mission freelance
ETL / Data Streaming Project Manager  Anglais Courant

SKILL EXPERT
Publiée le
Apache Kafka
Gitlab
Linux

6 mois
450-500 €
La Défense, Île-de-France
Contexte de la mission Au sein de l’équipe Architecture et Intégration ( Centre de compétence Group Digital and IT de Saint-Gobain) dans un contexte international et multiculturel, vous aurez pour missions principales de gérer et piloter les lignes de services intégration ETL : Talend (Cloud - plate-forme hybridé) et Data Streaming ( Kafka Confluent - Cloud) Objectifs et livrables Le support / suivi / maintenance de l’existant (Projet CRM / Annuaire / PIM) Accompagnement dans la création de nouveaux projets (analyser le besoin des clients, le challenger, cadrage technique : définition d’architecture et conception technique des flux) Piloter l’équipe en Inde (en charge des développements / tests / déploiements) Gérer un plan de charge et proposer des plannings Administration et suivi opérationnel de notre plateforme Talend et des composants On Prem (upgrade, monitoring, résolution de problème ponctuel) Administration et suivi opérationnel de la plateforme Kafka Confluent Cloud Suivi de la facturation pour ces 2 plateformes Etablir, partager et faire partager les bonnes pratiques (configuration / développements …) Langues Niveau de langue Français Courant Anglais Courant
Freelance
CDD

Offre d'emploi
Architecte Big Data / Expert Databricks (H/F)

SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

6 mois
75k-90k €
700-750 €
Île-de-France, France
Dans un contexte d’accélération des projets data et de modernisation des plateformes analytiques, notre client recherche un Architecte Big Data / Expert Databricks H/F; Votre rôle sera clé pour concevoir des architectures data modernes, optimiser les performances et les coûts, tout en accompagnant les équipes dans leur montée en compétences. Vos missions Concevoir des architectures Big Data / Modern Data Stack robustes et scalables Réaliser des études techniques et cadrages des besoins data Définir et valider des architectures data sur Databricks et AWS Conduire des audits de performance et de code Produire des dossiers d’architecture (6 à 8 par an) Élaborer des supports de formation (10 à 12 par an) Animer des sessions de formation et de montée en compétences Rédiger des comptes-rendus d’audit (4 à 6 par an) Conseiller sur les bonnes pratiques d’optimisation des coûts et des performances
Freelance

Mission freelance
Data Engineer Devops (4-7ans) - Nantes - H/F

Argain Consulting Innovation
Publiée le
Apache Hive
Artifactory
Gitlab

12 mois
400 €
Nantes, Pays de la Loire
Nous avons besoin d’un renfort de profil développeur pour notre client grand compte dans le secteur bancaire, dont les missions sont les suivantes : Tâches : - Développer des User story relatives à l’ingestion /transformation de données avec des technos de type ETL sur une plateforme Cloudera customisée ou des procédures stockées - Mettre en œuvre les tests unitaires, participer à la recette fonctionnelle avec les Business analyst - Déployer le produit dans différents environnements - Produire la documentation associée à ces développements - Participer à l’affinage et chiffrage des solutions - Garantir et assurer le fonctionnement des produits en production (suivi du run) - Participer aux cérémonies et démarche agile Scrum Attendus : Prise en charge des récits de développement du backlog et des travaux associés (conception /DevTU/Recette/Déploiement ) du périmètre et de la trajectoire des produits de la squad Environnement techniques : Indispensables : ETL Jobfacto / Spark / HIVE / Oozie … Indispensables : Devops : Gitlab, Artifactroy
Freelance

Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Airflow / Composer

Pickmeup
Publiée le
Apache Airflow
BigQuery
Composer

3 mois
550-700 €
Paris, France
Un client migre sa dataplateforme legacy vers un socle full GCP. L'architecture et le plan sont validés. On recherche un experts polyvalents, moteurs de la migration, pas des exécutants. Vous portez plus spécifiquement l'orchestration du projet. Contexte : Vous rejoignez le pôle plateforme data (5 pôles au total) en binôme avec un autre Data Engineer GCP expert. Vous êtes tous les deux capables de tout couvrir, vous tirez l'équipe, vous posez les standards. Missions - Piloter la migration de l'orchestration vers Cloud Composer 2. - Nettoyer, rationaliser, porter les DAG existants, industrialiser les standards (CI/CD, tests, observabilité). - Orchestrer le cut-over legacy → cible sans double run. - Contribuer à la migration des pipelines BigQuery et à l'IaC Terraform du socle. - Transmettre à l'équipe interne au fil de l'eau. Stack (maîtrise attendue sur l'ensemble) Airflow 2.x, Cloud Composer 2, Python, BigQuery, Terraform, GCS, IAM GCP, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Freelance

Mission freelance
Developpeur back end expert

HAYS France
Publiée le
Apache Maven
Github
Java

3 ans
100-450 €
Lille, Hauts-de-France
Le prestataire intégrera l'équipe Delivery Experience en tant que développeur Java confirmé et contribuera aux objectifs suivants : - Concevoir et développer une Managed CI Java, solution clé en main d'intégration continue déployée et maintenue centralement pour l'ensemble des équipes Java du groupe. - Développer et maintenir les produits existants de la Software Delivery Toolchain, en garantissant leur disponibilité et leur évolution en accord avec les besoins des équipes utilisatrices. - Participer activement à la définition des standards techniques et des pratiques d'ingénierie au sein de l'équipe. - Contribuer à la culture d'excellence technique de l'équipe : revue de code, documentation, qualification rigoureuse des livrables. Activités principales : - Analyse & Conception - Analyser les pratiques CI/CD existantes au sein des équipes Java du groupe (branching, build tools, release, qualité) afin d'identifier les patterns communs, les besoins et les challenger. - Co Concevoir l'architecture de la Managed CI Java avec un architecte java : structure des GitHub Actions Workflows réutilisables, mécanismes d'override, configuration par composant. - Définir les interfaces de configuration exposées aux équipes développement (fichier de configuration, schéma, documentation associée). - Participer aux ateliers de co-conception avec les Product Owners et les équipes développement early adopters. - Développement - Développer les composants Java de la Managed CI : Workflows, parsers de configuration, plugins Maven/Gradle, intégrations GitHub Actions. - Implémenter les étapes de pipeline standardisées : build (Maven), tests unitaires et d'intégration, couverture de code (JaCoCo), analyse statique (SonarQube, Checkstyle, PMD), validation Swagger/OpenAPI, packaging Docker (BuildKit). - Développer et maintenir les outils existants de la Software Delivery Toolchain en Java / Spring Boot. - Intégrer les solutions dans l'environnement GitHub / GitHub Actions de l'équipe, en exploitant GitHub Copilot comme levier de productivité. - Maintenance & Support - Assurer la maintenance corrective et évolutive des composants de la Managed CI et de la Delivery Toolchain. - Analyser et résoudre les problématiques et incidents remontés par les équipes développement utilisatrices. - Monitorer les pipelines CI/CD et proposer des optimisations de performance (temps de build, parallélisation, cache). - Maintenir la documentation technique à jour et contribuer à la base de connaissance de l'équipe.
Freelance

Mission freelance
Mission freelance - Data / AI Engineer Snowflake - Toulouse

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
Apache Spark
Python

1 an
300-480 €
Toulouse, Occitanie
Vos missions : Collaborer avec le métier pour concevoir des transformations data / AI pertinentes pour le business, Industrialiser et gérer des pipelines de traitement de données en production, Contribuer à l’implémentation d’évolutions des plateformes data de nos clients, Accompagnement du métier dans le cadrage et le delivery de leurs cas d’usage data Être force de proposition auprès du client dans l’évolution de sa plateforme data Participation éventuelle à des avant-ventes afin d’aider à la conception de solutions techniques pour nos futurs clients Qualifications ? Vos atouts pour nous rejoindre : Cloud Data / IA Platform : Snowflake Orchestrateur : Airflow Framework de calcul distribué : Spark Langage : Python, PySpark, Scala, Java Infrastructure As Code : Terraform CI/CD : GitlabCI, Jenkins Containers : Docker, Kubernetes Versioning : Git
CDI

Offre d'emploi
Développeur Java Springboot - Quarkus H/F

█ █ █ █ █ █ █
Publiée le
Apache Kafka
CI/CD
DevOps

50k-60k €
Bézaudun-les-Alpes, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Expertise Elastic / Kafka

Root-MENU
Publiée le
Apache Kafka
Grafana
Python

6 mois
600-800 €
Niort, Nouvelle-Aquitaine
Dans le cadre de l’évolution de son système d’information nous recherchons un profil disposant de compétences avérées en matière d'expertise Kafka / Elastic pour développer, industrialiser et automatiser la plateforme Kafka / Elastic. ∗ Assister et conseiller dans le choix et l’utilisation des méthode ∗ Informer sur les évolutions ∗ Former aux nouvelles technologies et systèmes ∗ Participer aux études et développement & conduite d’études ponctuelles ∗ Gérer des normes, méthodes, outils et référentiels ∗ Mettre en place les normes, méthodes et outils et en vérifier l'application ∗ Certifier des composants et applications développées

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

265 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous