Trouvez votre prochaine offre d’emploi ou de mission freelance Apache à Paris

Mission freelance
INTEGRATEUR APPLICATIF TOMCAT / APACHE EXPERIMENTE
Pour un démarrage sous un mois environ, nous recherchons un(e) intégrateur technique d'application freelance très expérimenté pour intégrer les application web chez notre client, en lien avec la production et les équipes de développement. Très Important : le profil recherché n'est pas un ingénieur de production qui gère des procédures d'intégration applicative mais un consultant habitué à être intercalé entre les équipes de développements et la production et qui prépare les documents d'installation. de plus il doit être expert et parfaitement autonome avec beaucoup d'expérience sur Tomcat / Apache. Pas de Devops dans le périmètre. Astreintes possibles soir et week-end - répartition selon l'équipe Livrables sont : - Dossier d'installation - Composants applicatifs -Configuration applicative Description détaillée - Capable de configurer/installer tomcat manuellement sur windows ou linux - Capable d'analyser les logs tomcat en cas d'erreur - Capable de configurer/installer manuellement un serveur httpd - Capable d'analyser les logs httpd en cas d'erreur - Savoir évoluer dans un environnement linux - Récupération des livrables de développement sur les outils de Gestion de configuration (SVN, GIT) - Installation des packages sur les plateformes de tests - Qualification des packages sur les plateformes de tests selon les normes en vigueur - Vérification de la conformité des applications vis à vis des contraintes de production - Rédaction et validation des documents d'installation et d'exploitation - Rédaction et exécution des plans de tests techniques - Assistance et support technique à la mise en production - Communication avec l'équipe projet - Reporting

Mission freelance
CONSULTANT APACHE SUPERSET
Dans le cadre d'un renfort d'équipe chez l'un de nos clients : Nous recherchons un consultant Data / BI / Dataviz avec une expertise sur "Apache Superset" Missions principales : Configuration de dashboards superset : Création de dashboards dynamiques et interactifs pour répondre aux besoins spécifiques de l'entreprise Intégration de données provenant de différentes sources Mise en forme des données pour une visualisation claire et efficace Développement de plugins : Création de plugins personnalisés pour étendre les fonctionnalités de Superset Intégration de nouvelles sources de données Automatisation des tâches de reporting Informations complémentaires : Type de contrat : Prestation de service Début de mission : Immédiat Lieu de travail : Castres / Full Remote

Offre d'emploi
Senior Big Data Consultant (Spark on Kubernetes / Airflow / Kubernetes)
Concevoir, industrialiser et opérer des plateformes data “cloud-native” sur Kubernetes, incluant l’orchestration de pipelines via Airflow sur Kube, afin d’accélérer l’ingestion, le traitement et la mise à disposition de données à grande échelle (batch & near-real time) avec des standards élevés de fiabilité, sécurité et coûts. Responsabilités clés Architecture & design Définir l’architecture Data on Kube (ingestion, stockage, calcul, orchestration, observabilité). Modéliser et standardiser les data pipelines (DAGs Airflow) et patterns d’infrastructure (Helm/Kustomize). Industrialisation & déploiement Packager et déployer Airflow sur Kube (Helm chart officiel/Astro/OSS) avec HA, RBAC, autoscaling. Mettre en place des opérateurs Airflow (KubernetesPodOperator, SparkK8sOperator, etc.). Automatiser via GitOps (Argo CD/Flux) et CI/CD (GitHub Actions/GitLab CI). Opérations & SRE Gérer la capacité, le autoscaling (HPA/VPA/Karpenter), la QoS et l’optimisation des coûts (requests/limits, Spot/Preemptible). Observabilité end-to-end (logs, metrics, traces) et runbook d’incident (SLA/SLO/SLI). Sécuriser la plateforme (NetworkPolicy, Secrets, IAM, image signing, pod security). Data Engineering sur Kube Exécuter Spark/Flink/Beam sur K8s ; optimiser ressources, shuffle, I/O. Normaliser les environnements d’exécution (Docker base images, Python/Java runtimes). Gouvernance & qualité Mettre en place un data contract / schema registry , tests de données (Great Expectations/Deequ), lineage (OpenLineage/Marquez). Accompagnement Enablement des équipes data (templates, cookbooks), code reviews , mentorat et evangelism des bonnes pratiques.

Mission freelance
Ingénieur Production Kubernetes / Airflow / Spark – Secteur Bancaire
Nous recherchons un Ingénieur Production expérimenté pour rejoindre une équipe projet dans le secteur bancaire. Vous interviendrez sur des environnements critiques à forte volumétrie de données. Compétences obligatoires : Apache Spark Apache Airflow CI/CD Kubernetes OpenShift Python Anglais courant Profil recherché : +7 ans d’expérience en environnement de production Bonne capacité à travailler dans un contexte exigeant et international Esprit collaboratif et sens de la communication Conditions de mission : Lieu : Paris (2 jours de télétravail/semaine) Démarrage : ASAP Durée : longue mission (renouvelable)

Mission freelance
Data Engineer Apache Flink H/F
Dans le cadre de la mise en production d’une solution de traitement de flux temps réel , une grande entreprise internationale du secteur du luxe et de la beauté recherche un Data Engineer confirmé pour finaliser et industrialiser un POC développé avec Apache Flink (Python) . L’objectif principal est de stabiliser la pipeline de streaming existante , d’assurer la compatibilité avec l’infrastructure actuelle (notamment Elasticsearch), et de garantir un passage en production performant et fiable . Le consultant interviendra au sein d’une équipe Data pluridisciplinaire (Data Engineers, DevOps, experts cloud) et jouera un rôle clé dans la réussite du projet, de la revue technique du POC jusqu’à la mise en production sur Kubernetes .
Mission freelance
Lead Data Engineer Streaming
Contexte de la mission Dans le cadre du programme de modernisation de la plateforme data du Groupe, vous rejoignez la direction Data Engineering de la DSI Banque de Proximité et Assurance (BPA) en tant que Lead Data Engineer spécialisé en streaming. Vous serez responsable de la conception, de l’industrialisation et de l’optimisation des pipelines de données temps réel, en lien avec les enjeux métiers autour de la fraude, de la connaissance client, et de la supervision des parcours digitaux. Vous encadrerez une équipe de 3 à 5 data engineers et collaborerez étroitement avec les architectes, les data scientists et les équipes cloud. Stack technique & environnement Streaming & ingestion : Apache Kafka (Confluent), Kafka Connect, REST Proxy Traitement temps réel : Apache Spark Structured Streaming, Apache Flink (POC en cours) Orchestration : StreamSets, Airflow Cloud & stockage : Google Cloud Platform (BigQuery, Cloud Storage), Hadoop (legacy) Langages : Python, Scala, SQL CI/CD & Infra : GitLab CI, Terraform, Docker, Kubernetes (GKE) Monitoring : Grafana, Prometheus, Elastic Stack

Mission freelance
Ingénieur Control-M & Airflow / Paris
Bonjour, Nous recherchons pour le compte de l'un de nos clients intégrateurs un ingénieur ayant des compétences sur Control M et Airflow pour intervenir sur un projet qui a déjà démarré. Secteur d'activité client final : service public Démarrage : poste à pourvoir assez rapidement Lieu : Mission avec présence sur site La Défense + télétravail partiel Rythme de travail : temps plein Contexte de la mission : Migration de chaines d’ordonnancements Control-M vers Airflow Compétences obligatoires : Control M et Airflow
Offre d'emploi
Développeur Senior - 17+ Full Stack Kafka Spring Flux Paiement
Contexte Le projet comprend la construction d’une plateforme de services destinés aux prestataires de services de paiement (PSP), ces derniers gérant toutes les interactions avec les utilisateurs (particuliers, entreprises, administrations) d’une monnaie numérique. Mission La mission porte sur le développement d’un composant responsable du règlement (vérification, exécution, enregistrement) des transactions de paiement. Date de début et de fin du contrat : début novembre 2025 (mission longue) Statut : CDI / Freelance Activités : - Conception et développement des composants et des prototypes - Définir et implémenter les tests unitaires des modules - Respecter les standards de développement, revues de code - Assurer le respect des exigences de performance, montée en charge, résilience) - Rédiger de la documentation technique (en anglais) Compétences techniques attendues - Solides compétences en traitement et organisation de l’information - Excellente maîtrise du language de programmation Java (17+) - Connaissance de Kafka, Kafka Connect, Spring, base de données relationnelle et NOSQL - Expérience dans des environnements distribués sous fortes contraintes en matière de performance, intégrité et disponibilité - Méthodologie agile (SAFE) - Méthodologie DevOps, Autres compétences attendues - Expérience significative dans le secteur banque-finance - Bonne maitrise des formats et systèmes de paiement - Capacité à travailler en équipe dans un environnement international (Anglais B2 minimum)

Offre d'emploi
Data Engineer Python/Spark GCP
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Python/Spark/GCP Le data ingénieur avec la stack Python, Spark, SQL, dbt, BigQuery, Airflow, Terraform, Terragrunt, GCP . Ses missions : Déployer des datasets normés Accompagner les utilisateurs dans leurs usages. Mettre en place du contrôle qualité sur les datasets. En détail : Participer aux phases de conception, planification et réalisation. Construire et maintenir des pipelines data robustes et scalables. Organiser et structurer le stockage des données. Mettre en place et maintenir des infrastructures scalables et sécurisées. Contribuer à la gouvernance des données (qualité, fiabilité, intégrité). Construire et maintenir les workflows de CI/CD. Partager et appliquer les bonnes pratiques data engineering. Assurer évolutivité, sécurité et stabilité des environnements. Participer aux instances data engineers et à la mise à jour de la documentation. Assurer une veille technologique active .

Mission freelance
Administrateur fédération d’identité (H/F) - PARIS
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Administrateur Windows (H/F) Vos principales missions : Intégrer une équipe en charge du Build MCO et Run des équipements d’authentification, d’authentification forte et de SSO. Contribuer au Build et Run autour du produit ILEX Sign&Go et des plateformes d’authentification/contrôle d’accès. Assurer l'intégration des projets nécessitant fédération d'identité. Gérer et sécuriser les méthodes d’authentification : ADFS, SAML, fédération d’identité, Kerberos . Participer aux astreintes. Être polyvalent et monter rapidement en compétence sur les domaines techniques moins maîtrisés.

Mission freelance
Data Engineer Kafka, KStreams, K8S, Spark
MISSION Au sein de la Data Platform, le renfort devra intervenir en tant qu'expert sur les sujets Kafka, KStreams, K8S, Spark de la squad Data Value (connaissance client, collecte des événements digitaux...). Développer en Java des traitements de transformation et de production de données ; Designer des chaines optimisées CI/CD en collaboration avec les équipes. Assurer et garantir la production d'un code de qualité : robuste, maintenable et évolutif Participer à l'amélioration continue et à la revue de code Expertise souhaitée Expertise technique confirmé : - Kafka - Kstreams - K8s - streaming de données

Offre d'emploi
Expert Kafka
Missions principales Concevoir, déployer et administrer des clusters Kafka en environnement de production. Définir et mettre en place les bonnes pratiques d’architecture et de sécurité. Assurer la supervision, le monitoring et la résolution proactive des incidents. Optimiser la performance et la scalabilité des flux de données. Automatiser les déploiements et la gestion des clusters (CI/CD, Infrastructure as Code). Accompagner et former les équipes internes sur l’usage de Kafka et de son écosystème (Kafka Connect, Schema Registry, KSQL, etc.). Contribuer aux choix technologiques et à la roadmap data/streaming.
Mission freelance
4 x Java Kafka consultants
Hanson Regan recherche 4 x Java Kafka consultants pour une mission de 12 mois basée à Paris (3 jours sur site, 2 jours à distance). Deux profils d'expert full-stack (> 10 ans d'expérience) : l'un spécialisé dans la réglementation, l'autre travaillant sur le composant Access Gateway. Un profil avancé (7 à 9 ans d'expérience) : DevOps (Information Data Management, IDM), dont le rôle est de collecter des données opérationnelles et de fournir des services de gestion des données : interrogation, reporting, analyse, visualisation et stockage de l'historique. Un profil expert (> 10 ans) : Full-stack (Information Data Management, IDM), dont le rôle est de collecter des données opérationnelles et de fournir des services de gestion des données : interrogation, reporting, analyse, visualisation et stockage de l'historique. Excellente maîtrise du langage de programmation Java (17+) Connaissance de Kafka, Kafka Connect Connaissance du printemps Connaissance d'une base de données relationnelle ou NOSQL Expérience dans des environnements distribués avec des contraintes de performances, d'intégrité et de disponibilité élevées Méthodologie Agile (SAFE) Méthodologie DevOps Capacité à travailler en équipe dans un environnement international Niveau d'anglais minimum B2 Pour répondre aux besoins de nos clients, nous acceptons uniquement les candidatures de freelances travaillant au sein de leur propre entreprise. N'hésitez pas à nous contacter au plus vite si vous êtes intéressé.

Offre d'emploi
SENIOR Développeur C# .NET Backend Finance - systèmes de caching (Apache IGNITE idéalement)
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : La mission consiste à : Équilibrez le travail de développement stratégique avec les interruptions de soutien immédiates et le travail tactique. Interagissez avec les équipes d'assistance de première ligne, les utilisateurs professionnels le cas échéant et les autres équipes d'application qui utilisent des postes, y compris en hiérarchisant les demandes provenant de ces différentes sources. Responsable du cycle de vie complet des changements ; clarifier les exigences de l'entreprise, mettre en œuvre des changements, puis s'assurer qu'aucune régression n'a été introduite. Soutien technique de troisième ligne au besoin. L'équipe positions, au sein de laquelle se déroule cette mission, est responsable des services de gestion des positions et de l'API client associée. Le champ d'application comprend plusieurs classes d'actifs des marchés mondiaux - dérivés de taux d'intérêt, devises, obligations, pensions, contrats à terme, MBS, dérivés EQD. L'un des principaux objectifs de l'équipe est de faire progresser la plateforme, tout en répondant au support et aux demandes ad hoc dans un environnement en évolution rapide avec des exigences commerciales en constante évolution.

Offre d'emploi
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données

Mission freelance
Expert Karavan
Expert Karavan – Mission longue +8 ans d’expérience – Montpellier, Paris ou télétravail Démarrage ASAP – Fin 2025 (prolongation possible) TJM max 550 € Dans le cadre d’un programme de transformation data, notre client public recherche un expert Karavan pour industrialiser un socle d’échanges automatisés entre systèmes tiers et PIM interne. Missions Développement et mise en production de micro-services Karavan Intégration avec Kafka et portail d’API Management (Gravitee) Documentation technique et accompagnement à la recette Sécurisation et fiabilisation des échanges Profil recherché Expertise confirmée en Karavan , Kafka , Gravitee Connaissance de STEP (STIBO) appréciée Autonomie, rigueur et sens du delivery
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Apache
Administrateur·rice système Unix (linux...)
L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.
Explorez les offres d'emploi ou de mission freelance pour Administrateur·rice système Unix (linux...) .
Découvrir les offresIngénieur·e systèmes & réseaux
L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offresIngénieur·e d'exploitation
L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e d'exploitation .
Découvrir les offresResponsable des infrastructures et de la production
Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offres