Trouvez votre prochaine offre d’emploi ou de mission freelance Apache à Paris

Votre recherche renvoie 47 résultats.
Freelance

Mission freelance
[MISSION LONGUE] Administrateur Lakehouse / Cloudera – Expert Big Data (H/F)

Publiée le
Apache
Apache NiFi
Apache Spark

12 mois
400-650 €
Paris, France
Télétravail partiel
Client final : secteur paiement – mission longue – environnement Cloudera CDP Nous recherchons un Administrateur Lakehouse / Administrateur Cloudera confirmé ou senior pour accompagner l’un de nos clients grands comptes dans la gestion et l’exploitation de son écosystème Big Data. 🎯 Compétences OBLIGATOIRES (critères majeurs) 👉 Maîtrise parfaite des composants Lakehouse suivants : Apache Ranger (Data Security) Apache Atlas (Gouvernance & Lineage) Spark + Apache Zeppelin (Processing) NiFi (Ingestion) Apache Impala (Analytics) Hadoop (HDFS) + Apache Kudu (Data Lake) Hue (Serving / SQL UI) ➡️ Ces compétences sont indispensables : seuls les profils maîtrisant ces briques seront retenus. 🧩 Vos responsabilités Administrer et maintenir l’écosystème Cloudera / CDP (Cloudera Manager, HDFS, Yarn, Zookeeper…). Assurer le MCO/MCS : disponibilité, performances, sécurité, supervision. Documenter les procédures d’exploitation & rédiger des rapports synthétiques. Respecter les SLA et intervenir en cas d’incident. Travailler en environnement ITIL (gestion incidents, problèmes, changements). Automatiser les déploiements via Ansible (certificats, keystores, configurations). Utiliser les outils DevOps : GitHub , Jenkins . Exploiter les environnements Linux (analyse de logs, diagnostic). Participer aux réunions d’équipe, aux projets et aux comités. Être force de proposition sur l’amélioration continue et la supervision. 🌍 Environnement technique Cloudera CDP • Cloudera Manager • HDFS • Yarn • Zookeeper Apache Ranger • Apache Atlas • Spark • Zeppelin • NiFi • Impala Hadoop • Kudu • Hue Ansible • GitHub • Jenkins • Linux 📌 Profil recherché 5 à 7+ ans en administration Big Data / Hadoop / Cloudera impératif. Très forte expertise sur les briques Lakehouse listées ci-dessus. À l’aise en production, ITIL, sécurité, automatisation. Bon niveau d’anglais (échanges éditeurs Cloudera & fournisseurs). Consultant autonome, structuré, capable de rendre compte et d’améliorer l’existant. 🚀 Disponibilité immédiate ou rapide Si vous maîtrisez Cloudera + Ranger + Atlas + Spark + NiFi + Impala + Kudu , contactez-moi directement.
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
330-420 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Freelance

Mission freelance
Data Architecte H/F

Publiée le
Apache Airflow
Apache Spark
BigQuery

210 jours
510-770 €
Paris, France
Télétravail partiel
Rejoignez un leader français de l'audiovisuel pour une mission stratégique d' Architecte Data GCP . Vous accompagnerez la Direction Technique du Numérique dans la consolidation et l'optimisation de sa Data Platform, en interface directe avec les équipes Data (Product Owners, Data Engineers, Data Scientists). Votre rôle sera de structurer l'architecture technique globale, améliorer l'expérience développeur et piloter l'optimisation des coûts cloud. Vos Missions : 🏗️ Architecture Technique Garantir la cohérence de la stack data entre équipes et projets Définir et faire respecter les contrats d'interface (schémas, API, data contracts) Effectuer la veille technologique et évaluer les standards du marché Tester, auditer et introduire de nouvelles technologies Réaliser un audit de l'architecture existante et recommander les améliorations ⚡ Developer Experience Contribuer à la création de modules Terraform et à leur industrialisation Accompagner les équipes dans l'usage de l'Infrastructure as Code Définir les standards CI/CD pour les équipes data (tests, lint, automatisation) 💰 FinOps & Optimisation Mettre en place un suivi budgétaire par équipe Implémenter des outils d'alerting et monitoring (quotas, seuils, dérives) Identifier les leviers d'optimisation et participer à la roadmap FinOps
Freelance

Mission freelance
Responsable DevOps

Publiée le
Apache Airflow
Apache Spark
AWS Cloud

12 mois
400-620 €
Paris, France
Le Responsable DevOps devra encadrer et animer une équipe DevOps. Vous jouerez un rôle clé dans la gestion des produits et plateformes d’infrastructure en assurant leur disponibilité, leur performance, leur évolutivité, leur gestion de l’obsolescence, leur capacité et la maitrise des coûts OnPremise, Cloud ou hybride. Rattaché(e) au responsable de l’entité, vous serez responsable hiérarchique d’une équipe d’une vingtaine de personnes (collaborateurs et prestataires) de profils techniques devops Cloud Public et On Premise. Dans cette évolution organisationnelle, l’organisation hiérarchique est décorrélée de l’organisation opérationnelle. Le responsable DevOps devra donc travailler et s’organiser de façon transverse et étroite avec les Product Owner, le Product Manager et le responsable de l’entité sysops pour assurer le delivery et atteindre les objectifs en fonction des besoins. L’équipe DevOps de l’entité « Plateforme IT » a la responsabilité du build et du run des produits et plateformes d’infrastructures OnPremise et Cloud public.
Freelance
CDI

Offre d'emploi
Développeur Full Stack Senior - Flux Paiement - Java 17 + / Kafka / Spring (H/F)

Publiée le
Apache Kafka
DevOps
Finance

12 mois
75002, Paris, Île-de-France
Télétravail partiel
Contexte Le projet comprend la construction d’une plateforme de services destinés aux prestataires de services de paiement (PSP) , ces derniers gérant toutes les interactions avec les utilisateurs (particuliers, entreprises, administrations) d’une monnaie numérique. Mission La mission porte sur le développement d’un composant responsable du règlement (vérification, exécution, enregistrement) des transactions de paiement. Date de début et de fin du contrat : Début Décembre 2025 (mission longue) Statut : CDI / Freelance Missions : - Conception et développement des composants et des prototypes - Définir et implémenter les tests unitaires des modules - Respecter les standards de développement, revues de code - Assurer le respect des exigences de performance, montée en charge, résilience) - Rédiger de la documentation technique (en anglais)
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandées Compétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Freelance

Mission freelance
Lead ingénieur Linux ( production )

Publiée le
Apache Tomcat
Gitlab
Kubernetes

12 mois
510-550 €
Paris, France
Télétravail partiel
Le Lead Ingénieur Linux de production garantit le fonctionnement technique des moyens de production. Il met en œuvre les solutions méthodologiques et techniques permettant d’optimiser la production informatique délivrés aux métiers. Il participe aux projets de transformation. Le Lead ingénieur Linux de production reporte au Responsable de l’exploitation et Responsable de Département de la DSI Sans avoir de responsabilité hiérarchique, il assure l'animation de l'équipe d'exploitation, défini collégialement les améliorations et solutions à mettre en œuvre, et coordonne ses collègues dans l'équipe. Il interviendra sur des sujets de rationalisation des solutions de stockage et d'archivage, et des ressources systèmes.
Freelance

Mission freelance
Administrateur d'Applications - Plateforme Instant Payment (IP)

Publiée le
Apache Kafka
ITIL
Maintien en condition opérationnelle (MCO)

12 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Ingénieur de Production expérimenté pour intégrer la Direction des Opérations (DOP) de notre client, une institution clé dans le secteur des paiements électroniques. Vous serez au cœur de l'administration d'une plateforme stratégique dédiée à l' Instant Payment (IP) . Niveau de Complexité : 3 Compétence Clé : Très bonne maîtrise des Middlewares . 🎯 Vos Missions Principales En tant qu'Administrateur d'Applications, votre rôle sera double : garantir la performance et participer à l'évolution de la plateforme. 1. Maintenance et Exploitation (MCO) Assurer la Maintenance en Condition Opérationnelle (MCO) des services applicatifs, en respectant rigoureusement les bonnes pratiques ITIL . Gérer le suivi quotidien de l'exploitation et veiller au respect des niveaux de service . Assurer le support (N2/N3) aux incidents et problèmes applicatifs et métiers. Réaliser les opérations de maintenance courante et d'administration des applications. 2. Projets et Amélioration Continue Participer activement à la mise en œuvre de nouveaux projets stratégiques de l'institution. Mettre en production une nouvelle solution de Lutte Contre La Fraude (LCF) . Participer à la mise en place d'indicateurs de supervision et de suivi de la plateforme . Proposer et mettre en œuvre des actions d’amélioration (procédures, scripts) pour optimiser la qualité et la productivité (réalisation de scripts d’amélioration de la Production ). Assurer le support à l’équipe de pilotage/supervision. 📝 Livrables Attendus Dossiers et rapports de Recette d'Exploitation . Dossiers de préparation et rapports des Mises en Production (MEP) . Rédaction et mise à jour des Fiches et Procédures d'Exploitation . Documentation de supervision. Rapports de reporting réguliers. 🛠️ Votre Profil Technique Une solide expérience sur les environnements suivants est indispensable : Domaine / Technologies Requises Fonctionnel:Instant Payment (Connaissance impérative) Middleware / EAI: Très bonne maîtrise, WMQ , Kafka , CONFLUENT Base de Données : Cassandra Système & Scripting : Linux , Scripts (Shell, Python, etc.) Méthodologie : ITIL Autres atoutsSpark , Github, Cloud, Sécurité, Virtualisation Langue : Anglais technique (lecture de documentation et échanges)
CDI
Freelance

Offre d'emploi
Développeur SPARK/ SCALA

Publiée le
Apache Kafka
Apache Maven
Apache Spark

3 ans
40k-45k €
400-550 €
Paris, France
Télétravail partiel
Contexte du poste: Dans le cadre du développement de sa plateforme Data & Analytics, l'entreprise recherche un Développeur Spark/Scala expérimenté pour rejoindre une équipe agile en pleine croissance. Vous interviendrez sur des projets stratégiques de traitement de données massives et d’industrialisation de pipelines analytiques dans un environnement Cloud et DevOps. Missions principales: Conception et développement de pipelines Big Data avec Spark & Scala Traitement de données batch et temps réel Optimisation de performances et tuning Spark Implémentation de scripts d’industrialisation et automatisation via CI/CD Participation aux cérémonies Agile et collaboration avec les Data Engineers et Architectes Contribution à la mise en production et au MCO des solutions développées Environnement technique: Langages & Frameworks Scala & Spark (obligatoire) Python (confirmé) Java (optionnel, un plus) CI/CD & Automatisation Jenkins (maîtrise impérative) XLR / XLD (XL Release & XL Deploy) Git, Maven Data & Cloud (bonus) Kafka, Hadoop, HDFS Cloud GCP ou Azure (apprécié)
Freelance
CDI

Offre d'emploi
DATA ENGINEER SPARK / SCALA / PYSPARK / DATABRICKS / AZURE

Publiée le
Apache Spark
Azure
Databricks

3 ans
36k-60k €
400-550 €
Paris, France
Télétravail partiel
Bonjour 👽, Pour le compte de notre client, nous recherchons un data engineer Spark / Scala / Pyspark / Databricks / Azure. Missions principales : Participer au développement des User Stories (US) et réalisation des tests associés. Produire et maintenir la documentation projet : mapping des données, modélisation des pipelines, documents d’exploitation. Mettre en place et maintenir le CI/CD sur l’usine logicielle. Assurer la mise en place du monitoring . Collaborer étroitement avec l’équipe projet ; pas de responsabilité de production individuelle. Travailler dans un environnement agile avec priorisation et gestion multi-projets. Compétences techniques indispensables : Maîtrise de Scala et Spark (batch principalement). Optimisation des jobs Spark et traitement de volumétries importantes / complexes . Bonnes pratiques de développement Scala et build Maven. Expérience en environnement cloud , idéalement Azure . Compétences techniques appréciées : Écosystème Databricks Azure Functions et Azure Data Factory Monitoring sous Datadog Déploiement avec Ansible Compétences transverses : Aisance relationnelle et esprit d’équipe Autonomie, rigueur et esprit d’analyse Capacité de synthèse et force de proposition Sens des priorités et respect des délais Appétence client et compréhension métier / fonctionnelle Mentoring et partage de connaissances
Freelance

Mission freelance
[SCH] Data Engineer Spark / Scala - 1047

Publiée le

10 mois
350-390 €
Paris, France
Télétravail partiel
Au sein de la DSI Finance, vous interviendrez en tant que Data Engineer Spark / Scala confirmé sur le projet d’intégration du Datalake Finance, adossé à la distribution Hadoop HortonWorks. Ce datalake centralise les données issues des systèmes comptables et de synthèse afin de répondre aux besoins de reporting Finances & Risques (COREP, RWA, IFRS9, etc.). Missions principales : -Participer au développement et à l’intégration de nouvelles sources de données au sein du Datalake Finance. -Assembler et distribuer les données aux consommateurs métiers tout en garantissant la pérennité et la performance des pipelines existants. -Contribuer à la conception technique, l’implémentation et les tests des flux sous Spark / Scala. -Veiller à la non-régression et à la qualité du code dans le cadre des évolutions du socle. -Travailler en méthodologie Agile (Scrum / Kanban) avec les équipes métiers, data et maintenance. -Participer à la documentation technique et aux revues de code. Profil recherché : -5 à 6 ans d’expérience en environnement Big Data / Datalake. -Solide maîtrise de Spark / Scala et des paradigmes de programmation fonctionnelle (ZIO, Monix, Cats appréciés). -Connaissance des écosystèmes Hadoop, Hive, Kafka, HBase, Kerberos. -Expérience dans un cadre Agile (Scrum / Kanban) et outils associés (Jira, Confluence). -Esprit analytique, autonomie, rigueur et bon relationnel.
Freelance

Mission freelance
Développeur EBX Senior

Publiée le
Apache Kafka
API REST
AWS Cloud

3 mois
480-520 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme de transformation digitale, nous recherchons un Développeur EBX senior pour contribuer à la construction et à l’évolution d’un référentiel de données d’entreprise (MDM). Objectifs et responsabilités Paramétrer et développer la solution EBX pour la gestion des données référentielles Concevoir et développer des interfaces d’exposition des données (API REST, topics Kafka) Participer à la définition de l’architecture applicative en collaboration avec les équipes métiers, techniques, sécurité et infrastructure Contribuer à la conception technique des projets : analyse des besoins, rédaction des exigences techniques Assurer la documentation technique et le suivi des phases de tests et de mise en production
Freelance
CDI

Offre d'emploi
Ingénieur Authentification & SSO – ILEX Sign&Go H/F

Publiée le
ADFS
Apache Tomcat
IAM

36 mois
50k-65k €
510-580 €
Paris, France
Télétravail partiel
Rejoignez une équipe stratégique en charge du build, MCO et RUN des équipements d’authentification forte et SSO pour un grand groupe. Vous interviendrez sur des plateformes critiques, avec une forte contrainte de production, autour du produit ILEX Sign&Go. Votre mission inclura l’intégration de projets nécessitant fédération d’identité (SAMLv2, WS-Fed) et MFA, ainsi que le maintien en conditions opérationnelles des systèmes d’accès. Vous serez amené à collaborer étroitement avec les équipes réseau et sécurité, et à monter en compétence sur des domaines connexes. La maîtrise des méthodes d’authentification (ADFS, Kerberos, fédération d’identité) est impérative. Des astreintes et interventions HNO sont à prévoir. Environnement technique : Windows Server, Apache/Tomcat, ILEX Sign&Go, SAMLv2, WS-Fed, ADFS, Kerberos.
Freelance

Mission freelance
Expert Camunda V8

Publiée le
Apache Kafka
API
Camunda

1 an
400-550 €
Paris, France
Télétravail partiel
Je suis à la recherche d'un expert Camunda V8. Camunda V8 - Expert - Impératif Java Full Stack - Expert - Impératif Confluence/Kafka - Confirmé - Important Participer au développement de l'automatisation de processus métiers en BPNM dans l'outil Camunda V8. Les taches à réaliser seront : - Modélisation BPMN (Camunda V8), - Développement de workers camunda V8 (Java, Kafka) - Paramétrage de connecteurs (api, kafka,..) Participer au développement de l'automatisation de processus métiers en BPNM dans l'outil Camunda V8. Les taches à réaliser seront : - Modélisation BPMN (Camunda V8), - Développement de workers camunda V8 (Java, Kafka) - Paramétrage de connecteurs (api, kafka,..)
Freelance

Mission freelance
[SCH] Développeur Backend Senior – Java 21 / Kafka - 1068

Publiée le

10 mois
400-450 €
Paris, France
Contexte : Nous recherchons un Développeur Backend expérimenté pour renforcer une équipe tech sur un projet à forte volumétrie de données. L’objectif est de concevoir, développer et optimiser des services backend robustes, scalables et orientés événementiel, en s’appuyant sur Java 21 et Kafka comme technologies centrales. Missions principales : -Concevoir et développer des micro-services backend en Java 21. -Participer à l’architecture, au design applicatif et aux choix techniques. -Implémenter des pipelines et flux asynchrones basés sur Apache Kafka. -Optimiser les performances, la résilience et la scalabilité des services existants. -Effectuer des revues de code, maintenances correctives et évolutives. -Participer aux rituels agiles (daily, sprint planning, review). -Rédiger la documentation technique associée. Profil recherché : -8+ ans d’expérience en développement backend. -Maîtrise 21, programmation fonctionnelle + bonnes pratiques clean code. -Solide expérience Kafka : topics, schemas, partitions, consumer groups, replay, DLQ. -Bonne compréhension des architectures Microservices / Event-Driven. -Connaissance des bonnes pratiques CI/CD, conteneurisation, tests automatisés.
CDI

Offre d'emploi
Data Engineer Senior

Publiée le
Apache Kafka
Apache Spark
Hadoop

Paris, France
Télétravail partiel
En tant qu’Ingénieur Data Senior, vous jouerez un rôle clé dans la conception, le développement et l’optimisation de solutions data innovantes pour le secteur bancaire. Vous serez un membre essentiel de l’équipe Data Engineering et collaborerez avec des experts métiers, data scientists et développeurs pour transformer les plateformes digitales de nos clients. Vos missions principales Concevoir, développer et maintenir des solutions big data robustes et évolutives avec Hadoop, Spark, Kafka… Mettre en œuvre des pipelines de données temps réel et batch pour des cas d’usage complexes Garantir la qualité, la sécurité et la conformité des données à chaque étape du cycle de vie Intégrer des solutions de streaming avec Kafka pour des analyses quasi temps réel Développer et maintenir des microservices en Node.js Encadrer les ingénieurs juniors et promouvoir les bonnes pratiques

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

47 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous