Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Offre d'emploi
Expert Spark (Spark /Airflow /Superset )
Dans le cadre de son initiative Big Data FR sur plateforme Open Source , GRDF recherche un Expert Spark afin de renforcer son équipe Data. L’objectif est de contribuer à la conception, à l’optimisation et au déploiement de pipelines Big Data à grande échelle, avec un focus sur la performance et la fiabilité. 🚀 Missions principales: Participer à la conception et au développement de pipelines de données distribués basés sur Spark. Optimiser la performance des traitements et garantir la scalabilité des solutions. Déployer, monitorer et maintenir les workflows de données via Airflow . Créer et améliorer des dashboards et visualisations de données avec Superset . Collaborer avec les équipes Data Engineering, Data Science et métiers pour intégrer les besoins fonctionnels dans la plateforme Big Data. Assurer une veille technologique et proposer des solutions innovantes dans l’écosystème Big Data Open Source.

Offre d'emploi
Ingénieur Big Data DevOps
Attentes principales du client RUN & Support avancé Assurer le MCO (Maintien en Condition Opérationnelle) des plateformes Big Data. Résoudre les incidents N2/N3 et analyser les root causes pour fiabiliser la production. Accompagnement et relation client Être capable d’ expliquer et de guider les utilisateurs dans l’usage des plateformes. Jouer un rôle de référent technique sur NiFi / Kafka / ingestion de données. Build & industrialisation Concevoir et automatiser les offres d’ingestion de données. Participer aux déploiements NiFi , à l’ industrialisation des flux , et à la mise en place de CI/CD. Administration & Sécurisation Gérer et sécuriser les clusters Big Data et les environnements applicatifs (on-prem et cloud). Gérer le cycle de vie des technologies : upgrades, patchs, migrations. Contribution aux projets Travailler dans un cadre Agile (Scrum/Kanban) . Développer (Java/Spring, React, CSS/JS) et intégrer les solutions nécessaires. Apporter une veille technologique et être force de proposition pour améliorer les plateformes. Compétences clés recherchées Big Data : Apache NiFi (le plus attendu), Kafka, HDFS, Hive, Hue, IBM COS, Oracle DB. CI/CD & automatisation : Ansible, GitLab CI, ArgoCD, Vault. Systèmes & infra : Linux RHEL, Kubernetes, OpenShift, environnements stateful. Dev : Java (Spring Boot / Security), React, CSS3, JS, frameworks UI (Ant Design, Bootstrap, Material). Méthodes : Scrum, Kanban.

Offre d'emploi
Ingénieur Data
Dans le cadre du renforcement de notre capacité de support sur une nouvelle offre Data, nous recherchons des prestataires spécialisés dans l’exploitation et le support de ces plateformes. La prestation visera à : · Assurance de support de niveau 2 en production des plateformes mentionnées (PROD). · Intervention dans la gestion des incidents, l’analyse des root causes et la résolution. · Participation à l’optimisation des traitements Spark sur Kubernetes (tuning, configuration, dimensionnement), à l'optimisation de l'orchestration Airflow, à la gestion des catalogues Starburst · Accompagnement des équipes métiers dans l’utilisation efficace et sécurisée des plateformes. · Contribution à la documentation et à l’amélioration continue de l’écosystème d’exploitation.

Offre d'emploi
Data Engineer Python/Spark GCP
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Python/Spark/GCP Le data ingénieur avec la stack Python, Spark, SQL, dbt, BigQuery, Airflow, Terraform, Terragrunt, GCP . Ses missions : Déployer des datasets normés Accompagner les utilisateurs dans leurs usages. Mettre en place du contrôle qualité sur les datasets. En détail : Participer aux phases de conception, planification et réalisation. Construire et maintenir des pipelines data robustes et scalables. Organiser et structurer le stockage des données. Mettre en place et maintenir des infrastructures scalables et sécurisées. Contribuer à la gouvernance des données (qualité, fiabilité, intégrité). Construire et maintenir les workflows de CI/CD. Partager et appliquer les bonnes pratiques data engineering. Assurer évolutivité, sécurité et stabilité des environnements. Participer aux instances data engineers et à la mise à jour de la documentation. Assurer une veille technologique active .

Mission freelance
Administrateur fédération d’identité (H/F) - PARIS
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Administrateur Windows (H/F) Vos principales missions : Intégrer une équipe en charge du Build MCO et Run des équipements d’authentification, d’authentification forte et de SSO. Contribuer au Build et Run autour du produit ILEX Sign&Go et des plateformes d’authentification/contrôle d’accès. Assurer l'intégration des projets nécessitant fédération d'identité. Gérer et sécuriser les méthodes d’authentification : ADFS, SAML, fédération d’identité, Kerberos . Participer aux astreintes. Être polyvalent et monter rapidement en compétence sur les domaines techniques moins maîtrisés.

Offre d'emploi
Expert Kafka
Missions principales Concevoir, déployer et administrer des clusters Kafka en environnement de production. Définir et mettre en place les bonnes pratiques d’architecture et de sécurité. Assurer la supervision, le monitoring et la résolution proactive des incidents. Optimiser la performance et la scalabilité des flux de données. Automatiser les déploiements et la gestion des clusters (CI/CD, Infrastructure as Code). Accompagner et former les équipes internes sur l’usage de Kafka et de son écosystème (Kafka Connect, Schema Registry, KSQL, etc.). Contribuer aux choix technologiques et à la roadmap data/streaming.

Mission freelance
Data Engineer Kafka, KStreams, K8S, Spark
MISSION Au sein de la Data Platform, le renfort devra intervenir en tant qu'expert sur les sujets Kafka, KStreams, K8S, Spark de la squad Data Value (connaissance client, collecte des événements digitaux...). Développer en Java des traitements de transformation et de production de données ; Designer des chaines optimisées CI/CD en collaboration avec les équipes. Assurer et garantir la production d'un code de qualité : robuste, maintenable et évolutif Participer à l'amélioration continue et à la revue de code Expertise souhaitée Expertise technique confirmé : - Kafka - Kstreams - K8s - streaming de données

Offre d'emploi
Ingénieur Expert Middleware (Apache,Tomcat,JBoss)
L'Expert Système intervient sur le périmètre des serveurs d'applications (HAProxy, NGinx, Tomcat, Apache, WAS, IHS, JBoss) afin d'assurer leur mise en catalogue, leur maintien en condition opérationnelle et la gestion des incidents critiques. Il contribue à la conception, au déploiement et au suivi des infrastructures techniques en environnement Cloud interne BPCE-IT, en garantissant qualité, performance et sécurité. Responsabilités principales 1. Expertise & Conseil * Assurer l'expertise sur les serveurs d'applications et technologies associées. * Garantir la cohérence technique des infrastructures avec les besoins fonctionnels et techniques. * Apporter conseil, assistance, information et formation aux équipes. * Effectuer une veille technologique continue. 2. Études et Conception (Design) * Participer aux études d'architecture et aux évolutions des infrastructures. * Concevoir les solutions techniques et les infrastructures associées. * Contribuer à la réalisation de POC et prototypes avec les architectes. * Définir les infrastructures nécessaires aux projets et à leur maintien en condition opérationnelle. 3. Ingénierie & Déploiement (Build) * Assurer l'installation, le paramétrage et la validation des plates-formes techniques. * Rédiger et maintenir la documentation technique. * Coordonner les différents acteurs lors des phases d'installation et de configuration. * Garantir la mise en oeuvre des bonnes pratiques d'exploitabilité. 4. Exploitation & Support (Run) * Garantir la disponibilité et la performance des infrastructures. * Prendre en charge les incidents critiques de niveau 3 (N3). * Réaliser des diagnostics approfondis, proposer des solutions correctives ou de contournement. * Assurer des astreintes régulières. * Participer aux actions de capacity planning et proposer des améliorations de performance. * Vérifier l'application des normes de sécurité et de qualité. Livrables attendus * Documentations techniques (installation, configuration, exploitation). * Rapports d'activité (suivi des incidents, améliorations, capacity planning).

Offre d'emploi
Développeur.euse Java / Kafka / ReactJS
Au sein de l'équipe Architecture d'entreprise, vous participerez au développement et à l’évolution de la plateforme IoT en vous appuyant sur des technologies comme Kubernetes, Kafka et les architectures Microservices afin de concevoir des services innovants pour les consommateurs et les partenaires. Votre rôle Développement & Conception Concevoir, développer et mettre en œuvre des services évolutifs et performants répondant aux besoins de l'entreprise Participer à l’architecture et à l’évolution des solutions IoT Qualité du code & partage de bonnes pratiques Contribuer à la révision du code et au partage des connaissances Documenter et maintenir les solutions techniques Maintenance & Suivi opérationnel Dépanner et résoudre les incidents techniques Surveiller, mesurer et optimiser les performances des solutions déployées Méthodologie & Collaboration Participer activement aux cérémonies Agile : réunions quotidiennes, planification des sprints, rétrospectives Travailler en étroite collaboration avec les architectes et ingénieurs pour créer et déployer des systèmes clés pour les solutions IT

Mission freelance
Expert Système - HAProxy, NGinx, Tomcat, Apache, WAS, IHS JBoss- N3
CONTEXTE Objectif global : Réaliser l'expertise autour des serveurs d'applications HAProxy, NGinx, Tomcat, Apache, WAS, IHS JBoss Contrainte forte du projet : Astreintes régulières, expertise autour des serveurs d'applications HAProxy, NGinx, Tomcat, Apache, WAS, IHS JBoss MISSIONS : Mettre au catalogue Entreprise (cloud interne) et maintenir en état opérationnel les solutions clé en main de socles serveurs d'applications. Mettre au catalogue Entreprise (cloud interne) et maintenir en état opérationnel les outillages de configuration de ces socles. Assurer la prise en charge et la résolution d'incidents N3 critiques en hors production et production. Assurer des astreintes régulières et ponctuelles sur le périmètre de l'ensemble des serveurs d'applications. La composante expertise technique & expérience de production (minimum 5 ans) sur les serveurs d'applications est donc essentielle. Les serveurs d'applications principalement concernés sont : WAS / IHS (/ JBOSS / TOMCAT / APACHE) Les technologies et méthodes utilisées : DEVOPS / AGILE / Gestion de configuration Ansible Tower / Configuration applicatives via XLD/XLR Les livrables sont : Documentations techniques Rapports d'activité
Mission freelance
ML Engineer confirmé
Nous recherchons un ML Engineer confirmé pour une mission de 3 à 6 mois au sein de l’entité Data Analyse & Data Science de la Data Factory Omnicanal. Objectif : accompagner la montée en puissance des cas d’usage marketing via l’IA, tout en respectant la stratégie de jeu responsable, avec un fort focus sur l’industrialisation et la robustesse des modèles ML. Missions principales Le/la ML Engineer interviendra notamment sur : Migration de l’existant Data Science d’Hadoop vers AWS S3 et Dataiku Portage, optimisation et industrialisation des pipelines de données Mise en place et suivi des bonnes pratiques MLOps (CI/CD, monitoring, amélioration continue) Développement et déploiement de modèles ML avancés adaptés aux enjeux marketing digital Documentation et partage de bonnes pratiques Infos pratiques 📍 Lieu : île de France – 2 jours de TT / semaine 📅 Démarrage : 29/09/2025

Offre d'emploi
Data Engineer Senior
Activités de la mission : 1. Comitologie, documentation et cartographie data : · Préparation et animation d'instances transverses DSIM de présentation de projets Data et de validation des solutions techniques associées (league Design Data, diverses Guildes data dédiées) · Documentation des assets data de la plateforme DSIM (espaces SimDoc, Datahub + Datalab) · Cartographie des données et conception / développement d'outillage 2. Expertise Data : · Accompagnement technique / conseil Data / Big Data aux équipes projets (Datahub + Datalab) · Aide à l’analyse / Conception / Refonte d'assets data transverses (Datahub + Datalab) · Aide au suivi des évolutions et migrations de la stack technique de la plateforme DSIM 3. Facilitation sujets data : · Aide à la médiation inter projets · Aide à l'expression de besoin/spécifications technico-fonctionnelles
Mission freelance
4 x Java Kafka consultants
Hanson Regan recherche 4 x Java Kafka consultants pour une mission de 12 mois basée à Paris (3 jours sur site, 2 jours à distance). Deux profils d'expert full-stack (> 10 ans d'expérience) : l'un spécialisé dans la réglementation, l'autre travaillant sur le composant Access Gateway. Un profil avancé (7 à 9 ans d'expérience) : DevOps (Information Data Management, IDM), dont le rôle est de collecter des données opérationnelles et de fournir des services de gestion des données : interrogation, reporting, analyse, visualisation et stockage de l'historique. Un profil expert (> 10 ans) : Full-stack (Information Data Management, IDM), dont le rôle est de collecter des données opérationnelles et de fournir des services de gestion des données : interrogation, reporting, analyse, visualisation et stockage de l'historique. Excellente maîtrise du langage de programmation Java (17+) Connaissance de Kafka, Kafka Connect Connaissance du printemps Connaissance d'une base de données relationnelle ou NOSQL Expérience dans des environnements distribués avec des contraintes de performances, d'intégrité et de disponibilité élevées Méthodologie Agile (SAFE) Méthodologie DevOps Capacité à travailler en équipe dans un environnement international Niveau d'anglais minimum B2 Pour répondre aux besoins de nos clients, nous acceptons uniquement les candidatures de freelances travaillant au sein de leur propre entreprise. N'hésitez pas à nous contacter au plus vite si vous êtes intéressé.

Offre d'emploi
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données

Mission freelance
Expert Karavan
Expert Karavan – Mission longue +8 ans d’expérience – Montpellier, Paris ou télétravail Démarrage ASAP – Fin 2025 (prolongation possible) TJM max 550 € Dans le cadre d’un programme de transformation data, notre client public recherche un expert Karavan pour industrialiser un socle d’échanges automatisés entre systèmes tiers et PIM interne. Missions Développement et mise en production de micro-services Karavan Intégration avec Kafka et portail d’API Management (Gravitee) Documentation technique et accompagnement à la recette Sécurisation et fiabilisation des échanges Profil recherché Expertise confirmée en Karavan , Kafka , Gravitee Connaissance de STEP (STIBO) appréciée Autonomie, rigueur et sens du delivery

Mission freelance
Data engineer GCP SPARK PYTHON
CONTEXTE Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Silver, la mission se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constitué de Python, Spark, SQL, dbt, BigQuery, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. Le stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir des pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant dbt • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Apache
Administrateur·rice système Unix (linux...)
L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.
Explorez les offres d'emploi ou de mission freelance pour Administrateur·rice système Unix (linux...) .
Découvrir les offresIngénieur·e systèmes & réseaux
L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offresIngénieur·e d'exploitation
L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e d'exploitation .
Découvrir les offresResponsable des infrastructures et de la production
Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offres