Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 293 résultats.
Freelance
CDI

Offre d'emploi
Expert Spark (Spark /Airflow /Superset )

AVA2I
Publiée le
Apache Airflow
Apache Spark
SQL

3 ans
40k-70k €
400-600 €
La Défense, Île-de-France

Dans le cadre de son initiative Big Data FR sur plateforme Open Source , GRDF recherche un Expert Spark afin de renforcer son équipe Data. L’objectif est de contribuer à la conception, à l’optimisation et au déploiement de pipelines Big Data à grande échelle, avec un focus sur la performance et la fiabilité. 🚀 Missions principales: Participer à la conception et au développement de pipelines de données distribués basés sur Spark. Optimiser la performance des traitements et garantir la scalabilité des solutions. Déployer, monitorer et maintenir les workflows de données via Airflow . Créer et améliorer des dashboards et visualisations de données avec Superset . Collaborer avec les équipes Data Engineering, Data Science et métiers pour intégrer les besoins fonctionnels dans la plateforme Big Data. Assurer une veille technologique et proposer des solutions innovantes dans l’écosystème Big Data Open Source.

Freelance
CDI

Offre d'emploi
Ingénieur Big Data DevOps

OBJECTWARE MANAGEMENT GROUP
Publiée le
Apache NiFi

3 ans
Île-de-France, France

Attentes principales du client RUN & Support avancé Assurer le MCO (Maintien en Condition Opérationnelle) des plateformes Big Data. Résoudre les incidents N2/N3 et analyser les root causes pour fiabiliser la production. Accompagnement et relation client Être capable d’ expliquer et de guider les utilisateurs dans l’usage des plateformes. Jouer un rôle de référent technique sur NiFi / Kafka / ingestion de données. Build & industrialisation Concevoir et automatiser les offres d’ingestion de données. Participer aux déploiements NiFi , à l’ industrialisation des flux , et à la mise en place de CI/CD. Administration & Sécurisation Gérer et sécuriser les clusters Big Data et les environnements applicatifs (on-prem et cloud). Gérer le cycle de vie des technologies : upgrades, patchs, migrations. Contribution aux projets Travailler dans un cadre Agile (Scrum/Kanban) . Développer (Java/Spring, React, CSS/JS) et intégrer les solutions nécessaires. Apporter une veille technologique et être force de proposition pour améliorer les plateformes. Compétences clés recherchées Big Data : Apache NiFi (le plus attendu), Kafka, HDFS, Hive, Hue, IBM COS, Oracle DB. CI/CD & automatisation : Ansible, GitLab CI, ArgoCD, Vault. Systèmes & infra : Linux RHEL, Kubernetes, OpenShift, environnements stateful. Dev : Java (Spring Boot / Security), React, CSS3, JS, frameworks UI (Ant Design, Bootstrap, Material). Méthodes : Scrum, Kanban.

Freelance
CDI

Offre d'emploi
Ingénieur Data

OBJECTWARE MANAGEMENT GROUP
Publiée le
Apache Spark
Kubernetes

3 ans
40k-45k €
400-550 €
Île-de-France, France

Dans le cadre du renforcement de notre capacité de support sur une nouvelle offre Data, nous recherchons des prestataires spécialisés dans l’exploitation et le support de ces plateformes. La prestation visera à : · Assurance de support de niveau 2 en production des plateformes mentionnées (PROD). · Intervention dans la gestion des incidents, l’analyse des root causes et la résolution. · Participation à l’optimisation des traitements Spark sur Kubernetes (tuning, configuration, dimensionnement), à l'optimisation de l'orchestration Airflow, à la gestion des catalogues Starburst · Accompagnement des équipes métiers dans l’utilisation efficace et sécurisée des plateformes. · Contribution à la documentation et à l’amélioration continue de l’écosystème d’exploitation.

Freelance
CDI

Offre d'emploi
Data Engineer Python/Spark GCP

VISIAN
Publiée le
Apache Airflow
Apache Spark
Google Cloud Platform (GCP)

2 ans
44k-90k €
400-650 €
Paris, France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Python/Spark/GCP Le data ingénieur avec la stack Python, Spark, SQL, dbt, BigQuery, Airflow, Terraform, Terragrunt, GCP . Ses missions : Déployer des datasets normés Accompagner les utilisateurs dans leurs usages. Mettre en place du contrôle qualité sur les datasets. En détail : Participer aux phases de conception, planification et réalisation. Construire et maintenir des pipelines data robustes et scalables. Organiser et structurer le stockage des données. Mettre en place et maintenir des infrastructures scalables et sécurisées. Contribuer à la gouvernance des données (qualité, fiabilité, intégrité). Construire et maintenir les workflows de CI/CD. Partager et appliquer les bonnes pratiques data engineering. Assurer évolutivité, sécurité et stabilité des environnements. Participer aux instances data engineers et à la mise à jour de la documentation. Assurer une veille technologique active .

Freelance

Mission freelance
Administrateur fédération d’identité (H/F) - PARIS

Espace Freelance
Publiée le
Apache
Apache Tomcat

12 mois
400-510 €
Paris, France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Administrateur Windows (H/F) Vos principales missions : Intégrer une équipe en charge du Build MCO et Run des équipements d’authentification, d’authentification forte et de SSO. Contribuer au Build et Run autour du produit ILEX Sign&Go et des plateformes d’authentification/contrôle d’accès. Assurer l'intégration des projets nécessitant fédération d'identité. Gérer et sécuriser les méthodes d’authentification : ADFS, SAML, fédération d’identité, Kerberos . Participer aux astreintes. Être polyvalent et monter rapidement en compétence sur les domaines techniques moins maîtrisés.

Freelance
CDI

Offre d'emploi
Expert Kafka

KLETA
Publiée le
Apache Kafka
DevOps

3 ans
Paris, France

Missions principales Concevoir, déployer et administrer des clusters Kafka en environnement de production. Définir et mettre en place les bonnes pratiques d’architecture et de sécurité. Assurer la supervision, le monitoring et la résolution proactive des incidents. Optimiser la performance et la scalabilité des flux de données. Automatiser les déploiements et la gestion des clusters (CI/CD, Infrastructure as Code). Accompagner et former les équipes internes sur l’usage de Kafka et de son écosystème (Kafka Connect, Schema Registry, KSQL, etc.). Contribuer aux choix technologiques et à la roadmap data/streaming.

Freelance

Mission freelance
Data Engineer Kafka, KStreams, K8S, Spark

KEONI CONSULTING
Publiée le
DevOps
Java

18 mois
100-400 €
Paris, France

MISSION Au sein de la Data Platform, le renfort devra intervenir en tant qu'expert sur les sujets Kafka, KStreams, K8S, Spark de la squad Data Value (connaissance client, collecte des événements digitaux...). Développer en Java des traitements de transformation et de production de données ; Designer des chaines optimisées CI/CD en collaboration avec les équipes. Assurer et garantir la production d'un code de qualité : robuste, maintenable et évolutif Participer à l'amélioration continue et à la revue de code Expertise souhaitée Expertise technique confirmé : - Kafka - Kstreams - K8s - streaming de données

CDI

Offre d'emploi
Ingénieur Expert Middleware (Apache,Tomcat,JBoss)

UMANTIC
Publiée le

50k-60k €
L'Union

L'Expert Système intervient sur le périmètre des serveurs d'applications (HAProxy, NGinx, Tomcat, Apache, WAS, IHS, JBoss) afin d'assurer leur mise en catalogue, leur maintien en condition opérationnelle et la gestion des incidents critiques. Il contribue à la conception, au déploiement et au suivi des infrastructures techniques en environnement Cloud interne BPCE-IT, en garantissant qualité, performance et sécurité. Responsabilités principales 1. Expertise & Conseil * Assurer l'expertise sur les serveurs d'applications et technologies associées. * Garantir la cohérence technique des infrastructures avec les besoins fonctionnels et techniques. * Apporter conseil, assistance, information et formation aux équipes. * Effectuer une veille technologique continue. 2. Études et Conception (Design) * Participer aux études d'architecture et aux évolutions des infrastructures. * Concevoir les solutions techniques et les infrastructures associées. * Contribuer à la réalisation de POC et prototypes avec les architectes. * Définir les infrastructures nécessaires aux projets et à leur maintien en condition opérationnelle. 3. Ingénierie & Déploiement (Build) * Assurer l'installation, le paramétrage et la validation des plates-formes techniques. * Rédiger et maintenir la documentation technique. * Coordonner les différents acteurs lors des phases d'installation et de configuration. * Garantir la mise en oeuvre des bonnes pratiques d'exploitabilité. 4. Exploitation & Support (Run) * Garantir la disponibilité et la performance des infrastructures. * Prendre en charge les incidents critiques de niveau 3 (N3). * Réaliser des diagnostics approfondis, proposer des solutions correctives ou de contournement. * Assurer des astreintes régulières. * Participer aux actions de capacity planning et proposer des améliorations de performance. * Vérifier l'application des normes de sécurité et de qualité. Livrables attendus * Documentations techniques (installation, configuration, exploitation). * Rapports d'activité (suivi des incidents, améliorations, capacity planning).

CDI
Freelance

Offre d'emploi
Développeur.euse Java / Kafka / ReactJS

Atlanse
Publiée le
Apache Kafka
Back-end
Cassandra

3 ans
Issy-les-Moulineaux, Île-de-France

Au sein de l'équipe Architecture d'entreprise, vous participerez au développement et à l’évolution de la plateforme IoT en vous appuyant sur des technologies comme Kubernetes, Kafka et les architectures Microservices afin de concevoir des services innovants pour les consommateurs et les partenaires. Votre rôle Développement & Conception Concevoir, développer et mettre en œuvre des services évolutifs et performants répondant aux besoins de l'entreprise Participer à l’architecture et à l’évolution des solutions IoT Qualité du code & partage de bonnes pratiques Contribuer à la révision du code et au partage des connaissances Documenter et maintenir les solutions techniques Maintenance & Suivi opérationnel Dépanner et résoudre les incidents techniques Surveiller, mesurer et optimiser les performances des solutions déployées Méthodologie & Collaboration Participer activement aux cérémonies Agile : réunions quotidiennes, planification des sprints, rétrospectives Travailler en étroite collaboration avec les architectes et ingénieurs pour créer et déployer des systèmes clés pour les solutions IT

Freelance

Mission freelance
Expert Système - HAProxy, NGinx, Tomcat, Apache, WAS, IHS JBoss- N3

KEONI CONSULTING
Publiée le
Méthode Agile

18 mois
100-400 €
Toulouse, Occitanie

CONTEXTE Objectif global : Réaliser l'expertise autour des serveurs d'applications HAProxy, NGinx, Tomcat, Apache, WAS, IHS JBoss Contrainte forte du projet : Astreintes régulières, expertise autour des serveurs d'applications HAProxy, NGinx, Tomcat, Apache, WAS, IHS JBoss MISSIONS : Mettre au catalogue Entreprise (cloud interne) et maintenir en état opérationnel les solutions clé en main de socles serveurs d'applications. Mettre au catalogue Entreprise (cloud interne) et maintenir en état opérationnel les outillages de configuration de ces socles. Assurer la prise en charge et la résolution d'incidents N3 critiques en hors production et production. Assurer des astreintes régulières et ponctuelles sur le périmètre de l'ensemble des serveurs d'applications. La composante expertise technique & expérience de production (minimum 5 ans) sur les serveurs d'applications est donc essentielle. Les serveurs d'applications principalement concernés sont : WAS / IHS (/ JBOSS / TOMCAT / APACHE) Les technologies et méthodes utilisées : DEVOPS / AGILE / Gestion de configuration Ansible Tower / Configuration applicatives via XLD/XLR Les livrables sont : Documentations techniques Rapports d'activité

Freelance

Mission freelance
ML Engineer confirmé

Teaminside
Publiée le
Apache Airflow
Apache Spark
MLOps

6 mois
500-650 €
Île-de-France, France

Nous recherchons un ML Engineer confirmé pour une mission de 3 à 6 mois au sein de l’entité Data Analyse & Data Science de la Data Factory Omnicanal. Objectif : accompagner la montée en puissance des cas d’usage marketing via l’IA, tout en respectant la stratégie de jeu responsable, avec un fort focus sur l’industrialisation et la robustesse des modèles ML. Missions principales Le/la ML Engineer interviendra notamment sur : Migration de l’existant Data Science d’Hadoop vers AWS S3 et Dataiku Portage, optimisation et industrialisation des pipelines de données Mise en place et suivi des bonnes pratiques MLOps (CI/CD, monitoring, amélioration continue) Développement et déploiement de modèles ML avancés adaptés aux enjeux marketing digital Documentation et partage de bonnes pratiques Infos pratiques 📍 Lieu : île de France – 2 jours de TT / semaine 📅 Démarrage : 29/09/2025

Freelance
CDI

Offre d'emploi
Data Engineer Senior

OBJECTWARE MANAGEMENT GROUP
Publiée le
Apache Kafka
Apache Spark
Big Data

1 an
50k-65k €
480-630 €
Tours, Centre-Val de Loire

Activités de la mission : 1. Comitologie, documentation et cartographie data : · Préparation et animation d'instances transverses DSIM de présentation de projets Data et de validation des solutions techniques associées (league Design Data, diverses Guildes data dédiées) · Documentation des assets data de la plateforme DSIM (espaces SimDoc, Datahub + Datalab) · Cartographie des données et conception / développement d'outillage 2. Expertise Data : · Accompagnement technique / conseil Data / Big Data aux équipes projets (Datahub + Datalab) · Aide à l’analyse / Conception / Refonte d'assets data transverses (Datahub + Datalab) · Aide au suivi des évolutions et migrations de la stack technique de la plateforme DSIM 3. Facilitation sujets data : · Aide à la médiation inter projets · Aide à l'expression de besoin/spécifications technico-fonctionnelles

Freelance

Mission freelance
4 x Java Kafka consultants

Hanson Regan Limited
Publiée le
Apache Kafka
Java

12 mois
400-620 €
Paris, France

Hanson Regan recherche 4 x Java Kafka consultants pour une mission de 12 mois basée à Paris (3 jours sur site, 2 jours à distance). Deux profils d'expert full-stack (> 10 ans d'expérience) : l'un spécialisé dans la réglementation, l'autre travaillant sur le composant Access Gateway. Un profil avancé (7 à 9 ans d'expérience) : DevOps (Information Data Management, IDM), dont le rôle est de collecter des données opérationnelles et de fournir des services de gestion des données : interrogation, reporting, analyse, visualisation et stockage de l'historique. Un profil expert (> 10 ans) : Full-stack (Information Data Management, IDM), dont le rôle est de collecter des données opérationnelles et de fournir des services de gestion des données : interrogation, reporting, analyse, visualisation et stockage de l'historique. Excellente maîtrise du langage de programmation Java (17+) Connaissance de Kafka, Kafka Connect Connaissance du printemps Connaissance d'une base de données relationnelle ou NOSQL Expérience dans des environnements distribués avec des contraintes de performances, d'intégrité et de disponibilité élevées Méthodologie Agile (SAFE) Méthodologie DevOps Capacité à travailler en équipe dans un environnement international Niveau d'anglais minimum B2 Pour répondre aux besoins de nos clients, nous acceptons uniquement les candidatures de freelances travaillant au sein de leur propre entreprise. N'hésitez pas à nous contacter au plus vite si vous êtes intéressé.

Freelance
CDI

Offre d'emploi
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans

Digistrat consulting
Publiée le
Apache Spark
Hadoop
Python

3 ans
38k-43k €
300-400 €
Paris, France

🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données

Freelance

Mission freelance
Expert Karavan

Freelance.com
Publiée le
Apache Kafka
API
Microservices

2 ans
Paris, France

Expert Karavan – Mission longue +8 ans d’expérience – Montpellier, Paris ou télétravail Démarrage ASAP – Fin 2025 (prolongation possible) TJM max 550 € Dans le cadre d’un programme de transformation data, notre client public recherche un expert Karavan pour industrialiser un socle d’échanges automatisés entre systèmes tiers et PIM interne. Missions Développement et mise en production de micro-services Karavan Intégration avec Kafka et portail d’API Management (Gravitee) Documentation technique et accompagnement à la recette Sécurisation et fiabilisation des échanges Profil recherché Expertise confirmée en Karavan , Kafka , Gravitee Connaissance de STEP (STIBO) appréciée Autonomie, rigueur et sens du delivery

Freelance

Mission freelance
Data engineer GCP SPARK PYTHON

KEONI CONSULTING
Publiée le
Python

18 mois
100-600 €
Paris, France

CONTEXTE Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Silver, la mission se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constitué de Python, Spark, SQL, dbt, BigQuery, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. Le stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir des pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant dbt • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

293 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous