Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 292 résultats.
Freelance

Mission freelance
DEVELOPPEUR JAVA

HAYS France
Publiée le
Apache Kafka
Framework
Java

6 mois
Lille, Hauts-de-France

Au sein du département Commerce, rattaché à l'équipe produit Cart, nous recherchons un développeur confirmé pour nous accompagner pour la MCO et les différents projets (à la fois panier web et panier magasin) expérience souhaitée : 5 ans minimum dans un environnement java. Objectifs et livrables Dans un environnement Agile, tu contribueras à : ✔ Développer et maintenir les fonctionnalités du produit Cart 📦 ✔ Assurer la maintenance corrective et évolutive (MCO) du produit ✔ Veiller à la qualité du code et au respect des bonnes pratiques de développement ✔Réaliser les bench de l'application.

CDI
Freelance

Offre d'emploi
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS

UCASE CONSULTING
Publiée le
Apache Spark
Microsoft Analysis Services (SSAS)
Scala

3 ans
25k-58k €
310-600 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support.

Freelance

Mission freelance
Expert Middleware

QUALIS ESN
Publiée le
Apache Tomcat
Jboss

6 mois
460-550 €
Lyon, Auvergne-Rhône-Alpes

Mission : Le périmètre de la mission est varié et nécessite des expertises plurielles permettant la réalisation des activités suivantes : - Installation et mise en œuvre de versions - Paramétrage - Contrôle, suivi et analyse des performances - Patch management - Support aux fonctions SI - Gestion des incidents et des demandes - Rédaction des procédures et documentations afférentes aux différentes installations - Transfert de compétence vers les collaborateurs internes si necessaire sur les outils Tomcat, JBOSS, Webphere, Tx series.

Freelance

Mission freelance
DATA ENGINEER GCP

CHOURAK CONSULTING
Publiée le
Apache Spark
BigQuery
DBT

1 an
400-600 €
Île-de-France, France

Dans le cadre d’un projet stratégique autour de la donnée , nous recherchons un Data Engineer expérimenté pour renforcer l’équipe de notre client, au cœur de la plateforme Data. La Direction Data joue un rôle clé dans la transformation numérique du groupe, avec trois missions principales : Maximiser la collecte et la valorisation des données tout en respectant la réglementation. Développer la connaissance et l’expérience utilisateur . Mettre à disposition des outils d’aide à la décision pour les équipes internes. 🎯 Vos missions principales : Concevoir, développer et maintenir des pipelines data robustes et scalables sur GCP. Déployer des datasets normés sur plusieurs domaines (Utilisateurs, Comportements, Référentiels). Mettre en place des contrôles qualité sur les datasets. Structurer et organiser le stockage des données dans une logique d’architecture évolutive. Participer à la mise en place des workflows CI/CD et à l’industrialisation via Terraform / Terragrunt. Collaborer avec les équipes Data pour assurer la qualité, la fiabilité et la gouvernance des données. Partager les bonnes pratiques et contribuer à la documentation technique .

Freelance
CDI

Offre d'emploi
Big Data Engineer

KLETA
Publiée le
Apache Kafka
DevOps
ELK

3 ans
Paris, France

Environnement Technique :  Tous composants de la distribution HDP 2.6.5 (Hortonworks)  Tous composants de la distribution HDP 3.1.x (Hortonworks)  Technologie KAFKA  Compétences de développements en Shell, Java, Python  Moteur Elasticsearch incluant les fonctionnalités soumises à licence  Docker, Kubernetes, système distribué sur Kubernetes  Infrastructure as Code  DevOps : Ansible, Git, Nexus, Jenkins, JIRA, etc...  Os Linux, Kerberos, SSL, Ldap, RDBMS, SQL Mandatory :  Tous les composants des distributions Hadoop  Tous les composants de la suite Elasticsearch : Kibana, Logstash, suite beats  Administration de composants big data

Freelance
CDI

Offre d'emploi
Développeur Back-End PHP/Symfony Sénior- Sophia Antipolis (H/F)

RIDCHA DATA
Publiée le
Apache Kafka
CI/CD
Docker

3 mois
Sophia Antipolis, Provence-Alpes-Côte d'Azur

Contexte Notre client final recherche un Développeur Back-End PHP/Symfony Sénior pour intervenir sur des projets stratégiques liés à la GED et à l’identité numérique. La mission inclut la conception et l’implémentation d’API REST sécurisées, l’optimisation des flux de traitement (forte volumétrie, asynchronisme), ainsi que la participation aux choix d’architecture (microservices, performance, observabilité). Le développeur aura un rôle clé dans l’industrialisation (CI/CD, monitoring, tests), la qualité logicielle et l’accompagnement des profils juniors. Missions principales 📌 Développement & architecture Concevoir et implémenter des API REST robustes et sécurisées (JWT, OAuth2). Intégrer et optimiser les systèmes GED (indexation, recherche, archivage, workflows). Mettre en place et optimiser les pipelines de traitement de flux (import/export volumineux, RabbitMQ/Kafka). Contribuer aux choix d’architecture (microservices, découplage, scalabilité). Garantir la qualité du code (clean code, design patterns, DDD). 📌 Qualité & industrialisation Écrire et maintenir les tests unitaires, fonctionnels et end-to-end (PHPUnit, Behat, Postman). Participer à l’industrialisation via CI/CD, Docker, Kubernetes, GitLab/Jenkins. Assurer le monitoring, logging et la performance de la stack technique. Rédiger la documentation technique et fonctionnelle. 📌 Collaboration & leadership technique Accompagner et encadrer les développeurs plus juniors (code review, mentorat). Travailler en équipe pluridisciplinaire (Produit, QA, DevOps, Frontend). Participer à la veille technologique (cloud-native, scalabilité, sécurité). 📦 Livrables attendus Code conforme aux spécifications Documentation technique associée Conception et tests unitaires validés 🛠️ Compétences recherchées PHP 8.x / Symfony 6.4, 7.x – Expert, impératif SQL (PostgreSQL) – Confirmé, impératif Elasticsearch / OpenSearch – Confirmé, souhaité Systèmes de messagerie : RabbitMQ, Kafka, Symfony Messenger Caching : Redis, Varnish, APCu CI/CD, Docker, Kubernetes – Confirmé Tests : PHPUnit, Behat, Postman/Newman Méthodologies : DDD, Clean Architecture, Design Patterns Bonus : standards de dématérialisation et archivage légal

Freelance

Mission freelance
Data Engineer Microsoft Fabric

CHOURAK CONSULTING
Publiée le
Apache Spark
Azure Data Factory
Microsoft Fabric

3 mois
400-600 €
Île-de-France, France

Nous recherchons un Data Engineer expérimenté pour accompagner l’un de nos clients majeurs du secteur de la santé dans la modernisation de sa plateforme data autour de Microsoft Fabric . 🎯 Vos missions principales : Concevoir et développer des pipelines de données robustes et scalables dans un environnement Microsoft Fabric . Participer à la mise en place de l’architecture Médaillon (Bronze / Silver / Gold) pour structurer et fiabiliser les données. Collaborer avec les équipes métiers et techniques afin de garantir la qualité, la sécurité et la performance des flux. Contribuer à la mise en place de Microsoft Fabric . Accompagner les utilisateurs dans la valorisation des données via Power BI .

Freelance

Mission freelance
Maintenance corrective et évolutive de la solution LRIT (Long Range Identification and Tracking)

Signe +
Publiée le
Apache Maven
Eclipse
Java

6 mois
350-360 €
Toulouse, Occitanie

Titre de la prestation : Maintenance corrective et évolutive de la solution LRIT La prestation à développer et maintenir en conditions opérationnelles la solution LRIT (Long Range Identification and Tracking) de CLS. Le LRIT est une réglementation de l’Organisation Maritime Internationale destinée à suivre le positionnement des navires cargo de plus de 300 tonneaux partout sur le globe. Chaque état pavillon doit collecter, traiter et mettre à disposition d’autres états pavillon les positions des navires tombant sous sa juridiction. Cette prestation se fait au travers d’un DataCenter de l’Etat pavillon, ou d’un regroupement d’Etats pavillons. La solution CLS autour du LRIT est constituée de plusieurs composants: - IDE (International Data Exchange) - SHIPDB (Base de donnée de navires) - DC (Interface principale) - CCBR (Web Services) - LCT - ASP Simulator Il est à noter que le composant DC (Data Center) est déployé parfois à CLS et parfois chez le client (ex: EMSA) Les activités attendues sont: - Maintenance corrective (fonctionnelle, opérationnelle) - Maintenance évolutive fonctionnelle - Maintien de l'environnement de développement et des environnements de tests / "devtest" (=pre-prod) - Maintien de la configuration applicative des différents clients / création de nouvelles instances client - Livraison des nouvelles versions aux clients internes et externes - Gestion des obsolescences techniques en particulier liées à la sécurité - Rédaction plan de tests, cas de tests et déroulé des tests - Ecriture de documentation technique le cas échéant (conception, notes techniques) - Chiffrages des évolutions demandées - Maintien de la cohérence de l'architecture logicielle dans l'écosystème EMSA ET CLS

Freelance
CDI

Offre d'emploi
Devops Senior KAFKA (H/F)

WINSIDE Technology
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Kubernetes

2 ans
48k-55k €
400-550 €
Lyon, Auvergne-Rhône-Alpes

Winside est un pure player Tech, Data et Digital, présent à Lyon, Paris et Bordeaux, et en pleine croissance. Notre ambition : réunir expertise, innovation et esprit d’équipe pour mener des projets à fort impact chez de grands clients. Dans ce contexte, nous recrutons un DevOps Sénior spécialisé Kafka afin de rejoindre Winside en CDI et de contribuer à un projet stratégique dans le secteur du retail autour des Data Platforms et de la diffusion temps réel de la donnée. Votre mission Intégré(e) au sein des équipes Plateforme Data, vous participerez à la mise en place et à l’amélioration continue des pipelines de données. Vos responsabilités principales : Mettre en œuvre et optimiser les plateformes de streaming de données avec Apache Kafka Déployer et superviser des environnements Kubernetes (GKE) et Google Cloud Platform (GCP) Automatiser les déploiements et orchestrer les pipelines via des pratiques CI/CD Garantir la performance, la résilience et la sécurité des plateformes Contribuer à la gestion des incidents, au monitoring et à l’amélioration continue Travailler en étroite collaboration avec les équipes data engineering et infrastructure pour assurer la fiabilité et la scalabilité de la plateforme Stack & Environnement technique Cloud : Google Cloud Platform (GKE, Cloud Storage, Cloud SQL, Cloud Monitoring) Streaming & Data : Apache Kafka (partitionnement, réplication, compaction, sécurité TLS/SASL/ACL, gestion avancée des topics et offsets) Orchestration & Containers : Kubernetes, Docker Monitoring : Prometheus, Grafana. • DevOps & Scripting : CI/CD (GitLab CI, Jenkins), Bash, Python Sécurité & Gouvernance : IAM, politiques d’accès, bonnes pratiques sécurité Agilité : Scrum, gestion de backlog, sprint planning.

Freelance

Mission freelance
Tech Lead Big Data (H/F)

LeHibou
Publiée le
Apache Spark
Big Data
Google Cloud Platform (GCP)

12 mois
400-470 €
Toulouse, Occitanie

Notre client dans le secteur Aérospatial et défense recherche un/une Tech Lead Big Data (H/F) Description de la mission : Dans le cadre d'un remplacement au sein de ses équipes, notre client va rechercher un Freelance expérimenté sur la partie Big Data. Vous interviendrez en tant que Technical Leader sur l'activité d'une application sensible de maintenance prédictive de notre client, vous serez en charge des activités suivantes : - Accompagner l’évolution du produit en relation en avec le métier - Pilotage technique de l’équipe composée d'environ 15 personnes - Coordination et échanges avec les Product Owners et quelques Key Users. Environnement technique : Java, Spark, SQL, Cloud GCP

Freelance
CDI

Offre d'emploi
Data Engineer Python / Spark

HIGHTEAM
Publiée le
Git
Machine Learning
PySpark

3 ans
40k-55k €
400-500 €
Île-de-France, France

Dans le cadre d’un projet pour l’un de nos clients dans le secteur de la finance , nous recherchons un Data Engineer avec une forte expertise en Python , Spark , et Git . La mission s’inscrit dans un environnement Big Data et suit une méthode Agile . Objectifs de la mission Le consultant contribuera à : Développer de nouveaux modèles et indicateurs Industrialiser ces développements dans un environnement de production APIser les services Produire une documentation fonctionnelle et technique Livrables attendus Développements en Python et Spark Scripts d’intégration (Shell, éventuellement Perl / PHP) Documentation technique & fonctionnelle Services API Code versionné sous Git / GitHub Méthodologie Travail en mode Agile / Scrum

CDI
Freelance

Offre d'emploi
TECH LEAD BIG DATA

UCASE CONSULTING
Publiée le
Apache Kafka
Apache Spark
Azure

3 ans
35k-67k €
480-980 €
Paris, France

Bonjour, Pour le compte de notre client nous recherchons un TECH LEAD BIG DATA Le domaine d’intervention du Tech Lead Data Engineering comprend les études, l’architecture du SI Big Data, le choix des solutions et outils, le pilotage technique du Build et du Run. Comme référent technique Big Data, vous assurez le lead technique de l’équipe de développeurs, avec en responsabilité, la conception et la mise en œuvre des solutions Big Data, ainsi que le pilotage technique de projets. Sous la responsabilité du responsable du SI Big Data, vous piloterez techniquement les activités de Data Engineering : - étude et prise en compte des besoins de traitement de la data, - gestion des priorités et de la cohérence des besoins, - choix des outils et solutions - conception et mise en œuvre des architectures de données évolutives et performantes, sécurisées et résilientes - direction et encadrement technique d’une équipe de data ingénieurs composée d’intervenants externes : suivi, support, adoption des bonnes pratiques de développement sécurisé - suivi de la qualité, de la sécurité des données et des traitements, de la performance opérationnelle des traitements - participation et support au delivery nécessitant l’expertise technique et data - veille technologique pour rester à l’état de l’art en matière de traitement massif des données, et d’utilisation de l’IA pour l’automatisation, la prédiction, la génération de data et de code. - support des équipes Data Science et R&D sur le cycle de déploiement/optimisation et industrialisation des solutions d’IA - conception et mise en place d'API pour l'intégration des solutions Big Data avec d'autres systèmes, - développement et intégration de modèles d'IA générative pour des applications spécifiques, - assurer la maintenance et l'évolution des API et des modèles d'IA générative.

Freelance

Mission freelance
223340/DevOps senior - Lille

WorldWide People
Publiée le
Apache Maven
CI/CD
DevOps

3 mois
350-370 €
Lille, Hauts-de-France

DevOps senior - Lille Contexte : Au sein de la direction "Architecture & Excellence Opérationnelle" l'équipe en question regroupe l’expertise DevOps et l’accompagnement CI/CD, ainsi que le support / outillage de l’usine logicielle. Compétences recherchées : • Expérience avec Maven, Docker, pipelines CI/CD sous Jenkins / Azure DevOps • Expérience dans l'utilisation de Git / Bitbucket et des stratégies de branche • Expérience dans l'utilisation de Sonar pour l'analyse en continu du code applicatif afin de détecter les bugs et les codes smells • Expérience dans l'utilisation d'Artifactory • Expérience dans l'écriture de scripts Groovy Jenkins • Expérience avec le cycle de vie complet, du développement à la production Objectifs et livrables Descriptif de la mission : • Fournir un support aux composants de l'usine logicielle (Bitbucket/Jenkins/AzureDevOps/Sonar/Checkmarx/Artifactory/XLDeploy/XLRelease) • Améliorer les scripts Groovy internes pour offrir de nouvelles fonctionnalités dans les pipelines Jenkins • Aider les développeurs à construire des pipelines pertinents pour leurs produits • Collaborer avec les équipes de développement pour identifier et résoudre les problèmes. Compétences demandées Compétences Niveau de compétence Apache Groovy Expert DOCKER Expert MAVEN Expert JENKINS Expert SONAR Expert GIT Exper

CDI
Freelance

Offre d'emploi
Data Engineer (Spark-Scala-Azure Devops) H/F

STORM GROUP
Publiée le
Agile Scrum
Apache Spark
Azure DevOps

3 ans
55k-60k €
550 €
Île-de-France, France

Contexte et objectifs de la prestation : Dans ce cadre, la prestation consiste à contribuer à/au(x) : 1. Projets de migration vers notre nouveau Datalake sur infra “Azure” 2. Projets de maintenance évolutive des Use Cases Data déjà existants 3. Cadrage et chiffrage du projet (et validation) et assistance et expertise dans la définition de la stratégie et solution technique. 4. L'assistance et l'expertise sur l’architecture technique (design et conception) des couches datalake et des moyens de restitutions, 5. La conduite du changement dans la mise en œuvre et l’uniformisation des pratiques Craft 6. La définition des normes et standards de qualité édictés sur le périmètre (qualité de code, sécurité, performance, build automatique, analytics) 7. La définition du bon niveau de la documentation technique et mise à jour associée Diverses étapes de développements notamment sur les développements complexes : chiffrage, conception, spécifications techniques,mise en place, tests, déploiement, revue de code 8. Challenge des choix techniques pour qu’ils soient en adéquation avec : le besoin du client, les normes et standards des entités d’architectures, l’innovation et les principes de la transformation digitale de la banque Expertises : 1. Spark Scala 2. Cloudera, Azure 3. Mode Agile (Scrum) 4. Environnement anglophone.

CDI
CDD

Offre d'emploi
Developpeur Fullstack .NET/Angular

Lùkla
Publiée le
.NET
Angular
Apache Kafka

3 ans
50k-60k €
Île-de-France, France

Secteur d'activité : Banque/Finance/Assurance Mission(s) : dévelopement d'une plateforme qui regroupe plusieurs application. L’une de ces applications concerne la partie exposition des données issues de différentes sources et préalablement calculées avant d’être stockées et affichées côté front Attendu(s) : développements (selon préceptes craft), backend .NET 8 et front Angular 15, Programmation asynchrone our la parallélisation et l’optimisation des multiples traitements Profil (s) : Developpeur Fullstack .NET / Angular Méthodologie : agile Scrum Télétravail : 60%

Freelance
CDI

Offre d'emploi
Data Engineer

Sapiens Group
Publiée le
Apache Airflow
BigQuery
Data Lake

3 mois
40k-45k €
400-500 €
Lille, Hauts-de-France

Vous serez intégré dans une équipe pluridisciplinaire de 6 personnes (Data Engineer, DevSecFinOps) En vous appuyant sur la data ARF exposée, vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 15 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures.

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

292 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous