Trouvez votre prochaine offre d’emploi ou de mission freelance Apache à Paris

Votre recherche renvoie 46 résultats.
Freelance
CDD
CDI

Offre d'emploi
Consultant Data Databricks (F/H)

Publiée le
Apache Spark
Databricks
DevOps

3 ans
60k-75k €
550-610 €
Paris, France
Télétravail partiel
🔎 Contexte de la mission Intervention au sein de la Direction des Systèmes d’Information d’un acteur bancaire. Mission réalisée dans une équipe de données transverses opérant en support des directions : Finance Marketing Crédit L’équipe n’intervient pas sur des sujets cybersécurité , mais se concentre sur : Les enjeux réglementaires Le reporting opérationnel et financier La mise à disposition de données à d’autres équipes (dont IA et modernisation Azure) 👥 Organisation Équipe de 10 à 15 personnes (mix France + offshore Inde) 3 internes / plusieurs prestataires externes Encadrement par un IT Lead ⚙️ Environnement technique Cloud & orchestration Azure Azure Databricks Azure DevOps (CI/CD) Data pipeline Python (Airflow, FastAPI) SQL / PostgreSQL Spark DataVault (modélisation) DBT (prochainement intégré) Fichiers via couche FTP Visualisation & automatisation Power BI (rationalisation en cours) Power Automate Azure AI / ML (projets IA à venir en 2026) Gouvernance & data Data Store Domain Atlas Autres informations 📍 Localisation : Paris 8ème 🕒 Durée estimée : 3 ans 🗓️ Démarrage souhaité : ASAP selon disponibilité 🗣 Langue de travail : anglais courant (collaboration avec équipes offshore)
Freelance

Mission freelance
Senior Data Engineer GCP MLOps

Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)

6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Freelance

Mission freelance
Administrateur de plateforme Big Data

Publiée le
Apache Kafka
Elasticsearch
HDFS (Hadoop Distributed File System)

3 ans
Paris, France
Télétravail partiel
Vous interviendrez pour un grand acteur du secteur de l’énergie, au sein d’une prestation pluridisciplinaire. Votre rôle sera de gérer, maintenir et optimiser les plateformes Big Data afin d’assurer leur performance et disponibilité. Vous travaillerez en étroite collaboration avec les équipes de développement et les analystes de données. 4. Missions principales Gérer et maintenir les plateformes de données massives. Optimiser les performances des systèmes Big Data. Assurer la qualité et la sécurité des données. Collaborer avec les équipes de développement pour intégrer les solutions de données. Surveiller et maintenir les systèmes en production. Analyser les besoins en données et proposer des solutions adaptées.
Freelance

Mission freelance
[SCH] Lead Dev Python / Spark – Paris - 1021

Publiée le

6 mois
1-454 €
Paris, France
Télétravail partiel
Contexte : Au sein d’une petite équipe en charge d’une plateforme d’hypervision de services (projet data novateur), vous apportez une expertise Python / Spark. Rôle mêlant développement personnel, conseil et interventions ponctuelles à fort enjeu. Missions : -Développer et faire évoluer des traitements Python / PySpark (batch & streaming) au sein de la plateforme. -Être force de conseil sur les choix techniques (performance, coût, maintenabilité). -Intervenir sur opérations exceptionnelles : gestion d’incidents majeurs (ex. swap mémoire, saturation), planification & conduite d’upgrades (ex. Spark 3 → Spark 4). -Accompagner les bonnes pratiques : tests, revues de code, Git, CI/CD et qualité. -Collaborer avec l’équipe (Data/Produit) et contribuer à la documentation. Objectifs & livrables : -Apporter une expertise Python + Spark / PySpark opérationnelle. -Livrables de dev (features, fixes), guides techniques (upgrade, tuning, exploitation) et recommandations. Profil recherché : - >8 ans d’expérience en développement backend/data, dont ≥3 ans sur Python & Spark en environnement de prod. -Solide pratique PySpark. -Expérience PostgreSQL. -À l’aise Linux.
CDI

Offre d'emploi
Ingénieur Support Applicatif – Expertise Linux / Ansible / Kafka - Anglais

Publiée le
Ansible
ServiceNow

Paris, France
Télétravail partiel
Les missions sont : SUPPORT : -Création du modèle de support APS -Organisation d'un support à l'international sur un modèle Follow the sun - prise en charge du niveau 2 du support applicatif: diagnostic fonctionnel, coordination, gestion de la base de connaissance - Coordination avec les équipes de niveau 3 lorsque leur intervention est nécessaire - Ouverture des incidents d' infrastructure auprès des équipes de production - production des indicateurs de suivi opérationnels et de suivi des engagements de service et des tableaux de bords - Réalisation de la communication autour des incidents (à chaud en début et en cours d'incident si besoin, et à froid périodiquement sur des reportings) - Communication utilisateurs lors des opérations exceptionnelles (Mises en production ..) - Mise à jour de la base de connaissances permettant de capitaliser sur les incidents - Partage avec les niveaux de support L1 afin de favoriser leur autonomie ( animation instance, élaboration et mise à disposition d'arbres de décision) - Interaction avec les équipes projets pour mise en place de plans d'actions correctifs pérennes - Participation à la recherche d'amélioration continue du fonctionnement l'équipe support (process, rôles, livrables, outils) OPS : EN BUILD : - Suivi de projet et co-construction avec l'IT Métier - Point d'entrée OPS dans le cadre des projets confiés - Gestion, dans le cadre des évolutions et des projets, de l'ensemble des gestes techniques pour la mise en production des applications - Création ou mise à jour des environnements - Réalisation de l'ensemble des gestes techniques d'installation ou de mise à jour d'application - Mise à jour des consignes d’exploitation et contribution au passage en RUN - Accompagnement technique et conseil - Veille à l’application des bonnes pratiques, des standards du groupe EN RUN : - Gestion des incidents et des changements pour l'ensemble du périmètre de la squad - Proposition d'axes d’optimisation, d’industrialisation - Veille a l'amélioration continue du monitoring et exploitation des applications. Mindset AGILE et DEVOPS fortement recommandés. Anglais nécessaire. Expertise Linux, Ansible ; pratique des solutions Kafka, MongoDB, Elastik, Dynatrace et Service NOW
Freelance

Mission freelance
Tech Lead Java H/F

Publiée le
Apache Spark
Java

3 ans
Paris, France
Télétravail partiel
Pourquoi cette mission ? Rejoignez la DSI d’un grand groupe bancaire pour piloter la transformation technique des plateformes Risk . Au menu : architectures data & services modernes, industrialisation CI/CD, Kubernetes à l’échelle, qualité logicielle au cordeau — avec un vrai impact sur la performance et la fiabilité du SI Risque. Votre rôle Tech Lead hands-on, vous pilotez la conception et l’industrialisation des produits Risk RRO , vous accompagnez les devs au quotidien et vous êtes le point d’entrée technique des architectes. Vous faites progresser les standards d’ingénierie, sécurisez les mises en production et tenez le cap sur la dette/obsolescences. Missions clés Cadrage & architecture Concevoir des solutions en architectures orientées Data & Services (dont hexagonale ). Contribuer aux choix techniques, challenger les patterns, cadrer les impacts. Engineering & qualité Définir les bonnes pratiques de dev (code review, testabilité, perf, SLO/SLA, qualimétrie Sonar). Mettre en place/faire évoluer les CI/CD (GitLab CI, runners, quality gates, artefacts). Prendre en charge des développements ciblés et les tests (unitaires, non-régression). Run & fiabilité Veiller au bon fonctionnement des applications, suivre les incidents, piloter les corrections. Gérer les obsolescences techniques et planifier les remédiations. Leadership & delivery Animer les rituels (ateliers, points d’avancement), lever les blocages, arbitrer. Faire monter en compétence les équipes de développement (multi-sites). Estimer/chiffrer les solutions, tenir les jalons, produire la documentation technique . Interface & gouvernance Être l’interlocuteur privilégié des architectes pour aligner les évolutions techniques. Garantir la mise en œuvre des préconisations d’architecture au fil des releases. Environnement technique Dev & qualité : GitLab, Artifactory, Sonar Plateformes : Kubernetes , Kafka, Airflow, MapR (Flexible LakeHouse apprécié) Langages & frameworks : Python , Java (Spring), Angular , Spark , Shell Data : DB2 , PostgreSQL , Vertica , Hadoop Livrables attendus Dossiers d’architecture & schémas Pipelines CI/CD industrialisés, artefacts versionnés Code & tests (unitaires, non-régression) + documentation technique Plans de remédiation des obsolescences et comptes-rendus de qualité Notes de cadrage, chiffrages et plans de delivery
Freelance

Mission freelance
Développeur Java - Angular

Publiée le
Angular
Apache Maven
Java

12 mois
450-500 €
Paris, France
Télétravail partiel
Renforcement de l’équipe projet Refonte du portail LCL Entreprises (marché des Entreprises) Recherche de 1 consultant développeur Fullstack, avec une appétence pour le Frontend, dont les missions sont les suivantes : Développement des fonctionnalités et évolutions Développement des tests unitaires et d’intégration Correction des dysfonctionnements Revues de code Analyses techniques Déploiement dans les différents environnements techniques Fonctionnement en méthodologie agile Maîtrise technique attendue sur : Java - Angular sont les plus importants Spring-boot - Maven (Java 11/17/+) Typescript - Angular 14/18/+ - Javascript - NodeJS HTML – CSS - SCSS Docker - Kubernetes - Kafka - MongoDB Connaissances appréciées sur : Notions de sécurité Accessibilité (HTML / CSS) Javascript Architecture technique, REST, architecture micro-services Pipelines des déploiements (Kubernetes, Gitlab CI/CD, ArgoCD, Vault) Monitoring (Elk, Grafana, Dynatrace) Oauth2 / Open ID
Freelance

Mission freelance
Developpeur Front end H/F

Publiée le
Angular
Apache Kafka
Azure Kubernetes Service (AKS)

2 ans
450-500 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Developpeur Front end H/F à Paris, France. Contexte : Les missions attendues par le Developpeur Front end H/F : Les technologies utilisées sont : TypeScript, NestJS, MongoDB, Angular, Kafka, Lambda, Glue, Jenkins, Git. Missions Principales : Developement : Développer des services applicatifs en respectant les normes mise en place sur le projet. Base de Données : Gestion et optimisation des bases de données MongoDB, y compris l'écriture et l’optimisation de pipeline mongodb. Performance & Sécurité : Garantir la performance, la scalabilité et la sécurité des services développées. Profil : Développeur senior avec minimum 5 ans d’experience Compétences Techniques demandées : Excellente maîtrise de TypeScript, NestJS . Solides compétences en MongoDB : optimisation, requêtes complexes, indexation, etc. Expérience avérée en développement frontend avec Angular . Familiarité avec les architectures microservices et l’utilisation de Kafka pour le traitement des flux de données. Connaissance des outils et pratiques DevOps (Git, CI/CD, Docker, Kubernetes) est un plus. Cadre de travail : Présentiel 3 Jr/ Semaine à Saint Denis. Télétravail 2 jrs / semaine
Freelance

Mission freelance
LEAD DEV

Publiée le
Apache Kafka
Kubernetes
Spring Batch

6 mois
100-450 €
Paris, France
Pour le besoin de mon client, je suis à la recherche d'un lead dev Encadrement d’une équipe de 2 à 3 développeurs : validation des développements, gestion des branches et suivi des livraisons. Coordination avec les autres équipes du périmètre projet. Participation aux ateliers de conception détaillée (CD) et définition des besoins techniques Expérience sur Spring Boot (P0), Docker (P0), Kafka (P0), Spring Batch (P1), Kubernetes (P1). Bonne maîtrise de Java 21 et des bonnes pratiques. Expérience sur des architectures distribuées / event-driven.
Freelance
CDD

Offre d'emploi
Developpeur(se)Mulesoft Confirmé(e)

Publiée le
Apache Maven
API REST
Batch

1 an
Paris, France
Au sein de l'équipe intégration, vous participez à la conception, au développement et à l'évolution des flux et API au sein de la plateforme Mulesoft: Vos principales missions son les suivantes: • Comprendre l’environnement client (métier, informatique et projet). • Participer à la définition et à la mise en place d’une organisation agile adaptée aux projets. • Collaborer avec les équipes métier et projet à toutes les étapes du cycle de vie du projet. • Être force de proposition dans la conception des solutions techniques sur la plateforme MuleSoft. • Développer de nouveaux flux et API, maintenir et faire évoluer les existants. • Contribuer activement à l’amélioration continue et au bon fonctionnement de la plateforme MuleSoft. • Participer à l’analyse et à la résolution des incidents de production. • Appliquer et promouvoir les bonnes pratiques MuleSoft (conception, développement, sécurité, documentation). • Rédiger la documentation technique associée aux développements réalisés.
Freelance

Mission freelance
Développeur Back End/QA automatisation

Publiée le
Apache Kafka
API REST
AWS Cloud

2 ans
400-600 €
Paris, France
Télétravail partiel
Contexte : Notre client (secteur média) développe des produits phares, tout en collaborant avec des acteurs stratégiques comme Netflix. Avec une approche centrée sur l'innovation et l'expérience utilisateur, notre client façonne les usages numériques de demain en proposant des services performants et adaptés aux attentes d'un public toujours plus connecté. Managé par le Head of QA, en transverse des différentes équipes et accompagné par le lead QA automatisation, la mission consiste à mettre en place des tests d’intégration et UI automatisés essentiellement autour de nos produits et process liés au traitement, au stockage des vidéos et de données/métadonnées liées, entre autres pour notre projet d’intégration avec Netflix. Description détaillée : Votre rôle consistera à construire et intégrer tests et des outils de tests robustes et évolutifs pour nos produits. Vous serez notamment amené(e) à : - Créer et maintenir des mocks/stubs d’API REST et Kafka. - Mettre en place et maintenir des lancements de tests via Argo CD/ Argo Workflows - Rédiger les étapes de tests automatisés sous la forme de scripts Gherkin. - Intégrer des tests dans une architecture Java existante pour être utilisés aussi dans le cadre de tests end to end. Télétravail : 3 jours par semaine Date de début : A partir du 2 janvier 2026
CDI

Offre d'emploi
Test Lead Technico fonctionnel flux API Microservices anglais courant H/F

Publiée le
Agile Scrum
Apache Kafka
API

50k-55k €
Paris, France
Télétravail partiel
Vous souhaitez rejoindre une équipe de passionnés du test et participer activement au développement de l’entreprise ? ALDEMIA recrute dès que possible en CDI un Test Lead Technico fonctionnel flux API Microservices anglais courant H/F pour réaliser cette opportunité de mission chez l'un de nos clients dans le secteur de l'assurance. L’objectif est d’assurer la qualité d'un produit, la performance et la conformité du système d’information à chaque évolution, migration et phase de maintenance, tout en garantissant une expérience fluide pour tous les profils d’utilisateurs. Les utilisateurs principaux sont des clients externes et partenaires externes. RÔLE ET MISSIONS DU TEST LEAD QA Garant de la qualité d’un produit dans le SI, il : • Veille au respect du cahier des charges technique et fonctionnel (use cases, user stories, processus métier), de bout en bout (front-to-back) • Assure l’utilisabilité pour les clients et partenaires externes, incluant la migration d’anciens systèmes et l’onboarding de nouveaux utilisateurs • Gère la non-régression et l’impact des évolutions sur les autres composants du SI • Assure la continuité de service de test de son périmètre (capitalisation, formation) Définition et pilotage de la stratégie de tests • Élaboration de la stratégie de tests pour l’ensemble d’un produit, couvrant toutes les phases projet et la maintenance • Gestion et coordination des ressources dédiées aux tests, ainsi que des équipes transverses nécessaires Reporting qualité • Suivi et restitution de la qualité du produit selon les Axes techniques et fonctionnels, Risques identifiés et mitigation, décisions Positionnement hiérarchique et interlocuteurs • Interactions quotidiennes avec : Responsable des tests, Product Owners, Business Analysts, équipes techniques, testeurs manuels et équipe d'automatisation. • Reporting régulier auprès des responsables produit, développement et direction des opérations. ENVIRONNEMENTS ET OUTILS • Architecture : Web Services, batch, IHM, accès internes/externes • Outils QA (ou équivalent) : JIRA, Xray, Confluence, API, SQL • Spring batch, Java, SQL, API Rest, Kafka, Swagger
Freelance

Mission freelance
Data Engineer AWS - PySpark/Databricks

Publiée le
Amazon S3
Apache Spark
AWS Cloud

12 mois
550-600 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
Freelance

Mission freelance
ALSL - Tech Manager Data

Publiée le
Apache Airflow
AWS Cloud
Big Data

6 mois
550-620 €
Paris, France
Télétravail partiel
Nous cherchons un Tech Manager Data qui saura allier leadership technique et pilotage stratégique autour d’un sujet clé : l’exploitation des données issues des Property Management Systems. Ces données sont le cœur du fonctionnement : réservations, facturation, occupation, services. Ton rôle ? Les transformer en un actif stratégique fiable, pour booster la performance et la distribution des services. En tant que Tech Manager Data , tu seras : Le leader technique et managérial de deux équipes (internes & partenaires externes). Le chef d’orchestre des projets data PMS : collecte, intégration, fiabilisation et monitoring. Le binôme stratégique du Product Manager Data pour construire la roadmap et prioriser la valeur. Le garant de la fiabilité et de la performance des produits data : monitoring, alerting, optimisation FinOps/DevOps. L’ interface clé entre les équipes métiers, IT et les éditeurs PMS.

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

46 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous