Trouvez votre prochaine offre d’emploi ou de mission freelance Apache à Paris

Votre recherche renvoie 68 résultats.
Freelance
CDI

Offre d'emploi
DataOPs Kafka

JEMS
Publiée le
Apache Kafka
Kubernetes

3 ans
54k-70k €
470-630 €
Paris, France
Au sein du pôle technologique en charge des plateformes as a service , vous rejoignez la Squad Streaming qui est responsable du build et du run d’une plateforme Kafka (Confluent) de grande envergure, utilisée par de nombreuses entités du groupe. La plateforme compte plus de 30 clusters Kafka et constitue un socle critique pour les flux de données temps réel. Build & Architecture Déployer de nouveaux clusters Kafka (Confluent) Participer à la définition des architectures futures de la plateforme Concevoir et tester des prototypes liés aux nouveaux cas d’usage Industrialisation & Automatisation Automatiser les déploiements et opérations via Ansible Standardiser et fiabiliser les configurations Améliorer en continu les processus d’installation, d’upgrade et de scaling Run & Exploitation Assurer la mise en production et le maintien en condition opérationnelle des clusters Mettre à l’échelle les clusters existants (scaling horizontal et vertical) Participer aux astreintes techniques Diagnostiquer et résoudre les incidents complexes liés à la plateforme Support & Expertise Accompagner les équipes utilisatrices dans l’usage de la plateforme Kafka Fournir un support technique avancé Documenter les offres proposées par la plateforme Animer des formations, démonstrations et WebTech Rôle au sein de la Squad Prendre en charge des éléments du backlog Participer aux rituels agiles (daily, rétrospectives, démos, PI Planning) Co-construire la roadmap avec le Product Owner et le Squad Lead Endosser le rôle de lead technique sur un produit de la plateforme Compétences techniques requises Expertise solide Kafka (idéalement Confluent) Expérience d’exploitation de plateformes en production critique Automatisation avec Ansible Systèmes Linux Connaissance des architectures distribuées et résilientes Compétences appréciées Kubernetes Observabilité / monitoring Réseaux & sécurité Scripting (Python, Bash)
Freelance

Mission freelance
Expert Airflow (H/F)

Cherry Pick
Publiée le
Apache Airflow

2 mois
600-650 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Expert Airflow(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine de Luxe. Description 🏢 Le Contexte : Audit Stratégique & Modernisation Data Pour le compte d’un acteur majeur du Luxe , vous rejoignez le pôle Conseil Data d'une agence de marketing et data de premier plan. La mission consiste à réaliser un audit complet et une trajectoire de modernisation de l’orchestration data du client, actuellement basée sur un écosystème GCP (Google Cloud Platform) . Le client fait face à des enjeux de dette technique sur son legacy de flux et souhaite sécuriser sa transition vers les standards les plus récents de l'industrie. Vous interviendrez en binôme avec le Directeur du pôle Data/IA pour apporter l'expertise technique "Deep Dive" nécessaire. 🎯 Vos Missions : Onboarding, Audit & Recommandations La mission est découpée en trois phases distinctes sur un planning de 15 à 20 semaines : Phase 1 : Audit Global & Inventaire (Full-Time) Réaliser l’inventaire exhaustif des DAGs et des pipelines existants. Analyser les flux de données legacy sur GCP. Évaluer la performance, la fiabilité et la conformité (GCP Compliance) de l'infrastructure actuelle. Phase 2 : Étude de Migration Composer 2 vers 3 Étudier la faisabilité technique et les impacts d'une migration de Cloud Composer 2 vers Cloud Composer 3 . Identifier les risques critiques et les opportunités d'optimisation (coûts, scalabilité, maintenance). Phase 3 : Synthèse & Accompagnement (Part-Time) Rédiger les rapports de synthèse et les préconisations techniques. Présenter la proposition d’accompagnement et la roadmap de transformation au client. Assurer un rôle de conseil expert auprès des collaborateurs et du client.
Freelance
CDI

Offre d'emploi
🔎 Data Engineer – Python / Spark / Databricks / AWS

Hexateam
Publiée le
AWS Cloud
Python
Spark Streaming

1 an
Paris, France
Mission : Data Engineer Confirmé – Python / Spark / Databricks / AWS Dans le cadre de l’évolution d’une plateforme Data centralisée, nous recherchons un Data Ingénieur confirmé pour intervenir sur le développement et l’optimisation de pipelines de données dans un environnement Big Data et Cloud AWS. Stack technique : Python • Spark • Databricks • SQL AWS (S3, Airflow, Glue, CloudWatch) Git • CI/CD • Agile / Scrum ✅ Profil recherché : Expérience confirmée en Data Engineering Bonne maîtrise de Spark / Databricks Expérience Cloud AWS
Freelance

Mission freelance
Un DevOps Sénior Kafka Kubernetes sur la région parisienne

Almatek
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Kubernetes

3 mois
Paris, France
Almatek recherche pour l'un de ses clients, Un DevOps Sénior Kafka Kubernetes Data Platform Sur la région parisienne. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. Maîtriser les technologies GCP (Google Cloud Platform) telles que Google Kubernetes Engine (GKE), Cloud Storage, Cloud SQL et Cloud Monitoring. Maîtriser en profondeur Apache Kafka, de sa confi guration avancée (partitionnement, réplication, compaction) à son exploitation en production, en passant par le tuning des performances, la gestion fi ne des topics et des offsets, la mise en oeuvre de la sécurité (TLS, SASL, ACL) et l’intégration avec des outils de supervision comme Prometheus et Grafana Avoir une solide expérience avec Kubernetes, notamment la création et la gestion de clusters, le déploiement d'applications et la supervision des performances. Être à l'aise avec les concepts DevOps, tels que l'intégration continue (CI) et la livraison continue (CD), et les outils associés. Connaissance des bonnes pratiques de sécurité et de la mise en place de politiques d'accès. Compréhension des concepts de base des bases de données relationnelles. Maîtrise des scripts de scripting (bash, Python, etc.). Esprit d'analyse et d'amélioration continue : Capacité à évaluer le code et ses impacts, ainsi qu'à remettre en question les solutions existantes pour les améliorer. Capacité à travailler de manière autonome et à gérer son temps effi cacement. Excellente communication écrite et orale : Aptitude à produire des livrables et des reportings de haute qualité. Esprit d'équipe : Capacité à collaborer effi cacement avec les membres de l'équipe pour atteindre des objectifs communs. Maîtrise des concepts d’Agilité (Scrum, Sprint Planning, Backlog…). Le/la consultant(e) doit disposer de son propre matériel, adapté aux besoins de la mission : OS & CPU : Windows (Intel Core i7 ou i9, AMD Ryzen 7 ou 9), MacOS (M2 ou supérieur), Linux (AMD Ryzen 7 ou 9) RAM : minimum 16 Go, idéalement 32 Go ou plus Stockage SSD) : minimum de 512 Go, idéalement 1 To ou plus
Freelance

Mission freelance
Data Analyst – Data produit & trafic web - Paris (H/F)

EASY PARTNER
Publiée le
Apache Spark
Microsoft Power BI
PL/SQL

1 an
400-430 €
Paris, France
Dans le cadre de projets liés à l’analyse de la performance digitale (web et mobile), un acteur du secteur digital recherche un Data Analyst . Les missions portent sur l’analyse des données de trafic et des usages utilisateurs. Missions Analyser les données d’usage (web / mobile / trafic) Construire et maintenir des dashboards métiers (Power BI, Tableau) Suivre les KPIs produits et business Collaborer avec les équipes produit et techniques Participer au reporting et à la prise de décision Power BI tracking web outils analytics (type GA, dataLayer…) SQL avancé Power BI / Tableau Python
Freelance

Mission freelance
AMO/architecte Ansible

Mon Consultant Indépendant
Publiée le
Apache
Apache Tomcat
Linux

12 mois
410-460 €
Paris, France
Pour un client dans le domaine ferroviaire et plus particulièrement pour sa DSI, nous recherchons un AMO/architecte Ansible pour : Définir et participer à la construction d’un l’outillage d’automatisation et d’industrialisation des tâches d’exploitation · Administrer une plateforme d’orchestration (RunDeck ou autre) · Administrer la plateforme ansible · Participer au durcissement des OS linux · Automatiser à l’aide de scripts les gestes d’exploitation sur les plateformes linux. · Être en support N3 des équipes de la DGNUM sur les solutions déployées · Définir/modifier les bonnes pratiques · Participation à la conception des feuilles de route techniques de la gestion de configuration · Suivre l’obsolescence des composants · Assure la veille technologique Environnement fonctionnel et technique : · SGBD : Oracle, Micrososft Sql Server, Postgresql, Ingres 9.2 sur Solaris , NoSQL Couchbase, Redis, · MONGODB, PAAS SGBD (AWS et Azure) · Serveurs : Unix Solaris / AIX, Linux Suse / Red Hat / Centos / Ubuntu, Windows Server · Middlewares : Apache, Tomcat, Weblogic, CFT, MQ Server SFTP, JMS, VTOM, suite logicielle TIBCO, Networker, Oracle Tuxedo · Plateformes/ logiciels : Teraform, Jenkins, Ansible, RunDeck, squash TM, Postman, Docker, Kubernetes, Databricks Connaissances, compétences obligatoires : · Expérience sur un poste similaire · Expertise ansible · Expertise sur les OS Linux (Ubuntu) · Expertise en développement de scripts Shell et un autre langage · Maitrise des technologies autour du cloud serait un plus Attitudes, aptitudes : · Excellent relationnel · Capacité de communication et d’écoute, diplomatie, autonomie et sens de la rigueur. · Forte capacité d’initiative et d’anticipation. · Autonomie et curiosité technique.
CDI

Offre d'emploi
Consultant IT Documentaire – Flux Kafka (Java)

CELAD
Publiée le

52 500 €
Paris, France
Contexte Dans le cadre d’une mission pour l’un de ses clients bancaires majeurs , CELAD renforce ses équipes et recherche un Consultant Communication Client / Quadient Inspire . La mission s’inscrit dans un contexte de forte volumétrie (plusieurs milliards de communications par an) et de modernisation du système d’information courrier , incluant l’industrialisation des flux documentaires, l’optimisation de la diffusion omnicanale et une architecture orientée événements . Vos missions 1. Conception & paramétrage des communications Prendre en charge les demandes de création et d’évolution de courriers de gestion Concevoir les maquettes sous Quadient Inspire en respectant les master templates Garantir la conformité aux chartes graphiques et aux standards internes Produire des livrables conformes aux processus de versioning 2. Intégration & flux événementiels Intégrer les modèles documentaires dans un SI orienté événements Exploiter les flux Kafka alimentant les communications clients Participer aux tests d’intégration des flux documentaires Garantir la cohérence entre les données entrantes et la composition documentaire 3. Déploiement & industrialisation Préparer et déployer les évolutions via GitLab Contribuer aux mises en production Assurer la traçabilité et le versioning des livrables 4. Documentation, support & amélioration continue Maintenir la documentation fonctionnelle et technique Diagnostiquer les incidents liés aux communications et aux flux associés Assurer le support fonctionnel aux utilisateurs Participer à l’amélioration continue des processus
CDI

Offre d'emploi
Lead Data Scientist

█ █ █ █ █ █ █
Publiée le
Apache Airflow
Ocaml
Python

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Développeur Fullstack (H/F)

Swood Partners
Publiée le
Angular
Apache Kafka
Java

Paris, France
Embarque dans l'aventure SWOOD Partners ! 🌟 Nous sommes à la recherche d'un(e) Développeur(se) fullstack Java, prêt(e) à fusionner expertise technique, créativité et esprit d'équipe pour concevoir des solutions innovantes et impactantes. Si le développement Java te passionne, que tu apprécies les défis, travailler avec des équipes dynamiques et que tu souhaites vraiment faire la différence, la communauté tech de SWOOD n'attend que toi ! 🚀 Concrètement, tu seras amené à : Coconstruire l'offre Web Java : Contribuer activement à l'élaboration et à l’amélioration de l'offre de la practice Web sur la techno Java. Définir de solutions techniques : Analyser les besoins métiers, proposer et mettre en œuvre des solutions techniques détaillées. Accompagner et former des développeurs : Guider et accompagner des développeurs pour optimiser les performances et la sécurité des solutions. Proposer un code de qualité : Produire du code respectant les bonnes pratiques, conventions et standards de développement, ainsi que les tests associés. Pourquoi nous rejoindre ? 🤩 ✨ Accès à la propriété : chaque Swoodies peut acheter des actions chez SWOOD ! Faire partie et évoluer dans la Communauté Product Design , pour apprendre et partager avec d’autres experts. Un accompagnement au top : un suivi RH, un suivi BM et un suivi PL (un expert design ou produit) pour construire un plan d’évolution personnalisé. ⚡ On valorise ton impact , pas juste ta rentabilité. Des moments de partage , de fun et de best practices avec tous les Swoodies ! ➕ Et plus encore… Prêt(e) à transformer l'avenir avec nous ? 💡 Alors capitalise sur ton talent ! Et prends part (au sens propre comme au figuré 😏) au développement de SWOOD Partners !
CDI
Freelance

Offre d'emploi
Développeur Python / FastAPI

VISIAN
Publiée le
Apache Airflow
FastAPI
pytest

1 an
Paris, France
Objectif : Concevoir et maintenir des services back-end scalables et performants. Responsabilités Développer et optimiser des API (REST) en Python (FastAPI). Concevoir et maintenir des bases de données (PostgreSQL principalement) pour des requêtes performantes. Collaborer avec les équipes DevOps pour automatiser les déploiements (Docker, CI/CD). Intégrer des tests automatisés (pytest) et participer aux revues de code. Contribuer à l'amélioration continue de l'architecture back-end. Stack technique Langages : Python. Bases de données : PostgreSQL, NoSQL. Pipeline de données : Airflow ou autres Outils : Docker, Git, CI/CD, Ansible, Terraform.
Freelance
CDI

Offre d'emploi
Senior DevOps / Platform Engineer

KLETA
Publiée le
Apache Kafka
AWS Cloud
CI/CD

3 ans
Paris, France
Je recherche pour un client grand compte un Senior DevOps / Platform Engineer afin d’intervenir au sein d’une Software Factory en pleine structuration , dans un contexte de forte montée en charge des plateformes digitales. Contexte Vous interviendrez sur des plateformes critiques, avec des enjeux importants de : scalabilité standardisation des pratiques industrialisation des déploiements observabilité applicative data streaming Missions Structuration des pratiques DevOps / Platform Engineering Standardisation des déploiements applicatifs (Helm, CI/CD) Industrialisation des pipelines Mise en place et évolution de l’ observabilité applicative Accompagnement à l’adoption de OpenTelemetry / OpenSearch Contribution à l’évolution d’une plateforme Kafka / MSK Mise en place de mécanismes de self-service Participation à la définition de la roadmap technique
Freelance

Mission freelance
Data Engineer - Paris

Intuition IT Solutions Ltd.
Publiée le
Apache Spark
SQL

3 ans
400-410 £GB
Paris, France
Description du poste – Data Engineer Senior Dans le cadre de projets numériques transverses, vous interviendrez au sein d’une équipe data intégrée à une plateforme de traitement et de valorisation des données. Vous collaborerez étroitement avec des profils métiers et techniques afin de garantir la collecte, la structuration et l’exploitation optimale des données. Vos missions incluent notamment : Participer aux phases de conception, planification et réalisation des projets data Construire et maintenir des pipelines de données robustes et scalables Centraliser des sources de données hétérogènes Structurer et organiser les stockages de données Mettre en place des infrastructures évolutives capables de gérer des volumes importants Développer et maintenir les workflows CI/CD Assurer la sécurité, la stabilité et la performance des environnements Accompagner les équipes dans l’exploitation et le requêtage des données Contribuer aux initiatives de gouvernance data Documenter les solutions et diffuser les bonnes pratiques Réaliser une veille technologique active
Freelance

Mission freelance
Tech Lead Databricks ( H/F)

ALLEGIS GROUP
Publiée le
Apache Kafka
Databricks
Scala

6 mois
150-620 €
Paris, France
Teksystems recherche pour un de ses client grand compte un Tech Lead Databricks ( H/F) . Missions principales1. Ingestion & Traitement de Données Concevoir et mettre en œuvre des pipelines d’ingestion de données en temps réel via Kafka . Assurer le traitement, la préparation, la qualité et la structuration des données sur la plateforme Databricks Data Intelligence Platform . Développer et optimiser les jobs de transformation avec Spark (Scala, PySpark si nécessaire). 2. Modélisation & Architecture Concevoir et maintenir des modèles de données robustes , scalables et alignés avec les besoins métiers. Définir une architecture technique viable, performante et pérenne , en lien avec les standards Data de l’entreprise. Encadrer les choix technologiques et identifier les solutions les plus adaptées aux cas d’usage. 3. Leadership Technique & Coordination Animer les ateliers techniques avec l’équipe Data (squad, data engineers, data analysts…). Assurer la gestion des risques techniques , anticiper les points de blocage et sécuriser la roadmap. Fournir un guidage technologique basé sur une expertise éprouvée des projets DATA. Accompagner la squad dans les bonnes pratiques de développement, de CI/CD et de gouvernance Data. 4. Méthodologie & Qualité Travailler dans un cadre Agile (Scrum / Kanban), avec participation active à la planification, aux revues et aux rétrospectives. Garantir la qualité des livrables : documentation, code propre, tests, performance.
Freelance
CDI

Offre d'emploi
Data Engineer Python / Scala / Cloud

Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
API REST

12 mois
Paris, France
Contexte Dans le cadre du développement d’une Data Marketplace interne pour un grand groupe international du secteur de l’énergie, nous recherchons un Data Engineer expérimenté afin de renforcer une équipe produit data. La plateforme permet de centraliser l’ensemble du parcours data des utilisateurs : découverte de données, data quality, data governance, transformation de données, monitoring de pipelines et BI. Elle sera progressivement déployée auprès de plusieurs milliers d’utilisateurs dans un environnement international. Le consultant interviendra sur la conception et l’évolution des pipelines de données ainsi que sur l’optimisation de la qualité et de la performance des flux. Missions Développement et maintenance de pipelines de données en Python et Scala Conception et évolution d’une architecture data scalable et modulaire Gestion et optimisation des flux de données Mise en place de processus de data quality et validation des données Optimisation des performances des ingestions de données Participation aux rituels agiles et aux revues de code Documentation des choix techniques et de l’architecture Environnement technique Python Scala / Spark Cloud : AWS et Azure AWS : Lambda, Glue, Redshift, Step Functions, DynamoDB Streaming : Kafka, Kinesis, EventHub, EventGrid API REST Git CI/CD Big Data Architecture Connaissance de Langchain ou Langgraph appréciée.
Freelance
CDI

Offre d'emploi
DataOPs Kubernetes /MinIo -Trino

JEMS
Publiée le
Apache Spark
Kubernetes

3 ans
40k-65k €
400-550 €
Paris, France
Ingénieur Big Data expérimenté pour administrer et optimiser des solutions Big Data (Spark, Trino, MinIO) sur un cluster Kubernetes au sein d’un grand groupe. Ce rôle requiert une forte expertise en tuning applicatif, support et approche DevOps/GitOps. · Déploiement et administration avancée des applications Spark, Trino ou MinIO sur Kubernetes. · Tuning et optimisation des performances : ajustement des configurations, analyse des logs, debugging avancé, optimisation des requêtes SQL (Trino), tuning des jobs Spark. · Gestion du RUN et support applicatif : diagnostic et résolution des incidents, amélioration continue des performances, accompagnement des utilisateurs sur l’optimisation des requêtes. · Mise en place de l’approche GitOps : automatisation complète du déploiement et de la gestion des applications avec Terraform, Ansible, Git, ArgoCD/FluxCD. · Sécurisation et monitoring avancé : implémentation de métriques et alertes sur Prometheus, Grafana, Loki, gestion des accès et des logs applicatifs.
Freelance

Mission freelance
Product Owner - Portail Investisseur (H/F)

Freelance.com
Publiée le
Apache Kafka
API
eFront

3 ans
400-640 €
Paris, France
Poste : Product Owner Portail Investisseur Localisation : Paris (2 jours présentiel mardi et vendredi, 3 jours télétravail) Expérience : +9 ans Mission : Longue, 3 ans Démarrage : ASAP Au sein du Train Agile Investissement , le Product Owner / Business Analyst prendra en charge la gestion du backlog produit "Portail Investisseur" en lien avec les métiers, les équipes éditeur et les équipes Digital / DSI. Le rôle inclut : Élaborer et partager la vision du produit avec les équipes métiers et l’équipe agile. Prioriser le backlog produit et rédiger les user stories avec critères d’acceptance. Assurer l’exécution des recettes fonctionnelles et applicatives , ainsi que le support utilisateur et l’assistance à la production (tickets d’incidents). Collaborer étroitement avec le Product Manager, le pilote digital, l’architecte et l’éditeur pour garantir la cohérence du produit avec la vision stratégique . Ce poste nécessite une capacité à coordonner plusieurs parties prenantes et à évoluer dans un contexte distribué, multi-sites.

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

68 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous