Trouvez votre prochaine offre d’emploi ou de mission freelance Apache à Paris

Votre recherche renvoie 50 résultats.
Freelance

Mission freelance
INTEGRATEUR APPLICATIF TOMCAT / APACHE EXPERIMENTE

PROPULSE IT
Publiée le
Apache

24 mois
250-500 €
Paris, France
Pour un démarrage sous un mois environ, nous recherchons un(e) intégrateur technique d'application freelance très expérimenté pour intégrer les application web chez notre client, en lien avec la production et les équipes de développement. Très Important : le profil recherché n'est pas un ingénieur de production qui gère des procédures d'intégration applicative mais un consultant habitué à être intercalé entre les équipes de développements et la production et qui prépare les documents d'installation. de plus il doit être expert et parfaitement autonome avec beaucoup d'expérience sur Tomcat / Apache. Pas de Devops dans le périmètre. Astreintes possibles soir et week-end - répartition selon l'équipe Livrables sont : - Dossier d'installation - Composants applicatifs -Configuration applicative Description détaillée - Capable de configurer/installer tomcat manuellement sur windows ou linux - Capable d'analyser les logs tomcat en cas d'erreur - Capable de configurer/installer manuellement un serveur httpd - Capable d'analyser les logs httpd en cas d'erreur - Savoir évoluer dans un environnement linux - Récupération des livrables de développement sur les outils de Gestion de configuration (SVN, GIT) - Installation des packages sur les plateformes de tests - Qualification des packages sur les plateformes de tests selon les normes en vigueur - Vérification de la conformité des applications vis à vis des contraintes de production - Rédaction et validation des documents d'installation et d'exploitation - Rédaction et exécution des plans de tests techniques - Assistance et support technique à la mise en production - Communication avec l'équipe projet - Reporting
CDI
Freelance

Offre d'emploi
Expert KAFKA

SMILE
Publiée le
Apache Kafka
Kubernetes

6 mois
40k-70k €
400-700 €
Paris, France
Bonjour, Nous recherchons un Expert Kafka, avec des compétences sur Kubernetes, java et angular pour une mission secteur bancaire. Pilotage technique Définir et faire respecter les bonnes pratiques de développement, de versioning et d’industrialisation des pipelines sous Gitlab CI Réaliser des tests techniquement approfondis de bon fonctionnement applicatif, assurer la cohérence et la robustesse technique des traitements Participer à la conception des architectures cibles en lien avec les architectes et les équipes DSI Contribuer à l’amélioration continue des performances et de la stabilité des pipelines 2. Conception et industrialisation Concevoir, développer et maintenir des pipelines Gitlab CI, KSQLDB (Kafka) Mettre en œuvre les solutions d’orchestration et d’automatisation Revue et validation des dossiers de conception réalisés par les équipes de développement Veiller à la documentation, à la supervision et au monitoring des traitements. 3. Encadrement et accompagnement Accompagner techniquement les développement dans leurs développements et leur montée en compétence Promouvoir les bonnes pratiques DataOps (CI/CD, tests, observabilité, monitoring). Faciliter les échanges entre les équipes Projet , Architecture, Sécurité et Métier. 4. Gouvernance et qualité Contribuer à la mise en place des standards de qualité, de traçabilité et de sécurité des données. Collaborer avec la Release Manager et être garant du respect par l'équipe projet, des process qualité de gestion des releases Participer à aux chantiers instancés par l'équipe Sécurité, par exemple la mise en œuvre du plan de secours informatique 2 fois par an Compétences techniques/fonctionnelles Langages et outils CI/CD & Infra : GitLab CI, Docker, Kubernetes Base de donnée : Mongo shell, PostgreSQL, Elastic Search Architecture & bonnes pratiques Architecture microservices Performance et optimisation des traitements applicatifs sur Kubernetes Sécurité, gouvernance et qualité des données Supervision et observabilité (logs, alertes, métriques)
Freelance
CDI

Offre d'emploi
Expertise Kafka / DATA ENGINEERING

Digistrat consulting
Publiée le
Apache Kafka
ELK

3 ans
40k-70k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : 💡Objectif global : Expert kafka 💡Description détaillée Le contexte de la mission : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA 💡Principales technologies utilisées : • Kafka => IMPERATIF • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Freelance

Mission freelance
CONSULTANT APACHE SUPERSET

PROPULSE IT
Publiée le
Apache

24 mois
250-500 €
Paris, France
Dans le cadre d'un renfort d'équipe chez l'un de nos clients : Nous recherchons un consultant Data / BI / Dataviz avec une expertise sur "Apache Superset" Missions principales : Configuration de dashboards superset : Création de dashboards dynamiques et interactifs pour répondre aux besoins spécifiques de l'entreprise Intégration de données provenant de différentes sources Mise en forme des données pour une visualisation claire et efficace Développement de plugins : Création de plugins personnalisés pour étendre les fonctionnalités de Superset Intégration de nouvelles sources de données Automatisation des tâches de reporting Informations complémentaires : Type de contrat : Prestation de service Début de mission : Immédiat Lieu de travail : Castres / Full Remote
Freelance
CDI

Offre d'emploi
Développeur CONFIRME Big Data Hadoop/PySpark/Python - 3 à 6 ans

Digistrat consulting
Publiée le
Apache Hive
Apache Spark
Hadoop

3 ans
38k-43k €
300-400 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Freelance

Mission freelance
Data Engineer GCP Airflow (H/F)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

12 mois
380-420 €
Paris, France
Data Engineer GCP/Airflow – (Freelance) Mission longue - Démarrage ASAP Nous recrutons pour un client majeur du secteur de la construction et des infrastructures , dans le cadre du renforcement de ses équipes data. Mission freelance de 12 mois minimum (renouvelable), démarrage ASAP 2 jours de télétravail flexible et Localisation Ligne 14 Profils juniors acceptés, 1 an d'expérience min. (stage, alternance, première expérience compris) Formation Bac +5 min. requise Contexte & mission Vous interviendrez sur des outils liés à la gestion de données internes, avec notamment : Analyse et traitement de logs Identification de dysfonctionnements Intégration et transformation de données Alimentation de tables BigQuery Support sur des outils internes (Dataiku, tableaux de suivi…)
Freelance

Mission freelance
POT9139 - Un Architecte Solution Applicatif sur Paris

Almatek
Publiée le
Apache Kafka

6 mois
Paris, France
Almatek recherche pour l'un de ses clients, un Architecte Solution Applicatif sur Paris Environnement obligatoire : Application majoritairement Java, Progiciel, Monolith et Micro-Services, On premise et Cloud, Event Driven (Kafka)… Anglais professionnel Almatek recherche pour l'un de ses clients, un Architecte Solution Applicatif sur Paris Environnement obligatoire : Application majoritairement Java, Progiciel, Monolith et Micro-Services, On premise et Cloud, Event Driven (Kafka)… Anglais professionnel
Freelance
CDI

Offre d'emploi
Data Ingenieur Python

CHARLI GROUP
Publiée le
Apache Kafka
ELK
Python

3 ans
Paris, France
Ingénieurie Data expérimenté pour conception, construction et maintenance d' une infrastructure de données robuste et performance dans un environnement entièrement on-premise. Étroite collaboration avec les équipes Data pour garantir des pipelines fiables et de haute qualité sur notre infrastructure autogérée. Profil recherché : - Conception et construction des pipelines de données scalables pour le traitement batch et temps réel - Dévelopement et maintenance des workflows avec Apache Airflow (orchestration) et Apache Flink (traitement de flux) - Mise en place et opération des clusters Apache Kafka pour le streaming d'événements à haut débit - Déployement et administration la stack ELK (Elasticsearch, Logstash, Kibana) pour l'ingestion de logs, l'indexation, la recherche et l'observabilité - Écriture du code Python propre, efficacité et test pour la logique ETL/ELT et les outils internes - Garantie de la qualité des données, la fiabilité des pipelines et la résilience de l'infrastructure - Collaboration avec les équipes DevOps sur la planification de capacité et les opérations cluster - Accompagnement et augmentation en compétences des ingénieurs moins expérimentés
Freelance
CDI

Offre d'emploi
DEVOPS PRODUCTION

Octopus Group
Publiée le
Apache Kafka
Java

6 mois
40k-45k €
480-600 €
Paris, France
Contexte de la mission Intervention sur une application critique de télécommunication au cœur d’un système industriel à forte volumétrie. Cette application assure la connectivité entre le système d’information et des équipements distants via différents réseaux WAN. Les exigences en performance, sécurité et résilience sont très élevées. Toute indisponibilité impacte l’ensemble du système. Durée et démarrage Mission de 6 mois renouvelable Démarrage prévu en juin Astreinte et heures non ouvrées à hauteur de 15 pour cent Missions principales Participation à l’architecture et aux choix techniques Contribution aux développements et à leur mise en production Mise en place et amélioration des outils d’exploitation Supervision, monitoring, alerting et gestion des incidents Maintien en conditions opérationnelles Correction d’anomalies techniques et fonctionnelles Participation aux rituels Agile Environnement technique Java 8 à 21 APIs Java CDI JAX RS JPA JMS EJB WebLogic Maven Jenkins Ansible Git Shell Docker Virtualisation Angular React Oracle Kafka Linux RHEL Grafana Prometheus InfluxDB AppDynamics TLS mTLS PKI F5 Radius Compétences attendues Expertise technique et sécurité Maîtrise de TLS mTLS et gestion des certificats Bonne connaissance de Kafka et des architectures distribuées Solides bases en Java Run et production Expérience en run de nuit Maîtrise des outils d’observabilité Gestion des incidents et diagnostic Organisation Expérience en Agile Bonne communication Capacité à contribuer techniquement Exigences impératives Maîtrise de Java avec une composante sécurité Minimum 3 ans d’expérience en run de nuit avec outils d’observabilité Maîtrise de F5 et Radius
Freelance

Mission freelance
CHEF DE PROJET IT (TRANSORMATION PLATEFORME FINANCE DE MARCHE)

PARTECK INGENIERIE
Publiée le
Apache Kafka
DevOps
Microservices

12 mois
400-680 €
75000, Paris, Île-de-France
ANGLAIS MANDATORY Contexte Dans le cadre d’un programme de transformation, une institution financière modernise sa plateforme Middle & Back Office dédiée au traitement de produits dérivés. L’environnement cible repose sur une architecture moderne (microservices, APIs, messaging, bases de données relationnelles, interface web). Objectif Piloter un projet de transformation en garantissant la livraison conforme aux objectifs fonctionnels, techniques, de qualité et de délais. Responsabilités principales Pilotage du projet Définition et suivi de la roadmap (analyse, conception, développement, tests, déploiement) Gestion du périmètre, des livrables et des critères d’acceptation Suivi du planning, du budget et des ressources Gestion des parties prenantes Animation des comités projet et techniques Coordination entre métiers, opérations et équipes IT Gestion des demandes d’évolution (change management) Méthodologie Agile Animation des rituels Scrum Suivi des indicateurs Agile (backlog, avancement, qualité) Risques & conformité Identification et pilotage des risques (techniques, opérationnels, réglementaires) Mise en conformité avec les exigences de sécurité et de régulation Qualité & delivery Supervision des phases de tests et de validation Mise en place et suivi des processus CI/CD Garantie du respect des standards techniques et documentaires Reporting & communication Suivi des KPIs et reporting régulier aux sponsors Communication sur l’avancement et les points critiques Accompagnement du changement Formation et transfert de compétences aux équipes opérationnelles Support à la mise en production et suivi post-déploiement Profil recherché Expérience Expérience significative en gestion de projets IT complexes, idéalement en environnement financier Compétences Maîtrise des méthodologies Agile Bonne compréhension des architectures modernes (microservices, APIs, DevOps) Connaissance des environnements Middle/Back Office appréciée Qualités personnelles Leadership et capacité à coordonner des équipes pluridisciplinaires Excellente communication Esprit d’analyse et orientation résultats
Freelance
CDI

Offre d'emploi
Data Engineer GCP / Spark – Plateforme Data (H/F)

Etixway
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
40k-65k €
400-600 €
Paris, France
Dans le cadre du renforcement d’une équipe Data au sein d’un grand groupe du secteur des médias, nous recherchons un Data Engineer confirmé pour intervenir au cœur d’une plateforme data stratégique. Tu rejoindras une équipe en charge de la collecte, la centralisation et la transformation de données issues de sources hétérogènes , avec des enjeux forts de volumétrie, de performance et de qualité. Tes principales missions : Concevoir, développer et maintenir des pipelines data robustes et scalables Assurer l’ ingestion et la transformation de données multi-sources Optimiser les performances des traitements (Spark / SQL) Orchestrer les flux de données via Airflow Structurer et organiser le stockage des données Participer à l’ industrialisation des traitements (CI/CD, infrastructure) Garantir la qualité, la sécurité et la fiabilité des données Contribuer aux échanges techniques et à l’amélioration continue des pratiques
Freelance
CDI

Offre d'emploi
DataOps Kafka

KLETA
Publiée le
Apache Kafka
DevOps

3 ans
Paris, France
Dans le cadre d’un programme d’industrialisation data, nous recherchons un DataOps Kafka pour fiabiliser, automatiser et exploiter des plateformes de streaming en production. Vous analyserez les pipelines existants, identifierez les points de fragilité et proposerez des améliorations en matière de résilience, de monitoring et de gouvernance des flux. Vous guiderez la mise en place de pratiques DataOps autour de Kafka : automatisation des créations de topics, gestion des schémas, versioning, tests de compatibilité et mise en place de contrôles qualité sur les événements. Vous serez responsable de l’intégration de Kafka dans les chaînes CI/CD, de la mise en place de mécanismes d’observabilité (métriques, alerting, tracing) et de la gestion proactive des incidents. Vous travaillerez main dans la main avec les équipes Data Engineering, DevOps et SRE pour optimiser les performances, la disponibilité et la traçabilité des flux. Vous participerez également à l’amélioration continue des pratiques d’exploitation et à la diffusion d’une culture DataOps autour du streaming.
Freelance
CDI

Offre d'emploi
Développeur Java / Angular / Kafka – Secteur bancaire (F/H)

CELAD
Publiée le
Angular
Apache Kafka
J2EE / Java EE

12 mois
40k-50k €
400-450 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Développeur Java Fullstack (Back majoritaire) pour intervenir chez un de nos clients dans le secteur bancaire . 💻💼 Voici un aperçu détaillé de vos missions 🎯 : Contribuer à la mise en œuvre de la roadmap notation, avec un focus sur le déploiement d’un nouveau modèle de scoring . Assurer la cohérence de ce nouveau moteur de notation avec l’écosystème existant Concevoir et développer des API permettant l’accès aux services internes, en garantissant performance et sécurité Participer à la définition des nouvelles API en collaboration avec les équipes métiers et les architectes Développer et maintenir les API sur un environnement Java (Spring Boot) Mettre en place les tests unitaires et d’intégration associés à chaque développement Déployer les API sur les différents environnements Collaborer avec les équipes techniques et métiers dans un contexte agile et transverse
CDI

Offre d'emploi
Développeur Java Full Stack (H/F)

Diggers
Publiée le
Apache Kafka
Back-end
Front-end

45k-68k €
Paris, France
TON CHALLENGE Participer à des projets stimulants dans la banque , la finance ou le retail au sein d’une équipe soudée et passionnée : Concevoir et développer des applications full stack à forte valeur ajoutée , basées sur des architectures microservices et des flux temps réel Kafka Analyser les besoins utilisateurs et proposer des solutions techniques performantes et scalables Développer de nouvelles fonctionnalités , que ce soit dans le cadre d’évolutions ou de projets from scratch Implémenter des flux de données événementiels via Apache Kafka Participer aux tests, revues de code et à la mise en production continue (CI/CD) Collaborer en méthodologie agile et partager les bonnes pratiques de développement au sein d’une communauté d’experts
Freelance

Mission freelance
Data engineer orienté back end (Python) PostgreSQL - AWS - Airflow

Celexio
Publiée le
AWS Cloud
Bash
CI/CD

6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production , y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
CDI

Offre d'emploi
Senior Data Scientist - Ecommerce (f/m/d) (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Spark
Git
Python

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

50 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous