Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 192 résultats.
Freelance
CDI

Offre d'emploi
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans

Publiée le
Apache Spark
Hadoop
Python

3 ans
38k-43k €
300-400 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
CDI

Offre d'emploi
Data Engineer NiFi

Publiée le
Apache NiFi

40k-65k €
Île-de-France, France
Télétravail partiel
En tant que Data Engineer chez Smile, vous ferez partie de notre aventure où chaque jour est une nouvelle occasion de construire des solutions qui dépassent les attentes de nos clients (et les vôtres !)🧑‍🚀👩‍🚀 Ce que vous ferez en tant que Data Engineer chez Smile ? Conception et développement de pipelines de données (ETL/ELT). Maintenance et optimisation de l'infrastructure de données. Mise en place de solutions de stockage et de traitement de données (data warehouses, data lakes). Collaboration avec les équipes de data science et d'analyse. Automatisation des processus de gestion des données. Veille technologique sur les outils et technologies de données. Côté technique justement, vous évoluerez dans un environnement Open Source ☕: Ingénierie des données et Cloud : ETL/ELT, Big Data (Spark, Hadoop), plateformes cloud (AWS, Azure, GCP), orchestration (Kubernetes, Docker). Analyse de données et Business Intelligence : Visualisation (Power BI, Tableau), reporting, analyse prédictive, bases de données SQL/NoSQL. Développement logiciel et programmation : Développement backend, langages (Python, Java, Scala, R), API, intégration continue (CI/CD). Recherche et indexation de données : Moteurs de recherche (Elasticsearch, Solr), recherche full-text, optimisation de la performance des requêtes. Vous intègrerez un environnement stimulant où votre expertise et votre passion seront reconnues 💥. Nous vous invitons à participer à des projets captivants et à contribuer à notre croissance commune🌱. Smile s’engage pour un environnement où la diversité est une force et l’inclusion, un pilier. Ici, chaque talent est reconnu, respecté et encouragé à aller plus loin.
Freelance

Mission freelance
Lead Dev Python - FastAPI

Publiée le
Apache Kafka
FastAPI
Python

12 mois
580-630 €
Paris, France
Télétravail partiel
Contexte du poste Nous recherchons un Tech Lead expérimenté pour encadrer une équipe de 4 personnes (2 développeurs et 2 QA) au sein d’un environnement agile et orienté produit. Le rôle exige un haut niveau d’expertise technique , en particulier autour de Python et FastAPI , avec une participation active au développement et aux revues de code. En étroite collaboration avec le Product Owner , le Tech Lead sera responsable de la définition des besoins fonctionnels et techniques, de la conception de l’architecture, ainsi que du découpage des tâches pour l’équipe. Il jouera également un rôle clé dans l’amélioration continue des pratiques d’ observabilité et de sécurité . Missions principales Encadrer et accompagner une équipe composée de 2 développeurs et 2 QA. Participer activement au développement backend en Python et intervenir directement sur le code. Assurer des revues de code rigoureuses pour maintenir un haut niveau de qualité. Travailler conjointement avec le Product Owner pour : définir les besoins, concevoir l’architecture technique, découper les tâches et prioriser les développements. Mettre en place et améliorer les solutions d’ observabilité (logs, métriques, traces, dashboards). Renforcer les bonnes pratiques de sécurité applicative et d’architecture. Garantir la qualité, la performance et la maintenabilité des composants techniques développés. Compétences techniques recherchées Maîtrise avancée de Python (expert). Excellente connaissance de FastAPI et de la conception d’API performantes. Expérience significative avec Kafka (publication/consommation, patterns d’event streaming). Connaissances solides en observabilité : monitoring (ex. Grafana), logs, métriques, traces distribuées. Sensibilité forte à la sécurité applicative et infrastructurelle . Pratique confirmée des revues de code et des bonnes pratiques d’ingénierie logicielle. Capacité avérée à encadrer une équipe technique , accompagner les développeurs et structurer les travaux. Profil recherché Tech Lead / avec au moins 5 à 7 ans d’expérience , dont au moins une expérience en tant que Tech Lead. Forte culture engineering, sens du détail et exigence sur la qualité du code. Bon relationnel, capacité à collaborer étroitement avec un Product Owner et les QA. Esprit d’analyse, structuré, orienté solution. Envie de faire monter l’équipe en compétence et de participer activement aux décisions technologiques.
CDI

Offre d'emploi
Ingénieur Data

Publiée le
Apache Hive
Apache Spark
Cloudera

28k-42k €
Vannes, Bretagne
Missions principales Contribuer au développement et à l’industrialisation des traitements Big Data. Intervenir en transverse auprès des différentes équipes (IT et métiers). Challenger les besoins métiers et proposer des solutions techniques pertinentes. Participer à l’amélioration continue des performances et de la qualité des données. Environnement technique Environnement technique : SPARK, CLOUDERA, HADOOP, Java, Hive Profil recherché – Hard & Soft Skills 5 à 8 ans d’expérience en environnement Big Data (Spark / Hadoop / Hive / Java). Solide culture data et environnement distribués (type Cloudera). Excellente capacité de prise de recul et de compréhension des enjeux métiers. Aisance relationnelle et posture transverse : capacité à challenger et à accompagner les équipes métiers. Présence à Vannes 3 jours par semaine - Non négociable
Freelance

Mission freelance
Ingénieur Expert Serveurs d’Applications – WAS / IHS / JBoss / Tomcat / Apache (H/F)

Publiée le
Ansible
Apache
Apache Tomcat

1 an
400-430 €
Toulouse, Occitanie
Télétravail partiel
Nous recherchons un Ingénieur Expert Serveurs d’Applications pour intervenir dans un environnement technique exigeant et fortement orienté production. Vous rejoindrez une équipe chargée de concevoir, maintenir et optimiser des socles serveurs d’applications mis à disposition via un cloud interne. Vous interviendrez sur des plateformes critiques basées sur WAS / IHS (et JBoss, Tomcat, Apache) et apporterez votre expertise sur le design, le déploiement, la configuration, la supervision et la résolution d’incidents complexes. Vos missions : 🔹 Catalogue & MCO des socles serveurs d’applications Intégrer les solutions « clés en main » au catalogue interne et assurer leur maintien en condition opérationnelle. Maintenir en état opérationnel les outillages de configuration associés (Ansible Tower, XLD/XLR). Documenter les architectures, procédures et bonnes pratiques. 🔹 Support & expertise Niveau 3 Prendre en charge les incidents critiques (N3) en production et hors production. Diagnostiquer les causes profondes, proposer des corrections et solutions de contournement. Assurer des astreintes régulières sur l’ensemble du périmètre serveurs d’applications. 🔹 Ingénierie & projets (Design / Build / Run) Contribuer aux études d’architecture, POC, prototypes et choix techniques. Concevoir, installer et paramétrer les environnements applicatifs. Garantir la disponibilité, la performance et la sécurité des infrastructures. Participer aux actions de capacity planning et optimisations. 🔹 Gouvernance & amélioration continue Assurer la veille technologique sur les serveurs d’applications. Participer à la définition des normes et standards. Proposer des solutions innovantes pour améliorer performance, qualité et coûts d’exploitation. Rédiger documentations techniques, rapports d’activité, guides d’exploitation
Freelance

Mission freelance
Développeur C++ / Qt / QML

Publiée le
Apache Kafka
C/C++
QML

3 ans
400-550 €
Île-de-France, France
Télétravail partiel
Pour l’un de nos clients grand compte , nous recherchons un Développeur C++ expérimenté. Contexte et missions Développement et maintenance d’applications en C++ (14/17/20) Développement d’interfaces graphiques avec Qt 6.8 et QML Développements complémentaires en Python Participation à la conception, aux tests et à l’optimisation des performances Collaboration avec des équipes pluridisciplinaires (logiciel, système, QA) Environnement technique C++ 14 / 17 / 20 Qt 6.8 / QML Python Linux RedHat et Windows MySQL
Freelance
CDI

Offre d'emploi
Data Engineer (H/F) - Lyon

Publiée le
Apache Airflow
MLOps
PySpark

1 an
40k-45k €
400-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Notre client, acteur majeur du secteur [énergie / distribution], recherche un.e Data Engineer confirmé.e pour renforcer ses équipes Data. Le poste combine Data Engineering et MLOps , avec une implication sur l’ensemble du cycle de vie des pipelines de données et modèles ML. Missions principales : Data Engineering (intervention sur 2 projets) Concevoir, développer et maintenir les pipelines de données pour 2 applications disctinctes. Assurer l’ingestion, la transformation et le stockage de données à grande échelle. Optimiser les traitements pour garantir des performances adaptées aux volumes traités. Mettre en place des mécanismes de qualité des données (contrôles, alertes, monitoring). Collaborer avec le pôle Développement pour définir les interfaces de données (API, bases de données). Documenter les flux de données et maintenir le catalogue de données. MLOps (Intervention sur 1 des 2 projets) Industrialiser l’entraînement des modèles ML pour l’optimisation du dimensionnement des groupes électrogènes. Déployer des pipelines CI/CD pour les modèles ML (versioning des données et modèles, automatisation de l’entraînement). Assurer le monitoring des performances des modèles en production (drift detection, métriques de performance). Collaborer avec les Data Scientists pour faciliter le passage des modèles du développement à la production.
Freelance
CDI

Offre d'emploi
Ingénieur intégration applicative / Middleware

Publiée le
Apache Tomcat
HAProxy

24 mois
34k-40k €
340-370 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Dans la direction du SI applicatif (DSIA), les projets sont organisés par pôle de compétences. Chaque portefeuille est en charge de gérer ses projets, à la fois en terme de pilotage et suivi, de développement, qualification, intégration et livraison auprès de la direction de l’exploitation qui en assure la mise en production et l’exploitation. Le poste concerne l'équipe d'intégration notaire (DSIA.SILN) sur le périmètre Authenticité et Service de Confiance (ASC) Intégration applicative : packaging, livraisons, déploiement sur des stacks JAVA Conception d’architecture technique en prenant en compte la résilience et redondance pour répondre à la disponibilité des services en production, clusterisation Livrables: Documentations et notes techniques Dossiers d’architecture technique Configuration des briques middlewares et applicatives Mode opératoire à destination de la direction de l’exploitation
Freelance
CDI

Offre d'emploi
Ingénieur de Production / Production Engineer

Publiée le
Apache
Grafana
Kibana

3 ans
40k-45k €
400-550 €
Nantes, Pays de la Loire
Télétravail partiel
Contexte Au sein de la Direction de Production , la/le Run Process Manager est responsable de la bonne mise en application des processus de change & incident. Pour un SI toujours plus performant et une Qualité de Service au plus haut, la/le Run Process Manager pilote les incidents majeurs transverses. Description L'ingénieur Suivi Prod est à la fois vigie de la Production en grand et responsable des processus régaliens qui font vivre cette Production (Change, Incident, Pilotage, Amélioration Continue…). Il a en charge l'amélioration continue des processus, méthodes et outils de Production ainsi que le suivi du respect de leur bonne application. Il analyse les événements de Production pour en extraire des tendances, détecter des signaux faibles et des plans d'amélioration continue. Dans une démarche Services, il accompagne les équipes pour une maitrise de la QoS au juste niveau d'excellence.
Freelance

Mission freelance
Consultant ELK

Publiée le
Ansible
Apache Kafka
Kibana

3 ans
Île-de-France, France
Télétravail 100%
Contexte de la mission Le périmètre concerné couvre la gestion des flux de logs applicatifs et techniques au sein de notre infrastructure. Nous utilisons une chaîne de traitement basée sur les technologies Filebeat, Kafka, Logstash, Elasticsearch et Kibana. Nous avons besoin d’un renfort opérationnel capable de prendre en charge ces demandes de manière autonome, depuis la réception du besoin jusqu’à la mise en production. Détails de la prestation attendue La prestation consistera à : Recueillir et analyser les besoins d’ingestion exprimés par les équipes métiers ou techniques. Configurer et déployer les agents Filebeat sur les sources de logs identifiées. Assurer l’intégration des flux dans Kafka, en respectant les normes de structuration et de sécurité. Développer les pipelines Logstash pour le traitement et la transformation des données. Indexer les données dans Elastics. Créer ou adapter les dashboards Kibana pour permettre une visualisation efficace des données. Utilisation de Git pour la gestion des configurations Logstash et Filebeat. Déploiement automatisé via AWX, en respectant les procédures et les bonnes pratiques.
Freelance
CDI

Offre d'emploi
Data Engineer – Elastic Stack Expert

Publiée le
Apache Kafka
ELK
Intégration

1 an
Île-de-France, France
Télétravail partiel
Nous recherchons pour notre client Grand-Compte un Ingénieur Data , Expert ELK pour: accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d’automatiser les pipelines d’ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, …) Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données L’objectif est de passer d’une logique très outillée/infrastructure à une approche orientée usages data & métiers . Refonte complète de l’offre logs existante (tous types de logs : applicatifs, systèmes, réseau, sécurité) Forte volumétrie et enjeux de standardisation, qualité et exploitabilité de la donnée Missions Concevoir et mettre en œuvre les chaînes de collecte et d’ingestion des logs Implémenter et industrialiser les cas d’usage observabilité pour les équipes opérationnelles Accompagner les équipes métiers et techniques dans l’exploitation des logs Développer des dashboards et visualisations avancées (Kibana, évolution possible vers Grafana) Intervenir sur l’ensemble du cycle data : collecte → transformation → stockage → restitution Participer à l’évolution de l’offre groupe et à la structuration des bonnes pratiques Contexte technique - Kafka - Scripting Python/SQL/Java - Suite Elastic (ElasticSearch/Kibana) - Apache Flink / LogStash - Agent de collecte (Elastic ou autre Open-Source)
Freelance

Mission freelance
DATA SCIENTIST EXPERT / DATA PRODUCT – DATAIKU (H/F) 75

Publiée le
Apache Spark
Dataiku
PySpark

6 mois
Paris, France
Télétravail partiel
Contexte: Dans un contexte de structuration et de montée en maturité des usages Data au sein d’une Direction Financière, la mission vise à renforcer les capacités analytiques autour de la prévision du chiffre d’affaires. L’objectif est de concevoir et d’industrialiser un produit Data stratégique permettant une projection automatisée et multidimensionnelle du chiffre d’affaires (produits, zones géographiques, canaux de vente, infrastructures). Le consultant interviendra au cœur d’une organisation Finance & Data, en tant que référent Data Finance, à l’interface entre les équipes Finance, Data et Produit. Missions: Concevoir, maintenir et faire évoluer un produit Data de projection du chiffre d’affaires Développer et industrialiser des modèles de prévision intégrant des mécanismes basés sur les volumes Permettre des ajustements manuels des projections par les équipes métiers Garantir la qualité, la fiabilité, la traçabilité et l’exploitabilité des données Développer et maintenir des pipelines de données sous Dataiku Implémenter des traitements SQL avancés et des flux de transformation complexes Exploiter Spark / PySpark pour gérer des volumétries importantes Automatiser, monitorer et documenter les chaînes de traitement Mettre en œuvre des contrôles de qualité et contribuer à la gouvernance des données financières Rendre les modèles explicables et actionnables pour les équipes Finance Mettre à disposition les données projetées dans le datalake Collaborer étroitement avec les équipes Finance, Data et Produit Participer aux rituels agiles et au suivi des livrables via des outils de gestion de projet
Freelance

Mission freelance
Tech Lead Kafka/Angular/fa

Publiée le
Angular
Apache Kafka

12 mois
Paris, France
Télétravail partiel
Tech Lead Kafka/Angular/fa Kafka (kafka streams) Java 21 Kubernetes API RESTclient Banque basé à Paris Gare de Lyon, un Tech Lead - Expérimenté avec un minimum de 4 ans d’expériences sur des projets similaires. Démarrage ASAP Localisation Paris 12e/ Télétravail Durée de la mission : 2 ans Projet : Maintenir une solution permettant de prioriser la liste des clients à contacter dans le cadre de la gestion de la relation client Concevoir et développer des solutions pour les équipes et les Conseillers. Assurer l’assistance fonctionnelle auprès des utilisateurs Principaux livrables : Assurer la conception, l’intégration et le développement des projets et solutions ainsi que les maintenances correctives et évolutives Préparer la mise en production avec les équipes expertes Gérer et maintenir la documentation fonctionnelle et technique Assurer l’assistance à l’utilisation des applications Assurer le diagnostic et la résolution des dysfonctionnements Compétences requises : Kafka (kafka streams) Java 21 Kubernetes API REST Autres Compétences : Conception technique Conception archi Volontaire Bon relationnel
Freelance

Mission freelance
Développeur full stack JS (H/F)

Publiée le
Apache Kafka
Mongodb
Node.js

2 ans
100-400 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur full stack JS (H/F) à Lille, France. Les missions attendues par le Développeur full stack JS (H/F) : ++: Nodejs / Nest.js ++: MongoDB ++: Nx monorepo ou autre monorepo "moderne" comme turborepo ++: Kafka +: CI/CD ou GitHub Actions +: K8S +: Datadog +: Software Craftsmanship Vous serez responsable (en pair ou mob avec le reste de l'équipe) de: - évolutions (Node JS / Nest.js / MongoDB / Kafka) sur la partie API / BFF / Front - mise en place et/ou renforcement de best practices autour du testing, de l'alerting, du monitoring pour assurer la qualité, la stabilité et la scalabilité du produit
Freelance
CDI

Offre d'emploi
DATA ENGINEERING sur KAFKA

Publiée le
Apache Kafka
API REST
Elasticsearch

3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Pour notre client dans le secteur bancaire, nous recherchons un expert Kafka : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA. Les principales technologies utilisees • Kafka • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Freelance
CDI

Offre d'emploi
Data Engineer Junior (H/F)

Publiée le
Apache Spark
Databricks
Python

3 ans
35k-40k €
350-400 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Intégré(e) au sein d’une équipe Agile, vous participerez à : La conception et la mise en place de pipelines ETL performants L’ingestion, la transformation et la qualité des données La gestion et l’optimisation des flux Data dans un environnement Azure / Databricks / Spark L’automatisation des traitements et le monitoring des workflows La collaboration avec les équipes métier et Data pour répondre aux enjeux opérationnels La collaboration avec les équipes métier et Data pour répondre aux enjeux opérationnels

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

192 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous