Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 265 résultats.
Freelance
CDI

Offre d'emploi
Développeur Java / Angular / Kafka – Secteur bancaire (F/H)

CELAD
Publiée le
Angular
Apache Kafka
J2EE / Java EE

12 mois
40k-50k €
400-450 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Développeur Java Fullstack (Back majoritaire) pour intervenir chez un de nos clients dans le secteur bancaire . 💻💼 Voici un aperçu détaillé de vos missions 🎯 : Contribuer à la mise en œuvre de la roadmap notation, avec un focus sur le déploiement d’un nouveau modèle de scoring . Assurer la cohérence de ce nouveau moteur de notation avec l’écosystème existant Concevoir et développer des API permettant l’accès aux services internes, en garantissant performance et sécurité Participer à la définition des nouvelles API en collaboration avec les équipes métiers et les architectes Développer et maintenir les API sur un environnement Java (Spring Boot) Mettre en place les tests unitaires et d’intégration associés à chaque développement Déployer les API sur les différents environnements Collaborer avec les équipes techniques et métiers dans un contexte agile et transverse
Freelance

Mission freelance
Ingénieur DATA

ROCKET TALENTS
Publiée le
Apache Kafka
Big Data
Cloudera

1 an
400-460 €
Saint-Quentin, Hauts-de-France
Ingénieur DATA : . Contexte Dans le cadre de l’exploitation et de l’optimisation de notre infrastructure Cloudera Data Platform (CDP), nous recherchons un prestataire expert capable d’assurer le support technique, l’analyse et la résolution des incidents critiques ainsi que l’optimisation continue de la plateforme. Le prestataire devra maîtriser les architectures Cloudera, posséder une expertise avancée en développement Shell, Ansible et Python, et être capable d’intervenir sur les problématiques de dimensionnement et de tuning de l’infrastructure. Une connaissance de Kafka est requise pour la gestion des flux de données en temps réel. Des connaissances en sur la plateforme Dataiku seraient un plus. 3. Missions Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2. 4. Profil Recherché Le prestataire devra justifier des compétences suivantes : • Expérience avérée en administration et support de Cloudera Data Platform. • Maîtrise de Kafka (optimisation, gestion des performances et de la scalabilité). • Capacité à analyser et résoudre des incidents critiques sur un environnement Big Data. • Maîtrise des langages Shell, Ansible et Python pour l’automatisation et le déploiement. • Expérience sur les bases de données Elasticsearch. • Capacité à intervenir sur des problématiques de dimensionnement et d’optimisation des performances. • Autonomie, rigueur et capacité à être force de proposition. • Une connaissance de la plateforme Dataiku serait un plus. • Capacité à collaborer avec des équipes multi-disciplinaires et à transmettre des connaissances. • Bonnes connaissances de Linux (à l'aise avec un terminal).
CDI

Offre d'emploi
Développeur Java Full stack

Diggers
Publiée le
Angular
Apache Kafka
Java

3 ans
43k-57k €
400-550 €
Lille, Hauts-de-France
TON CHALLENGE Participer à des projets stimulants dans la banque, la finance ou le retail au sein d’une équipe soudée et passionnée : Concevoir et développer des applications full stack à forte valeur ajoutée, basées sur des architectures microservices et des flux temps réel Kafka Analyser les besoins utilisateurs et proposer des solutions techniques performantes et scalables Développer de nouvelles fonctionnalités, que ce soit dans le cadre d’évolutions ou de projets from scratch Implémenter des flux de données événementiels via Apache Kafka Participer aux tests, revues de code et à la mise en production continue (CI/CD) Collaborer en méthodologie agile et partager les bonnes pratiques de développement au sein d’une communauté d’experts Profil du candidat
Freelance
CDI

Offre d'emploi
Ingénieur Ops / Production – IAM (H/F)

5COM Consulting
Publiée le
Apache
Apache Tomcat
ELK

3 ans
Dijon, Bourgogne-Franche-Comté
Nous accompagnons un client dans le secteur des services , engagé dans la transformation et la sécurisation de sa plateforme de gestion des identités et des accès (IAM) . Dans ce cadre, nous recherchons un profil Ingénieur Ops / Production – IAM (H/F) pour intervenir sur des sujets de supervision, maintien en conditions opérationnelles (MCO) et participation à la reconstruction de la plateforme dans un contexte de mise en conformité. Vos missions Participer à la reconstruction de la plateforme IAM (enjeux de conformité et de fiabilisation) Mettre en place et optimiser la supervision de la plateforme Définir et implémenter des alertes pertinentes pour garantir la disponibilité et la performance Assurer la visibilité du MCO et le suivi des incidents Collaborer avec les équipes techniques pour améliorer les outils et processus de supervision Contribuer à l’amélioration continue de l’environnement technique Environnement technique Outils de supervision : Zabbix, ELK (Elastic Stack) Serveurs : Apache, Tomcat Bases de données Systèmes : Windows / Unix Réseaux (bases solides attendues) Profil recherché 3 à 5 ans d’expérience en Ops / Production / Infrastructure Expérience en supervision et exploitation de plateformes critiques Bonne compréhension des environnements web et middleware Connaissances en réseau et systèmes (Windows / Linux/Unix) Une expérience dans des environnements liés à la gestion des identités (IAM) ou à la sécurité est appréciée Idéalement : Une première exposition à des environnements IAM ou sécurité Expérience en contexte MCO / RUN Soft skills Excellente communication Autonomie et proactivité Capacité à être force de proposition Esprit d’équipe Profil recherché Profil recherché 3 à 5 ans d’expérience en Ops / Production / Infrastructure Expérience en supervision et exploitation de plateformes critiques Bonne compréhension des environnements web et middleware Connaissances en réseau et systèmes (Windows / Linux/Unix) Une expérience dans des environnements liés à la gestion des identités (IAM) ou à la sécurité est appréciée Idéalement : Une première exposition à des environnements IAM ou sécurité Expérience en contexte MCO / RUN
CDI

Offre d'emploi
Chef de projet technique SI & Data F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Airflow
MySQL
PostgreSQL

Valence, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Ingénieur de Production h/f

Ela Technology
Publiée le
Ansible
Apache
Apache Kafka

6 mois
Seine-Saint-Denis, France
Dans le cadre d’un programme de transformation IT majeur au sein d’un environnement bancaire international, nous recherchons un Ingénieur de Production / DevOps pour intervenir sur un nouveau projet stratégique de Core Banking à dimension mondiale. 🎯 Contexte du projet Le projet vise le remplacement des systèmes actuels de tenue de comptes (clients, nostro, loro) par une application globale nouvelle génération , répondant aux plus hauts standards en matière de sécurité, conformité réglementaire, performance et haute disponibilité . Une équipe de production IT (APS) est en cours de constitution afin d’accompagner ce projet structurant, en forte collaboration avec les équipes développement et infrastructure . 🛠️ Vos missions Au cœur du dispositif production, vous interviendrez sur l’ensemble du cycle de vie applicatif : Mise en place et maintien du provisioning d’infrastructure (Infrastructure as Code) Mise en œuvre et évolution des chaînes CI/CD Déploiement des versions applicatives en environnements critiques Mise en place et maintien des outils de monitoring et d’observabilité Implémentation des solutions de continuité de service (PRA / PCA) Suivi et pilotage des tests de performance Coordination avec les équipes Infrastructure et Développement Rédaction et mise à jour de la documentation technique Exploitation, support et suivi de production 💻 Environnement technique Vous évoluerez dans un environnement moderne et exigeant : DevOps / Cloud & Automation GitLab, Jenkins, Ansible, Terraform Docker, Kubernetes, Argo CD Artifactory Middleware & Data Kafka IBM MQ, Axway Transfer CFT Apache Tomcat, Apache HTTP Server, Red Hat JBoss PostgreSQL Monitoring & Observabilité Dynatrace OpenSearch Langages Python (pratique) Shell scripting (maîtrise)
CDI

Offre d'emploi
Développeur Java Full Stack (H/F)

Diggers
Publiée le
Apache Kafka
Back-end
Front-end

45k-68k €
Paris, France
TON CHALLENGE Participer à des projets stimulants dans la banque , la finance ou le retail au sein d’une équipe soudée et passionnée : Concevoir et développer des applications full stack à forte valeur ajoutée , basées sur des architectures microservices et des flux temps réel Kafka Analyser les besoins utilisateurs et proposer des solutions techniques performantes et scalables Développer de nouvelles fonctionnalités , que ce soit dans le cadre d’évolutions ou de projets from scratch Implémenter des flux de données événementiels via Apache Kafka Participer aux tests, revues de code et à la mise en production continue (CI/CD) Collaborer en méthodologie agile et partager les bonnes pratiques de développement au sein d’une communauté d’experts
Freelance
CDI

Offre d'emploi
Data Engineer - SPARK/SCALA/DATABRICKS

UCASE CONSULTING
Publiée le
Apache Spark
Azure
Databricks

1 an
40k-66k €
400-600 €
Île-de-France, France
📢 Data Engineer Scala Spark – Environnement Cloud (H/F) 🧩 Contexte Dans le cadre du renforcement d’une équipe Data, nous recherchons un(e) Data Engineer expérimenté(e) afin d’intervenir sur des sujets à forte volumétrie, autour de pipelines de données complexes et d’optimisation des traitements. Vous évoluerez dans un environnement technique exigeant, avec des enjeux de performance, scalabilité et qualité de la donnée. 🚀 Missions principales Développement de pipelines data en Scala / Spark (batch principalement) Optimisation des traitements et gestion de volumétries importantes Mise en place et amélioration des bonnes pratiques de développement Participation à l’architecture et aux choix techniques Collaboration avec les équipes métiers et techniques Contribution au mentoring et partage de connaissances 🧰 Stack technique Scala / Spark Maven Environnement Cloud (AWS ou Azure) Databricks (selon contexte) API HTTP Stack ELK (optionnel) ✅ Must have Solide expérience en Scala / Spark (batch) Maîtrise des optimisations Spark Expérience sur fortes volumétries de données Bonnes pratiques de développement (clean code, build, versioning) Expérience en environnement Cloud (AWS ou Azure) Minimum 5 ans d’expérience en Data Engineering ➕ Nice to have Expérience avec Databricks Développement d’ API HTTP Connaissance de la stack ELK Expérience en environnement multi-projets 🤝 Soft skills Esprit d’analyse et rigueur Autonomie et force de proposition Bon relationnel et esprit d’équipe Capacité à comprendre les enjeux métiers Sens des priorités et gestion des délais 🎓 Profil Formation Bac+3 à Bac+5 en informatique Anglais technique requis 8 ans d'expériences MINIMUM ! 📍 Modalités Télétravail partiel (jusqu’à 3 jours / semaine) Mission longue Démarrage : ASAP
Freelance

Mission freelance
Data engineer orienté back end (Python) PostgreSQL - AWS - Airflow

Celexio
Publiée le
AWS Cloud
Bash
CI/CD

6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production , y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
CDI

Offre d'emploi
Senior Data Scientist - Ecommerce (f/m/d) (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Spark
Git
Python

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Ingénieur Software BackEnd Java/Quarkus F/H - Informatique industrielle (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Kafka
CI/CD
DevOps

Valbonne, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Senior software engineer .net/react H/F

Pickmeup
Publiée le
.NET
Apache Kafka
Architecture

1 an
450-520 €
Châtillon, Île-de-France
1. Analyse et Conception Contribuer à la définition des spécifications générales et réaliser l'analyse technique détaillée. Réaliser le prototypage et adapter les composants logiciels aux besoins métiers. Être force de proposition sur le design, les choix d’architecture et les patterns. 2. Développement et Qualification Coder les composants logiciels applicatifs (.NET / React) dans le respect des principes SOLID et de l'architecture hexagonale. Élaborer et exécuter les jeux de tests unitaires et d'intégration. Identifier et traiter les dysfonctionnements techniques. 3. Maintenance et Documentation Assurer la maintenance corrective et évolutive des applications. Rédiger la documentation technique (Wiki, Lab, Code documenté) ainsi que les plans Qualité et Sécurité par projet
CDI

Offre d'emploi
Développeur IA - (RAG, Guardrails)

CAT-AMANIA
Publiée le
Angular
Apache Kafka
Azure

Île-de-France, France
• Gestion autonome des clés LLM (AI Products) • Monitoring et observabilité avancée (Langfuse, dashboards, consommation LLM) • Évolutions autour de LiteLLM et des providers (Mistral, Azure OpenAI, Bedrock…) • Industrialisation des patterns RAG, agents, pipelines IA • Conformité et sécurité IA selon la Charte IA Groupe • Maîtrise des architectures RAG avancées (hybrides BM25 + vecteurs, graph RAG, agents augmentés) • Très bonne compréhension des LLM (Mistral, GPT, Claude…) et protocoles de génération • Maîtrise des patterns d’observabilité IA (Langfuse, tracing prompts) • Connaissance des obligations IA Act / données sensibles via la Charte IA • Conception d’API robustes, scalables et sécurisées • Développement de microservices cloud-ready (Azure / Kubernetes) • Conception d’architectures “LLM Gateway” ou “Model Router” (type LiteLLM) • Gestion de pipelines data (Kafka ou équivalents) • Compétences Fullstack (Python, Java, Angular) • Intégration avec des SI complexes (SharePoint, GED, systèmes distribués) • Optimisation coûts/perf des workloads IA • Utilisation des chaînes CICD (Jenkins, GitLab) • Déploiement AWS (Terraform) • Mise en place de dashboards, alerting (Datadog, Langfuse) • Application des standards sécurité IA / DPO (Charte IA)
Freelance

Mission freelance
Senior Test Automation Engineer

Groupe Aptenia
Publiée le
Apache Kafka
Azure DevOps
Cucumber

12 mois
600-620 €
Bruxelles, Bruxelles-Capitale, Belgique
• Concevoir, mettre en place et maintenir des tests automatisés avec focus sur les processus backend • Tester des APIs, intégrations et flux event-driven • Valider les communications asynchrones entre systèmes • Rédiger des scénarios BDD (Gherkin) et les implémenter via des frameworks d'automation • Intégrer les tests dans la pipeline CI/CD • Analyser et déboguer des erreurs complexes dans des systèmes distribués • Collaborer étroitement avec developers, analystes et architectes • Contribuer activement à la stratégie de test et à l'amélioration continue de la qualité
Freelance
CDI

Offre d'emploi
Développeur Kafka Confluent (H/F)

SAS GEMINI
Publiée le
Apache Kafka
Azure
DevOps

24 mois
La Défense, Île-de-France
Au sein de la DSI d’un grand groupe industriel international, vous intégrez une équipe Data & Streaming en charge de la conception et de l’exploitation de la plateforme de streaming de données temps réel. L’environnement technique est centré sur Apache Kafka (Confluent Platform) déployé sur Microsoft Azure. Missions principales: - Concevoir, développer et maintenir les pipelines de streaming de données basés sur Apache Kafka (Confluent Platform) sous Azure - Assurer la mise en place et l’administration des clusters Kafka : topics, partitions, consumers, connecteurs (Kafka Connect) - Développer des applications de traitement en temps réel avec Kafka Streams ou ksqlDB - Implémenter et gérer les schémas de données via le Schema Registry (Avro, Protobuf, JSON Schema) - Participer à la mise en place de patterns d’intégration événementielle (Event-Driven Architecture) - Monitorer les performances et la fiabilité des flux Kafka (Confluent Control Center, Grafana, Azure Monitor) - Collaborer avec les équipes Data Engineering, DevOps et Architecture dans un contexte Agile - Rédiger la documentation technique en anglais
CDI

Offre d'emploi
Ingénieur Data & API (H/F)

SYAGE
Publiée le
Apache Kafka
API REST
GraphQL

Monaco-Ville, Monaco
Mission : Au sein de l’équipe d’Ingénierie Logicielle, vous interviendrez dans les projets digitaux sur l’intégration de flux de données inter-applicatifs et DATA, et la mise en œuvre de l’exposition d’API via une plateforme d’API Management (). Principales Activités : Vous serez chargé(e) de l’architecture et l’intégration des flux dans la plateforme KESTRA (batch, ETL, event streaming...) Vous assurerez l’implémentation script ETL Python dans le cadre des flux de données Vous prendrez en charge l’exposition et la création d’API sur la plateforme d’API Management avec notamment : sécurisation, filtrage, médiation de protocole Lien hiérarchique : Responsable Informatique Ingénierie logicielle Manager : Non

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

265 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous