Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 310 résultats.
Freelance

Mission freelance
246207/Dévelopeur C#.Net, Openshift, Kafka, SQL, API, Angular

WorldWide People
Publiée le
Angular
Apache Kafka
C#

6 mois
Paris, France
Dévelopeur C#.Net, Openshift, Kafka, SQL, API, Angular Dans le cadre de notre plan stratégique et de la transformation de notre architecture Pre Trade, mission de Développeur C#. Cette équipe a pour ambition de repenser nos processus et notre architecture, en collaborant étroitement avec les métiers pour répondre à leurs exigences en matière de robustesse, de performance et de scalabilité. Le consultant travaillera en étroite collaboration avec d'autres membres de l'équipe ainsi qu'avec les parties prenantes, y compris les architectes et les utilisateurs finaux. Objectifs et livrables Compétences techniques/fonctionnelles • C# et architecture applicative: Maîtrise du langage C# pour le développement d’applications robustes, avec une forte orientation objet, structures de données et modèles de conception. • SQL: Expérience avec les bases de données relationnelles, écriture et optimisation de requêtes, gestion des performances et des index. • API et intégration: Connaissance des principes RESTful et capacité à consommer/créer des services web pour faciliter la communication entre applications et systèmes. • Angular: Développement d’interfaces front-end réactives et robustes. • Kafka: Compréhension des principes de streaming et expérience avec l’intégration de données via Apache Kafka (producteurs, consommateurs, topics, schémas, gestion des offsets). • OpenShift: Connaissance des environnements containerisés et orchestrés sur OpenShift (déploiement, scaling, pipelines CI/CD, sécurité et gestion des projets). • Systèmes financiers: Développement d’applications C# pour des plateformes financières (trading, tenue de positions), en tenant compte des contraintes de résilience et de performance. • Produits financiers: Compréhension des instruments (actions, obligations, dérivés, etc.) et des marchés, avec capacité à développer des solutions logicielles adaptées. • Tendances du marché: Veille technologique dans les services financiers et intégration des innovations pertinentes dans les projets. Compétences analytiques • Analyse des besoins: Recueil et analyse des besoins techniques des utilisateurs et parties prenantes, en veillant à l’alignement avec les objectifs du projet. • Gestion des exigences: Rédaction de spécifications techniques claires et détaillées, avec traçabilité tout au long du cycle de vie du produit. • Évaluation des solutions: Analyse et évaluation des solutions proposées pour assurer leur adéquation avec les besoins métier et les contraintes techniques. Compétences demandées Compétences Niveau de compétence OPENSHIFT Avancé API Confirmé SQL Confirmé KAFKA Avancé ANGULAR Confirmé C# Expert Langues Niveau de langue Anglais Courant
Freelance
CDD

Offre d'emploi
Data Engineer H/F

SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
Elasticsearch

6 mois
50k-55k €
400-410 €
Île-de-France, France
Dans le cadre du développement de nos activités, nous recherchons un(e) Data Engineer pour renforcer l'équipe technique de notre client et intervenir sur des projets à forte valeur ajoutée autour de la data. En tant que Data Engineer, vous serez amené(e) à : Assurer le suivi technique des projets : suivi des développements, réalisation de revues de code et respect des bonnes pratiques Gérer les incidents techniques : analyse, résolution et mise en production des correctifs Proposer des améliorations techniques : identification des axes d’évolution et optimisation des performances et de la stabilité des applications Garantir la qualité du code : mise en place de tests unitaires et gestion de l’intégration continue Assurer la documentation technique : maintien à jour de l’architecture et de la documentation
Freelance

Mission freelance
Ingénieur DevOps/ Administration MongoDB

CAT-AMANIA
Publiée le
Apache Kafka
Mongodb

12 mois
400-580 €
Paris, France
Vous rejoindrez notre équipe en charge de l’administration et du maintien en condition opérationnel de la plateforme MongoDB Atlas ainsi qu’à la mise en production et à l’industrialisation des projets. Vos missions consisteront à contribuer: Accompagner les équipes projet dans la mise en place des bases Gérer les installations, montées de version, paramétrage et optimisation des bases Amélioration des performances (tuning des requêtes SQL, configuration des services) Assurer le support en interne en cas de bug ou d’anomalies Assurer la relation avec les fournisseurs externes (MongoDB) Gérer les configurations Private Service Connect (PSC) pour les clusters Confluent Cloud Assurer la conformité avec les standards réseaux de sécurité Participer à la mise en oeuvre du plan DRP (Disaster Recovery Plan) Contribuer à la migration vers une architecture PSC unifiée Assurer le monitoring et Observabilité Mettre en place et améliorer les solutions de monitoring de la plateforme Superviser les clusters et les noeuds sur MongoDB Atlas Assurer la surveillance des services (Sharding, Archive Online, …) Configurer et optimiser la remontée des logs et traces dans Dynatrace Développer des tableaux de bord pertinents pour le suivi opérationnel Mettre en place des alertes proactives sur les métriques critiques Garantir la conformité des accès selon les standards de sécurité Contribuer à l'audit et à la gouvernance des ressources MongoDB Atlas Mettre en oeuvre les bonnes pratiques de sécurité réseau Participer aux revues de sécurité périodiques (interface avec KMS Google et FortaniX, gestion des rôles, cryptage, interface avec notre solution SoC ) Maintenir et enrichir les pipelines CI/CD pour le déploiement de l'infrastructure Contribuer au développement des modules Terraform pour la gestion de la plateforme Automatiser les tâches opérationnelles récurrentes Optimiser les processus de déploiement
Freelance
CDI

Offre d'emploi
Expert en infrastructure et sécurité

VISIAN
Publiée le
Apache Kafka
Mongodb

1 an
40k-45k €
400-550 €
Île-de-France, France
Descriptif du poste Le bénéficiaire sollicite l'appui d'un expert en infrastructure et sécurité afin d'accompagner le suivi des projets et l'intégration des évolutions du moteur Instant Payments. L'objectif principal est d'assurer la résilience du système tout en garantissant la conformité aux standards d'architecture et de sécurité. Missions Contribution au design et à l'évolution de l'architecture du moteur de paiements instantanés en environnement cloud basé sur les micro-services, notamment sur les aspects infrastructures, sécurité, monitoring et cloud Participation à la rédaction des dossiers d'architectures et des différents supports techniques Participation à la définition et au design de la nouvelle architecture du moteur de paiements Participation aux ateliers/travaux de migration du moteur SCT existant Point de contact avec les différentes intervenants infrastructures et de sécurités Interaction avec des équipes internationales et participer aux projets transverses infrastructures Supervision et amélioration de la résilience du moteur (performance, disponibilité) Mise en œuvre des demandes d'amélioration ou de renforcement de la sécurité Mise en place des solutions de haute disponibilité (HA) au niveau du moteur et des CSM (STET, EBA, TIPS) Sécurisation des échanges (SSL/TLS/MTLS, PGP/GPG) Gestion des ouvertures de flux et la segmentation réseau (firewall, reverse proxy, Illumio) Intervention en conception, sécurisation et amélioration continue Contribution à la mise en place des systèmes d'alerting et des dashboards de résilience
Freelance

Mission freelance
Développeur NIFI

Mindquest
Publiée le
Apache NiFi
Java

5 mois
400-480 €
Ivry-sur-Seine, Île-de-France
Projet de dématérialisation de la facturation électronique. Utilisation d’Apache NIFI comme proxy EDI pour alimenter et consolider les données des factures électroniques. Mise en place de 2 PDP dans le cadre de la dématérialisation. Développement sur NIFI pour créer et maintenir les flux et processeurs. Développement dans NIFI (création et maintenance de flux, extension via processeurs personnalisés). Travail sur le backend Java (Spring, Jetty) et frontend léger (HTML/CSS/JS avec jQuery, D3.js pour visualisation des flux). Création de processeurs personnalisés en Java ou via scripts (Groovy, Python, ExecuteScript).
Freelance
CDI

Offre d'emploi
Administrateur KAFKA

OBJECTWARE MANAGEMENT GROUP
Publiée le
Apache Kafka

3 ans
Île-de-France, France
Nous recherchons pour le compte de notre client un.e administrateur.trice KAFKA. Vos missions seront : Migration d’une plateforme basée sur Kafka / Kafka Connect vers le Cloud IBM . Pilotage de l’activité auprès des providers de services Kafka et Kafka Connect sous Cloud. Mise en place de la stratégie de migration des événements (On-Premise vers Cloud IBM). Réalisation de POC, troubleshooting et suivi de l’avancement de la migration. Migration des configurations Kafka et Kafka Connect vers le Cloud IBM. Garantie de la résilience, de la sécurité et de la performance de la plateforme cible. Accompagnement des producteurs et consommateurs lors des mises en production. Support à la migration, gestion des incidents et stabilisation post-migration. Mise en place du monitoring et de l’alerting de la plateforme (ELK, Dynatrace).
Freelance

Mission freelance
Senior Azure Data & Backend Engineer (Observabilité) - ASAP - 92

Montreal Associates
Publiée le
Apache Airflow
Apache Spark
Azure

3 ans
550-600 €
Nanterre, Île-de-France
🚀 Je recherche un Senior Data / Backend Engineer (Freelance) Grosse mission à venir sur une data platform moderne orientée observabilité 🔥 📍 92 (hybride 2-3j/semaine) 📆 Mission longue de 3 ans - ASAP English mandatory Ta mission • Construire des pipelines data robustes (Spark, Airflow) • Travailler sur des problématiques d’observabilité (monitoring, logs, métriques) • Contribuer à une plateforme data à fort enjeu • Évoluer dans un environnement Azure complet Python • PySpark • Airflow • Azure (ADLS, AKS, Blob) • Kafka / Event Hub • Grafana Ton profil • Senior avec vraie expérience en data pipelines en production • À l’aise avec Azure • Sensibilité observabilité / monitoring #freelance #dataengineer #python #azure #spark #airflow #observability
CDI

Offre d'emploi
EXPERT TALEND - BI

TEKTEO
Publiée le
Apache
Apache Tomcat
CI/CD

10k-55k €
Paris, France
L’Expert Talend / Business Intelligence intervient dans le cadre d’une mission stratégique au sein d’une institution financière publique de premier plan. Il contribue à la conception, au développement et à l’évolution de la chaîne BI, en prenant en charge les développements Talend Data Integration et Talend ESB, l’administration TAC, la sécurisation des flux, les montées de version techniques, le suivi de production ainsi que la rédaction des livrables techniques. Il participe également au pilotage opérationnel, au reporting, aux échanges avec la MOA et à l’amélioration continue des environnements applicatifs.
CDI
Freelance
CDD

Offre d'emploi
Développeur Big Data : Python, SQL, Shell, Spark expérimenté

KEONI CONSULTING
Publiée le
JIRA
Python
SQL

18 mois
20k-60k €
100-500 €
Lyon, Auvergne-Rhône-Alpes
Contexte Le client dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans nos actions sur la plateforme Cloudera Hadoop. L'objectif de la mission est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs MISSIONS Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gourvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. Dans le même ordre d'idée, quelques attendus : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs - Capacité à expliquer simplement le sujet, à communiquer vers des interlocuteurs type développeur, bureau d'étude, qualifieur et ""clients"" (Groupes de protection sociale). La connaissance de Power BI et de SAS sont des plus." Livrables attendus Code source documenté Plan de tests / fiches de test Bilan Bordereau de livraison Manuel d’installation Dossier d’exploitation JIRA documentée" Environnement technique - technologique "• Cloudera Hadoop • Hive, impala • Python • SQL • Shell • Spark • VBA • GIT • Jupyter • Linux • JIRA" Compétences techniques Connaisance Cloudera Hadoop, Hive, Impala Développement Python Requêtage SQL Développement Shell Développement Spark (Scala) Utilisation de GIT Agilité (méthodes Kanban et/ou Scrum) Compétence liée à l'environnement Connaissance de l'écosystème de la protection sociale (Retraite Complémentaire idéalement)
Freelance

Mission freelance
Développeur Java Angular (F/H)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Angular
Apache Kafka
Java

12 mois
400-550 €
Paris, France
Description : Dans le cadre de la modernisation de notre plateforme et de l’adoption d’une culture You Build It, You Run It, nous recherchons un profil hybride : un lead développeur confirmé (Java / Angular) et un sens de l’exploitation. Ce rôle va au-delà du développement classique : il s’agit de construire, déployer et opérer les applications en production, d’assurer leur performance et de contribuer à l’automatisation de notre chaîne logicielle. Missions principales • Développer les services backend en Java / Spring Boot et les interfaces en Angular, dans une démarche craft (tests, clean code, revues). • Concevoir, industrialiser et maintenir les pipelines CI/CD pour automatiser les déploiements (GitLab CI). • Contribuer au monitoring et à l’observabilité (Prometheus, Grafana, ELK, OpenTelemetry). • Optimiser les performances du code, des requêtes, des API, ainsi que le dimensionnement des ressources cloud. • Assurer la continuité de service : disponibilité, résilience, gestion des incidents, analyse post-mortem. • Participer activement à la vie du produit : architecture, conception, revues de code, amélioration continue. • Apporter un regard Ops au sein de l’équipe : logging, alerting, observabilité, bonnes pratiques de run. • Veille et recommandation sur les bonnes pratiques DevOps et outils d’industrialisation.
Freelance
CDI

Offre d'emploi
Data Engineer Senior - Nantes &Vannes F/H

Argain Consulting Innovation
Publiée le
Apache
Apache Hive
Batch

2 ans
40k-45k €
450-500 €
Nantes, Pays de la Loire
Nous recherchons un Data Engineer pour intervenir sur la fabrication de cas d’usages Data et le développement des produits associés. L’environnement est transverse, multi-sites, avec des enjeux forts de cohérence, de qualité et d’industrialisation des solutions Data à l’échelle de l’entreprise, en lien avec les équipes métiers et techniques. 📍 Localisation Si vous etes localisé à Nantes, vous serez rattaché(e) au site de Nantes avec 2 jours de déplacement par mois requis sur le site de Vannes. Si vous etes localisé(e) à Vannes vous serez rattaché (e) au site de Vannes Mission longue Vos missions : Vous interviendrez sur l’ensemble du cycle de vie des produits Data : Participation à la définition de l’architecture Data , en lien avec les architectes et les équipes projet Conception, développement et optimisation des solutions de collecte et de stockage de données (multi-sources) Mise à disposition des données pour les usages métiers Mise en œuvre de tests unitaires et automatisés Déploiement des solutions sur les différents environnements Suivi du bon fonctionnement en production : support, assistance, gestion des incidents Contribution à l’ amélioration continue des pratiques (qualité du code, performance, fiabilité)
Freelance

Mission freelance
INTEGRATEUR EXPLOITATION

Les Filles et les Garçons de la Tech
Publiée le
Apache
Apache Tomcat
Boomi

12 mois
100-330 €
Île-de-France, France
Dans le cadre de l’exploitation et du maintien en conditions opérationnelles d’un parc applicatif conséquent, nous recherchons un Intégrateur d’exploitation . Vous intervenez sur le cycle de vie des applications en phase de run, avec pour objectif d’assurer la stabilité, la performance et la fiabilité des traitements en production. À ce titre, vos missions principales sont : Réceptionner les livrables applicatifs issus des équipes de développement Déployer les applications sur les environnements de production Assurer le maintien en conditions opérationnelles (MCO) Superviser et suivre les traitements batch et les flux Gérer les incidents, problèmes et changements Participer à l’amélioration continue des processus d’exploitation Garantir la bonne exécution des traitements planifiés
Freelance

Mission freelance
Data Engineer - ETL Specialist

Insitoo Freelances
Publiée le
Apache Airflow
DBT
ETL (Extract-transform-load)

2 ans
400-685 €
Bruxelles, Bruxelles-Capitale, Belgique
Located in Lille, Lyon, Nantes, Grenoble, and Brussels, Insitoo Freelances is an entity of Insitoo Group, specialized in Freelances sourcing and supplying.Since 2007, Insitoo Freelances has been a reference in IT thanks to its expertise, transparency, and proximity . We are looking for a Data Engineer for our client in Brussels. Key responsibilities : Implementing new or modified functionality on the data platform and building data pipelines on this data platform Working with other data engineers, a functional analyst, solution architect, technical architect, and QA engineer. Together, they form an agile team. Relying on your technical knowledge and skills in Confluent Data Platform, Python, Airflow, NIFI, etc., to build functionality and data pipelines. Programming and delivering working code Consulting with colleagues Validating solutions and reviewing colleagues' code, following up on operational issues Writing documentation Evaluating and estimating user stories.
Freelance

Mission freelance
Tech Lead - Développeur Fullstack Sénior

Tenth Revolution Group
Publiée le
Apache Kafka
FastAPI
Python

12 mois
500-700 €
Nantes, Pays de la Loire
Contexte client Éditeur SaaS B2B à forte croissance intervenant dans la gestion de paiements et le rapprochement bancaire automatisé. Produit utilisé par plusieurs centaines de PME françaises. Contexte exigeant en termes de disponibilité, sécurité et performance. CTO technique impliqué dans les décisions d'architecture. Environnement technique React TypeScript Python FastAPI PostgreSQL Kafka AWS Kubernetes Terraform Profil recherché 7 ans+ d'expérience, dont au moins 2 ans en contexte SaaS B2B ou fintech. Maîtrise confirmée Python et/ou Java avec React en frontend. Expérience sur des architectures cloud (AWS ou GCP) et conteneurisées. Capacité à prendre des décisions techniques structurantes et à accompagner une équipe de 5 à 10 développeurs. Missions Piloter l'architecture technique de la plateforme : choix de stack, scalabilité, patterns de conception Développer les modules critiques : moteur de rapprochement, connecteurs bancaires, dashboards financiers temps réel Définir et faire appliquer les standards qualité (tests, CI/CD, documentation, sécurité) Collaborer étroitement avec le CTO et les Product Managers sur la roadmap technique Contribuer au recrutement et à l'onboarding des nouveaux développeurs
CDI

Offre d'emploi
Développeur Java Springboot Kafka H/F

ITEA
Publiée le
Java
Spring

Strasbourg, Grand Est
Plus qu'un métier, itéa a pour vocation de déceler et révéler les bons profils, avec une curiosité qui va souvent au-delà des compétences et parfois entre les lignes d'un CV. Aujourd'hui, nous recherchons pour l'un de nos clients un Développeur Java H/F et vous présentons les points clés du poste : Poste en CDI Basé à Strasbourg Secteur de l'informatique Les conditions : Fourchette salariale : selon le profil et les expériences Les missions : Participer à l'élaboration et la réalisation de sujets techniques transverses Assurer l'évolutivité, la performance et la maintenabilité de la plateforme Participer aux choix techniques de l'équipe en matière de développement Contribuer à l'amélioration de l'intégration continue et aux outils de qualité de code du client Implémenter des solutions techniques Participer à la validation des développements livrés (réalisation de tests unitaires, revue de code) Analyser et corriger des anomalies
Freelance

Mission freelance
Data Engineer/DataOps - Maintenance prédictive - Python/Spark

Nicholson SAS
Publiée le
Ansible
Apache Airflow
Apache Spark

9 mois
300 €
Toulouse, Occitanie
Bonjour, Dans le cadre de ce besoin, nous recherchons un Data Engineer / DataOps – Maintenance prédictive (Python / Spark) pour intervenir sur un environnement technique exigeant et à forte valeur ajoutée. 📍 Informations clés Localisation : Toulouse (3 jours/semaine sur site) TJM max : 300 € Démarrage : 01/04/2026 Fin de mission : 31/12/2026 🚀 Contexte & mission Vous interviendrez au sein d’une équipe en charge d’un service de maintenance prédictive , dans un environnement hybride combinant : On-premise : Python, Airflow, Docker, GitHub CI/CD Cloud Azure : Databricks, PySpark, Azure Data Factory Service Platform : application web dédiée aux compagnies aériennes Dans ce cadre, vos principales responsabilités seront : Assurer le MCO des environnements (développement & production) Superviser et monitorer les environnements Databricks / Spark Concevoir, industrialiser et maintenir des pipelines de données en production Accompagner le déploiement d’algorithmes de maintenance prédictive (optimisation performance & coûts) Améliorer les processus d’ intégration, de versioning et de déploiement au sein de la Service Platform 🛠️ Environnement technique Langages & Data : Python, SQL, Pandas, Spark Cloud & Data : Azure (Databricks, Data Factory) Orchestration & pipelines : Airflow CI/CD & DevOps : GitHub, Docker, Terraform, Ansible Systèmes : Linux (RHEL / Ubuntu) Bonnes pratiques : PEP, industrialisation, monitoring 🎯 Profil recherché Data Engineer / DataOps avec minimum 3 ans d’expérience Solide expérience sur les environnements Python / Spark / Azure Capacité à évoluer sur des environnements production critiques (MCO, monitoring, performance) Bonne culture DevOps / CI-CD / automatisation Anglais professionnel requis

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

310 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous