Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 309 résultats.
Freelance

Mission freelance
Data Analyst – Data produit & trafic web - Paris (H/F)

EASY PARTNER
Publiée le
Apache Spark
Microsoft Power BI
PL/SQL

1 an
400-430 €
Paris, France
Dans le cadre de projets liés à l’analyse de la performance digitale (web et mobile), un acteur du secteur digital recherche un Data Analyst . Les missions portent sur l’analyse des données de trafic et des usages utilisateurs. Missions Analyser les données d’usage (web / mobile / trafic) Construire et maintenir des dashboards métiers (Power BI, Tableau) Suivre les KPIs produits et business Collaborer avec les équipes produit et techniques Participer au reporting et à la prise de décision Power BI tracking web outils analytics (type GA, dataLayer…) SQL avancé Power BI / Tableau Python
CDI

Offre d'emploi
Technicien support/ Customer Care Engineer

ANDEMA
Publiée le
LAMP (Linux Apache MySQL PHP)

30k-38k €
Toulouse, Occitanie
Activités principales Prise en charge des demandes clients via différents canaux de support. Analyse et résolution d’incidents techniques. Proposition de solutions de contournement et suivi des cas. Escalade vers les équipes techniques lorsque nécessaire. Contribution à la documentation technique et à l’amélioration du support. Participation aux actions d’amélioration continue du service Anglais opérationnel ( écrit et oral) Lieu: Toulouse 2 jours de TT/ semaine Poste ouvert uniquement en CDI Dispo ASAP, maximum sous 1 mois
Freelance

Mission freelance
AMO/architecte Ansible

Mon Consultant Indépendant
Publiée le
Apache
Apache Tomcat
Linux

12 mois
410-460 €
Paris, France
Pour un client dans le domaine ferroviaire et plus particulièrement pour sa DSI, nous recherchons un AMO/architecte Ansible pour : Définir et participer à la construction d’un l’outillage d’automatisation et d’industrialisation des tâches d’exploitation · Administrer une plateforme d’orchestration (RunDeck ou autre) · Administrer la plateforme ansible · Participer au durcissement des OS linux · Automatiser à l’aide de scripts les gestes d’exploitation sur les plateformes linux. · Être en support N3 des équipes de la DGNUM sur les solutions déployées · Définir/modifier les bonnes pratiques · Participation à la conception des feuilles de route techniques de la gestion de configuration · Suivre l’obsolescence des composants · Assure la veille technologique Environnement fonctionnel et technique : · SGBD : Oracle, Micrososft Sql Server, Postgresql, Ingres 9.2 sur Solaris , NoSQL Couchbase, Redis, · MONGODB, PAAS SGBD (AWS et Azure) · Serveurs : Unix Solaris / AIX, Linux Suse / Red Hat / Centos / Ubuntu, Windows Server · Middlewares : Apache, Tomcat, Weblogic, CFT, MQ Server SFTP, JMS, VTOM, suite logicielle TIBCO, Networker, Oracle Tuxedo · Plateformes/ logiciels : Teraform, Jenkins, Ansible, RunDeck, squash TM, Postman, Docker, Kubernetes, Databricks Connaissances, compétences obligatoires : · Expérience sur un poste similaire · Expertise ansible · Expertise sur les OS Linux (Ubuntu) · Expertise en développement de scripts Shell et un autre langage · Maitrise des technologies autour du cloud serait un plus Attitudes, aptitudes : · Excellent relationnel · Capacité de communication et d’écoute, diplomatie, autonomie et sens de la rigueur. · Forte capacité d’initiative et d’anticipation. · Autonomie et curiosité technique.
Freelance

Mission freelance
Tech. Lead .NET

CAT-AMANIA
Publiée le
.NET
Apache Kafka

1 an
100-490 €
Lille, Hauts-de-France
La mission vise à assurer le pilotage technique des applications , avec une forte implication opérationnelle dans le développement (50 à 70 % du temps), tout en accompagnant la montée en compétences de l’équipe et en réduisant la dette technique. L’enjeu principal est : D’améliorer la qualité des données produits De réduire significativement la part du RUN De fiabiliser les déploiements et la performance globale des applications Le rôle couvre à la fois l’architecture, la conception, le développement, la mise en œuvre et l’animation technique de l’équipe. Superviser l’ensemble des développements Réaliser les développements complexes Effectuer les revues de Pull Requests Définir et diffuser les normes de développement Garantir une architecture modulaire permettant des déploiements quotidiens sans régression. Rédiger les ADR (Architecture Décision Records) et les faire valider en comité. Réviser régulièrement la roadmap technique et proposer les ajustements nécessaires. Analyser les applications existantes et identifier les axes d’amélioration (performance, sécurité, maintenabilité). Accompagner le déploiement sur la nouvelle infrastructure GCP.
Freelance
CDI

Offre d'emploi
Développeur ETL, DMC, API, Kafka

CAT-AMANIA
Publiée le
Apache Kafka
API
ETL (Extract-transform-load)

1 an
38k-45k €
380-440 €
Tours, Centre-Val de Loire
Concepteur – Développeur IDMC, CAI, CDI Le projet consiste à réaliser les développements et paramétrages autour de la solution IDMC d’Informatica. Le périmètre technique couvre également les technologies API & Kafka. RPG, nouveau référentiel personne du groupe, est interfacé avec le CRM Salesforce et propage les informations clients à l’ensemble des systèmes contrats du SI Au sein de l’équipe RPG, les activités à prendre en charge sont conceptions, analyses fonctionnelles et techniques, développements et tests unitaires
CDI

Offre d'emploi
Lead Data Scientist

█ █ █ █ █ █ █
Publiée le
Apache Airflow
Ocaml
Python

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Data Engineer Hadoop/Cloudera/Airflow/Spark

OBJECTWARE
Publiée le
Apache Airflow
Apache Spark
Cloudera

3 ans
40k-67k €
400-550 €
Île-de-France, France
Les missions sont : Les consultants retenus auront pour mission : • Administration et optimisation de clusters HDP/CDP • Installation, configuration et maintenance des clusters. • Gestion des mises à jour et des patchs de sécurité. • Surveillance des performances et optimisation des ressources. • gestion/administration de clusters Kubernetes • Automatisation des déploiements avec Operators…, etc. • Sécurisation et monitoring des environnements conteneurisés. • Orchestration des workflows avec Apache Airflow : • Développement et optimisation des DAGs pour la gestion des pipelines de données. • Gestion des dépendances et optimisation des temps d’exécution. • Intégration avec les autres outils de l’écosystème. • Traitement et analyse des données avec Apache Spark : • Développement et optimisation des jobs Spark (batch et streaming). • Gestion des performances et tuning des jobs. • Intégration avec les systèmes de stockage distribués. • Optimisation des requêtes et accès aux données avec Starburst : • Configuration et administration de Starburst. • Optimisation des requêtes SQL distribuées. • Sécurisation et gestion des accès aux différentes sources de données. Français/Anglais
Freelance

Mission freelance
Un Tech Lead Sénior Java/kafka/Scala sur Massy

Almatek
Publiée le
Apache Kafka
J2EE / Java EE
Scala

215 jours
Massy, Île-de-France
Almatek recherche pour l'un de ses clients, Un Tech Lead Sénior Java/kafka/Scala sur Massy ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. ? Solide expérience en développement avec des langages comme Scala et/ou Java, et une compréhension approfondie des concepts de programmation fonctionnelle. ? Compétences avérées dans l'utilisation de plateformes de streaming de données comme Apache Kafka, et de frameworks de traitement de données distribuées comme Apache Spark. ? Expérience significative dans le domaine de la Data et du Cloud (GCP ou AWS), en particulier les services tels que Cloud Storage, BigQuery, Dataproc, Kubernetes, et d'autres outils pertinents pour la gestion et le traitement de données à grande échelle ? Bonne maîtrise de BigQuery et du SQL avancé, avec une expérience sur des traitements de gros volumes de données. ? Maîtrise des outils de CI/CD, en particulier via GitLab CI/CD et Docker Compose, pour l’automatisation des workflows data. ? Bonne connaissance de l’environnement Linux et des outils de ligne de commande. ? Connaissance approfondie des concepts d'architecture microservices et des bonnes pratiques de développement. ? Expérience dans l'écriture de tests unitaires et d'intégration pour garantir la qualité du code. ? Connaissance sur Kafka-stream, spring boot, ? Travail en méthodologie agile (Scrum), avec une capacité à collaborer efficacement dans des équipes pluridisciplinaires. MÉTHODES, ORGANISATIONS ET INTERACTIONS. ? Excellente communication écrite et orale : Bonne communication écrite et orale en français pour des interactions fluides avec le métier. ? Esprit d'analyse et d'amélioration continue : Capacité à évaluer le code et ses impacts, ainsi qu'à remettre en question les solutions existantes pour les améliorer. ? Capacité de prise de recul : Aptitude à évaluer les problématiques avec objectivité et à proposer des solutions d'amélioration. ? Capacité à respecter les délais tout en maintenant des standards élevés. ? Esprit d'équipe : Capacité à collaborer efficacement avec les membres de l'équipe pour atteindre des objectifs communs NIVEAU ET TYPE D’EXPERTISE REQUIS. ? Diplômé(e) d’un Bac+5 en école d'ingénieur ou équivalent universitaire avec une spécialisation en informatique, ou justifiant d'une expérience significative équivalente ? Expérience de plus de 7 ans en Scala/Java ? Une expérience dans le secteur du commerce de détail ou de la grande distribution serait un plus. MATÉRIEL. Le/la consultant(e) doit disposer de son propre matériel, adapté aux besoins de la mission : ? OS & CPU : Windows (Intel Core i7 ou i9, AMD Ryzen 7 ou 9), MacOS (M2 ou supérieur), Linux (AMD Ryzen 7 ou 9) ? RAM : minimum 16 Go, idéalement 32 Go ou plus ? Stockage SSD) : minimum de 512 Go, idéalement 1 To ou plus ? S’assurer que le/la consultant(e) puisse installer les outils et applications et effectuer les paramétrages nécessaires au bon déroulement de sa mission.
CDI

Offre d'emploi
Consultant IT Documentaire – Flux Kafka (Java)

CELAD
Publiée le

52 500 €
Paris, France
Contexte Dans le cadre d’une mission pour l’un de ses clients bancaires majeurs , CELAD renforce ses équipes et recherche un Consultant Communication Client / Quadient Inspire . La mission s’inscrit dans un contexte de forte volumétrie (plusieurs milliards de communications par an) et de modernisation du système d’information courrier , incluant l’industrialisation des flux documentaires, l’optimisation de la diffusion omnicanale et une architecture orientée événements . Vos missions 1. Conception & paramétrage des communications Prendre en charge les demandes de création et d’évolution de courriers de gestion Concevoir les maquettes sous Quadient Inspire en respectant les master templates Garantir la conformité aux chartes graphiques et aux standards internes Produire des livrables conformes aux processus de versioning 2. Intégration & flux événementiels Intégrer les modèles documentaires dans un SI orienté événements Exploiter les flux Kafka alimentant les communications clients Participer aux tests d’intégration des flux documentaires Garantir la cohérence entre les données entrantes et la composition documentaire 3. Déploiement & industrialisation Préparer et déployer les évolutions via GitLab Contribuer aux mises en production Assurer la traçabilité et le versioning des livrables 4. Documentation, support & amélioration continue Maintenir la documentation fonctionnelle et technique Diagnostiquer les incidents liés aux communications et aux flux associés Assurer le support fonctionnel aux utilisateurs Participer à l’amélioration continue des processus
Freelance

Mission freelance
Architecte Technique Intégration de Flux – MuleSoft / Kafka / MQTT (H/F)

Freelance.com
Publiée le
Apache Kafka
AWS Cloud
MQTT (Message Queuing Telemetry Transport)

6 mois
Malakoff, Île-de-France
Dans le cadre de la transformation digitale d’un grand groupe industriel international, la DSI renforce la maîtrise et la gouvernance des flux applicatifs entre les systèmes d’information Enterprise et les systèmes d’information Industriels. Ces environnements, bien que séparés et segmentés, sont fortement interconnectés et nécessitent des solutions d’intégration robustes, sécurisées et conformes aux standards d’urbanisation IT du groupe. Afin d’accompagner cette évolution, le groupe souhaite renforcer son dispositif d’architecture sur les sujets d’intégration applicative et de gestion des flux de données. Le consultant intégrera l’équipe Solution Design & Architecture as a Service, rattachée au département Enterprise Architecture, et interviendra sur la conception des architectures d’intégration et l’accompagnement des équipes projets. Environnement technique : AWS (services natifs et solutions de transfert de données) MuleSoft Kafka MQTT Architecture d’intégration inter-systèmes Urbanisation du SI CI/CD Envionnement industriel sécurisé
Freelance
CDI

Offre d'emploi
Expert Java

CAT-AMANIA
Publiée le
Apache
Apache Kafka
Cloud

6 mois
Toulouse, Occitanie
Dans le cadre du renforcement d’une System Team , nous recherchons un Expert Java chargé du développement et du maintien d’un framework interne stratégique, avec une vision transverse sur l’ensemble des projets. Vous intervenez au cœur du dispositif technique. Votre rôle dépasse le simple développement : vous structurez, sécurisez et optimisez les fondations techniques utilisées par plusieurs équipes. Vos responsabilités : Concevoir et faire évoluer un framework interne basé sur Java / Spring / Spring Boot Développer et maintenir des flux d’intégration via Apache Camel Mettre en œuvre et optimiser les architectures orientées événements (Kafka, RabbitMQ) Garantir la qualité, la performance et la robustesse des socles techniques Participer aux choix d’architecture (Cloud, conteneurisation, DevOps) Industrialiser les pratiques (CI/CD, Docker) Apporter une vision transverse et assurer la cohérence technique entre les projets Accompagner et faire monter en compétence les équipes de développement
CDI
Freelance

Offre d'emploi
Ingénieur(e) de production applicative

HN SERVICES
Publiée le
Administration linux
Administration Windows
Apache

1 an
48k-53k €
380-400 €
31100, Toulouse, Occitanie
HN Recrute un(e) Ingénieur(e) de Production Applicative ! Vous êtes passionné(e) par l’exploitation et la mise en production d’applications, et vous souhaitez évoluer dans un environnement technique stimulant et collaboratif ? Rejoignez notre équipe ! 📍 Localisation : Toulouse avec 3 jours de télétravail 🕒 Type de contrat : CDI 🧭 Expérience : 5 ans minimum 💰 Rémunération : entre 48k - 53k brut annuel, selon profil et expérience 🗓 Disponibilité : entre aujourd’hui et 1 mois 🎯 Vos missions principales : Assurer le déploiement, l’exploitation et la supervision des applications en production Administrer et maintenir les environnements Windows et Linux Gérer et optimiser les chaînes applicatives via un ordonnanceur ( VTOM ou équivalent) Mettre en place et exploiter des outils de supervision ( Zabbix ou équivalent) Administrer et configurer des serveurs applicatifs et web ( IIS, Apache ) Gérer les flux applicatifs via un outil de transfert de fichiers ( CFT ou équivalent) Automatiser et industrialiser les processus via des scripts (Shell, PowerShell, Python, …) Collaborer étroitement avec les équipes projet et développement en méthodologie Agile
Freelance

Mission freelance
Développeur Fullstack Confirmé

Tenth Revolution Group
Publiée le
Apache Kafka
Docker
Java

12 mois
400-520 €
Nantes, Pays de la Loire
Contexte client Scale-up fintech bretonne spécialisée dans l'open banking et les connecteurs DSP2, intervenant auprès de banques régionales et d'assureurs mutuels. Produit en forte croissance, roadmap ambitieuse, équipe technique de 15 à 40 devs organisée en feature teams. Environnement technique React TypeScript Java 17+ Spring Boot Kafka PostgreSQL Docker GitLab CI/CD Profil recherché 3 à 5 ans d'expérience sur une stack Fullstack React / Java ou équivalente. Maîtrise des patterns d'architecture (microservices, REST, event-driven). À l'aise en environnement Agile Scrum. Sensibilité aux problématiques d'intégration bancaire est un plus. Missions Développer des fonctionnalités bout-en-bout sur la plateforme (frontend React + backend Java Spring Boot) Concevoir et maintenir des APIs REST consommées par des clients banques et assurances Piloter des intégrations tierces : connecteurs open banking, DSP2, partenaires fintech Réaliser des revues de code et accompagner les profils juniors de l'équipe
Freelance

Mission freelance
Développeur quantitatif

JobiStart
Publiée le
Apache Kafka

1 an
400-630 €
Île-de-France, France
Tâches principales : Développer et optimiser des librairies de pricing en Java pour les instruments de taux, crédit, actions et matières premières Implémenter des modèles quantitatifs ( Black-Scholes, Hull-White, HJM, Monte Carlo, PDE ) fournis par les équipes Quant Contribuer aux projets réglementaires FRTB, SA-CCR, IBOR/RFR (SOFR, ESTR) en refactorisant les moteurs de calcul existants Développer des pipelines de market data (courbes de taux, surfaces de volatilité, spreads de crédit) via des flux Bloomberg B-PIPE / Refinitiv Concevoir des architectures microservices en Spring Boot / Spring Cloud avec messaging Apache Kafka / Solace Optimiser les performances de calcul : multithreading, parallélisation, in-memory computing (Hazelcast / Ignite) Assurer la qualité du code via des tests unitaires ( JUnit 5, Mockito ) et des pipelines CI/CD (Jenkins / GitLab CI) Participer aux réunions de conception technique avec les Quants, le Front Office et les équipes Risk en anglais
Freelance
CDI
CDD

Offre d'emploi
Data Engineer (DBT / Snowflake / Airflow / Python)

bdevit
Publiée le
Apache Airflow
AWS Cloud
CI/CD

36 mois
40k-50k €
450-500 €
Issy-les-Moulineaux, Île-de-France
Contexte : Dans un environnement data à forts enjeux de performance, de fiabilité et de conformité, vous intégrerez une équipe data encadrée par un Tech Lead Data. Vous interviendrez sur la conception, l’industrialisation et l’exploitation de pipelines de données au sein d’une plateforme cloud moderne. Missions Principales : En tant que Data Engineer , vous serez en charge de : Concevoir et développer des pipelines de données robustes et scalables (ELT) ; Intégrer les données issues de sources multiples dans Snowflake ; Développer et maintenir les modèles de données analytiques avec DBT (datamarts métiers, tests, documentation) ; Orchestrer les traitements data via Apache Airflow (DAGs, scheduling, dépendances) ; Optimiser les performances, la qualité et les coûts du Data Warehouse ; Industrialiser les flux data (automatisation, CI/CD, monitoring, reprise sur incident) ; Participer à l’amélioration continue de la plateforme data et être force de proposition sur les choix techniques.
Freelance

Mission freelance
Dev Fullstack Expert JAVA

HAYS France
Publiée le
Apache Kafka
Git
Java

3 ans
100-440 £GB
Lille, Hauts-de-France
JAVA - Expert - Impératif PostgreSQL - Confirmé - Impératif Kafka - Confirmé - Important Git / GitHub - Confirmé - Important Rattachée à la direction Digitale & Data de Leroy Merlin France, notre équipe “HR & Collaboration” est organisée en plusieurs squads : - Workforce, Structure et Collaboration : BUILD & RUN de produits relatifs à l’identité, la gestion administrative, la paie et la gestion des temps - Human Development : BUILD & RUN de produits relatifs au recrutement, à la gestion de carrière et à la formation - Safety & Diversity : BUILD & RUN de produits relatifs à la sécurité et à la diversité/inclusion - Tech : composée de 11 développeurs, de 2 DevOps et d’un QA, qui assure les développements techniques pour l’ensemble des squads produits. Dans un contexte de forte accélération, porté par l’intégration de nouvelles solutions SaaS et le développement de produits innovants (Front, Back), nous renforçons notre squad Tech et recherchons un développeur pour nous accompagner. La mission principale portera sur le développement des ACL, dans le cadre de l’intégration de trois nouveaux produits SaaS. Les connaissances / compétences attendues sont : - Java / Spring Boot - JUnit - MapStruct - FlyWay - Lombok - Kafka - PostgreSQL / MongoDB - Git / GitHub - Datadog - SCRUM - Linux Optionnel : - React / Typescript - Python / Django

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

309 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous