Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 305 résultats.
Freelance

Mission freelance
Lead Developer Java–GED (H/F)

SPI INFORMATIQUE
Publiée le
Apache Kafka
API REST
Java

3 mois
300-480 €
Deux-Sèvres, France
Vos missions principales : Définir les orientations techniques et les choix d’architecture Superviser la progression des développements Encadrer et accompagner les développeurs de l’équipe Être le référent technique sur la qualité du code Participer au développement des applications Concevoir et faire évoluer les architectures applicatives Contribuer à la gestion de la dette technique Participer aux estimations de charge et à la conception des solutions Collaborer avec les architectes et équipes métiers Les solutions développées permettent notamment : le traitement automatisé des mails, courriers et documents la mise à disposition de documents aux équipes métiers la traçabilité documentaire la gestion du cycle de vie des documents (archivage, suppression) la signature électronique de documents
Freelance

Mission freelance
Développeur back java BFF (H/F)

Insitoo Freelances
Publiée le
Apache Kafka
GraphQL
Java

2 ans
100-430 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur back java BFF (H/F) à Lille, France. Les missions attendues par le Développeur back java BFF (H/F) : Tu es le garant de la couche d'exposition qui fait battre le cœur de notre application : Conception et Développement Java : Tu construis et fais évoluer les points d'entrée GraphQL en utilisant les dernières capacités de Java 21. Ton objectif est de transformer la complexité de nos services internes en une interface simple, rapide et sur-mesure pour les besoins du mobile. Excellence et Qualité de livraison : Tu ne te contentes pas de livrer du code ; tu veilles à sa durabilité. Tu appliques les principes de conception logicielle rigoureux, tu réalises des revues de code minutieuses et tu automatises l'ensemble de tes tests pour assurer une stabilité sans faille. Synergie d'équipe : Tu travailles main dans la main avec les développeurs d'applications (iOS et Android) pour définir des échanges de données optimisés. Tu partages tes connaissances techniques pour faire progresser l'ensemble de la cellule mobile sur les architectures réactives. Stack technique : Java 21, Spring Boot, GraphQL, Kafka, Gravitee (APIM),
Freelance
CDI

Offre d'emploi
Ingénieur de production / WebAPI

Deodis
Publiée le
Apache
XL Deploy

12 mois
40k-45k €
380-400 €
Toulouse, Occitanie
Dans le cadre d’un projet stratégique de transformation et de fusion de systèmes d’information, nous recherchons un Ingénieur Production / WebAPI afin d’accompagner le suivi du projet et d’assurer l’exploitation des plateformes API en environnement critique. Vous interviendrez à la fois sur le pilotage opérationnel du projet et sur les activités récurrentes de l’équipe RUN. Missions principales Suivi opérationnel d’un projet stratégique SI Exploitation et supervision des plateformes WebAPI Gestion et supervision des Gateways API en production Exploitation des environnements conteneurisés sous OpenShift Analyse et traitement des incidents (N2/N3) Déploiements applicatifs (XLDeploy / XLRelease) Supervision via Kibana, Grafana, Zabbix, AppDynamics Ordonnancement via Control-M Contribution à l’amélioration continue et à l’industrialisation
Freelance

Mission freelance
Tech Lead Databricks ( H/F)

ALLEGIS GROUP
Publiée le
Apache Kafka
Databricks
Scala

6 mois
150-620 €
Paris, France
Teksystems recherche pour un de ses client grand compte un Tech Lead Databricks ( H/F) . Missions principales1. Ingestion & Traitement de Données Concevoir et mettre en œuvre des pipelines d’ingestion de données en temps réel via Kafka . Assurer le traitement, la préparation, la qualité et la structuration des données sur la plateforme Databricks Data Intelligence Platform . Développer et optimiser les jobs de transformation avec Spark (Scala, PySpark si nécessaire). 2. Modélisation & Architecture Concevoir et maintenir des modèles de données robustes , scalables et alignés avec les besoins métiers. Définir une architecture technique viable, performante et pérenne , en lien avec les standards Data de l’entreprise. Encadrer les choix technologiques et identifier les solutions les plus adaptées aux cas d’usage. 3. Leadership Technique & Coordination Animer les ateliers techniques avec l’équipe Data (squad, data engineers, data analysts…). Assurer la gestion des risques techniques , anticiper les points de blocage et sécuriser la roadmap. Fournir un guidage technologique basé sur une expertise éprouvée des projets DATA. Accompagner la squad dans les bonnes pratiques de développement, de CI/CD et de gouvernance Data. 4. Méthodologie & Qualité Travailler dans un cadre Agile (Scrum / Kanban), avec participation active à la planification, aux revues et aux rétrospectives. Garantir la qualité des livrables : documentation, code propre, tests, performance.
CDI
Freelance

Offre d'emploi
DevOps streaming Data - (H/F)

SWING-ONE
Publiée le
Ansible
Apache Kafka
DevOps

1 an
Île-de-France, France
CONTEXTE DU POSTE : Nous recherchons pour notre client Grand-Compte un DevOps streaming Data. Vous intégrerez le pôle technologique en charge de concevoir et d’opérer des plateformes « as a service » permettant le déploiement d’architectures modernes, distribuées et hautement résilientes pour l’ensemble des entités du Groupe. MISSIONS PRINCIPALES : Industrialiser et automatiser les déploiements (Ansible) Mettre en production de nouveaux clusters Kafka et faire évoluer les clusters existants (scale horizontal & vertical) Participer à la définition des architectures des futures briques de la plateforme Streaming Apporter une expertise technique aux utilisateurs de la plateforme Développer des prototypes en lien avec les cas d’usage métiers Documenter les offres et démontrer la valeur des solutions Data
CDI

Offre d'emploi
Ingénieur Data (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Spark
Git
Github

Beychac-et-Caillau, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
DATA INGENIEUR

HAYS France
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

3 ans
100-520 £GB
Lille, Hauts-de-France
Au sein de la Global Tech & Data Platform (GTDP), le Data Engineer intégrera l’équipe Data transverse et sera responsable de partager les normes et bonnes pratiques Data Engineering au sein de sa plateforme d’appartenance, et ainsi de faire le lien avec nos équipes produits et les métiers. Vous êtes notamment responsable de : - Collecter, gérer et convertir les données en informations exploitables pour tous les utilisateurs de données (digitaux ou métier), - L’organisation d’un modèle physique de données, répondant aux enjeux de Data Mesh, - Mettre en œuvre des méthodes pour améliorer la fiabilité, la qualité, la performance des données ainsi que les aspects Finops, - Garantir la mise en production des données conformément à la gouvernance et à la conformité des données, - Respecter les réglementations du DPO, - Assurer la maintenance et le respect de la stack technique de l’entreprise, - La mise en place d’un cadre de bonnes pratiques visant à améliorer la qualité des développements des flux de données, de leur indicateurs et de leurs suivis en production, - La bonne tenue des rituels agiles de l’équipe et à la veille technologique. CARACTERISTIQUES DU PROFIL DEMANDE : Une expérience significative en Data Engineering (minimum 3 ans d'expériences), idéalement dans le secteur du retail. Bonne maîtrise des streaming platform et traitements des flux (Kafka). De solides compétences sur la stack Google Cloud Platform, notamment BigQuery. De solides connaissances des bases de données et systèmes distribués. Maîtrise de la chaîne DevOps et des outils associés : CI / CD, data-pipelines. Vous ne ressentez aucune difficulté à vous exprimer en anglais. COMPETENCES REQUISES Technique : SQL, NoSQL, Shell, GCP (Big Query, GCS, ...), Pipeline (dbt...), Modélisation de données Transverses : Collaboration, communication, documentation et pédagogie. Méthodologique : Agilité, Git Langues : Français, Anglais
CDI

Offre d'emploi
Developpeur .Net/React (Montrouge)

ASTRELYA
Publiée le
.NET
.NET CORE
Apache Kafka

Montrouge, Île-de-France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre Mission : Vous interviendrez dans un éco système banque au sein du service CRM IT, il s'agit de participer aux développements pour le CRM des Back-Offices et à l'amélioration continue des pratiques et process. Les applicatifs sont des intranets en C#/.NetCore, Entity Framework, SQL Server 2022, React.js, javascript. Des connaissance Kafka et/ou Elastic Search seront un plus . Très bonne compétence React requise.
Freelance

Mission freelance
Data Engineer - Paris

Intuition IT Solutions Ltd.
Publiée le
Apache Spark
SQL

3 ans
400-410 £GB
Paris, France
Description du poste – Data Engineer Senior Dans le cadre de projets numériques transverses, vous interviendrez au sein d’une équipe data intégrée à une plateforme de traitement et de valorisation des données. Vous collaborerez étroitement avec des profils métiers et techniques afin de garantir la collecte, la structuration et l’exploitation optimale des données. Vos missions incluent notamment : Participer aux phases de conception, planification et réalisation des projets data Construire et maintenir des pipelines de données robustes et scalables Centraliser des sources de données hétérogènes Structurer et organiser les stockages de données Mettre en place des infrastructures évolutives capables de gérer des volumes importants Développer et maintenir les workflows CI/CD Assurer la sécurité, la stabilité et la performance des environnements Accompagner les équipes dans l’exploitation et le requêtage des données Contribuer aux initiatives de gouvernance data Documenter les solutions et diffuser les bonnes pratiques Réaliser une veille technologique active
Freelance

Mission freelance
Développeur Java 17 21- Expérimenté - Aix – en - Provence (F/H)

Acpqualife
Publiée le
Angular
Apache Kafka
Docker

3 ans
390-430 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Nous nous recherchons un Développeur Java maitrisant version 21 et Angular (H/F) pour intervenir chez notre client historique proche d’Aix-en-Provence. Vous rejoignez une équipe composée de 24 développeurs, lead développeurs et architectes logiciels et pourrez vous concentrez sur les différents pans de votre mission : Participer à la conception d'applicatifs Participer aux ateliers d’architecture pour porter les sujets techniques du portefeuille Participer à la rédaction des spécifications techniques Réaliser les revues de code, garantir la qualité des développements et le respect des standards Réaliser le développement de tout ou partie de l’applicatif Réaliser le Développement de tests unitaires et d’intégration Packaging et utilisation de la plateforme d’intégration continue Apporter un soutien correctif : faits techniques, performance, optimisation des performances des fonctions déjà réalisées. Rythmes = 3 jours de présentiel – 2 jours remote ( Semaine 1) puis 2 jours de présentiel – 3 jours de remote ( Semaine 2) en Alternance Livrables Documents de spécifications techniques Sources développées et tests unitaires et d’intégration Mode opératoire d’installation
Freelance

Mission freelance
Expert Snowflake – Data & IA GEN

Sapiens Group
Publiée le
Apache Airflow
AWS Cloud
CI/CD

12 mois
500-600 €
Massy, Île-de-France
Dans le cadre de la synergie IT et du développement de l’IA GEN au sein des applications, le chapitre DATA – Entrepôt de données est responsable de l’évolution des patterns liés à la plateforme Data SNOWFLAKE . Vous intégrerez une équipe d’experts IT et interviendrez sur les évolutions de la plateforme pour répondre aux besoins des équipes DATA IT et métiers , en France et à l’international. Missions principales Concevoir et déployer de nouveaux patterns pour l’ingestion, la manipulation et la restitution des données (structurées et non structurées). Mettre en œuvre ces patterns sur la plateforme France ou à l’international pour qu’ils soient opérationnels pour les équipes DATA IT et métiers. Accompagner les équipes IT et métiers dans le déploiement et la prise en main de SNOWFLAKE . Activités clés Contribuer au cadrage des besoins techniques métiers liés à SNOWFLAKE. Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation). Participer aux choix technologiques de l’offre à mettre en place. Analyser les documents d’architecture et définir les nouveaux patterns (fonctionnelle, applicative, technique). Documenter les patterns de manière détaillée pour les rendre exploitables par les autres Business Units. Être l’interlocuteur privilégié pour les besoins d’agent/usages IA GEN au sein du pôle DATA. Accompagner le déploiement de la solution Former et assister les utilisateurs dans la prise en main de la plateforme Data. Compétences techniques requises Administration experte de la plateforme SNOWFLAKE avec expérience avérée. Maîtrise des architectures Data et écosystèmes associés ( Snowflake, Bedrock ). Connaissance des architectures et services Cloud (préférence AWS , Terraform ). Expérience avec Kubernetes/EKS, Airflow, MLFlow, Jupyter , CICD ( Gitlab, Artifactory, SonarQube ), IDC. Langages : Shell, Python, SQL . Sensibilité aux problématiques de sécurité et aux normes associées. Maîtrise des architectures de flux de données. Compétences comportementales Capacité à mobiliser, fédérer et créer une vision commune. Aisance à travailler dans un contexte multi-site, multi-entité et international. Excellentes compétences en communication écrite et orale. Langues Anglais lu et parlé de manière professionnelle. Profil recherché Expérience confirmée sur l’administration et l’architecture de plateformes Data Cloud. Bonnes pratiques de gouvernance et de documentation technique. Capacité à travailler en équipe et à accompagner les métiers dans la transformation digitale.
Freelance

Mission freelance
Développeur java/angular

Comet
Publiée le
Angular
Apache Kafka
Java

12 mois
400-430 €
Lille, Hauts-de-France
Objectifs de la mission Dans le cadre d’un chantier technique stratégique, vous participerez à la modernisation des flux de données vers une architecture orientée streaming. Vos responsabilités Comprendre le contexte fonctionnel et technique de la plateforme Développer et intégrer des flux de données (Kafka / BDD) Réaliser les tests techniques et la documentation Participer aux code reviews Contribuer à l’amélioration continue (performance, maintenabilité, automatisation des tests) Participer à la rédaction des user stories avec l’équipe produit Participer aux rituels agiles Traiter les tickets de support technique niveau avancé Environnement technique Java Spring Boot Kafka PostgreSQL Git Docker / Kubernetes Angular Méthodologie Agile Profil recherché Expérience confirmée en développement Java backend Bonne compréhension des architectures orientées événements À l’aise avec les environnements data et microservices Esprit d’équipe et autonomie Informations mission Démarrage : mars 2026 Durée : 6mois Localisation : métropole lilloise Télétravail partiel possible
Freelance

Mission freelance
Développeur Python

HAYS France
Publiée le
Apache Kafka
Azure DevOps
CI/CD

1 an
Dunkerque, Hauts-de-France
Dans le cadre d’un projet de modernisation technologique, nous recherchons un Data Analyst / Développeur Python capable d’intervenir sur la réécriture et l’optimisation d’un modèle existant. La mission consiste à redévelopper un modèle technique en Python , en assurant une isofonctionnalité , un niveau de performance équivalent à la solution actuelle, ainsi qu’une documentation complète du code . Vous interviendrez en environnement industriel , au sein d’une équipe spécialisée dans les simulations et modèles , avec un fort niveau d’exigence quant à la qualité du code et au respect des standards internes de développement (SiMo). Le consultant contribuera également à l'intégration du code dans les stacks technologiques internes , notamment via Azure DevOps, pipelines CI/CD, et solutions de messagerie (Kafka, RabbitMQ). La mission s’effectue en régie , à temps plein, en lien direct avec les équipes opérationnelles.
Freelance

Mission freelance
Développeur Talend

SKILL EXPERT
Publiée le
Apache Kafka
API REST
Oracle

1 an
450-500 €
Hauts-de-Seine, France
Descriptif de la mission Notre client recherche un Développeur Talend afin d'intégrer ses équipes. Lors de cette mission votre collaborateur devra effectuer les tâches suivantes: - Analyser les besoins métiers et techniques - Rédiger les spécifications techniques - Concevoir et développer des jobs sous Talend Data Integration - Développer des flux temps réel via Apache Kafka - Développer et consommer des APIs REST / SOAP - Réaliser les tests unitaires et d’intégration - Optimiser les performances des traitements - Assurer la maintenance corrective et évolutive - Documenter les développements - Participer aux mises en production
Freelance

Mission freelance
Expert .net CORE /intégration Payment Service Provider/ Azure/ SQL SERVER/ CI/CD/ Kafka (H/F)

Octopus Group
Publiée le
.NET
.NET CORE
Apache Kafka

6 mois
480-560 €
Ivry-sur-Seine, Île-de-France
Nous recherchons pour le compte de notre client dans le retail un développeur back-end .NET sénior (6 à 9 ans d’expérience minimum) spécialisé dans les systèmes de paiement (PSP) pour intervenir au sein de sa Digital Factory, dans un contexte d’industrialisation, d’amélioration continue de la qualité et de modernisation des interfaces front. La mission consiste à : Concevoir, développer et maintenir des services de paiement robustes, sécurisés et résilients Garantir la fiabilité et la cohérence des flux transactionnels (validation, capture, refund, 3DS, gestion des middle states, gestion des échecs et retries) Contribuer à la qualité globale du produit en s’assurant que chaque évolution améliore l’expérience utilisateur, la fluidité du paiement et le taux de transformation S’impliquer activement dans l’observabilité : suivre les indicateurs transactionnels, analyser les comportements en production, anticiper les problèmes avant qu’ils n’impactent l’utilisateur Travailler en étroite collaboration avec les équipes Produit, Sécurité, QA, DevOps, Cloud et Architecture pour garantir un niveau de fiabilité maximal Assurer la responsabilité du service en production : surveiller les anomalies, traiter les incidents, comprendre les signaux faibles et garantir la stabilité du système Participer activement à l’amélioration continue : performance, sécurité, conformité, résilience, réduction de la dette technique, refactorings ciblés S’inscrire dans une approche orientée résultat : fluidité du parcours de paiement, réduction des échecs, performance transactionnelle, taux de succès, valeur business
Freelance

Mission freelance
Ingénieur IT Logistique

CAT-AMANIA
Publiée le
Apache Kafka
API
AS400

1 an
100-410 €
Lille, Hauts-de-France
Mission et responsabilités principales : Dans un environnement technologique avancé et en utilisant des solutions telles que l’IA, les échanges de données (API, Kafka, ...), tu contribues à la mise en place de nouvelles solutions logistiques. Dans notre organisation Produit (Produit, Engineering et Data), en tant que Software Integration Engineer (SIE) sur le périmètre WMS interne (IBMi), ta principale mission se compose de 2 axes: Faire évoluer notre technologie utilisée actuellement (MQ) pour standardiser les échanges de données de notre WMS interne (GE-AS400 / IBMi) via les technologies plus récentes (API & Kafka). Accompagner nos Product Managers et l’équipe Data afin de centraliser toutes nos données et co-construire des dashboards d’activité entrepôt en temps réel. Pour mener à bien cette mission, tu auras plusieurs responsabilités : Conception et intégration de solutions: Avec le Product Manager, tu co-valides les designs fonctionnels des solutions digitales en apportant ton expertise technique. Tu es responsable de la conception détaillée en rédigeant les spécifications techniques. Tu accompagnes le développement des solutions en collaborant avec l’équipe de développement Digital. Tu réalises les tests, la mise en production et la stabilisation des solutions pour garantir leurs performances et leur fiabilité. Garant de la qualité et des performances : Tu es le référent technique pour les utilisateurs sur les sujets techniques et le support des solutions que tu déploies, en assurant un accompagnement de qualité. Tu qualifies et garantis la qualité des évolutions sous ta responsabilité, en veillant à la robustesse et à la stabilité des systèmes.

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

305 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous