Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 265 résultats.
Freelance

Mission freelance
101448/Architecte Data IA Apache Kafka,Cloud Architecture Nantes

WorldWide People
Publiée le
Apache Kafka

12 mois
400-620 €
Nantes, Pays de la Loire
Architecte Data IA Apache Kafka,Cloud Architecture Nantes . Architecture au sein d'une nouvelle plateforme Data IA chez notre client. La mission consiste : - de par son expertise à accompagner le client dans cette transition technologique - à conseiller sur la nouvelle nouvelle architecture cloud-native et orienté self-service en intégrant des solutions modernes telles que Kafka, Iceberg, Trino et S3. - à accompagner l'équipe en charge du socle service data pour challenger les choix d'architecture autour des solutions d'observabilité offertes par OpenMetadata, SODA et/ou Great Expectations par exemple. - à participer à la conception d'architectures robustes et évolutives, tout en garantissant la conformité RGPD et la sécurité des données. - à travailler en étroite collaboration avec les Product Owners, Tech Lead, Data Stewards et DevOps pour assurer l'intégration harmonieuse des nouveaux produits. Qualifications demandées : Apache Kafka,Cloud Architecture.
CDI

Offre d'emploi
Data Engineer Databricks

KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks

45k-60k €
Paris, France
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Freelance

Mission freelance
Expert Middleware / Serveurs d’Application (H/F)

Mindquest
Publiée le
Ansible
Apache Tomcat
Internet Information Services (IIS)

3 mois
Toulouse, Occitanie
Missions principales: Expertise & Support Assurer un rôle d’expert sur les serveurs d’application (notamment JBoss ) Intervenir en support de niveau 3 sur les incidents complexes Réaliser les diagnostics, identifier les causes de dysfonctionnement et proposer des solutions correctives ou de contournement Apporter conseil, assistance, formation et alerte auprès des équipes Build & Projets Participer à la définition des architectures techniques adaptées aux besoins projets Réaliser la conception technique (design) des infrastructures middleware Assurer l’ingénierie d’installation et de paramétrage des plateformes (simples à complexes) Garantir la bonne implémentation des solutions en cohérence avec les standards Run / MCO Assurer le maintien en conditions opérationnelles des infrastructures Garantir la disponibilité, la performance et la sécurité des systèmes Gérer les incidents et problèmes en production Mettre en œuvre les bonnes pratiques d’exploitation Coordination & Amélioration continue Coordonner les différents acteurs impliqués dans les projets d’installation Collaborer avec les équipes systèmes, réseau et sécurité Définir et mettre en œuvre les règles d’exploitabilité et les standards techniques Participer aux études d’opportunité et aux décisions stratégiques IT Assurer une veille technologique continue Environnement technique Compétences obligatoires (Must have) JBoss (Expert) Compétences importantes (Nice to have) IIS / WAS / Tomcat (Confirmé) Ansible (Confirmé) Compétences appréciées Jira / XL Deploy (Junior)
CDI

Offre d'emploi
Développeur Java/ React

Espritek
Publiée le
Apache Kafka
Cloud
Java

40k-50k €
Ivry-sur-Seine, Île-de-France
A noter : Aucun freelance ne sera retenu pour ce type de poste. Présentiel fin 2026 de 4 jours sur site requis. Notre client est un leader européen de la distribution de biens culturels, de loisirs, de produits techniques, d’électroménager et de services regroupant plus de 1 500 magasins dans 5 pays, 30 000 collaborateurs, et 29 millions de visiteurs uniques par mois sur nos sites marchands. Ils ont lancé un plan stratégique ambitieux sur 2025-2030 avec pour objectif de permettre à ses clients de faire des choix éclairés et les orienter vers un mode de vie plus durable. La Digital Factory est responsable des ventes en ligne de Fnac et Darty, organisée en plusieurs produits regroupant une vingtaine de feature teams.
CDI
Freelance

Offre d'emploi
Développeur Java Fullstack H/F

OBJECTWARE
Publiée le
Angular
Apache Kafka
Java

1 an
70k-80k €
500-600 €
Luxembourg
Nous recherchons pour un de nos clients, spécialisé dans le domaine de l'assurance un Développeur Java Fullstack H/F pour une mission à pourvoir dès que possible sur le secteur de Luxembourg ville. Nous recherchons un profil fullstack expérimenté voire Lead Tech (Java/Scala & Angular), capable d’intervenir sur l’ensemble de la stack backend JVM et frontend Angular avec une solide culture de la qualité, des bonnes pratiques et de l’ingénierie logicielle moderne. Nous vous offrons : un package salarial attrayant, assorti de nombreux avantages complémentaires (ticket restaurant, mutuelle...), un environnement de travail professionnel et stimulant. Si vous vous reconnaissez dans ce descriptif, ce poste est fait pour vous alors n'hésitez pas à postuler.
Freelance

Mission freelance
Data Engineer – Scala / Spark - Solution digitale - Paris (H/F)

EASY PARTNER
Publiée le
Apache Airflow
Apache Kafka
Apache Spark

1 an
400-500 €
Paris, France
Contexte Dans le cadre du renforcement de ses équipes data, un acteur du secteur digital recherche un Data Engineer pour intervenir sur des problématiques de traitement et d’exploitation de données à grande échelle. Missions Concevoir et maintenir des pipelines de données (batch & streaming) Gérer l’ingestion, la transformation et la qualité des données Développer sur des environnements Big Data (Spark, Kafka) Mettre en place et optimiser les workflows (Airflow) Participer à l’industrialisation des traitements (CI/CD) Collaborer avec les équipes Data, DevOps et métiers Stack technique • Scala / Python / SQL avancé Spark / PySpark, Kafka Airflow (ETL / orchestration) Cloud : Azure et/ou AWS Git, CI/CD
CDI

Offre d'emploi
Administrateur Systèmes (H/F)

Link Consulting
Publiée le
Apache
DevOps
Linux

45k-50k €
92800, Puteaux, Île-de-France
Notre client, acteur reconnu du secteur Industrie / Énergie, recherche son futur Administrateur Systèmes (H/F) pour accompagner l’exploitation et l’évolution de ses environnements IT. Le poste est basé en région parisienne ou en province, selon votre localisation. Vos missions : Intégré au sein d’une équipe projets et d’exploitation, vous serez amené à : * Administrer et maintenir des environnements systèmes Windows et Linux (Ubuntu 24.04) * Gérer et exploiter des bases de données SQL Server (T‑SQL) * Administrer les serveurs web et middleware (Apache, Tomcat) * Superviser les infrastructures via des outils de monitoring (PRTG ou Zabbix) * Gérer les partages de fichiers, comptes utilisateurs et droits d’accès * Automatiser les mises en production et tâches récurrentes (PowerShell, scripting) * Appliquer les bonnes pratiques de sécurité et contribuer à la robustesse des systèmes * Travailler en coordination avec des équipes IT basées au Royaume‑Uni (anglais quotidien) ### Compétences techniques attendues * Administration systèmes Windows & Linux * Linux Ubuntu 24.04 * SQL Server / T‑SQL * Apache, Tomcat * Supervision : PRTG ou Zabbix * Automatisation / DevOps (PowerShell, scripting) * Une expérience en environnements cloud Azure est appréciée
CDI

Offre d'emploi
Data Engineer Databricks - Lyon

KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks

45k-55k €
Lyon, Auvergne-Rhône-Alpes
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
CDI
CDD

Offre d'emploi
Data Engineer Big Data / BI 

adbi
Publiée le
Apache Hive
Apache Spark
Cloudera

12 mois
38k-46k €
Paris, France
Data Engineer Big Data / BI – Scala, Spark, SQL, Hive, Cloudera (H/F) 💼 Contrat : CDI 🏢 Entreprise : ADBI – Expert en Data Management et transformation digitaleContexte du poste Dans le cadre de l’évolution de ses plateformes Big Data et décisionnelles, ADBI recherche un(e) Data Engineer pour intervenir sur des projets d’intégration, de transformation et d’industrialisation de données. Vous participerez à la migration et à l’optimisation d’environnements Big Data (Cloudera, Spark, Hive, Scala) et contribuerez à la mise en place de solutions BI performantes et scalables.
Freelance

Mission freelance
DevOps Java Kafka / Expert Streaming (H/F)

ALLEGIS GROUP
Publiée le
Apache Kafka
Java

12 mois
Hauts-de-Seine, France
TEksystems recherche pour l'un de ses clients grand compte un(e) DevOps Java Kafka / Expert Streaming (H/F) 🎯 Mission principale Assurer l’administration, l’évolution et la fiabilité de la plateforme Kafka du client, incluant Kafka Cluster, Kafka Connect, Kafka Streams, Schema Registry, ainsi que l’ensemble de l’écosystème de monitoring, de sécurité et d’automatisation. Le consultant interviendra sur la conception, l’optimisation et la sécurisation des flux de données, tout en garantissant la stabilité des environnements de production et la mise en place des bonnes pratiques DevOps. __________ ✅ Responsabilités clés 1. Administration & Architecture Kafka • Audit, administration et optimisation des clusters Kafka (on-prem, k8s/Openshift). • Gestion de Kafka Connect, Schema Registry et applications Kafka Streams. • Conception et design de topologies Kafka Streams. • Optimisation fine des configurations (brokers, topics, throughput, latence). • Mise en place et maintien des guidelines, règles, best practices et documentation (ADR/ADL, diagrammes d’architecture, description des flux applicatifs). 2. Sécurité & Conformité • Mise en œuvre de la sécurité : SASL/ACLs, TLS, gestion des certificats. • Intégration Vault Config Provider & gestion des secrets (k8s secrets, Vault). • Contribution aux standards sécurité de la plateforme. 3. Connecteurs Kafka Connect Configuration, déploiement et supervision de connecteurs : • SQL Databases, Files, REST, IBM MQ-Series, Solace, • Azure Blob Storage (SAS), • Couchbase, • MirrorMaker, • Event Hub, • Suivi de performance et troubleshooting avancé. 4. Observabilité & Alerting • Mise en place et optimisation des chaînes d’alerting : Prometheus → Alertmanager → Dynatrace → ServiceNow • Mise en place et tuning du monitoring : Prometheus → Grafana + Dynatrace • Création de dashboards, règles d’alertes, ServiceMonitor, PrometheusRules. 5. MCO & Évolutions • Gestion des rolling updates / rolling upgrades des clusters Kafka et composants associés. • Analyse de performance, capacity planning, remédiation incidents. • Participation active aux comités d’architecture. 6. Plan de Continuité & Reprise • Élaboration et maintien d’un Disaster Recovery Plan pour cluster stretch. • Documentation des steps failover/failback et tests réguliers. 7. Automatisation & CI/CD • Industrialisation via GitLab CI, AWX/Ansible, Helm charts, kustomize. • Automatisation complète des déploiements Kafka Connect et Kafka Streams. • Contribution aux pipelines de build (Java, Spring Boot, Micronaut, Maven). • Développement d’outils internes (shell script, scripts d’automatisation).
CDI
Freelance

Offre d'emploi
Data Engineer Informatica/Airflow/AWS/DBT

OBJECTWARE
Publiée le
Apache Airflow
AWS Cloud
DBT

3 ans
40k-74k €
400-550 €
Île-de-France, France
Le contexte : L'un des objectifs majeurs du plan de transformation DATA est de développer les applications DATA qui permettent à nos métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI et de déployer des applications destinées à nos abonnés directement (recommandation contenu et offres, etc.). Dans ce cadre, le client a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100To de données par jours: Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique, Socle vidéo, navigation et calcul des audiences, AI pour recommandation des programmes, etc. Feature Store, Moderniser les flux financiers, Content Platform, Mise en place Kubernetes, Plateforme pour le traitement des données CRM et usage, Partager des informations sur les clients à nos partenaires (Netflix, Apple, M6, TF1, etc.), Piloter plus efficacement l'activité des marchés professionnels, Mettre à disposition des applications de data-selfservice. Votre rôle sera de : Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.), Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.), Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs, Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python, Identifier et résoudre les problèmes de performance ou de qualité des données, Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.), Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données, Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.), Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme. Vous maîtrisez Informatica, Snowflake, Airflow, DBT, AWS et aimez les challenges, Vous êtes experts dans le développement de solution d'intégration de données, Vous parlez Anglais couramment, Vous connaissez et maîtrisez les outils JIRA et les méthodes 'agiles' n’ont pas de secret pour vous ! Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique.
Freelance

Mission freelance
Lead dev Java/Angular H/F

SPI INFORMATIQUE
Publiée le
Angular
Apache Tomcat
API

3 mois
100-530 €
Deux-Sèvres, France
Dans le cadre d’un programme stratégique de modernisation du socle de gestion des contrats, nous recherchons un(e) Lead Developer expérimenté(e) pour accompagner plusieurs squads dans la transformation technique et fonctionnelle du système d’information. Vous interviendrez au cœur d’un chantier de rénovation ambitieux visant à améliorer la performance, la scalabilité et la maintenabilité des applications, tout en accompagnant l’évolution des offres métiers. Missions principales :Leadership technique & coordination Définir la vision technique et garantir sa bonne mise en œuvre Superviser la progression des développements au sein de 4 squads Accompagner les équipes dans la résolution de problématiques complexes Être garant(e) des bonnes pratiques de développement (qualité, sécurité, performance) Mettre en place et suivre les standards de code Contribution opérationnelle Participer activement aux développements Concevoir et faire évoluer les architectures applicatives Assurer la modernisation continue des applications (front, back, batch) Optimiser la performance et la scalabilité des traitements Collaboration transverse Travailler en étroite collaboration avec les Product Owners, Architectes, équipes Ops et métiers Accompagner l’intégration du catalogue produit dans les applications Contribuer aux sujets fonctionnels nécessitant la mise en place de nouveaux socles applicatifs Projets et enjeux majeurs Le programme de modernisation couvre notamment : Mise en place de solutions de souscription et gestion pour différents marchés (Construction, Entreprise) Gestion de la coassurance en mode suiveur Automatisation des retraitements et gestion des avenants Déploiement d’une solution nocode pour certains produits spécifiques Refonte du catalogue produit, des tarifs et des taxes API-sation du moteur de tarification Amélioration de la scalabilité pour supporter jusqu’à 800 000 contrats Modernisation du compte utilisateur et des traitements batch
CDI

Offre d'emploi
Expert technique systèmes & bases de données H/F

CONSORT GROUP
Publiée le
Apache
ISO 27001
MySQL

44k-52k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Expert technique systèmes & bases de données H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par les systèmes Linux, les bases de données et les environnements hospitaliers critiques ? Ce poste est fait pour vous. En tant qu’ Expert technique systèmes & bases de données , vous êtes responsable de l’intégration et de l’exploitation de notre écosystème applicatif au sein du Système d’Information Hospitalier. Côté build : Concevoir et définir l’architecture technique des applications en lien avec les équipes projets Intégrer les applications métiers dans le SIH en respectant les standards techniques Piloter les déploiements applicatifs et coordonner les installations avec les parties prenantes Industrialiser les processus d’installation et de mise en production Collaborer avec les éditeurs et les équipes internes pour garantir la conformité technique Rédiger et maintenir la documentation technique (architecture, procédures, exploitation) Participer à l’amélioration continue des processus d’intégration Côté run : Assurer le maintien en conditions opérationnelles des applications Gérer les incidents techniques de niveau 2 et assurer leur résolution Surveiller les performances des systèmes et bases de données Mettre en œuvre les plans de reprise d’activité et garantir la continuité de service Appliquer et faire respecter les normes de qualité et de sécurité (ISO, HDS, COFRAC) Optimiser les environnements techniques et proposer des axes d’amélioration Assurer le support technique auprès des équipes internes C’est votre parcours Vous avez au moins 5 ans d’expérience dans des environnements techniques exigeants. Vous aimez résoudre des problématiques complexes et garantir la fiabilité des systèmes critiques, sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Administration systèmes Linux (RedHat) et Windows Bases de données : Oracle (expertise principale) , SQL Server, MySQL, PostgreSQL Serveurs d’application : IIS, Apache, Tomcat Scripting : PowerShell et Shell Linux Environnements SIH et contraintes réglementaires (ISO 9001, ISO 27001, HDS, COFRAC) Méthodologies DevOps / Agile C’est votre manière de faire équipe : Rigueur, organisation et sens des priorités Autonomie et capacité à prendre des initiatives Esprit d’analyse et réactivité face aux incidents Excellentes compétences relationnelles et esprit d’équipe Capacité à vulgariser des sujets techniques Qualités rédactionnelles pour produire une documentation claire et structurée C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : [Hybride selon mission] Salaire : De 44 000€ à 52 000€ (selon expérience) brut annuel Famille métier : Systèmes Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance

Mission freelance
Data engineer Google cloud platform (GCP)

CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
BigQuery

6 mois
Île-de-France, France
Pour le compte d'un acteur majeur, nous recherchons un(e) Data Engineer confirmé(e) pour concevoir et déployer des chaînes de traitement de données complexes au sein d'un Datalake moderne. Vous intégrerez une équipe évoluant en mode Agile (Scrum/Kanban) avec une forte culture de l'automatisation. Vos responsabilités : Concevoir et mettre en œuvre les chaînes d’ingestion, de validation et de croisement de données. Assurer le déversement et l'enrichissement des données dans le Datalake. Produire automatiquement des agrégats (journaliers à mensuels) via la puissance du Cloud. Développer et documenter les User Stories en collaboration directe avec le Product Owner. Garantir la qualité via l'automatisation des tests fonctionnels et la correction des anomalies. Participer activement à la chaîne de delivery continue et assister les équipes d'exploitation. Profil recherché : Expertise confirmée sur la plateforme GCP (indispensable) . Maîtrise avancée de l'écosystème Spark / Scala / Kafka . Expérience solide sur les environnements conteneurisés ( GKE, Docker ) et l'Infrastructure as Code ( Terraform, Ansible ). Compétences pointues en stockage et requêtage ( BigQuery, SQL, HDFS ). Capacité à orchestrer des workflows complexes avec Airflow / Composer . Esprit collaboratif, curieux des évolutions technologiques et doté d'un excellent relationnel.
CDI
Freelance

Offre d'emploi
Développeur FULL STACK - Anglais Bon niveau - Expertise SpringBoot, Kafka, MongoDB - H/F

HELPLINE
Publiée le
Apache Kafka
Mongodb
Springboot

3 ans
40k-45k €
400-550 €
59800, Lille, Hauts-de-France
Développeur FULL STACK - Anglais Bon niveau - Expertise SpringBoot, Kafka, MongoDB - H/F Par défaut Compétences Marcq-en-Barœul, FranceLes employés travaillent en mode hybride Temps plein Description de l'entreprise Et si vous choisissiez plus qu’un simple job ? HELPLINE est spécialisée dans l’infogérance du support utilisateur et la mise en œuvre d’une expérience collaborateur augmentée par l’IA, où l’expertise humaine et la technologie s’enrichissent mutuellement. Ses équipes assurent le support utilisateur, le support applicatif, le support de proximité, la gestion des actifs IT et la GRC (Gouvernance, Risque et Conformité). Sa mission est double : soutenir les besoins opérationnels des DSI et des métiers ; et offrir aux collaborateurs une expérience fluide et fiable, alignée avec les standards des marques grand public. Intervenant en France et dans le monde, HELPLINE compte 2500 collaborateurs au service de plus de 200 clients. Elle affiche un CA de +200 M€ en 2025. HELPLINE fait partie d’Everience, groupe international de conseil et de services numériques augmentés, pionnier de la symbiose Homme-IA en entreprise. Description du poste Vous participerez à la construction et à l’évolution d’un ensemble de micro‑services. Vous interviendrez sur toute la chaîne : conception , développement , supervision , performance et accompagnement au Run . Vos missions : Concevoir et développer des micro‑services performants. Être capable de proposer et de mettre en œuvre des architectures ou logiques spécifiques complexes lorsque nécessaire. Participer au cadrage technique des évolutions et contribuer à la rédaction des documents de conception. Collaborer quotidiennement avec les équipes (PO, BA, développeurs) : compréhension du besoin, revues de code, tests unitaires et intégration. Réaliser les tests d’intégration et participer activement à la validation fonctionnelle. Suivre les mises en production, analyser les comportements en environnement réel et assurer la phase d’hypercare. Assurer la passation de connaissances et accompagner les équipes Run dans la prise en charge des nouveaux services. Contribuer à la cohérence globale des solutions et à l’amélioration continue dans un environnement multi‑équipes. Superviser l’état des micro‑services via Datadog , analyser les alertes et anticiper les dégradations de performance. Qualifications ⭐ Et si on parlait de vous ? Avec au moins + 4 ans d’expérience en développement Java , vous avez déjà démontré votre capacité à intervenir sur des architectures modernes et des environnements exigeants. Votre expertise Maîtrise confirmée de Java (8/11/17) et de l’écosystème Spring , notamment Spring Boot . Très bonne compréhension des architectures micro‑services , de leur découpage et de leurs enjeux (scalabilité, résilience, communication entre services). Patique des API REST , du design d’API et des échanges de données JSON . Compétences avancées en debug Java : analyse de logs, traces, stacktraces, compréhension des flux et outils de supervision. Aisance avec Git et un Git Workflow structuré. Bonne connaissance des chaînes CI/CD (Jenkins, GitLab CI, Azure DevOps). Compréhension des environnements de monitoring / observabilité , idéalement Datadog (métriques, alertes, dashboards). Connaissance des modèles d’échanges inter‑services : APIs, messaging, événements (une expérience Kafka est un vrai plus). À l’aise avec les bases SQL / NoSQL , leurs optimisations et contraintes de performance. Anglais technique , pour la lecture de documentation et des échanges ponctuels.
Freelance

Mission freelance
Expert / LEAD technique Java H/F

LeHibou
Publiée le
Apache Kafka
Apache Maven
Java

1 an
400-550 €
Paris, France
Notre client dans le secteur Banque et finance recherche un/une Expert technique JavaH/F Description de la mission: Expert technique Java Contexte et objectif de la mission L'entreprise souhaite développer une brique applicative permettant d'unifier l'envoi de communications à des contacts pour les applications de son système d'information. Ces communications pourront être diffusées sur différents médias, dans un contexte de très forts pics de charge liés aux besoins métiers. Cette brique comprend : • Des traitements via des conteneurs applicatifs • Une IHM d'administration d'exploitation Dans ce contexte, une équipe est mise en place au sein du pôle centre de contacts afin de construire cette application conformément à l'étude réalisée et aux bonnes pratiques internes. L'équipe sera constituée d'un expert technique Java, d'un développeur senior Java, associés à un développeur junior apprenti. Un pilote projet et un architecte internes complèteront le dispositif à temps partiel. Les projets seront gérés en méthode agile, avec un pilotage interne. Les outils utilisés sont Jira, Confluence et GitLab. Missions principales L'expert technique sera garant de la bonne réalisation technique de la solution et du respect des principes d'architecture définis. Il aura pour responsabilités : • Assurer l'animation technique de l'équipe • Assister les coéquipiers sur les sujets techniques • Travailler en lien avec le chef de projet et l'architecte • Prendre en charge une partie des développements • Consacrer environ 75 % de son temps à la réalisation et 25 % au support des membres de l'équipe Attendus organisationnels Le candidat devra : • Comprendre les attendus techniques et fonctionnels en lien avec l'architecte et le product owner • Faire preuve de savoir-faire et de savoir-être dans l'animation technique de l'équipe : cadrage, diffusion des bonnes pratiques, relecture de code • Structurer et organiser les développements et les tests • Contribuer à la rédaction des user stories • Apporter un support technique aux autres développeurs de l'équipe L'entreprise recherche un profil ouvert, volontaire, favorisant la coopération et la collaboration, souhaitant contribuer activement à la construction d'un collectif.

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

265 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous