Trouvez votre prochaine offre d’emploi ou de mission freelance Apache
Offre d'emploi
Tech Lead Data Engineer – Big Data / Java Spark
Contexte du projet : Dans le cadre d’un vaste programme de transformation digitale, CBX Group accompagne un grand acteur dans la mise en place et l’industrialisation d’une plateforme Big Data. Nous recherchons un Tech Lead Data Engineer expérimenté pour renforcer l’équipe Data et piloter la conception, le développement et la mise en production de traitements batch et temps réel, tout en encadrant les Data Engineers de la squad. Missions principales : Piloter la conception et le développement de pipelines en Spark SQL et Java Spark (batch & streaming). Définir les standards de développement et garantir la qualité technique de la squad (revues de code, bonnes pratiques, CI/CD). Concevoir et optimiser des traitements temps réel (Kafka, MongoDB, event-driven). Accompagner le design des usages Data en lien avec les Product Owners et le métier. Assurer l’optimisation et le tuning des traitements Spark pour garantir performance et scalabilité. Encadrer et coacher les Data Engineers de l’équipe, favoriser le partage de connaissances. Documenter l’architecture et les traitements dans Confluence, assurer le support et la maintenance. Participer aux rituels agiles et contribuer à la roadmap technique de la plateforme. Stack technique : Cloudera / MAPR, Java 11/17/21, Spark 2/3, Spring Boot, Kafka, MongoDB, Jenkins, Kubernetes, ArgoCD, SonarQube ; cloud GCP

Mission freelance
Administrateur Technique plateforme Cloudera
En quelques mots Cherry Pick est à la recherche d'un "Administrateur Technique plateforme Cloudera" pour un client dans le secteur des telecoms Description 🎯 Contexte L’entité Data & AI (230 experts) accompagne Orange Business dans sa transformation autour de la donnée et de l’intelligence artificielle. L’équipe Platform conçoit et maintient les composants techniques qui permettent de démocratiser l’usage de la Data & de l’IA pour les salariés et clients. Au sein de cette équipe, la mission s’inscrit dans le cadre de l’Enterprise Data Hub (EDH), plateforme Big Data B2B d’Orange Business : +180 sources de données intégrées +700 To de données hébergées +100 projets Data supportés Migration et évolution vers le Cloud Azure en cours 🛠️ Missions principales En tant qu’Administrateur Technique Big Data, vous intégrerez l’équipe en charge de l’exploitation et de l’évolution de la plateforme : RUN & Support : gestion opérationnelle de la plateforme Cloudera et des composants Big Data. Déploiement : participation aux déploiements de nouvelles plateformes et environnements. Monitoring & Optimisation : mise en place et suivi des outils de monitoring, tuning des performances. Automatisation : développement de scripts et d’outils pour uniformiser et industrialiser les processus. Documentation & Knowledge sharing : rédaction et mise à jour de la documentation technique. Collaboration internationale : échanges avec des équipes réparties sur plusieurs continents (anglais professionnel).

Offre d'emploi
Développeur backend Java Core Confirmé ou Sénior - Multithreading calculs distribués- Appache Ignite
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins

Offre d'emploi
Ingénieur Support et Développement Plateformes Big Data
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de la maintenance, support et construction des plateformes d'ingestion de données (dont Apache NiFi) et d'une interface REACTJS/Sprintboot exposant des API sur des infrastructures on premise et cloud IBM (VM et Kubernetes). Missions principales Support (MCO/fonctionnement opérationnel des services) et résolution des problèmes N2 et N3 en Production avec analyse des root causes Accompagnement des clients dans l'utilisation des plateformes Création d'offres d'ingestion de données ainsi que leur automatisation et industrialisation Déploiement des plateformes NiFi Administration/sécurisation des clusters et des services applicatifs Upgrade des technologies (life cycle management) et tests associés

Mission freelance
Developpeur Java Struts JSP - Sophia Antipolis
Developpeur Java Struts JSP - Sophia Antipolis Développement/paramétrage applicatif et tests unitaires -- java, struts, JSP Dans le cadre du MCO et des projets à mener sur les différentes offres de services, il est attendu un renfort sur de développement Fullstack Java 8/11 Developpeur Java Développement/paramétrage applicatif et tests unitaires -- java, struts, JSP Dans le cadre du MCO et des projets à mener sur les différentes offres de services, il est attendu un renfort sur de développement Fullstack Java 8/11
Offre d'emploi
Consultant(e) Devops - Ingénieur de production App
Mission – Ingénieur de Production DevOps Nous recherchons un Ingénieur de Production DevOps pour renforcer nos équipes sur une mission longue durée au sein d’un environnement critique et stimulant. 🎯 Vos responsabilités 🔹 Déploiement & Exploitation Assurer la mise en production et l’exploitation des applications critiques Gérer l’obsolescence des serveurs (JBoss, Tomcat, Apache, IHS, HAProxy) 🔹 Automatisation & CI/CD Concevoir, mettre en place et maintenir des pipelines CI/CD Outils : Jenkins, XL Release, XL Deploy, GitLab CI, Ansible, Terraform, Docker 🔹 Supervision & Ordonnancement Gérer et optimiser l’ordonnancement des batchs (VTOM, Control-M) Développer et suivre des dashboards opérationnels (Grafana, Prometheus, ELK, Zabbix) 🔹 Architecture & Sécurité Contribuer à la conception d’architectures robustes Intégrer les pratiques DevSecOps en lien avec les équipes OPS, projets et sécurité 🔹 Suivi & Gestion des incidents Assurer le suivi de production et la gestion des incidents Participer aux astreintes pour garantir disponibilité et performance 🛠️ Votre expertise Serveurs d’applications : JBoss, Tomcat, Apache, IHS Outils DevOps : Jenkins, Kubernetes, OpenShift, GitLab CI, Ansible, Docker, XL Deploy/Release Langages : Python, Shell, YAML ✅ Conditions de la mission 📍 Localisation : Mode hybride (50% télétravail) ⏳ Durée : 3 ans 🚀 Démarrage : ASAP 💼 Contrat : Freelance ou Portage salarial 💰 Rémunération : selon profil Candidature & contact Formulaire en ligne sur la page cbx group : https: // forms/d/e/1FAIpQLSfTFhuwps06soi_ykdqhUtbkW73_2WwxPnKeRnQ1EJPSI6ing /viewform?usp=dialog Ou par mail : contact @ cbx - conseil com 👉 Abonnez-vous à notre page LinkedIn cbxgroup pour suivre toutes nos offres et actualités : 🔗 https: // lnkd "point" in / eJ4CdKnE

Mission freelance
Tech Lead Cloud Data – GCP, Spark, Scala
Notre client, recherche un Tech Lead GCP (H/F) dans le cadre d'une longue mission. Rejoindre une équipe data innovante dans le secteur bancaire pour piloter la mise en œuvre d’une plateforme de traitement de données via datalake, dans un environnement multi-cloud (GCP/Azure). - Récupérer les données issues de sources externes - Exploiter le datalake pour le traitement et la production d’agrégats (journaliers, hebdomadaires, mensuels) - Mettre en œuvre la chaîne complète d'ingestion, validation, croisement et alimentation du datalake - Développer en conformité avec les règles d’architecture définies - Documenter les user stories avec le support du Product Owner - Produire les scripts de déploiement - Gérer la priorisation et la correction des anomalies - Assister les équipes d’exploitation - Participer à la mise en place de la chaîne de delivery continue - Automatiser les tests fonctionnels

Mission freelance
Ingénieur socles et Middlewares
Description : • Prend en charge le maintien en conditions opérationnelles des infrastructures logicielles relatives aux technologies suivantes en environnement systèmes distribués : Systèmes de flux, Ordonnanceurs, Serveurs d'applications, ETL, Middlewares. • Traite les incidents et problèmes pouvant survenir sur les plates-formes. • Fiabilise et optimise le fonctionnement des infrastructures. • Assure la mise en œuvre des solutions de continuité et participe aux tests de back up. • Documente les configurations et rédige les consignes destinées aux supports niveaux 1 et 2. • Assure une veille technologique et contribue aux projets d'évolution de ces infrastructures Contexte / Objectifs : Assurer le niveau 2 et 3 sur le support applicatif aux utilisateurs. Intégrateur applicatif et DEVOPS. Expertises spécifiques : Maitrise des serveurs applicatifs JBOSS, TOMCAT, SPRINGBOOT. Maitrise des outils de déploiement type ANSIBLE. Maitrise des outils APM type APPDYNAMICS.

Mission freelance
Data Engineer / Développeur Data (Azure / Spark / Observabilité) H/F
Contexte de la mission Vous intégrerez une équipe data transverse au sein d’un grand groupe international du secteur du luxe et de la cosmétique, actuellement en pleine modernisation de sa plateforme data. L’objectif : industrialiser et fiabiliser la chaîne de traitement des données dans un environnement cloud Azure, tout en renforçant les volets observabilité, performance et qualité. L’équipe (8 à 10 personnes) est composée de data engineers, data analysts, product owners et DevOps. Le cadre de travail est international, agile et collaboratif, avec une forte culture de la qualité, de la rigueur technique et du partage de connaissances. Missions principales Concevoir, développer et maintenir des pipelines data robustes et scalables sous Azure Databricks et PySpark. Participer à la refonte du Data Lake / Lakehouse (Delta Lake – architecture medaillon : bronze, silver, gold). Mettre en place des mécanismes d’observabilité pour suivre la performance, la fiabilité et la qualité des données : logs, métriques, alertes, dashboards. Automatiser et industrialiser les déploiements via CI/CD (GitHub Actions ou Azure DevOps). Collaborer avec les équipes produit et data science pour assurer la cohérence fonctionnelle et technique des flux. Améliorer la data quality et la traçabilité (lineage, monitoring, règles de validation). Participer aux revues de code, à la documentation technique et à la diffusion des bonnes pratiques. Environnement technique Cloud : Azure (Data Lake, Data Factory, Databricks, Synapse, Functions, Event Hub, DevOps) Langages : Python, PySpark, SQL (et idéalement Scala) Orchestration / ETL : Airflow, ADF, Spark Structured Streaming Observabilité : Grafana, ELK Stack (Elasticsearch / Logstash / Kibana), Azure Log Analytics Data Lakehouse : Delta Lake, Unity Catalog, Medallion Architecture CI/CD & DevOps : GitHub Actions / Azure DevOps, Terraform, Docker, Kubernetes

Offre d'emploi
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS
Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support.

Mission freelance
FREELANCE – Data Engineer Spark/Scala (H/F)
Nous constituons un vivier de freelances spécialisés en data engineering pour anticiper les besoins de nos clients sur des projets Big Data et Cloud. Nous recherchons des Data Engineers expérimentés sur Spark et Scala, capables d’intervenir rapidement sur des missions à Nantes et Rennes, dans des contextes variés (banque/assurance, industrie, retail, services). En tant que Data Engineer Spark / Scala, vos missions pourront inclure : Conception et développement de pipelines de données : ingestion, transformation, nettoyage et enrichissement de données massives. Développement d’applications distribuées avec Apache Spark (Batch et Streaming) en Scala. Industrialisation des traitements Big Data : optimisation des performances, gestion des volumes importants, parallélisation. Mise en place d’architectures data : Data Lake, Data Warehouse, solutions temps réel. Intégration Cloud : déploiement et utilisation des services Big Data sur AWS, Azure ou GCP (EMR, Databricks, Synapse, BigQuery, etc.). Tests, qualité et fiabilité : mise en place de bonnes pratiques de développement (CI/CD, tests unitaires et fonctionnels). Sécurité et conformité : respect des normes RGPD et bonnes pratiques de gouvernance des données. Documentation et partage : rédaction des spécifications techniques, bonnes pratiques et transmission de compétences aux équipes internes. Collaboration transverse : travail étroit avec les Data Scientists, Data Analysts, Product Owners et Architectes pour répondre aux besoins métiers.

Mission freelance
Tech Lead (Cloud / Symfony / Next.js / Kafka)
CONTEXTE: EXperience : 7 ans et plus Métiers Fonctions : Etudes & Développement, Développeurs Spécialités technologiques : Back-End ;Front-End, Cloud, APIs Base de données Description et livrables de la prestation Nous sommes à la recherche pour un de nos clients d'un Tech Lead pour superviser une équipe de développeurs et se placer en tant que bras droit du responsable projet. Contexte : Coordination de la communication entre APIs de plusieurs équipes Nous recherchons un profil ayant une posture très affirmée, un excellent niveau de discours et un français impeccable. Expertise souhaitée Le cahier des charges : - Cloud : AWS avec stockage S3 - Base de données : PostgreSQL - API : Symfony 6/7 avec API Platform - Back-for-front : NestJS pour servir le front - Front-end : Next.js (React) - OS : Ubuntu LTS (maîtrise CLI/Linux requise) - Service Mesh : Istio/Linkerd - Event bus : Kafka (migration RabbitMQ → Kafka)

Mission freelance
Tech Lead Data Engineer - Secteur Retail - IDF (H/F)
Contexte du poste Rejoignez notre Centre d'Excellence Digital au sein d'une entreprise leader dans le secteur de la distribution. Basée à Chatillon, notre équipe est à la pointe de la transformation numérique, en particulier sur les projets de données et d'analytics visant à optimiser les performances commerciales de nos points de vente. Dans un contexte d'industrialisation accélérée et d'organisation agile, nous recherchons un Tech Lead Data Engineer pour renforcer notre équipe Data Lab. Votre rôle est crucial dans des projets ambitieux destinés à concevoir et déployer des produits analytiques innovants pour l'ensemble des fonctions métiers. Ce poste est à pourvoir dans une optique de prolonger notre croissance et d'accompagner notre transformation digitale. Missions Principales Missions : Assurer un leadership technique auprès des équipes de développement et coordonner les activités autour de Databricks, Spark et Azure. Conseiller et accompagner les parties prenantes dans la traduction des exigences stratégiques en solutions techniques sécurisées, scalables et fiables. Réaliser la conception technique des applications, des échanges et garantir la qualité des livrables tout en veillant à réduire la dette technique. Faire de la veille technologique et participer activement aux proof-of-concepts (POCs). Missions Annexes : Enrichir la communauté Data Engineers via le partage de connaissances. Participer aux phases de développement et aux tests des solutions.
Offre d'emploi
QA Technico-Fonctionnel API (H/F)
Dans le cadre d’une mission pour l’un de nos clients grands comptes du secteur bancaire, nous sommes à la recherche d’un QA technico-fonctionnel . 🎯 Vos missions : Participer à la validation fonctionnelle et technique des développements dans un environnement orienté microservices. Concevoir, exécuter et maintenir des tests de bout en bout, incluant la gestion des flux événementiels via Kafka. Vérifier la bonne communication entre les microservices et les systèmes externes (API, flux XML). Collaborer étroitement avec les équipes produit et techniques dans un cadre agile pour garantir la qualité des livrables.

Offre d'emploi
Développeur Java/Springboot/ Kafka
Contexte de la mission Concepteur développeur : Ingénieur avec 4 années d'expériences en développement d’application JAVA 8+ & Spring boot en entreprise. Le développeur/la développeuse travaillera sur le périmètre Supply Material & Planning du client (secteur retail). Actuellement, +50 personnes aux profils variés travaillent sur des applications de ce périmètre pour garantir son bon fonctionnement quotidien et garantir des applications stables aux métiers de la Supply Chain. Ces personnes sont donc responsables du RUN de l’application. Elle est principalement utilisée par des collaborateurs et fournisseurs externes (~1500 personnes au total) dans tous les pays où le client est implanté. Notre équipe s'anime autour d'une méthodologie agile: Approche Kanban Revue de code avant chaque mise en production en binôme Points agiles quotidiens Des releases autant de fois que nécessaires, à minima 1 par semaine Daily, Refinement, Rétrospectives Support tournant parmi les développeurs de l'équipe (Runboy) Objectifs et livrables > Développeur au sein d’une équipe pluridisciplinaire, son activité s'articule autour des évolutions, des correctifs de bugs et des analyses d’incidents. Il/elle aura notamment pour objectifs : Apporter son expertise en cas de dysfonctionnements sur nos environnements, y compris en production Effectuer un retro-engineering sur le code existant afin de ressortir les règles fonctionnelles existantes Développement des JIRA/issues. Optimisation du code existant au travers des issues à traiter Participer aux tests des livrables accompagnés des QA Etre capable de concevoir une architecture pour répondre à une problématique si besoin Etre acteur de la méthodologie agile Réalisation de corrections/évolutions avec analyse d’impacts détaillée. Mise à jour de la documentation associée Participation à la rédaction des besoins et spécifications, en collaboration avec les PO / supports fonctionnels Identification et formalisation des corrections à effectuer à partir d’un problème donné sur nos différents environnements Estimation de la charge nécessaire pour un développement Garant de la qualité de ses livrables : Analyse SonarCloud OK, optimisation du nombre de requêtes exécutées, optimisation de la consommation mémoire/CPU, … Le développeur étant pleinement autonome pour accomplir sa mission, des responsabilités pourront également lui être confiées en dehors de sa mission standard de développement (contact direct avec des utilisateurs, échanges avec d'autres équipes, implication dans les projets de transformation...). Des connaissances solides des langages de programmation Java et SQL ainsi que des outils de développement IntelliJ, Sonar, Maven, Git et Jenkins sont nécessaires. Une expérience sur le framework Struts est un plus. L'environnement SI étant en pleine transformation, notre application XXX est également au coeur de cette transformation. Ainsi nous utilisons également au sein de nos équipes des technologies comme Kafka et Spring boot déployées avec Kubernetes pour transformer notre application module par module. Il/Elle aura donc également pour responsabilité de nous accompagner sur cette transformation. C’est pourquoi des connaissances solides sur Spring boot sont attendues. Des connaissances sur Kafka sont également attendues. La répartition dans notre workload actuel est d'environ 60% de développements sur nos micro-services, 40% sur notre legacy (en incluant les devs permettant de faire cohabiter ces micro-services et ce legacy). Connaissance de l’anglais (parlé et écrit) nécessaire au vu du contexte international de la mission. Celle-ci se déroule à Lille, il est nécessaire que le collaborateur vienne sur site 3 jours par semaine. Compétences demandées Compétences Niveau de compétence Apache Kafka Avancé JAVA Confirmé Apache Struts Élémentaire Spring Boot Confirmé Docker Kubernetes Avancé

Mission freelance
FREELANCE – Data Engineer Spark/Scala (H/F)
Nous constituons un vivier de freelances spécialisés en data engineering pour anticiper les besoins de nos clients sur des projets Big Data et Cloud. Nous recherchons des Data Engineers expérimentés sur Spark et Scala, capables d’intervenir rapidement sur des missions à Nantes et Rennes, dans des contextes variés (banque/assurance, industrie, retail, services). En tant que Data Engineer Spark / Scala, vos missions pourront inclure : Conception et développement de pipelines de données : ingestion, transformation, nettoyage et enrichissement de données massives. Développement d’applications distribuées avec Apache Spark (Batch et Streaming) en Scala. Industrialisation des traitements Big Data : optimisation des performances, gestion des volumes importants, parallélisation. Mise en place d’architectures data : Data Lake, Data Warehouse, solutions temps réel. Intégration Cloud : déploiement et utilisation des services Big Data sur AWS, Azure ou GCP (EMR, Databricks, Synapse, BigQuery, etc.). Tests, qualité et fiabilité : mise en place de bonnes pratiques de développement (CI/CD, tests unitaires et fonctionnels). Sécurité et conformité : respect des normes RGPD et bonnes pratiques de gouvernance des données. Documentation et partage : rédaction des spécifications techniques, bonnes pratiques et transmission de compétences aux équipes internes. Collaboration transverse : travail étroit avec les Data Scientists, Data Analysts, Product Owners et Architectes pour répondre aux besoins métiers.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Apache
Administrateur·rice système Unix (linux...)
L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.
Explorez les offres d'emploi ou de mission freelance pour Administrateur·rice système Unix (linux...) .
Découvrir les offresIngénieur·e systèmes & réseaux
L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offresIngénieur·e d'exploitation
L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e d'exploitation .
Découvrir les offresResponsable des infrastructures et de la production
Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offres