Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 292 résultats.
Freelance

Mission freelance
Tech Lead (Cloud / Symfony / Next.js / Kafka)

KEONI CONSULTING
Publiée le
Apache Kafka

18 mois
100-500 €
Paris, France

CONTEXTE: EXperience : 7 ans et plus Métiers Fonctions : Etudes & Développement, Développeurs Spécialités technologiques : Back-End ;Front-End, Cloud, APIs Base de données Description et livrables de la prestation Nous sommes à la recherche pour un de nos clients d'un Tech Lead pour superviser une équipe de développeurs et se placer en tant que bras droit du responsable projet. Contexte : Coordination de la communication entre APIs de plusieurs équipes Nous recherchons un profil ayant une posture très affirmée, un excellent niveau de discours et un français impeccable. Expertise souhaitée Le cahier des charges : - Cloud : AWS avec stockage S3 - Base de données : PostgreSQL - API : Symfony 6/7 avec API Platform - Back-for-front : NestJS pour servir le front - Front-end : Next.js (React) - OS : Ubuntu LTS (maîtrise CLI/Linux requise) - Service Mesh : Istio/Linkerd - Event bus : Kafka (migration RabbitMQ → Kafka)

Freelance
CDI

Offre d'emploi
QA Technico-Fonctionnel API (H/F)

Byrongroup
Publiée le
Apache Kafka
API
Postman

6 mois
40k-45k €
100-550 €
Neuilly-sur-Seine, Île-de-France

Dans le cadre d’une mission pour l’un de nos clients grands comptes du secteur bancaire, nous sommes à la recherche d’un QA technico-fonctionnel . 🎯 Vos missions : Participer à la validation fonctionnelle et technique des développements dans un environnement orienté microservices. Concevoir, exécuter et maintenir des tests de bout en bout, incluant la gestion des flux événementiels via Kafka. Vérifier la bonne communication entre les microservices et les systèmes externes (API, flux XML). Collaborer étroitement avec les équipes produit et techniques dans un cadre agile pour garantir la qualité des livrables.

Freelance

Mission freelance
FREELANCE – Data Engineer Spark/Scala (H/F)

Jane Hope
Publiée le
Apache Spark
Scala

3 mois
400-550 €
Rennes, Bretagne

Nous constituons un vivier de freelances spécialisés en data engineering pour anticiper les besoins de nos clients sur des projets Big Data et Cloud. Nous recherchons des Data Engineers expérimentés sur Spark et Scala, capables d’intervenir rapidement sur des missions à Nantes et Rennes, dans des contextes variés (banque/assurance, industrie, retail, services). En tant que Data Engineer Spark / Scala, vos missions pourront inclure : Conception et développement de pipelines de données : ingestion, transformation, nettoyage et enrichissement de données massives. Développement d’applications distribuées avec Apache Spark (Batch et Streaming) en Scala. Industrialisation des traitements Big Data : optimisation des performances, gestion des volumes importants, parallélisation. Mise en place d’architectures data : Data Lake, Data Warehouse, solutions temps réel. Intégration Cloud : déploiement et utilisation des services Big Data sur AWS, Azure ou GCP (EMR, Databricks, Synapse, BigQuery, etc.). Tests, qualité et fiabilité : mise en place de bonnes pratiques de développement (CI/CD, tests unitaires et fonctionnels). Sécurité et conformité : respect des normes RGPD et bonnes pratiques de gouvernance des données. Documentation et partage : rédaction des spécifications techniques, bonnes pratiques et transmission de compétences aux équipes internes. Collaboration transverse : travail étroit avec les Data Scientists, Data Analysts, Product Owners et Architectes pour répondre aux besoins métiers.

Freelance
CDI

Offre d'emploi
DevOps Kubernetes Engineer / SRE

KLETA
Publiée le
Apache Airflow
Apache Kafka
CI/CD

3 ans
Paris, France

Au sein d’une équipe d'expertise, vous intervenez en tant que DevOps / SRE Platform sur l'évolution et la maintenance d’une plateforme moderne orientée Big Data & Streaming. L’objectif est d’assurer la fiabilité, l’évolutivité et la sécurité de l’écosystème technique basé sur Kubernetes, Kafka et GCP. Responsabilités principales Migration Cloud & Conteneurs : Migration des composants depuis l’IaaS vers Google Cloud Platform (services managés) et Kubernetes (GKE). Administration Kubernetes & Operators : Gestion et maintenance de clusters Kubernetes (GKE) et déploiement des opérateurs critiques. Data Streaming & Kafka : Maintien de la plateforme Streaming temps réel basée sur Kafka. Orchestration & Pipelines : Administration du Cloud Composer (Airflow) et mise en place de pipelines d’ingestion de données. Infrastructure as Code & Sécurité : Déploiement d’infrastructures via Terraform, gestion du patch management et renforcement de la sécurité des composants. CI/CD & Automatisation : Maintenance et optimisation des pipelines CI/CD (Jenkins, GitLab-CI) et contribution à l’industrialisation des déploiements. Observabilité & Fiabilité : Mise en place et suivi du monitoring (Prometheus, Grafana), gestion proactive des incidents et amélioration continue de la disponibilité des services. Innovation & Support : Réalisation de POC sur de nouvelles technologies, support technique aux équipes de développement et accompagnement des équipes RUN.

Freelance

Mission freelance
Chef de Projet Intégration et Flux Confirmé - Transformation Digitale Retail - IDF (H/F)

EASY PARTNER
Publiée le
Apache Kafka
Boomi
Gestion de projet

3 mois
500-550 €
Paris, France

Contexte du poste Notre entreprise, acteur majeur dans le secteur de la distribution, entreprend une transformation digitale ambitieuse pour renforcer son offre omnicanale. Vous rejoindrez notre Département des Systèmes d'Information, plus précisément le pôle « Encaissement et Promotion » du domaine « Encaissement et Monétique ». Au cœur de notre programme, votre mission sera de piloter l'intégration de notre nouvelle solution d'encaissement dans notre système d'information. Notre objectif est de maximiser l'efficacité et l'innovation au service de nos milliers de points de vente. Nous cherchons un Chef de Projet Intégration et Flux Confirmé pour avancer ensemble vers cet avenir prometteur. Missions - Piloter l'intégration de la solution cible dans le SI via des interfaces en temps réel ou différé. - Coordonner les travaux avec le responsable API et les équipes concernées. - Gérer le suivi budgétaire des opérations du projet. - Superviser la validation des contrats d'interfaces et l'adaptation des patterns d'intégration. - Mettre en place la supervision proactive des flux. - Préparer et animer les comités de pilotage et assurer un reporting précis au comité de projet NEMO.

CDI

Offre d'emploi
CHEF DE PROJET TECHNIQUE GED

INFOGENE
Publiée le
Ansible
Apache Spark
Apache Tomcat

55k-75k €
Boulogne-Billancourt, Île-de-France

Description du poste: • Il intervient sur les aspects techniques du projet en lien avec le Directeur de Projet • Il procède aux demandes de ressources matérielles nécessaires au déroulement du projet • Il déploie les solutions de SAE sur les ressources mises à disposition par les équipes Infrastructures • Il assure une communication fluide entre les membres de l’équipe projet, l'équipe infrastructure et l'équipe exploitation • Il assure la rédaction de la documentation nécessaire à l'équipe exploitation pour garantir une transition en douceur vers la mise en exploitation • Il procède à l'analyse technique des incidents sur les différents environnements menant à leur résolution • Il collabore avec l'équipe architecture pour s’assurer que les solutions proposées sont conformes aux objectifs du projet • Il doit s'assurer du respect des normes de sécurité du groupe applicable à l'ensemble des prestations

Freelance

Mission freelance
Data Engineer GCP / Hadoop – Pipelines de données & DatOps

CAT-AMANIA
Publiée le
Agile Scrum
Apache Hive
Apache Spark

6 mois
380-440 €
Île-de-France, France

Nous recherchons un Data Engineer expérimenté pour rejoindre une équipe projet au sein d’un département IT Groupe. Le poste consiste principalement à intervenir sur un projet DatOps basé sur GCP , et secondairement sur la mise en place d’une plateforme data sur Hadoop. Vos missions : Mettre en place et maintenir des pipelines de données (ingestion, préparation, transformation). Faire évoluer les outils de gestion et d’automatisation des flux de données. Collaborer avec les équipes DevOps pour les évolutions de la plateforme. Participer activement aux rituels agiles et contribuer à l’amélioration continue.

Freelance

Mission freelance
Data Engineer SPARK PYTHON Confirmé (F/H) - TOURS

Espace Freelance
Publiée le
Java

3 mois
400-510 €
Tours, Centre-Val de Loire

REF : EFP/DEC/326328 Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Data Engineer Confirmé (F/H) Mission à pourvoir en régie à Tours Présence sur site hybride Le consultant devra être en mesure d’assurer les missions suivantes : · Participer à l’élaboration du design technique des produits logiciels · Faciliter la recherche de solutions techniques adaptées · Prendre en charge une partie des développements · Accompagner les autres développeurs (coaching, optimisation de code) · Collaborer avec l’architecte data pour l’intégration des produits dans le SI · Garantir la qualité des produits logiciels · Accompagner les directions métiers dans la réalisation de leurs cas d’usage data

Freelance
CDI

Offre d'emploi
Concepteur Développeur Data (Lille : Villeneuve-d'Ascq)

Atlanse
Publiée le
Apache Airflow
BigQuery
Data Lake

3 ans
40k-45k €
400-550 €
Villeneuve-d'Ascq, Hauts-de-France

Vous rejoindrez une équipe pluridisciplinaire de 6 personnes (Data Engineer, DevSecFinOps). Vous travaillerez sur un use case dédié en collaboration avec les équipes Data et vous adopterez une approche FinOps visant à maîtriser et réduire les coûts. Votre rôle BUILD – Développement Participer aux projets data Supply en tant qu’interlocuteur.trice clé Concevoir des solutions en respectant les normes et framework data Développer et modéliser sous la gouvernance de l'architecture data Contribuer au développement d'applications Réaliser les tests Produire les reportings RUN – Maintien en condition opérationnelle Assurer le maintien en condition opérationnelle des 4 référentiels de données opérationnels (RDO) multi sourceurs et de 15 applications) Gérer les incidents et proposer des solutions correctives Mettre en production (via Git) Suivre les flux EXPERTISE Développer votre expertise sur le système d’information et la Supply Proposer des améliorations techniques et des optimisations Partager vos connaissances et bonnes pratiques

CDI

Offre d'emploi
Data Scientist Assurance

REDLAB
Publiée le
Apache Airflow
Docker
Pandas

40k-45k €
Paris, France

Dans le cadre d’un projet stratégique pour un grand acteur de l’assurance, nous renforçons notre équipe Data au sein du DataLab Groupe . Vous interviendrez sur des projets innovants de Data Science, de la R&D jusqu’à l’ industrialisation de modèles ML , avec un fort impact métier sur la lutte anti-fraude, la maîtrise des risques climatiques et la prévention des sinistres graves. Profil recherché 5+ ans d’expérience en Data Science , avec projets menés jusqu’à l’industrialisation. Forte capacité à encadrer, challenger et vulgariser auprès des équipes. Expérience en conduite du changement et interaction avec des utilisateurs métiers. Une curiosité et une veille active sur les nouvelles approches ML/IA.

Freelance

Mission freelance
QA technico-Fonctionnel ( H/F)

ALLEGIS GROUP
Publiée le
Apache Kafka
JIRA

3 mois
270-550 €
Issy-les-Moulineaux, Île-de-France

Notre client recherche un(e) QA Engineer technico-fonctionnel(le) expérimenté(e), avec un bon bagage technique. Vous serez garant(e) de la mise en place des standards qualité, des méthodes et des outils nécessaires pour assurer des livrables de qualité au sein d’un environnement produit global. Missions Fonctionnelles Avoir au moins 5 ans d’expérience dans le domaine de la facturation (tests). Définir une stratégie de tests orientée qualité, incluant l’automatisation, afin d’améliorer la rapidité et la fiabilité des tests. Participer aux séances de grooming (user stories / tech stories). Poser les questions et demander les clarifications nécessaires lors des ateliers. Préparer un plan de tests (incluant E2E et tests négatifs). Préparer les jeux de données nécessaires aux tests. Valider le plan de tests avec les parties prenantes (PO, Lead Tech, équipes pays). Exécuter les tests dans le cadre du sprint et documenter les résultats dans TestRail. Remonter les anomalies dans Jira et suivre leur résolution. Contribuer aux critères de qualité des releases et aux décisions Go/No-Go. Participer aux tests en environnement STA, PRD Beta et smoke tests. Assurer le reporting QA quotidien/hebdomadaire pendant les phases de tests. Non-fonctionnelles Expérience en tests de performance et suivi des incidents de performance jusqu’à leur clôture.

CDI

Offre d'emploi
Dév Java / Kafka (anglais)

AVALIANCE
Publiée le
Apache Kafka
Architecture
Java

40k-65k €
Paris, France

Contexte : renfort, en intervention sur un programme dans le domaine des paiements ; Compétences techniques requises (at least) : Expertise dans le développement backend Java ; Expertise Kafka ; Anglais : obligatoires / niveau courant écrit et oral demandé : échanges en anglais au quotidien avec des équipes externes notamment les Banques en Espagne, Italie, Allemagne... (les échanges sont en français au sein de l'équipe) ; Very 'Nice to have" : Compétences techniques qui feront la différence (en plus de Java et Kafka) : architectures hautement distribuées, résilience, scalabilité, haute disponibilité... ; expérience dans l'Agilité ; expérience bancaire (idéalement dans les paiements mais ce point n'est pas obligatoire) ; Une expérience dans le settlement serait un vrai plus. Soft skills (at least) : autonomie, rigueur, esprit d'équipe, très bonne communication, bonnes capacités rédactionnelles, reporting adapté... ;

Freelance

Mission freelance
Data Analytics Engineer *ServiceNow/Snowflake*

Trait d'Union Consulting
Publiée le
Apache Airflow
DBT
ServiceNow

6 mois
500-550 €
Issy-les-Moulineaux, Île-de-France

Dans le cadre du renforcement des capacités analytiques autour des processus ITSM, nous recherchons un consultant Data Analytics Engineer autonome. Vous interviendrez sur la mise en œuvre de la connectivité entre ServiceNow et Snowflake , afin d’exploiter les données ITSM (incidents, demandes, changements, problèmes…) et d’alimenter des cas d’usage analytiques pour plusieurs départements internes (IT, qualité, gouvernance, opérations…). Missions principales Établir et sécuriser la connexion technique entre ServiceNow ITSM et Snowflake. Extraire et charger les données des modules ITSM (Request, Incident, Change, Problem Management). Concevoir une pipeline automatisée d’ingestion (batch ou incrémentale). Structurer les données dans Snowflake (logique modulaire, réutilisable, exploitable). Mettre en place des métadonnées, logiques de rafraîchissement et suivi de qualité. Documenter pipeline, schémas de données et points de reprise. Environnement technique Source : ServiceNow ITSM (REST API, exports planifiés) Destination : Snowflake Orchestration : Airflow (ou équivalent) Transformation : DBT Core / SQL Modélisation : DrawIO ou équivalent Visualisation : Tableau CI/CD & versioning : GitLab Documentation : Confluence, Jira

Freelance
CDI

Offre d'emploi
Data Engineer Pyspark/Dagster

VISIAN
Publiée le
Apache Spark
PySpark
Python

2 ans
40k-79k €
400-650 €
Paris, France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Pyspark/Dagster Mission: Architecture : Définition de l’organisation du Lakehouse dans le S3 Chargement : Remplacement des pipelines Informatica par des pipelines spark, pyspark et python Ordonnancement : Remplacement du DAC de OBIEE par Dagster Restitution : Création de rapports sur Apache SuperSet sur la base du LakeHouse Les principales missions à mener sont : - Description des fonctionnements existants et des besoins couverts, - Développement d’une solution de collecte de données, - Développement d’un système de stockage de la donnée, - Réalisation de tests unitaires, - Mise en place d’un suivi des traitements, - Assistance à la recette par la MOA / les utilisateurs. Si vous êtes actuellement à l'écoute du marché, n'hésitez pas à m'envoyer votre candidature. Bien à vous, Nadia

Freelance

Mission freelance
Développeur Fullstack - React JS, Django, solR

KEONI CONSULTING
Publiée le
Django
Full stack

18 mois
100-400 €
Paris, France

CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Fullstack Spécialités technologiques : Fullstack MISSIONS Enjeux de la mission : - Renforcer l’équipe sur les développements composée uniquement d'internes - Revoir la gestion documentaire - Faire des propositions pour fiabiliser l’application et faciliter sa maintenance Activités : 1. - 60% de l’activité : - Revoir la gestion documentaire du projet : audit, bonnes pratiques, enrichissements ; - Rétro documenter si besoin ; - Participer à la rédaction de la documentation technique. 2. - 40% de l’activité : - Concevoir et réaliser des améliorations fonctionnelles demandées par l’équipe EDS ainsi que les équipes souhaitant accéder aux données de l’EDS ; - Constituer le dossier de recette technique (tests unitaires et documentation) ; - Développer des tests unitaires et fonctionnels ; - Intervenir dans le cadre d’un groupe de travail pour la définition des nouvelles fonctionnalités ainsi que leur validation ; - Assistance à la mise en œuvre, la sécurisation et à la maintenance en conditions opérationnelles de l’outil développé ; - Résorber la dette technique. Livrables : - Participation à la finalisation de plusieurs Dossiers d’Architecture Technique (DAT) pour une mise en conformité avec la certification HDS - DST - DEX - Cahier de tests - Toutes autre documentation nécessaire - Code source

CDI
Freelance

Offre d'emploi
Kafka & EventStream Expert

Halian
Publiée le
Apache Kafka
Openshift

5 ans
Strasbourg, Grand Est

Suite à une récente mise à niveau vers la version 4.14 de la plateforme OpenShift Container Platform (OCP), une application présente un comportement inattendu. Nous recherchons en urgence un consultant possédant une expertise approfondie en Kafka et EventStream afin d’aider à diagnostiquer et résoudre ces problèmes. Responsabilités : Analyser et résoudre les dysfonctionnements de l’application après la migration vers OCP 4.14. Identifier et corriger les anomalies liées à Kafka/EventStream. Collaborer avec les équipes internes pour stabiliser l’application. Fournir des recommandations pour pérenniser l’intégration. Compétences requises : Expérience avérée avec les technologies Apache Kafka et EventStream. Solide compréhension des environnements conteneurisés, en particulier OCP 4.x. Capacité à travailler de manière autonome et à livrer des résultats rapidement. Excellentes compétences en communication et en documentation. Atouts : Expérience préalable avec des problèmes similaires post-migration. Familiarité avec les systèmes de messagerie de niveau entreprise.

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

292 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous