Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 257 résultats.
Freelance

Mission freelance
Fiche de poste – Data Engineer (Snowflake / DBT / Airflow / AWS)

Tenth Revolution Group
Publiée le
Apache Airflow
DBT
Snowflake

6 mois
480-600 €
Île-de-France, France
Contexte : Je recherche plusieurs Data Engineers pour un client final, dans le cadre de missions urgentes. Ces postes sont à pourvoir rapidement et nécessitent une expertise technique pointue. Intitulé du poste : Data Engineer – Snowflake / DBT / Airflow / AWS Missions principales : Concevoir, développer et maintenir des pipelines de données fiables et performants. Participer à l’architecture et à l’optimisation des solutions Cloud. Collaborer avec les équipes Data et les équipes métiers pour assurer la qualité des données et des flux. Mettre en place les bonnes pratiques DataOps et CI/CD pour les pipelines de données. Assurer le monitoring, la sécurité et l’optimisation des coûts des infrastructures cloud.
Freelance

Mission freelance
Pilote WMS

HAYS France
Publiée le
Apache Kafka
WMS (Warehouse Management System)

3 ans
100-450 €
Lille, Hauts-de-France
Responsabilité du contenu technique du projet Définir la conception technique et rédiger les spécifications techniques détaillées . Contribuer aux choix de solutions/progiciels en lien avec la MOA. Participer au développement et à l’intégration. Définir les plans de tests et participer aux recettes . 2. Conduite du projet Organiser, coordonner et animer l’équipe de maîtrise d’œuvre. Arbitrer les points de blocage entre intervenants. Superviser le déroulement du projet et garantir la qualité des validations. Assurer la communication interne MOE. Gérer la relation avec les fournisseurs de la signature à la validation finale. 3. Déploiement et accompagnement Déployer la nouvelle application ou service dans les entrepôts. Organiser la maintenance et le support utilisateur. Participer à la formation des équipes. Assurer le suivi post-déploiement. 4. Garant de la triple contrainte (Qualité – Coût – Délai) Garantir le respect du cahier des charges, des délais et des coûts. Proposer des ajustements d’objectifs si nécessaire (qualité, coût, délai).
Freelance

Mission freelance
Data Engineer/Architect Apache Iceberg (Marseille 3j)

Cherry Pick
Publiée le
Apache
Google Cloud Platform (GCP)
Python

6 mois
600-620 €
Marseille, Provence-Alpes-Côte d'Azur
En quelques mots Cherry Pick est à la recherche d'un Data Engineer/Architect(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine de la fabrication et la commercialisation des drones. Description 🧭 Contexte de la mission Dans un contexte de forte croissance des usages data autour de données issues de capteurs drones , la mission vise à concevoir et structurer une plateforme data internalisée , capable d’absorber des volumes importants de données hétérogènes (temps réel et batch), tout en répondant à des enjeux de sensibilité des données clients et de maintenance prédictive . 🛠️ Missions principales et rôle Concevoir et mettre en place un Data Lake basé sur une architecture médaillon (Bronze / Silver / Gold) Gérer l’ingestion et le stockage de données capteurs drones et de données tabulaires Mettre en œuvre une architecture data basée sur Apache Iceberg Garantir la disponibilité rapide des données après les vols d’essai Participer à la conception d’une brique data autonome , isolable pour les cas de données sensibles clients Contribuer à l’ internalisation de la plateforme data Traiter des pics de charge importants (jusqu’à 10 Go de données arrivant simultanément) Collaborer avec les équipes plateforme et data science sur les cas d’usage de maintenance prédictive 🎯 Objectifs Centraliser et fiabiliser les données drones dans un Data Lake scalable et robuste Permettre une exploitation rapide des données post-vol Sécuriser et isoler certaines données selon les contraintes clients Préparer les données pour des usages avancés (analytique, maintenance prédictive)
Freelance

Mission freelance
Data Engineer Kafka/JAVA

ALLEGIS GROUP
Publiée le
Apache Kafka
Java
Spark Streaming

4 mois
Paris, France
TEKsystems recherche pour le compte de son client dans le secteur de l'assurance : Un data engineer Spark/ JAVA (H/F) Missions : La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs. Contexte: Réalisation des projets Data et de MCO des patrimoines applicatifs Data du Groupe. Cette prestation s'inscrit dans la squad « Restitution Règlementaires » qui a en charge la constitution des déclaratifs à destination des organismes de tutelle Les principaux déclaratifs concernés sont les suivants : • FICOVIE • EAI / FATCA • IER • ECKERT •AGIRA / RNIPP Les déclaratifs sont constitués à partir de 2 sources : Décisionnel et Plateforme Data en big Data. La mission sera focalisée sur le déclaratif FICOVIE dans un premier temps puis pourra s'élargir aux autres déclaratifs.
Freelance
CDI

Offre d'emploi
Developpeur Python/MLOPS

VISIAN
Publiée le
Apache Airflow
Deep Learning
FastAPI

2 ans
51k-101k €
400-700 €
Paris, France
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Développeur Python/MLOPS Tâches: Développer et optimiser des API (REST) en Python (FastAPI). Concevoir et maintenir des bases de données (PostgreSQL principalement) pour des requêtes performantes. Collaborer avec les équipes DevOps pour automatiser les déploiements (Docker, CI/CD). Intégrer des tests automatisés (pytest) et participer aux revues de code. Contribuer à l’amélioration continue de l’architecture back-end. Assurer la maintenance de la stack d’outils de l’équipe et notamment : Participer à rendre les algorithme IA compatible d’architecture GPU blackwell Mettre à jour les dépendances de note codebase (python, CUDA) Participer au développement de nos outils de MLOps en général
Freelance
CDI

Offre d'emploi
Développeur Big Data Spark/Scala (F/H)

CELAD
Publiée le
Agile Scrum
Apache Kafka
Apache Spark

12 mois
40k-55k €
430-600 €
Montreuil, Île-de-France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Développeur Big Data Spark/Scala pour intervenir chez un de nos clients du secteur bancaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Étudier et concevoir techniquement les batchs de traitement de données - Développer en Scala/Spark pour des traitements volumineux - Récupérer, transformer, enrichir et restituer les données - Créer et gérer des batchs de publication Kafka - Participer à la maintenance de la chaîne CI/CD (Jenkins, Gitflow) - Collaborer avec les Business Analysts pour garantir qualité et lisibilité des libellés - Gérer certains sujets de manière autonome : reporting, suivi, coordination
Freelance

Mission freelance
Data Engineer Spark / Java / GCP (F/H)

CELAD
Publiée le

1 an
550-570 €
Écully, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Lyon - Expérience de 5 ans minimum Envie de travailler sur un projet data stratégique à fort impact métier ? Dans le cadre d’un grand groupe français du secteur assurance / services financiers, nous recherchons un.e Data Engineer Spark / Java / GCP pour intervenir sur un projet stratégique de gestion des risques climatiques. Voici un aperçu détaillé de vos missions : En lien étroit avec les équipes IT et métiers du client ainsi que l’intégrateur, vous interviendrez sur l’ensemble de la chaîne projet : - Analyse et compréhension des modèles de calcul actuariels - Participation à la conception technique des solutions data - Développement de traitements Spark Java avec intégration de librairies géospatiales - Industrialisation des pipelines de données - Déploiement et exploitation sur Google Cloud Platform - Rédaction de la documentation technique et fonctionnelle - Accompagnement des équipes internes (montée en compétence Spark / Java) - Anticipation des phases de RUN - Reporting projet auprès du chef de projet
Freelance
CDD

Offre d'emploi
Ingénieur de Production (H/F)

CONCRETIO SERVICES
Publiée le
Apache Tomcat
Jboss
Production

1 an
50k-55k €
350-400 €
Gironde, France
Le poste est orienté production classique et industrialisée , avec une forte dimension coordination, fiabilité et continuité de service . Il ne s’agit ni d’un rôle de développement, ni d’un poste DevOps moderne. VOS MISSIONS PRINCIPALES Les missions sont clairement centrées sur la production applicative middleware : Assurer l’ intégration technique d’applications Java sur les environnements de préproduction et de production Réaliser et sécuriser les mises en production applicatives (préparation, exécution, validation post-MEP) Garantir le RUN quotidien : supervision, suivi des traitements, gestion des incidents applicatifs Prendre en charge le support applicatif de niveau 1 et 2 sur les applications intégrées Analyser les incidents récurrents , identifier les causes racines et proposer des actions correctives Participer aux montées de version middleware (Tomcat, JBoss) Rédiger et maintenir la documentation de production (consignes, procédures, passation N1) Travailler en coordination avec : les équipes projets applicatifs, les experts middleware / OS, les équipes support et exploitation
CDI
Freelance
CDD

Offre d'emploi
Développeur Camunda & Sécurité Applicative

RIDCHA DATA
Publiée le
Apache Kafka
Camunda
LDAP

1 an
Ivry-sur-Seine, Île-de-France
📌 Contexte de la mission Dans le cadre du développement et de l’automatisation de processus métiers complexes, la mission consiste à concevoir et implémenter des workflows sur la plateforme Camunda, tout en garantissant un haut niveau de sécurité applicative. Le consultant interviendra sur des architectures microservices et participera au développement d’API sécurisées. 🎯 Missions principales • Modéliser et automatiser les workflows métiers avec Camunda (BPMN) • Concevoir et développer des API REST (et SOAP si nécessaire) • Développer des microservices en environnement Java / Spring Boot • Réaliser des revues de code (code review) • Mettre en place la sécurité applicative : Authentification et autorisation (OAuth2, OpenID Connect, JWT, Keycloak, RBAC, MFA) Chiffrement des données (TLS, AES) Protection contre les failles (SQL Injection, XSS, XXE) • Rédiger les spécifications techniques et la documentation associée 🧰 Livrables attendus • Modélisation des workflows Camunda • Code source des applications et services • Spécifications techniques • Documentation sécurité applicative ⚙️ Compétences techniques (impératives) ✔ Camunda BPM ✔ LDAP ✔ Spring Boot ✔ Kafka ✔ Architecture microservices ✔ Keycloak ✔ Sécurité applicative avancée
Freelance
CDI

Offre d'emploi
Ingénieur Middleware

Deodis
Publiée le
Ansible
Apache Tomcat
ITIL v4

12 mois
47k-56k €
400-500 €
Montpellier, Occitanie
Missions : Assure l'expertise des serveurs d'application au sein de l'équipe Serveur d'Application Valorise et gère les évolutions en adéquation avec les besoins fonctionnels ou techniques tout en assurant conseil, assistance, information, formation et alerte. Assure l'ingénierie d'installation et de paramétrage de plates-formes simples ou complexes. Coordonne le cas échéant les différents acteurs qui interviennent dans le processus d'installation. Assure le bon fonctionnement des systèmes d'information en prenant en compte la disponibilité des Infrastructures système, la correction des incidents et le maintien en condition opérationnelle des infrastructures dans un objectif de qualité, de productivité et de sécurité. Intervient, en expertise de Niveau 3 sur les incidents complexes de fonctionnement Réalise des diagnostics pour identifier les causes de dysfonctionnement et propose des corrections et des solutions de contournement Définit et met en œuvre les règles de bonne gestion et d'exploitabilité des systèmes ou produits et les qualifie d'un point de vue technique Effectue une veille technologique. Garantit la bonne implémentation des produits pour atteindre le bon niveau de qualité de service en cohérence
Freelance
CDD

Offre d'emploi
Ingénieur Big Data Production - Cloudera / Kafka (H/F)

CONCRETIO SERVICES
Publiée le
Apache Kafka
Cloudera
Production

1 an
65k-70k €
450-500 €
Gironde, France
Il s’agit d’un poste d’ingénierie d’exploitation Data senior , orienté support N2/N3, performance et fiabilité , et non d’un rôle projet, Data Engineering ou DevOps cloud généraliste. VOS MISSION PRINCIPALES Le poste est fortement hands-on , centré sur l’exploitation avancée de la plateforme Data : Assurer le support N2/N3 d’une plateforme Big Data Cloudera en production Diagnostiquer et résoudre des incidents critiques complexes (performance, disponibilité, latence) Garantir la stabilité et la performance des clusters Hadoop / Spark Administrer et optimiser Kafka : performance, gestion des offsets, scalabilité, haute disponibilité, sécurité Superviser et optimiser les composants annexes (dont Elasticsearch ) Réaliser le tuning, le dimensionnement et l’optimisation des ressources Automatiser les opérations récurrentes : scripts Shell et Python, industrialisation via Ansible, pipelines CI/CD orientés exploitation Participer à l’ évolution de l’architecture Data en lien avec les architectes Documenter, transmettre et accompagner les équipes N1 / N2 Être point de contact technique avec l’ éditeur Cloudera en cas d’escalade
CDI

Offre d'emploi
Data Engineer Spark / Java / GCP (F/H)

CELAD
Publiée le

55k-62k €
Écully, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Lyon - Expérience de 5 ans minimum Envie de travailler sur un projet data stratégique à fort impact métier ? Dans le cadre d’un grand groupe français du secteur assurance / services financiers, nous recherchons un.e Data Engineer Spark / Java / GCP pour intervenir sur un projet stratégique de gestion des risques climatiques. Voici un aperçu détaillé de vos missions : En lien étroit avec les équipes IT et métiers du client ainsi que l’intégrateur, vous interviendrez sur l’ensemble de la chaîne projet : - Analyse et compréhension des modèles de calcul actuariels - Participation à la conception technique des solutions data - Développement de traitements Spark Java avec intégration de librairies géospatiales - Industrialisation des pipelines de données - Déploiement et exploitation sur Google Cloud Platform - Rédaction de la documentation technique et fonctionnelle - Accompagnement des équipes internes (montée en compétence Spark / Java) - Anticipation des phases de RUN - Reporting projet auprès du chef de projet
Freelance
CDD
CDI

Offre d'emploi
Consultant Data (DataLab Cloudera / Hive / Python) (F/H)

Taleo Capital
Publiée le
Apache Hive
Cloudera
Python

6 mois
57k-64k €
520-580 €
Paris, France
Contexte Au sein d’une direction des systèmes d’information nationaux et européens d'un acteur majeur du secteur banco-financier, le service en charge des plateformes data conçoit, maintient et fait évoluer les systèmes d’information au service d’activités critiques telles que la politique monétaire, les opérations de marché, la gestion des risques, la conformité et la stabilité financière. Vous interviendrez dans un DataLab rattaché aux applications de marché, au cœur des usages data des équipes métiers (marchés, risques, conformité). Objectifs de la mission Vous interviendrez principalement sur : La fin de réalisation et la maintenance évolutive d’un laboratoire data existant L’enrichissement des cas d’usage métiers liés aux opérations de marché, aux risques et à la politique monétaire Les travaux de cadrage et de structuration d’un gisement de données, en lien avec les besoins métiers Périmètre fonctionnel et technique Sources de données Flux issus de systèmes Front, Back et Décisionnels Marché Plateformes de trading et systèmes décisionnels associés Plateforme Data Cloudera Hive Environnements Python et R SAS Viya Outils de restitution et d’analyse Power BI SAS Viya Missions principales Data Engineering & DataLab Développement et maintenance de traitements de données sous Cloudera / Hive Conception et optimisation de requêtes Hive Manipulation, préparation et transformation de données volumineuses Développement de scripts et notebooks Python pour l’analyse, l’exploration et l’enrichissement des données Contribution à la structuration et à l’alimentation des gisements de données Support aux usages métiers Accompagnement des utilisateurs métiers dans l’exploitation des données Contribution aux laboratoires analytiques (Python / R / SAS Viya) Participation à la mise à disposition de jeux de données exploitables pour des analyses prospectives Appui à la création et à l’évolution des cas d’usage data liés aux opérations de marché, aux risques et à la politique monétaire Maintenance et évolution Participation à la maintenance corrective et évolutive du DataLab Prise en compte des nouveaux besoins utilisateurs Contribution à la qualité, à la fiabilité et à la traçabilité des données Documentation des traitements et des jeux de données
Freelance

Mission freelance
Ingénieur Data Oracle/SQL/Python

CS Group Solutions
Publiée le
Apache Airflow
Git
Oracle

12 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Ingénieur Data Oracle/SQL/Python Objectif global : Développement Data Engineer Oracle/SQL/Python Contrainte du projet: Contexte Data Les livrables sont: Développement des nouvelles fonctionnalités TU / Spécifications techniques MCO/RUN Compétences techniques: Oracle - Confirmé - Impératif SQL - Confirmé - Impératif Python - Junior - Important Airflow - Junior - Souhaitable Description détaillée: Nous cherchons un data ingénieur ASAP pour une mission longue durée Compétences : ORACLE impératif SQL impératif Python : c’est un plus mais pas obligatoire Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client
Freelance

Mission freelance
[SCH] Développeur Java / Kafka – RUN WebLogic - 1205

ISUPPLIER
Publiée le

10 mois
300-350 €
Bordeaux, Nouvelle-Aquitaine
Dans le cadre de l’exploitation et du maintien en conditions opérationnelles des infrastructures historiques d’un client basé à Bordeaux, nous recherchons un Développeur Java / Kafka avec une forte expertise WebLogic en environnement de production. La mission est orientée 100 % RUN, avec des enjeux forts de stabilité, fiabilité et industrialisation, dans un contexte de Lean IT / Kanban (flux tiré), sans fonctionnement en sprint. Le consultant interviendra sur des environnements critiques et devra être autonome immédiatement sur WebLogic. Missions principales : RUN & exploitation applicative : Assurer le support N2 / N3 sur les environnements applicatifs Gérer les incidents, changements et demandes via ServiceNow (SNOW) Participer aux RPI (Root Cause Analysis) des incidents majeurs Organisation et animation possible de PRI internes Participation aux COPIL BUS Gestion des tâches quotidiennes via Jira Documentation et pilotage backlog via Jira & Confluence Administration WebLogic & middleware : Administration et exploitation des environnements Oracle WebLogic Server Gestion des domaines WebLogic en cluster et standalone Installation et configuration de domaines WebLogic sur FAB & PROD Déploiement d’applications EAR / WAR Manipulation de l’arbre JNDI Configuration et gestion des files JMS Gestion des SAF (Store and Forward) Configuration DNS Tests de changements de configuration sur environnements de test Industrialisation & automatisation : Mise en place d’actions d’industrialisation Développement de scripts Shell Rédaction de playbooks Ansible Intégration avec des chaînes CI/CD (GitLab, Jenkins, Concourse) Diagnostic des logs via ELK
Freelance
CDI

Offre d'emploi
Testeur / QA Engineer Junior

Codezys
Publiée le
Apache Kafka
JIRA
QA

12 mois
40k-45k €
240-310 €
Lille, Hauts-de-France
Dans le cadre de la modernisation de notre système de gestion d’entrepôt, nous engageons un programme d’implémentation du Warehouse Management System (WMS) MAWM (Manhattan WMS SAAS). L’objectif est de construire un core model et de le déployer progressivement dans 50 entrepôts sur 7 ans. Dans ce contexte, nous lançons un appel d’offres afin de trouver un QA Engineer pour intégrer nos équipes. Objectif de la mission En tant que QA Engineer, vous serez au cœur de la validation technique du projet. Vous travaillerez en étroite collaboration avec l'équipe produit et les développeurs pour assurer la qualité des livrables et la fiabilité des flux de données. Vos responsabilités Concevoir des plans de tests et des scénarios de tests détaillés fonctionnels et techniques à l’aide de JIRA et Xray Préparer les jeux de données nécessaires pour simuler des flux réalistes. Exécuter des campagnes de tests des flux d'intégration (Kafka et Google Pub/Sub) Réaliser les tests métier et valider les processus entrepôt (Réception, stockage, préparation, expédition…) Qualifier précisément les anomalies, suivre leur résolution avec les équipes de développement et l’éditeur, et valider les correctifs. Être force de proposition sur les processus métier : vous ne vous contentez pas de vérifier si "ça marche", vous challengez la solution pour qu'elle soit robuste et utilisable sur le terrain. Participer aux cérémonies agiles de l’équipe

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

257 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous