Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 310 résultats.
CDI

Offre d'emploi
Expert /Administrateur Hadoop H/F

OCSI
Publiée le
Ansible
Apache Kafka
Big Data

40k-60k €
Île-de-France, France
Contexte Dans le cadre du développement et de la maintenance d’une plateforme Big Data stratégique , notre client grand compte renforce ses équipes techniques et recherche un(e) Administrateur Hadoop / Data Engineer confirmé(e) . Vous interviendrez au sein d’une équipe experte, sur une infrastructure Big Data critique, afin d’assurer sa disponibilité, son évolution et sa performance , dans un environnement à forts enjeux métiers et techniques. Missions En tant qu’ Expert Hadoop / Data Engineering , vos missions principales seront : Administrer, maintenir et optimiser les clusters Hadoop (Cloudera) Garantir la disponibilité, la performance et la sécurité de la plateforme Big Data Participer aux task forces techniques pour résoudre des incidents complexes Réaliser les montées de versions majeures des composants Hadoop Automatiser les déploiements, patching et configurations via Ansible et Terraform Gérer les incidents, changements et tickets d’infrastructure Contribuer aux évolutions du socle technique et au déploiement de nouvelles fonctionnalités Rédiger et maintenir la documentation technique Travailler en lien étroit avec les équipes internes et l’éditeur Cloudera Participer au suivi du planning global de production
CDI
Freelance

Offre d'emploi
Architecte Data (Snowflake - IA Gen) H/F

STORM GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD

3 ans
55k-65k €
550-680 €
Lille, Hauts-de-France
Principales missions : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IA GEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Freelance

Mission freelance
Architecte Solutions/ Teach Lead Snowflake/Snowpark (Bancaire)

Nicholson SAS
Publiée le
Apache Spark
Azure
CI/CD

6 mois
460 €
Fontenay-sous-Bois, Île-de-France
Cette mission d’envergure au sein du pilier RPBI de mon client bancaire dans le Val de Marne vise à transformer l'architecture data du groupe. En tant qu’ Architecte Solutions / Tech Lead , vous piloterez la migration stratégique de l'écosystème Hadoop vers Snowflake/Snowpark . Le rôle combine vision architecturale et leadership technique au sein d’un environnement Agile. Vos responsabilités incluent la définition des standards de développement, l'optimisation des pipelines de données via Snowpark/Scala et l'encadrement des Feature Teams. Dans un contexte Cloud Azure , vous garantirez la robustesse des solutions en appliquant les principes de Clean Code et de CI/CD. Points clés : Expertise : Snowflake, Snowpark, Scala et migration Hadoop (Cloudera). Profil : +7 ans d'expérience, capacité de vulgarisation et leadership. Durée : Longue visibilité (jusqu’en sept. 2028). Rythme : Hybride (2 jours sur site). C'est une opportunité rare de structurer la gouvernance data d'une grande banque internationale.
Freelance

Mission freelance
Lead dev Nodejs/Vuejs

ESENCA
Publiée le
Apache Kafka
API REST
Mongodb

1 an
Lille, Hauts-de-France
🎯 Objectif de la mission Concevoir et développer des produits transverses à forte criticité dans le domaine Finance (achats, facturation, paiements), au sein d’un environnement technique exigeant et orienté plateformes. 🧩 Contexte & enjeux La mission s’inscrit dans un domaine transverse stratégique, avec de fortes contraintes métier liées aux concepts financiers. Les solutions développées doivent être robustes, scalables et alignées avec les besoins de plusieurs équipes et produits. 🚀 Missions principales En tant que Lead Engineer , vous jouez un rôle clé à la fois technique et structurant : Architecture & expertise : conception d’architectures complexes et prise de décisions techniques majeures pour le domaine Finance. Leadership technique : pilotage des choix techniques, définition des standards et garantie de la qualité des livrables. Contribution au développement : participation active à la production (40 à 60 % du temps en codage). Mentorat & accompagnement : montée en compétences des ingénieurs via le coaching, le pair programming et les revues de code. Collaboration Agile : travail étroit avec le Product Owner pour aligner la roadmap technique et les besoins métiers. Gouvernance technique : contribution aux pratiques de partage de code (Innersource / Open Source) et à l’amélioration continue. 🛠 Compétences techniques requises Back-end : NestJS (impératif) Front-end : Vue.js (impératif) Bases de données : MongoDB (impératif), PostgreSQL Architecture & intégration : API REST, flux de données événementiels (Kafka) Qualité & DevOps : bonnes pratiques de gestion du code, tests unitaires, intégration continue
Freelance
CDI
CDD

Offre d'emploi
Business Analyst IT – Datamart & CMDB

Deodis
Publiée le
Agile Scrum
Apache Kafka
CMDB

1 an
52k €
400-550 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du programme GALAXIE , visant à mettre en place la CMDB du futur de BPCE-IT , le/la Business Analyst IT intervient sur le développement de la brique Datamart de la nouvelle CMDB. Il/elle recueille, analyse et formalise les besoins métiers , rédige les spécifications fonctionnelles et techniques ainsi que les cahiers des charges à destination des équipes de développement , et contribue à la structuration et à la gouvernance de la donnée. En étroite collaboration avec les équipes de développement, notamment à Porto , et les parties prenantes métiers et infrastructures, il/elle veille à la cohérence des solutions avec les exigences fonctionnelles, les pratiques ITIL et Agile , et les enjeux de transformation du SI. Le poste implique également l’accompagnement des utilisateurs, la participation aux phases de recette MOA et la contribution à l’amélioration continue des processus de gestion de configuration dans un environnement international et complexe.
Freelance

Mission freelance
Data Engineer Senior GCP

TEOLIA CONSULTING
Publiée le
Apache Airflow
Architecture
BigQuery

3 mois
Paris, France
Nous recherchons un Data Engineer Senior pour intervenir au sein d’une plateforme Data stratégique dans un environnement numérique à forte volumétrie. Vous intégrerez une équipe composée d’un Product Owner, d’un Data Steward et de Data Engineers, au cœur d’une architecture cloud moderne orientée scalabilité, gouvernance et performance. Vos missions : Participer aux phases de conception et de planification des développements data Concevoir et maintenir des pipelines data robustes et scalables Collecter et centraliser des sources de données hétérogènes Structurer et optimiser le stockage des données Mettre en place des infrastructures scalables sur Google Cloud Platform Construire et maintenir les workflows CI/CD Garantir la sécurité, la conformité et la stabilité des environnements Contribuer aux initiatives de gouvernance des données Documenter les développements et partager les bonnes pratiques Accompagner les équipes internes dans l’exploitation des données Environnement technique : Google Cloud Platform (BigQuery, Dataproc, PubSub, Cloud Storage) Dataplex Universal Catalog Python SQL Spark Airflow Delta Lake Terraform / Terragrunt Gitlab / Gitlab CI/CD Méthodologies Agile (Scrum ou Kanban) Mission en environnement structuré avec forte exigence de qualité, de performance et de conformité réglementaire.
Freelance

Mission freelance
Ingénieur de Production Middleware Java JEE (H/F)

Deodis
Publiée le
Ansible
Apache Tomcat
DevOps

1 an
450 €
Île-de-France, France
Poste d’ Ingénieur de Production Middleware Java JEE au sein du Groupe BPCE, dans un environnement applicatif critique à forte contrainte opérationnelle. Le poste consiste à assurer le maintien en conditions opérationnelles des applications middleware Java, le traitement des incidents de niveau 2 et 3, l’intervention en escalade auprès de la Hotline et l’interface avec les supports niveau 3 des partenaires. L’ingénieur intervient sur des environnements Java JEE (JBoss, Tomcat, Spring Boot, JVM, Apache), réalise les déploiements et l’intégration applicative via Ansible et Git, gère les certificats et les outils de messagerie open source (ex. RabbitMQ), et prend en charge les demandes de changements ainsi que les mises en production. Il participe aux tests techniques, à l’automatisation, à l’amélioration continue des processus (DevOps / DevSecOps, FinOps) et assure des astreintes en semaine et le week-end, avec des interventions possibles en horaires non ouvrés.
Freelance

Mission freelance
Expert sécurité PKI - DevSecOps

Codezys
Publiée le
Ansible
Apache
DevSecOps

12 mois
Lyon, Auvergne-Rhône-Alpes
Présence sur site : un minimum de 2 jours par semaine. Profil recherché : un développeur DevSecOps spécialisé en PKI, avec un niveau confirmé au minimum. Une expérience préalable chez Enedis serait un atout apprécié. Produit concerné : Infrastructure à Clé Publique (PKI), service de gestion des clés publiques. Il s'agit d'un projet combinant phases de construction (BUILD) et de maintenance en conditions opérationnelles (MCO). Une expérience en exploitation est fortement souhaitée. Chantiers à venir : La construction du code industriel permettant d'installer et de configurer la PKI, afin de déployer les environnements de développement, hors production et production. Un intégrateur sera partenaire lors de la mise en place du premier environnement. Actuellement, l'équipe se compose de 4 spécialistes PKI, d'un référent technique, d'une équipe Scrum et d'un Product Owner (PO).
Freelance

Mission freelance
Data Platform Engineer

Phaidon London- Glocomms
Publiée le
Apache Spark
AWS Cloud
CI/CD

6 mois
400-550 €
Paris, France
Support Technique et Expérience Développeur Assurer un support quotidien aux ingénieurs et data scientists. Identifier et contribuer à la gestion de la dette technique ; fournir des outils d'automatisation et de test. Collaborer avec les équipes plateforme pour optimiser l'expérience développeur globale. Adoption de la plateforme et bonnes pratiques Promouvoir l'utilisation efficace des outils et fonctionnalités de la plateforme. Se tenir informé(e) des tendances du secteur et des technologies cloud/données pertinentes. Développement des compétences et animation de la communauté Évaluer les compétences de l'équipe et dispenser des formations ciblées. Animer une communauté de pratique pour présenter les améliorations et partager les bonnes pratiques. Produire de la documentation technique et des supports de formation. Retours d'information et évolution de la plateforme Recueillir les retours des utilisateurs et contribuer à l'amélioration du produit. Valider les livrables d'ingénierie de la plateforme par des tests alignés sur des cas d'utilisation réels. Défendre les intérêts des ingénieurs et des data scientists en interne.
Freelance

Mission freelance
TECH LEAD - AWS DATA ENGINEER

CHOURAK CONSULTING
Publiée le
Amazon Redshift
Amazon S3
Apache Airflow

3 mois
400-700 €
Île-de-France, France
Nous recherchons plusieurs AWS Data Engineers Seniors pour renforcer une équipe Data Platform . 🎯 Contexte de la mission Vous intégrerez une équipe en charge de la plateforme Data , avec des enjeux forts de scalabilité, industrialisation et fiabilité des flux de données . Les missions s’inscrivent dans un environnement cloud moderne, orienté bonnes pratiques et performance. ⚙️ Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables . Contribuer à l’évolution de la plateforme Data . Mettre en place et maintenir l’ infrastructure as code . Participer à l’industrialisation des traitements (CI/CD, containerisation). Travailler en collaboration avec les équipes Data, Produit et Architecture. Être force de proposition sur les choix techniques et les optimisations.
CDI
Freelance

Offre d'emploi
Tech Lead Data (H/F)

AVA2I
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 ans
Île-de-France, France
Dans le cadre de l’évolution et de l’industrialisation de sa plateforme Data multi-cloud, un acteur majeur du secteur de l’énergie recherche un Tech Lead Data senior . La mission s’inscrit au sein de la plateforme Data Groupe avec des enjeux forts de : Scalabilité Gouvernance et qualité des données Industrialisation des pipelines Fiabilité en production 🎯 Missions principales 🔹 Leadership technique Être le référent technique de la plateforme Data Définir et faire évoluer l’architecture Data Encadrer et accompagner les Data Engineers Participer aux choix technologiques et aux orientations stratégiques 🔹 Build – Industrialisation Concevoir et mettre en œuvre un Data Lake Définir, développer et automatiser les pipelines de données Mettre en place les bonnes pratiques CI/CD Garantir la performance, la robustesse et la scalabilité 🔹 Run – MCO Assurer la supervision des traitements Gérer les incidents et optimiser les processus Maintenir les environnements techniques Automatiser les tâches récurrentes 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP Contexte multi-cloud 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Airflow ⚙ Dev / DevOps Python APIs (FastAPI / Flask) Docker Terraform GitLab CI/CD Linux
Freelance

Mission freelance
Directeur de projet

SKILL EXPERT
Publiée le
Agile Scrum
Apache NiFi
Cloud

1 an
630-660 €
Saint-Denis, Île-de-France
Contexte de la prestation La division CAP de MATHIS SNCF Réseau participe aux grands chantiers de modernisation du réseau ferroviaire. Il consiste à automatiser l'ensemble des processus de surveillance, maintenance, ingénierie . L'objectif est de tirer parti des opportunités offertes par les nouvelles technologies dans la collecte et le traitement des données pour réduire au maximum l'impact sur les circulations. Au sein de ce programme et en lien avec la gouvernance de la donnée, un socle centralisé d’ingestion, de stockage, de traitement et de mise à disposition des données provenant des différentes sources, à destination des différents consommateurs du programme, a été construit. En 2025-2026-2027, ce socle va évoluer selon les axes suivants : •Rapatriement d’une partie des services techniques, à ce jour hébergé chez IT Novem, dans le SI géré par la DGNUM •Déploiement de la plateforme data basée sur l’outil Databricks et les nouvelles fonctionnalités de gestion de la donnée (sql endpoint, unity Catalog, deltasharing, …) •Déploiement des plateformes d’ingestion basée sur l’outil Apache Nifi et les nouvelles fonctionnalités sur AKS. •Intégration des applications d’espace d’analyse, selon la cible d’architecture et les points précédents dans une cible globale •Extension du puits acquisition SNCF RESEAU vers des usages département MATHIS et plus en fonction des besoins DGNUM.
Freelance

Mission freelance
Architecte Data - Lyon

Cherry Pick
Publiée le
Apache Kafka
Apache Spark
Architecture

6 mois
700-870 €
Lyon, Auvergne-Rhône-Alpes
Architecte Data / Cloud Senior (Expert)🎯 Contexte & Enjeux Dans le cadre de la transformation de notre client (Secteur d' Assurance) vers un Système d’Information Data Centric , nous recherchons un(e) Architecte Data / Cloud Senior capable d’accompagner la modernisation de notre infrastructure Data On-Premise et Cloud. Cette transformation stratégique vise à bâtir un SI : Agile Évolutif Résilient Orienté données Aligné avec nos enjeux long terme L’expert(e) interviendra en transverse auprès des équipes MOA, Techlead, Développeurs et DBA afin de garantir une intégration fluide des architectures Data modernes. 🎯 Objectifs de la mission Évaluer l’architecture existante et recommander les meilleures pratiques Data / Cloud Concevoir et mettre en œuvre une architecture Data Centric robuste et scalable Définir et implémenter les patterns Data (Batch, Streaming, Event-driven, Microservices data, etc.) Assurer l’intégration cohérente des environnements On-Premise et Cloud Accompagner les équipes internes (MOA, Tech, DBA) Garantir la sécurité, la gouvernance et la performance des données Assurer le transfert de compétences Produire une documentation complète (HLD, LLD, DAT, schémas d’architecture) 📦 Livrables attendus Dossier d’architecture cible (HLD/LLD) Schémas d’urbanisation Data Blueprint Data/Cloud (multi-cloud / hybrid) Recommandations techniques formalisées Plan de migration On-Premise → Cloud Documentation des pipelines Data Guide de bonnes pratiques Support aux équipes techniques Plan de gouvernance et sécurité des données 🛠 Responsabilités principales Définir l’architecture Data (Batch & Streaming) Mettre en œuvre des pipelines temps réel (Kafka, Spark Streaming, Beam) Concevoir des architectures multi-cloud (AWS, GCP, Azure, Oracle Cloud) Intégrer les solutions NoSQL (CouchDB, MongoDB) Concevoir des architectures sécurisées (Keycloak, IAM, RBAC) Superviser les choix techniques liés aux bases Oracle Accompagner l’industrialisation sous OpenShift Garantir la performance, la scalabilité et la résilience 👤 PROFIL RECHERCHÉ🎓 Formation Bac+5 (Ingénieur / Master en Informatique / Data / Cloud) Minimum 8 à 10 ans d’expérience dont plusieurs années en architecture Data
Freelance
CDI

Offre d'emploi
Ingenieur DevOps - Environnement de Production -DevOps

HEEVOX
Publiée le
Ansible
Apache Tomcat
Argo CD

3 ans
55k-65k €
550-600 €
Île-de-France, France
INGENIEUR DEVOPS - ENVIRONNEMENT DE PRODUCTION Démarrage : ASAP Durée : 3 Ans Localisation : Ile de France (Proche Paris - Facile d'accès en transport en commun) Télétravail : 50% Profil : Experience : 5 ans minimum Anglais : Professionnel (Parlé, lu, écrit)- Contexte International Experience confirmée sur les environnements : DevOps Mission : Administration de la plateforme incluanr différents progiciels sur Windows 2022 et une base de données Oracle en environnement de développement. qualification. pré Participation a l'évolution de l'environnement DEVOPS de la plateforme (via les outils Ansible, Jenkins, Bitbucket, Artifactory, etc) Participation a l'évolution des scripts Powershell en charge des lancements de batchs de la plateforme (via Autosys) Participation a la mise en place de notre outil de monitoring : Dynatrace Coordination technique entre les équipes de support applicatives, de développement et d'infrastructure. (en partie en anglais avec des interlocuteurs sur les différentes plaques géographiques).
Freelance

Mission freelance
Data Engineer - IA (Bordeaux)

Cherry Pick
Publiée le
Agent IA
Apache Kafka
DBT

12 mois
390-400 €
Bordeaux, Nouvelle-Aquitaine
Intégré à la DSI au sein de l’équipe Data Tech Knowledge de la direction IT DATA de notre client à Bordeaux , le Data Engineer participera à des projets autour de l’IA et de la data. La mission consiste à : Effectuer des alimentations de données . Collaborer avec un Data Analyst sur des projets IA/Data. Développer et travailler autour d’ agents IA pour le requetage SQL en langage naturel . Mettre à disposition des outils d’aide au développement et au monitoring . Assurer une veille technologique sur les architectures data et outils associés. Stack Technique : Langages : Python, SQL Bases de données : Snowflake, SQL Server, PostgreSQL DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend Data Visualisation : PowerBI
Freelance

Mission freelance
Développeur PHP/React Full Stack expérimenté - Agent Coding / IA

INSYCO
Publiée le
Apache
CI/CD
Git

3 ans
400-500 €
Strasbourg, Grand Est
Bonjour, Nous recherchons pour notre client grand compte un Développeur PHP/React Full Stack expérimenté – Web applicatif de production (frontend et backend), avec une maîtrise avancée et démontrable du développement assisté par IA, notamment en agent coding (coding agent). Nous étudions prioritairement les candidatures adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin, en détaillant précisément votre pratique du agent coding CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d’indiquer la référence KTR/FSD/5068 dans l’objet de votre message. Activités principales de la prestation Conception, développement et maintenance d’applications web de niveau production (frontend et backend) Implémentation de fonctionnalités conformes aux user stories et déployées sur l’infrastructure fournie Livraison des classes, scripts et composants nécessaires à l’intégration continue Mise à disposition de scripts de supervision, tests de charge, administration et déploiement Synchronisation quotidienne du code sur le dépôt GitHub du client Rédaction et maintien de la documentation technique en anglais sur l’outil collaboratif interne Respect des exigences de qualité, de sécurité et de conformité RGPD Participation aux ateliers trimestriels en présentiel Utilisation structurée d’outils d’IA dans le cycle de développement, incluant la mise en œuvre de coding agents en environnement de production Livrables et obligations Code conforme aux standards techniques globaux et aux bonnes pratiques d’ingénierie Documentation technique complète et maintenue à jour en anglais Conformité RGPD et hébergement des données au sein de l’Union européenne Ramp-up et formations nécessaires à la charge du prestataire Continuité de service et capacité de remplacement en cas d’indisponibilité prolongée Acceptation d’audits de code et respect de l’état de l’art Capacité à expliciter et justifier les usages du agent coding dans les livrables produits

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

310 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous