Trouvez votre prochaine offre d’emploi ou de mission freelance Apache NiFi
Votre recherche renvoie 11 résultats.
Offre d'emploi
Data Engineer NiFi
Publiée le
Apache NiFi
40k-65k €
Île-de-France, France
Télétravail partiel
En tant que Data Engineer chez Smile, vous ferez partie de notre aventure où chaque jour est une nouvelle occasion de construire des solutions qui dépassent les attentes de nos clients (et les vôtres !)🧑🚀👩🚀 Ce que vous ferez en tant que Data Engineer chez Smile ? Conception et développement de pipelines de données (ETL/ELT). Maintenance et optimisation de l'infrastructure de données. Mise en place de solutions de stockage et de traitement de données (data warehouses, data lakes). Collaboration avec les équipes de data science et d'analyse. Automatisation des processus de gestion des données. Veille technologique sur les outils et technologies de données. Côté technique justement, vous évoluerez dans un environnement Open Source ☕: Ingénierie des données et Cloud : ETL/ELT, Big Data (Spark, Hadoop), plateformes cloud (AWS, Azure, GCP), orchestration (Kubernetes, Docker). Analyse de données et Business Intelligence : Visualisation (Power BI, Tableau), reporting, analyse prédictive, bases de données SQL/NoSQL. Développement logiciel et programmation : Développement backend, langages (Python, Java, Scala, R), API, intégration continue (CI/CD). Recherche et indexation de données : Moteurs de recherche (Elasticsearch, Solr), recherche full-text, optimisation de la performance des requêtes. Vous intègrerez un environnement stimulant où votre expertise et votre passion seront reconnues 💥. Nous vous invitons à participer à des projets captivants et à contribuer à notre croissance commune🌱. Smile s’engage pour un environnement où la diversité est une force et l’inclusion, un pilier. Ici, chaque talent est reconnu, respecté et encouragé à aller plus loin.
Mission freelance
Lead Data Engineer Azure Databricks
Publiée le
Apache NiFi
Databricks
PySpark
3 ans
600 €
Île-de-France, France
Télétravail partiel
🔍 Nous recherchons un(e) Lead Data Engineer Azure Databricks avec une forte posture de transmission, coaching et mise en place des standards, pour accompagner une équipe en montée de maturité sur Databricks. 📅 Démarrage ASAP 📍 Île-de-France 🎯 Missions clés : ✅ Optimisation & fiabilisation des jobs Databricks (PySpark / Spark) ✅ Mise en place des standards & bonnes pratiques Data Engineering ✅ Coaching, mentoring, animation de la communauté Tech Lead ✅ Contribution aux migrations & à la modernisation du DataLake ✅ Travail sur l’industrialisation (CI/CD – Azure DevOps)
Mission freelance
Architecte Technique EDI & Facturation Electronique - Réforme 2026 H/F/NB
Publiée le
Apache NiFi
ERP
Échange de données informatisé (EDI)
200 jours
620-800 €
Ivry-sur-Seine, Île-de-France
Télétravail partiel
🎯 Contexte de la mission Dans le cadre de la réforme fiscale 2026 sur la facturation électronique, notre client recrute un Architecte Technique EDI Senior pour piloter un projet stratégique de dématérialisation. Ce projet couvre l'ensemble des flux de facturation et implique l'intégration de plusieurs plateformes partenaires PDP (Plateformes de Dématérialisation Partenaires) et la coordination technique entre différents ERP et systèmes d'interfaçage EDI . 🔧 Missions principales - Focus Technique 1. Architecture & Analyse Technique Réaliser les analyses techniques liées aux changements d'architecture et impacts applicatifs Effectuer la gap analysis entre l'existant et la cible sur l'ensemble des ERP (flux sortants et entrants) Garantir la cohérence et fiabilité des échanges entre systèmes hétérogènes Structurer et formaliser les solutions techniques en coordination avec les équipes internes 2. Intégration & Interfaçage EDI Paramétrer le proxy EDI (NIFI ou équivalent) pour l'interconnexion entre SI et PDP Participer au mapping des données et à la qualification des flux à implémenter Cadrer, concevoir et déployer les interfaces et flux EDI (EDIFACT, formats structurés) Assurer l'interconnexion technique avec les plateformes partenaires PDP 3. Conformité & Normes Réglementaires Veiller au respect des normes de sécurité et de conformité (réforme 2026) Maîtriser les référentiels de facturation électronique : PA (Plateforme d'Annuaire) PPF (Plateforme Publique de Facturation) Formats structurés (UBL, CII, Factur-X) Cycle de vie des factures électroniques Garantir la conformité des flux selon les exigences réglementaires 4. Documentation & Tests Rédiger la documentation technique (architecture, flux, interfaces) Contribuer aux stratégies de tests (unitaires, intégration, performance) Produire les KPI techniques de suivi du projet 5. Support & Coordination Assurer le support technique aux équipes internes Coordonner avec les intégrateurs des plateformes partenaires Collaborer étroitement avec l'équipe projet fonctionnelle et la direction de projet
Mission freelance
[MISSION LONGUE] Administrateur Lakehouse / Cloudera – Expert Big Data (H/F)
Publiée le
Apache
Apache NiFi
Apache Spark
12 mois
400-650 €
Paris, France
Télétravail partiel
Client final : secteur paiement – mission longue – environnement Cloudera CDP Nous recherchons un Administrateur Lakehouse / Administrateur Cloudera confirmé ou senior pour accompagner l’un de nos clients grands comptes dans la gestion et l’exploitation de son écosystème Big Data. 🎯 Compétences OBLIGATOIRES (critères majeurs) 👉 Maîtrise parfaite des composants Lakehouse suivants : Apache Ranger (Data Security) Apache Atlas (Gouvernance & Lineage) Spark + Apache Zeppelin (Processing) NiFi (Ingestion) Apache Impala (Analytics) Hadoop (HDFS) + Apache Kudu (Data Lake) Hue (Serving / SQL UI) ➡️ Ces compétences sont indispensables : seuls les profils maîtrisant ces briques seront retenus. 🧩 Vos responsabilités Administrer et maintenir l’écosystème Cloudera / CDP (Cloudera Manager, HDFS, Yarn, Zookeeper…). Assurer le MCO/MCS : disponibilité, performances, sécurité, supervision. Documenter les procédures d’exploitation & rédiger des rapports synthétiques. Respecter les SLA et intervenir en cas d’incident. Travailler en environnement ITIL (gestion incidents, problèmes, changements). Automatiser les déploiements via Ansible (certificats, keystores, configurations). Utiliser les outils DevOps : GitHub , Jenkins . Exploiter les environnements Linux (analyse de logs, diagnostic). Participer aux réunions d’équipe, aux projets et aux comités. Être force de proposition sur l’amélioration continue et la supervision. 🌍 Environnement technique Cloudera CDP • Cloudera Manager • HDFS • Yarn • Zookeeper Apache Ranger • Apache Atlas • Spark • Zeppelin • NiFi • Impala Hadoop • Kudu • Hue Ansible • GitHub • Jenkins • Linux 📌 Profil recherché 5 à 7+ ans en administration Big Data / Hadoop / Cloudera impératif. Très forte expertise sur les briques Lakehouse listées ci-dessus. À l’aise en production, ITIL, sécurité, automatisation. Bon niveau d’anglais (échanges éditeurs Cloudera & fournisseurs). Consultant autonome, structuré, capable de rendre compte et d’améliorer l’existant. 🚀 Disponibilité immédiate ou rapide Si vous maîtrisez Cloudera + Ranger + Atlas + Spark + NiFi + Impala + Kudu , contactez-moi directement.
Mission freelance
Référent Technique Dématérialisation Factures & Réforme Fiscale
Publiée le
Apache NiFi
API REST
Proxy
150 jours
600-680 €
Ivry-sur-Seine, Île-de-France
Télétravail partiel
Référent Technique Dématérialisation Factures & Réforme Fiscale 2026 Contexte : Dans le cadre de la mise en conformité aux obligations légales liées à la réforme fiscale 2026 sur la facturation électronique, le groupement conduit un projet stratégique de dématérialisation des factures couvrant l’ensemble des flux de facturation de l’entreprise. Le projet implique l’intégration de plusieurs plateformes partenaires PDP et la coordination technique entre différents ERP et systèmes d’interfaçage EDI . Objectif global Garantir la bonne mise en œuvre technique du dispositif de facturation électronique dans le système d’information, en coordination avec les équipes internes et les partenaires externes. Missions principales Assurer le rôle de référent technique sur le projet de facturation électronique. Réaliser les analyses techniques liées aux changements d’architecture et aux impacts applicatifs. Effectuer la gap analysis entre l’existant et la cible sur l’ensemble des ERP (flux sortants et entrants). Participer au mapping des données et à la qualification des flux à implémenter. Contribuer au paramétrage du proxy EDI (NIFI ou équivalent) pour l’interconnexion entre SI et PDP. Suivre la mise en place des solutions techniques selon les besoins métiers et exigences réglementaires. Participer au cadrage, conception et déploiement des interfaces et flux EDI . Garantir la cohérence et la fiabilité des échanges entre systèmes. Rédiger la documentation technique et contribuer aux stratégies de tests (unitaires, intégration, performance). Assurer le support technique aux équipes internes. Veiller au respect des normes de sécurité et de conformité . Produire les indicateurs de suivi (KPI techniques) du projet. Environnement & interlocuteurs Collaboration étroite avec : L’équipe projet fonctionnelle. Les intégrateurs des plateformes partenaires. Les équipes applicatives et techniques internes. La direction de projet. Compétences requises Solide compréhension des architectures SI et des flux EDI , idéalement dans un environnement multi-ERP. Maîtrise des outils d’interfaçage ( proxy EDI, middleware, API, ESB , idéalement NIFI ). Expérience confirmée sur projets réglementaires ou de transformation digitale . Connaissance des référentiels et mécanismes de la facturation électronique (PA, PPF, formats structurés, annuaires, cycle de vie). Capacité à analyser, structurer et formaliser des solutions techniques. Aisance en gestion de projet IT et en coordination multi-acteurs. Rigueur, autonomie, sens de la synthèse et de la communication. Profil recherché Ingénieur ou consultant technique senior SI . Expérience significative sur des projets EDI, intégration ou ERP . Une expérience liée à la réforme de la facturation électronique est un atout majeur. Durée & localisation Mission longue durée.
Mission freelance
Architecte Kubernetes OpenShift - Expert
Publiée le
Administration réseaux
Apache
Apache Kafka
12 mois
520-550 €
Île-de-France, France
Télétravail partiel
Contexte Dans le cadre du renforcement d’une équipe SRE / Plateforme Cloud au sein d’un environnement complexe et critique, nous recherchons un Expert Cloud DevOps / Architecte Kubernetes & OpenShift . Le consultant interviendra sur la conception, l’industrialisation et la sécurisation de plateformes cloud natives, orientées microservices, data et haute disponibilité . Missions principales Architecture & Design Définir et valider l’architecture Cloud & Kubernetes en tant que Design Authority Élaborer les HLD (High Level Design) et LLD (Low Level Design) Concevoir l’architecture centrale et les standards de la plateforme Participer aux choix technologiques et aux roadmaps techniques Cloud & Conteneurisation Déployer et maintenir des clusters Kubernetes (AKS, EKS, OpenShift, Rancher) Expertise Red Hat OpenShift Mise en œuvre de plateformes cloud sur Azure (AKS) et AWS (EKS) Gestion des environnements hybrides / on-premise et data centers virtualisés DevOps & Automatisation Mise en place des pipelines CI/CD Automatisation des déploiements et de l’infrastructure (IaC) Accompagnement des équipes de développement sur les bonnes pratiques DevOps Sécurité & Réseau Sécurisation des plateformes Kubernetes et Cloud Gestion des secrets et identités ( HashiCorp Vault ) Architecture réseau, segmentation, politiques de sécurité Conformité, durcissement et bonnes pratiques sécurité cloud Data & Streaming Conception et intégration de Data Platforms Mise en œuvre de solutions de streaming et de data flow : Apache Kafka Apache NiFi Intégration avec des workloads data, IA et ML ( TensorFlow ) Microservices & Observabilité Architecture et exploitation d’architectures microservices Supervision, monitoring et gestion de la performance Haute disponibilité et résilience des plateformes FinOps Pilotage des coûts Cloud Optimisation des ressources et mise en place de bonnes pratiques FinOps
Offre d'emploi
Lead Data Engineer / Data Engineer senior H/F
Publiée le
Ansible
Apache Airflow
Apache Kafka
6 mois
65k-80k €
650-760 €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons pour le compte de notre client un Lead Data Engineer / Data Engineer Senior H/F pour une mission en freelance ou portage salarial de 6 mois renouvelable à pourvoir dès que possible dans le département 92 (Ile-de-France). Un début de mission en janvier 2026 peut-être envisageable. Notre client propose 2 jours de télétravail maximum par semaine. Responsabilités principales : Mise en place de standards de développement et bonnes pratiques Expertise en performance, fiabilité et scalabilité Participation à la communauté des Tech Leads avec les différentes Lines of Business de notre client Développement de flux d’ingestion
Mission freelance
[FBO] Ingénieur DevOps / Plateforme Kubernetes - Toulouse - 1153
Publiée le
5 mois
1-450 €
Toulouse, Occitanie
Télétravail partiel
Description: La prestation a pour objet la fourniture de services d’accompagnement à la mise en place, à l’industrialisation et à l’exploitation de la plateforme SINEMA, incluant notamment : l’appui aux équipes de développement pour l’usage de la plateforme (environnements, déploiements, supervision), la mise en cohérence opérationnelle entre les besoins du programme SINEMA et les infrastructures mises à disposition, la contribution à la définition et à l’industrialisation du socle technique (Kubernetes, Kafka, Apache Nifi, Hyperledger Fabric, PostgreSQL, chaîne d’intégration et de déploiement, observabilité), les clusters Kubernetes hébergeant les composants du programme SINEMA ; Technologies : microservices et APIs back-end, front-ends web, traitements batch ou services techniques associés aux applications, chaincodes (smart contracts Hyperledger Fabric) mis en œuvre pour la gestion des mouvements et de la traçabilité ; bus de messages Kafka, Apache Nifi, Hyperledger Fabric, PostgreSQL (entrepôt, bases applicatives), chaîne d’intégration et de déploiement (GitLab, ArgoCD, templates Helm, Ansible), briques d’observabilité (collecte de journaux, métriques, traces, tableaux de bord, alertes).
Mission freelance
Ingénieur Big Data / Cloudera – Automatisation & Production (H/F)
Publiée le
Apache Kafka
3 ans
Île-de-France, France
Le service réalise le développement de l'ensemble des services BIGDATA , et garantit : - L’exploitabilité des présentations mises en œuvre - L'expertise des ensembles applicatifs - Le planning global de production - Le support au pilotage. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : - L’automatisation basée sur Cloudera CDP 7.1 à base d’Ansible et Terraform dans un contexte hybride cloud interne et serveurs physiques - Maintien de la production - La gestion des nouvelles demandes de nos bénéficiaires - Livraisons des projets qui apportent de la valeur à nos bénéficiaires - L’automatisation de l'administration et des demandes (self-service, API, scripts) - La mise en place des tests de nouveaux composants Environnement technique : Ansible Apache NiFi Hadoop (Big Data) Kafka Scripting (GuitHub, Ansible, AWX, shell, vba)
Mission freelance
TECH LEAD ( H/F)
Publiée le
Docker
Java
6 mois
400-550 €
Paris, France
Télétravail partiel
2 jour de TT TJM : 550 euros Dans le cadre d’un programme stratégique de modernisation du SI B2C , nous recherchons un consultant expert technique avec une forte connaissance du secteur Télécom pour intervenir au sein de la DSI B2C / Direction de la Modernisation du SI . 🎯 Contexte de la mission 👉 Mise en place d’une nouvelle solution de billing B2C Mobile & Fixe , basée sur ARBOR/KENAN (AMDOCS) 👉 Objectif : concevoir un système de facturation robuste et évolutif pour les 10 à 15 prochaines années 🧩 Rôle & responsabilités Le consultant interviendra en tant que référent technique et pilote du Delivery . 🔹 Pilotage du Delivery Animation et encadrement d’une équipe de 5 développeurs Estimation des charges, planification et suivi des développements Reporting et pilotage de l’avancement Garantie de la qualité, des délais et des engagements 🔹 Expertise technique Définition des architectures techniques et des outils de développement Revue de code et mise en place des bonnes pratiques Rédaction des spécifications techniques Support technique aux équipes de développement 🛠️ Compétences techniques clés ✅ Java / Backend Java 8+ (Spring Boot, Spring Data, Spring Security, Spring Cloud) JPA / Hibernate Web Services REST & SOAP Maven / Gradle Git ✅ DevOps & Cloud Docker & Kubernetes (Helm, scaling, ConfigMaps, Secrets, volumes) CI/CD & pratiques DevOps S3 Buckets ✅ Data & Middleware Bases de données : Oracle, PostgreSQL, MongoDB ETL / Apache NiFi Kafka (producers, consumers, Kafka Connect, configuration) ✅ Qualité & Tests Tests unitaires et d’intégration : JUnit, Mockito 📡 Pré-requis indispensables 🔴 Très forte connaissance du secteur Télécom 🔴 Expérience sur des systèmes de billing B2C Mobile & Fixe 🔴 Une expérience sur ARBOR / KENAN – AMDOCS est un atout majeur 🌟 Qualités personnelles Leadership et capacité à piloter une équipe Esprit d’équipe et excellent relationnel Autonomie, rigueur et sens des responsabilités Capacité à tenir des engagements dans des contextes complexes et exigeants
Offre d'emploi
Lead Data Engineer (H/F)
Publiée le
Apache Spark
Big Data
Data management
3 ans
40k-71k €
400-700 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Lead Data Engineer / Data Engineer Senior pour renforcer une équipe data travaillant sur une plateforme moderne Azure / Databricks . Votre rôle : concevoir, industrialiser et optimiser des pipelines Big Data, tout en jouant un rôle de référent technique auprès de l’équipe. Compétences indispensables Big Data : Spark, Databricks Ingestion / Streaming : Kafka, Apache NiFi Cloud : Microsoft Azure Langages : Scala ou Java + Python + SQL Orchestration : Airflow CI/CD & DevOps : Azure DevOps, Git Compétences appréciées Dataiku Ansible Connaissance Data Lake / architectures medallion Vos missions Concevoir et industrialiser des pipelines Big Data (batch & streaming). Développer des flux d’ingestion avec NiFi, Kafka, Spark. Optimiser performance, qualité et scalabilité. Participer à l’architecture et aux choix techniques. Encadrer techniquement l’équipe (guidelines, bonnes pratiques, code review). Contribuer aux automatisations et à l’orchestration (Airflow, Ansible, DevOps).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
- Contrat de prestation ESN
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
11 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois