Find your next tech and IT Job or contract Apache NiFi
Your search returns 11 results.
Contractor job
Ingénieur Devops NIFI H/F
Published on
Apache NiFi
DevOps
6 months
400-550 €
Ile-de-France, France
Hybrid
Livrable N°1 : Gérer toutes les phases de la mise en production des flux + Récolter le besoin auprès des projets et les conseiller, puis les aider à le formaliser + S’assurer de la conformité technique / sécurite de la demande + Produire le flux dans les standards en place + Etablir les documents techniques (contribution au DAT / DEX) + Appliquer si nécessaire des transformations techniques sur la donnée avant de la distribuer (DQM) + Déployer les flux applicatifs dans les différents environnements Livrable N°2 : assurer le support et l’évolution des flux mis en production + Garantir le bon fonctionnement des flux en production et leurs évolutions + Ecrire et mettre en œuvre les procédures d’exploitation des flux + Superviser les flux avec l’outil de monitoring groupe DATADOG (assurer l’analyse et la résolution des incidents, établir les rapports d’incidents) ; Livrable N°3 : contributions au socle d’ingestion + Gérer la disponibilité, la sécurité et l’évolution du socle technique d’ingestion + Aider à l’amélioration de l’automatisation / industrialisation des flux et plateformes d’ingestion
Job Vacancy
Ingénieur Big Data DevOps
Published on
Apache NiFi
3 years
Ile-de-France, France
Hybrid
Attentes principales du client RUN & Support avancé Assurer le MCO (Maintien en Condition Opérationnelle) des plateformes Big Data. Résoudre les incidents N2/N3 et analyser les root causes pour fiabiliser la production. Accompagnement et relation client Être capable d’ expliquer et de guider les utilisateurs dans l’usage des plateformes. Jouer un rôle de référent technique sur NiFi / Kafka / ingestion de données. Build & industrialisation Concevoir et automatiser les offres d’ingestion de données. Participer aux déploiements NiFi , à l’ industrialisation des flux , et à la mise en place de CI/CD. Administration & Sécurisation Gérer et sécuriser les clusters Big Data et les environnements applicatifs (on-prem et cloud). Gérer le cycle de vie des technologies : upgrades, patchs, migrations. Contribution aux projets Travailler dans un cadre Agile (Scrum/Kanban) . Développer (Java/Spring, React, CSS/JS) et intégrer les solutions nécessaires. Apporter une veille technologique et être force de proposition pour améliorer les plateformes. Compétences clés recherchées Big Data : Apache NiFi (le plus attendu), Kafka, HDFS, Hive, Hue, IBM COS, Oracle DB. CI/CD & automatisation : Ansible, GitLab CI, ArgoCD, Vault. Systèmes & infra : Linux RHEL, Kubernetes, OpenShift, environnements stateful. Dev : Java (Spring Boot / Security), React, CSS3, JS, frameworks UI (Ant Design, Bootstrap, Material). Méthodes : Scrum, Kanban.
Contractor job
Référent Technique Dématérialisation Factures & Réforme Fiscale
Published on
Apache NiFi
API REST
Electronic Data Interchange (EDI)
150 days
600-680 €
Ivry-sur-Seine, Ile-de-France
Hybrid
Référent Technique Dématérialisation Factures & Réforme Fiscale 2026 Contexte : Dans le cadre de la mise en conformité aux obligations légales liées à la réforme fiscale 2026 sur la facturation électronique, le groupement conduit un projet stratégique de dématérialisation des factures couvrant l’ensemble des flux de facturation de l’entreprise. Le projet implique l’intégration de plusieurs plateformes partenaires PDP et la coordination technique entre différents ERP et systèmes d’interfaçage EDI . Objectif global Garantir la bonne mise en œuvre technique du dispositif de facturation électronique dans le système d’information, en coordination avec les équipes internes et les partenaires externes. Missions principales Assurer le rôle de référent technique sur le projet de facturation électronique. Réaliser les analyses techniques liées aux changements d’architecture et aux impacts applicatifs. Effectuer la gap analysis entre l’existant et la cible sur l’ensemble des ERP (flux sortants et entrants). Participer au mapping des données et à la qualification des flux à implémenter. Contribuer au paramétrage du proxy EDI (NIFI ou équivalent) pour l’interconnexion entre SI et PDP. Suivre la mise en place des solutions techniques selon les besoins métiers et exigences réglementaires. Participer au cadrage, conception et déploiement des interfaces et flux EDI . Garantir la cohérence et la fiabilité des échanges entre systèmes. Rédiger la documentation technique et contribuer aux stratégies de tests (unitaires, intégration, performance). Assurer le support technique aux équipes internes. Veiller au respect des normes de sécurité et de conformité . Produire les indicateurs de suivi (KPI techniques) du projet. Environnement & interlocuteurs Collaboration étroite avec : L’équipe projet fonctionnelle. Les intégrateurs des plateformes partenaires. Les équipes applicatives et techniques internes. La direction de projet. Compétences requises Solide compréhension des architectures SI et des flux EDI , idéalement dans un environnement multi-ERP. Maîtrise des outils d’interfaçage ( proxy EDI, middleware, API, ESB , idéalement NIFI ). Expérience confirmée sur projets réglementaires ou de transformation digitale . Connaissance des référentiels et mécanismes de la facturation électronique (PA, PPF, formats structurés, annuaires, cycle de vie). Capacité à analyser, structurer et formaliser des solutions techniques. Aisance en gestion de projet IT et en coordination multi-acteurs. Rigueur, autonomie, sens de la synthèse et de la communication. Profil recherché Ingénieur ou consultant technique senior SI . Expérience significative sur des projets EDI, intégration ou ERP . Une expérience liée à la réforme de la facturation électronique est un atout majeur. Durée & localisation Mission longue durée.
Contractor job
Product Owner _ Data
Published on
Apache NiFi
12 months
500-550 €
Paris, France
Hybrid
Nous sommes à la recherche pour l'un de nos clients dans le domaine de l'assurance d'un Product Owner sur des projets DATA : Tâches : - Piloter le backlog Data autour des technologies de la plateforme data - Définir la vision produit autour des flux de données, de la recherche et de la visualisation. - Recueillir les besoins métiers liés à la collecte, l’analyse et la restitution des données. - Prioriser le backlog en fonction de la valeur métier et des contraintes techniques. - Rédiger les user stories pour les équipes techniques (Data Engineers, DevOps). - Piloter les développements et les intégrations sur NiFi, Grafana et Elasticsearch. - Valider les livrables : pipelines NiFi, dashboards Grafana, index Elasticsearch. - Piloter les cérémonies agiles : Daily, Sprint planning, Sprint déma, Sprint rétrospectives - Assurer la qualité des données et la performance des flux. - Suivre les indicateurs clés : latence des flux, disponibilité des dashboards, pertinence des recherches. -Collaboration : Collaborer avec les équipes interfonctionnelles, notamment les ingénieurs logiciels, les architectes de données et les analystes, pour comprendre les exigences métier et assurer une intégration harmonieuse des pipelines de données.
Contractor job
Business Analyst Technique
Published on
Apache Kafka
Apache NiFi
Grafana
1 year
Toulon, Provence-Alpes-Côte d'Azur
Dans le cadre du renforcement de ses équipes , notre client, recherche un Business Analyst Technique pour son site basé à Toulon . Missions principales : 🔹 Analyser les besoins fonctionnels et techniques liés aux systèmes complexes. 🔹Rédiger les spécifications fonctionnelles et techniques. 🔹Participer à la conception et configuration des flux de données via Apache NiFi et Kafka. 🔹Contribuer à la création de scripts Python pour l’exploitation, le traitement et l’analyse de données. 🔹Développer et maintenir des tableaux de bord Grafana pour le suivi et la supervision en temps réel. 🔹Collaborer avec les équipes techniques et métiers pour optimiser les solutions déployées. Compétences requises : 🔹Expérience confirmée en analyse fonctionnelle et technique sur des systèmes complexes. 🔹Maîtrise de Python, Apache NiFi, Kafka et Grafana. 🔹Excellente capacité de rédaction de spécifications techniques et de communication transverse. 🔹Autonomie, sens de l’initiative et esprit collaboratif.
Job Vacancy
Ingénieur Support et Développement Plateformes Big Data
Published on
Apache Kafka
Apache NiFi
Java
1 year
40k-45k €
100-550 €
Montreuil, Ile-de-France
Hybrid
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de la maintenance, support et construction des plateformes d'ingestion de données (dont Apache NiFi) et d'une interface REACTJS/Sprintboot exposant des API sur des infrastructures on premise et cloud IBM (VM et Kubernetes). Missions principales Support (MCO/fonctionnement opérationnel des services) et résolution des problèmes N2 et N3 en Production avec analyse des root causes Accompagnement des clients dans l'utilisation des plateformes Création d'offres d'ingestion de données ainsi que leur automatisation et industrialisation Déploiement des plateformes NiFi Administration/sécurisation des clusters et des services applicatifs Upgrade des technologies (life cycle management) et tests associés
Job Vacancy
Data Engineer Azure & Databricks
Published on
Apache NiFi
CI/CD
Data Lake
6 months
55k-65k €
420-520 €
Fos-sur-Mer, Provence-Alpes-Côte d'Azur
Hybrid
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Engineer Azure & Databricks (H/F). 🏭 Entreprise reconnue dans le secteur de la sidérurgie, implantée dans de nombreuses villes en France, notre client est le plus important producteur d'acier au monde, et a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. Description du poste 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Configurer, structurer et mettre en œuvre l’environnement Azure Data Lake et Databricks afin de répondre aux besoins d’ingestion et de traitement des données. 🔸 Créer des pipelines d’ingestion robustes sous Apache NiFi , intégrant des sources industrielles variées et respectant les contraintes techniques de performance, de mémoire et de réseau. 🔸 Mettre en place et maintenir un Unity Catalog garantissant la gouvernance, la traçabilité et le Data self-service . 🔸 Veiller à la stabilité de l’environnement , à la qualité du code, à la performance des traitements et à la complétude de la documentation technique. 🔸 Promouvoir la solution auprès des utilisateurs, rédiger la documentation associée et contribuer activement au partage de connaissances au sein de l’équipe Data.
Contractor job
Product Owner Data (H/F)
Published on
Agile Scrum
Apache NiFi
Data Warehouse
12 months
550-620 €
Paris, France
Hybrid
Freelance / Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Paris 8 - 🛠 Expérience de 5 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Product Owner Data pour intervenir chez un de nos clients dans le secteur bancaire & assurance. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Piloter le backlog Data et définir la vision produit autour des flux de données, de la recherche et de la visualisation. - Recueillir les besoins métiers liés à la collecte, l’analyse et la restitution des données. - Prioriser le backlog en fonction de la valeur métier et des contraintes techniques. - Rédiger les user stories et collaborer étroitement avec les Data Engineers et DevOps. - Piloter les développements et intégrations sur Apache NiFi, Grafana et Elasticsearch. - Valider les livrables : pipelines NiFi, dashboards Grafana, index Elasticsearch. - Animer les cérémonies agiles : Daily, Sprint planning, Sprint demo, rétrospectives. - Assurer la qualité des données et la performance des flux. - Suivre les KPI clés : latence, disponibilité, pertinence des recherches. - Collaborer avec les équipes interfonctionnelles (ingénieurs logiciels, architectes, analystes).
Job Vacancy
Expert Kafka, Nifi, Ansible H/F
Published on
Apache Kafka
3 years
Ile-de-France, France
Le service réalise le développement de l'ensemble des services BIGDATA , et garantit : - L’exploitabilité des présentations mises en œuvre - L'expertise des ensembles applicatifs - Le planning global de production - Le support au pilotage. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : - L’automatisation basée sur Cloudera CDP 7.1 à base d’Ansible et Terraform dans un contexte hybride cloud interne et serveurs physiques - Maintien de la production - La gestion des nouvelles demandes de nos bénéficiaires - Livraisons des projets qui apportent de la valeur à nos bénéficiaires - L’automatisation de l'administration et des demandes (self-service, API, scripts) - La mise en place des tests de nouveaux composants Environnement technique : Ansible Apache NiFi Hadoop (Big Data) Kafka Scripting (GuitHub, Ansible, AWX, shell, vba)
Job Vacancy
Data ingénieur NiFi - Finance et banque H/F
Published on
40k-50k €
France
Hybrid
Contexte de la mission : Viveris vous propose un poste de Data Engineer au sein de la Business Unit Épargne et Services Financiers. Dans le cadre d'un nouveau projet visant à centraliser, fiabiliser et gouverner l'ensemble des données relatives aux instruments financiers, vous intégrerez la squad Data, composée de trois développeurs Data, d'un architecte technique, d'un business analyst et d'un product owner. Vous devrez maîtriser l'environnement NiFi ainsi que l'architecture des pipelines de données, qui présente une certaine complexité avec de nombreux flux et interactions entre les différentes tâches. Responsabilités : - Concevoir et développer des pipelines de données ; - Développer et intégrer sur Apache NiFi ; - Contrôler la qualité et la traçabilité ; - Rédiger la documentation et partager vos connaissances.
Contractor job
Manhattan WMS Platform Engineer
Published on
£300-500
United Kingdom
Remote
Manhattan WMS Platform Engineer Manhattan Platform Engineer with 6+ years experience Technical experience with Manhattan with ambition to learn new technologies Good communicator speaking good understandable English. The candidate should be able to interact with their own team as well as the network & platform team. Knowledge about networking, cloud, Unix and maintaining the Manhattan Platform. the platform runs on cloud (AWS) with RDS database. Experience with installations of SDN’s and upgrading components Willing to learn new techniques like Apache NiFi or other specific technologies. Interested in hardware like printers & Scanners. Knowledge of Docker Swarm, Terraform and Atlantis, Jenkins, Git , and have created Bash scripts. Experience working in Agile Scrum environment. Willing to work in Netherlands time zone Willing to work on call support during non working hours This is a remote position. Initially this will be a 6 to 12 month contract assignment. Rate will be in the region £300 - £500 per day depending on experience. Do send your CV to us in Word format along with your daily rate and availability.
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country
11 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k