Find your next tech and IT Job or contract Hortonworks Data Platform (HDP)

Your search returns 6 results.
Contractor

Contractor job
Expert CDP-HDP / Data Platform

Published on
Cloudera
Hortonworks Data Platform (HDP)

6 months
400-600 €
Paris, France
Contexte de la mission: Dans le cadre d’un programme de modernisation et d’optimisation d’une plateforme Big Data au sein d’un grand groupe du secteur bancaire international, nous recherchons un Expert CDP (Cloudera Data Platform) disposant d’une solide expérience sur HDP (Hortonworks Data Platform). Le consultant interviendra sur la gestion et l’amélioration continue des environnements Big Data, l’automatisation des processus via Ansible, ainsi que la coordination d’équipes techniques multi-pays. Responsabilités principales: Assurer l’amélioration continue des services sur CDP (optimisation, tuning, configuration). Gérer et résoudre les incidents de production sur les environnements HDP et CDP. Développer et maintenir les playbooks Ansible pour le déploiement et l’exploitation des clusters. Contribuer à la standardisation et à l’automatisation des processus d’exploitation. Participer à la documentation technique et à la montée en compétence des équipes locales et offshore. Compétences techniques recherchées: CDP / HDP : expertise sur la gestion des clusters, sécurité, monitoring, optimisation. Ansible / Ansible Tower : automatisation du déploiement et des opérations. CI/CD : intégration et déploiement continus dans des environnements complexes. Linux : très bonne maîtrise des environnements et scripts système. Elastic Stack et Dynatrace : supervision et suivi de la performance. LDAP / Kerberos : gestion des identités et des accès sécurisés. Expérience internationale appréciée (collaboration France / Inde). Anglais professionnel requis. Livrables attendus: Documentation technique actualisée des environnements Big Data. Playbooks Ansible fonctionnels et industrialisés. Rapports d’optimisation et recommandations d’évolution.
Contractor

Contractor job
Data Architecte (Secteur Energie / Industrie)

Published on
Apache Airflow
Apache Spark
Architecture

12 months
690-780 €
Rennes, Brittany
Hybrid
Contexte & Enjeux Projet stratégique à haute visibilité visant à construire une nouvelle Data Platform . L’infrastructure, livrée sur un modèle Kubernetes , constitue le socle du futur environnement Data. Une équipe backend est déjà en place et développe le socle applicatif en Python / Django . Objectif principal : Structurer et définir l’ architecture Data de la plateforme, dans une logique modulaire, scalable et sécurisée , et préparer l’intégration des premiers cas d’usage métiers. 🧩 Mission Le Data Architecte interviendra sur : Définir l’ architecture cible de la Data Platform après livraison de l’infrastructure ; Segmentation et ségrégation des stockages selon les typologies de données (temps réel, analytics, applicatif) ; Déploiement et orchestration des conteneurs dans l’environnement Kubernetes ; Mise en place du socle Data et des patterns de gouvernance : sécurité, qualité, monitoring, CI/CD Data ; Accompagnement sur les choix technologiques (préférence open source) ; Co-construction avec les équipes métiers utilisant des outils no-code / low-code pour leurs besoins analytiques. 🧠 Profil recherché Architecte Data confirmé, à l’aise sur les environnements Cloud Azure et Kubernetes ; Maîtrise des architectures temps réel , data pipelines et data storage (Data Lake / Data Warehouse) ; Expérience solide sur les environnements open source : Spark, Kafka, Airflow, etc. ; Capacité à intervenir sur des sujets d’ architecture globale (data + applicatif) ; Bon sens du travail en équipe et de la co-construction dans un contexte sensible et confidentiel ; Capacité à proposer des solutions adaptées aux contraintes existantes. ⚙️ Environnement technique (indicatif) Cloud : Azure Orchestration : Kubernetes Backend : Python / Django Data : Open source – Spark, Kafka, Airflow, etc. Usages métiers : No-code / Low-code
Contractor

Contractor job
IT Business Analyst - DATAHub & Finance

Published on
Agile Scrum
ALM
API Platform

12 months
550-600 €
Paris, France
Hybrid
Le poste consiste à cadrer les besoins, suivre leur réalisation, réaliser les tests IT et assister le chef de projet dans l’encadrement de certains projets. Mission Le Business Analyst aura pour responsabilités principales : Assurer le suivi des projets (Datahub, projets 2026) Cadrer les besoins métiers et proposer des solutions adaptées Planifier les différentes étapes des projets Coordonner avec les métiers et contributeurs Animer et préparer des ateliers de travail Rédiger les spécifications fonctionnelles et cahiers de recette Suivre et répondre aux questions des équipes de développement Réaliser les tests IT et assurer le suivi/support des recettes utilisateurs Maintenir à jour la documentation existante Fournir un support applicatif de niveau 3 Profil recherché Expérience significative en Business Analysis , idéalement sur des projets de Master Data / données de marché Connaissance des méthodologies Agile/Scrum et cycle en V Capacité à cadrer les besoins métiers , rédiger spécifications et cahiers de recette Expérience en tests fonctionnels et support utilisateur Bonnes compétences en coordination et communication avec les équipes métiers et techniques Autonomie et rigueur, sens de la priorisation et de la planification La maîtrise de l’anglais est un plus (interactions avec l’équipe de Lisbonne) Stack Technique / Outils Outils de gestion de projet : Jira, Confluence Outils de modélisation / spécifications : Excel, Word, Visio, Lucidchart Systèmes de données et référentiels : Datahub, Rialto, MDS ou équivalents Outils de tests et recettes : HP ALM, Jira, TestRail ou équivalents
Contractor

Contractor job
Développeur Python AWS - Data & Gen AI ( Databricks)

Published on
Agile Method
AI
Amazon DynamoDB

12 months
550-680 €
Paris, France
Hybrid
Missions principales : Participer à la conception, au développement et à la mise en œuvre de nouvelles fonctionnalités du plan de travail (workplan). Contribuer à la rédaction des spécifications techniques et à la documentation associée. Prendre part à la construction et à l’évolution d’une plateforme data intégrant la gouvernance, l’ingestion, la transformation, le stockage, l’exposition et l’analytique. Intervenir sur les aspects RUN et BUILD de la plateforme en soutien à l’équipe existante. Garantir la sécurité, la performance et la scalabilité des solutions déployées sur le Cloud AWS. Participer à la mise en place de solutions Gen AI au sein de l’écosystème Data/Cloud. Compétences techniques requises : Cloud AWS : maîtrise approfondie des services IAM, S3, DynamoDB, Lambda, API Gateway . Databricks et sa composante AI (Genie) . Développement Backend Python , avec une solide expérience en API / webservices / routes . Maîtrise d’un framework Python (idéalement AWS Powertools for Lambda , Flask ou FastAPI ). Infrastructure as Code : expertise en Terraform et bonne culture DevOps . Expérience dans la mise en œuvre de plateformes data (gouvernance, ingestion, transformation, stockage, exposition, analytics). Excellente capacité de communication écrite et orale en anglais . Compétences appréciées : Certifications AWS : Solutions Architect Associate , Data Engineer Associate et/ou Developer Associate . Connaissances en Power BI , services réseau , Collibra ou React . Sens de la collaboration, autonomie et approche orientée solution. Objectifs et livrables : Contribution à la définition et au développement des features du workplan. Livraison de composants applicatifs fiables et documentés . Participation active aux revues techniques et réunions d’équipe . Support dans la gestion opérationnelle (RUN) et l’ amélioration continue (BUILD) des solutions Cloud & Data.
Contractor

Contractor job
Architecte Entreprise SI (Secteur Energie / Industrie)

Published on
Amazon S3
Apache Kafka
API

12 months
700-810 €
Paris, France
Hybrid
Notre client acteur majeur de l’agro-industrie, conduit une transformation SI d’envergure autour de la modernisation et de l’interopérabilité de son système d’information : Migration vers le cloud public Azure Mise en place d’une Data Platform Open Source (OpenShift, Kubernetes, Kafka, S3, etc.) Déploiement d’une plateforme d’interopérabilité (iPaaS) pour fluidifier les échanges inter-BU Modernisation de SAP et rationalisation des briques techniques Introduction d’un outil d’EAM (type LeanIX) pour la gouvernance du SI Le SI du groupe est complexe, hétérogène et distribué , avec des interactions entre environnements industriels, applicatifs et cloud, dans un contexte international et multi-BU . 🎯 Objectif du poste L’Architecte d’Entreprise interviendra en appui transversal des projets et participera à la structuration de la gouvernance d’architecture . Il combinera vision stratégique (urbanisation, standards, cartographie) et accompagnement opérationnel des projets IT. 🧱 Missions principales1. Accompagnement des projets IT (≈ 70%) Accompagner les équipes projets dans leurs choix d’architecture et de solutions. Garantir l’alignement avec les standards et la cohérence globale du SI. Soutenir la formalisation des besoins métiers et leur traduction en orientations techniques. Documenter les choix d’architecture dans un cadre structuré et partageable. 2. Cartographie du SI (≈ 30%) Élaborer et maintenir les cartographies du SI : métiers, applicatives, techniques et infrastructure. Mettre à disposition des représentations claires et synthétiques pour la prise de décision et la gouvernance SI . 3. Normes et Standards Définir et maintenir les principes directeurs et standards d’architecture . Garantir la cohérence, la sécurité et la maintenabilité du SI dans le temps. ⚙️ Environnement technique & organisationnel Cloud : Azure (IaaS, PaaS, intégration applicative) Data Platform : OpenShift, Kubernetes, Kafka, S3… Interopérabilité : plateforme iPaaS en cours de déploiement ERP : SAP (modernisation en cours) EAM : LeanIX (ou équivalent) Contexte : international, multi-pays, multi-langues, multi-BU 🧩 Compétences attenduesTechniques Maîtrise de l’ architecture d’entreprise et d’application (TOGAF, ArchiMate, LeanIX…) Bonne connaissance des écosystèmes Cloud Azure et environnements hybrides Capacité à formaliser des cartographies SI et modèles d’architecture Maîtrise des modèles d’intégration et d’interopérabilité (API, ESB, iPaaS, etc.) Comportementales Esprit d’analyse, de synthèse et de leadership Diplomatie et capacité à challenger sans bloquer Excellente communication orale et écrite Autonomie, rigueur et orientation résultats
Contractor

Contractor job
Product Owner Data Expert

Published on
Agile Scrum
Architecture
Azure Data Factory

12 months
600-630 €
Ile-de-France, France
Hybrid
Contexte de la mission La mission s’inscrit dans un programme de refonte des traitements de données Ventes et Client, visant à fiabiliser et valoriser les données au service des métiers. L’objectif est de transformer les jeux de données existants en Data Products clairs, robustes et pérennes, tout en optimisant la valeur de l’ensemble décisionnel actuel. L’environnement est hybride , combinant : des composants legacy à maintenir et fiabiliser, essentiels au pilotage opérationnel, et des chantiers de refonte et de modernisation menés dans une logique produit et Data Mesh . La mission s’inscrit dans un contexte de modernisation de la stack data (architecture Lakehouse) et de montée en maturité des pratiques Produit au sein des équipes Data. Missions principales Le prestataire assurera le rôle de Product Owner Data , en pilotant une équipe pluridisciplinaire (Produit, Tech, Data). Ses responsabilités incluront : Conduire la refonte et la valorisation des données Ventes , du cadrage des besoins métiers jusqu’à la livraison des Data Products. Piloter la roadmap produit data dans une logique Data Mesh : gouvernance, qualité, exploitabilité. Maintenir l’existant (legacy) en garantissant la continuité de service et la fiabilité des indicateurs clés. Collaborer étroitement avec le Product Manager et les autres PO Data pour aligner la vision et assurer la cohérence transverse. Animer les échanges métiers autour de la valeur d’usage, des indicateurs de succès et de la qualité des livrables. Contribuer activement à la communauté Produit & Data , en partageant les bonnes pratiques et en favorisant la montée en maturité collective. Livrables attendus Roadmap produit claire et priorisée (vision, jalons, backlog). Cadrages et spécifications fonctionnelles des Data Products (règles de gestion, contrats d’interface, indicateurs de succès). Plan de maintien et d’amélioration continue du legacy (cartographie, fiabilisation, suivi qualité, documentation). Pilotage agile et reporting régulier sur l’avancement et les risques. Documentation consolidée (catalogue, dictionnaire de données, fiches produit, gouvernance).

Submit your CV

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

6 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us