Trouvez votre prochaine offre d’emploi ou de mission freelance Hortonworks Data Platform (HDP)
Votre recherche renvoie 8 résultats.
Mission freelance
Un Expert Dynatrace sur Nanterre
Almatek
Publiée le
Big Data
Dynatrace
Hadoop
6 mois
Nanterre, Île-de-France
Almatek recherche pour un de ses clients, Un Expert Dynatrace sur Nanterre Profil recherché : Expert Dynatrace Activités : Profil Sénior en capacité de transférer la connaissance, de délivrer rapidement Supervision, Monitoring de kub, openshift, big data , TDP (trunk data platform) qui vise a remplacer distribution Haddop rachetée par Hortonworks Expertise dans la configuration et l'utilisation de l'outil Dynatrace. Localisation : Nanterre Démarrage : 06 avril Durée : 6 mois R Almatek recherche pour un de ses clients, Un Expert Dynatrace sur Nanterre Profil recherché : Expert Dynatrace Activités : Profil Sénior en capacité de transférer la connaissance, de délivrer rapidement Supervision, Monitoring de kub, openshift, big data , TDP (trunk data platform) qui vise a remplacer distribution Haddop rachetée par Hortonworks Expertise dans la configuration et l'utilisation de l'outil Dynatrace. Localisation : Nanterre Démarrage : 06 avril Durée : 6 mois R
Offre d'emploi
Administrateur Infrastructures HDP/CDP
VISIAN
Publiée le
Apache Airflow
Apache Spark
Hortonworks Data Platform (HDP)
1 an
40k-45k €
400-540 €
Paris, France
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement pour assurer le MCO des Infrastructures HDP et CDP, administration des Clusters. Les consultants retenus auront pour mission : Administration et optimisation de clusters HDP/CDP Installation, configuration et maintenance des clusters Gestion des mises à jour et des patchs de sécurité Surveillance des performances et optimisation des ressources Gestion/administration de clusters Kubernetes Automatisation des déploiements avec Operators Sécurisation et monitoring des environnements conteneurisés Orchestration des workflows avec Apache Airflow Développement et optimisation des DAGs pour la gestion des pipelines de données Gestion des dépendances et optimisation des temps d'exécution Intégration avec les autres outils de l'écosystème Traitement et analyse des données avec Apache Spark Développement et optimisation des jobs Spark (batch et streaming) Gestion des performances et tuning des jobs Intégration avec les systèmes de stockage distribués Optimisation des requêtes et accès aux données avec Starburst Configuration et administration de Starburst Optimisation des requêtes SQL distribuées Sécurisation et gestion des accès aux différentes sources de données
Mission freelance
PM / PMO Data & Digital Transformation
Gentis Recruitment SAS
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)
12 mois
Paris, France
Contexte La Direction Data et Digital d'un grand groupe du luxe, travaille à structurer ses plateformes et ses projets data dans un contexte international et omnicanal. Les initiatives couvrent : développement e-commerce et omnicanal structuration de données métiers et analytique industrialisation des flux data adoption de bonnes pratiques de pilotage, qualité de données et gouvernance Ils disposent d’équipes data, digitales et technologiques intégrées, alliant innovation, qualité de service et excellence opérationnelle . Mission principale : Supporter le Programme Data et Digital dans : la coordination des initiatives transverses le suivi de la roadmap data & digital la production des reportings projets le pilotage des dépendances entre streams le suivi des risques, des jalons, des budgets l’animation des comités de pilotage l’optimisation des process PMO Ce rôle implique d’être l’interface entre : DSI / Data Office / métier / product owners / équipes techniques . La dimension technique est un atout (compréhension des flux data, reporting, plateformes cloud, outils de gouvernance) mais ce rôle n’est pas axé développement ou ingénierie. Le PMO travaille avec des data engineers, BI, devops, architectes et responsables métier. Technologies & Environnement (contextuel) Un environnement technologique moderne comprenant : outils de gestion de projet : Jira, Confluence, Slack technologies de développement backend : Node.js, PHP/Symfony (hors data) devops / cloud : Docker, Kubernetes, Terraform, AWS compétences data : Python, SQL, outils de data science Pour un PM / PMO, la compréhension de ces environnements permet d’être pertinent dans les arbitrages et le pilotage des initiatives, notamment lorsque les équipes data travaillent avec des technologies cloud ou des plateformes analytiques.
Offre d'emploi
Expert Agentic AI & LLM
R&S TELECOM
Publiée le
AWS Cloud
Azure
Hortonworks Data Platform (HDP)
1 an
Malakoff, Île-de-France
CONTEXTE GENERAL : Dans un contexte de transformation numérique et d’essor rapide de l’intelligence artificielle générative et agentique, le Groupe, via sa DSI centrale, souhaite structurer et maîtriser l’introduction de ces technologies au sein de son système d’information. L’objectif est d’explorer les apports de l’Agentic AI pour soutenir les métiers et les fonctions transverses. Missions : Partenariats & écosystème plateformes Cartographier l’écosystème des éditeurs/intégrateurs et identifier les bons interlocuteurs. Préparer, animer et restituer les workshops partenaires (ex. AWS, Microsoft, MuleSoft, Snowflake). Évaluer les offres (frameworks, orchestration, observabilité, sécurité, gouvernance, intégration SI). Discovery & cas d’usage Agentic AI Animer des ateliers multi-domaines pour : • définir des cas d’usage transverses (support, IT ops, knowledge assistant, productivité dev, automation), • définir des cas d’usage spécifiques à l’aéronautique (maintenance, supply chain, engineering, ops, qualité, MRO, doc). Formaliser les cas d’usage : objectifs, périmètre, acteurs, données, risques, critères de succès. Prioriser selon valeur/risque/effort (quick wins vs bets stratégiques). Recommandations plateformes & trajectoire Proposer des patterns d’architecture Agentic AI (RAG, multi/single agent, event-driven, human-in-loop). Recommander plateformes/briques : cloud, iPaaS, API management, vector DB, orchestration, MLOps/LLMOps. Définir la trajectoire de déploiement : MVP → industrialisation, critères de passage en production, exigences non fonctionnelles. Portfolio, roadmap & gouvernance Construire un portfolio projet (lots, jalons, budget, staffing, dépendances SI). Définir la gouvernance : prise de décision, sécurité, conformité, data governance, gestion des risques, modèle opérationnel. Exploration technologique & livrables Piloter des tech spikes/POC orientés faisabilité et design. Produire un livre blanc interne : standards, patterns, comparatif plateformes, guidelines sécurité, recommandations d’industrialisation, retours d’expérience.
Mission freelance
MLOps / Tech Lead Plateforme IA
Cherry Pick
Publiée le
CI/CD
Data governance
Data Lake
12 mois
550-610 €
Paris, France
Contexte et enjeux Notre client en assurance s’est engagé dans un projet stratégique majeur visant à accélérer et industrialiser le déploiement des cas d’usage de la Data Science et de l’Intelligence Artificielle (Machine Learning et LLM). Ce programme ambitieux repose sur la mise en œuvre de socles technologiques robustes, sécurisés et scalables : MLOps LLMOps Environnements Python industrialisés L’objectif est de fournir une plateforme mutualisée et standardisée permettant le développement, l’entraînement, le déploiement et le monitoring des modèles d’IA, utilisable par l’ensemble des équipes Data & IA du client. Dans ce cadre, notre client en assurance recherche un Consultant expert pour prendre en charge la gestion et l’animation de l’équipe dédiée à la plateforme MLOps . Ce rôle est stratégique pour la réussite du projet et la pérennisation des socles en mode RUN. Responsabilités principales 1. Management et animation de l’équipe MLOps Structurer et encadrer l’équipe MLOps (MLOps Engineers, Data Engineers, etc.) Définir les rôles et responsabilités Organiser et planifier les activités, répartir les charges et suivre l’avancement Mettre en place et animer les rituels agiles (daily stand-ups, sprint reviews, rétrospectives) Favoriser la montée en compétences et la diffusion des bonnes pratiques 2. Pilotage technique de la plateforme MLOps / LLMOps Définir l’architecture technique de la plateforme en collaboration avec les architectes et les équipes Data & IA Sélectionner et intégrer les outils et technologies MLOps / LLMOps pertinents Garantir la disponibilité, la scalabilité, la sécurité et la performance de la plateforme Assurer la conformité aux normes de sécurité, de gouvernance des données et de réglementation (RGPD) Définir, suivre et analyser les KPIs de la plateforme et des modèles déployés 3. Delivery du socle MLOps et des cas d’usage Garantir le déploiement des composants du socle MLOps industriel , en lien avec l’ensemble des parties prenantes DSI Organiser la réintégration des cas d’usage déjà en production dans le nouveau socle (compatibilité ascendante) Piloter le déploiement et la gestion opérationnelle de la plateforme MLOps, en autonomie et en coordination avec la DSI Accompagner l’industrialisation et la mise en production des cas d’usage IA 4. Roadmap, gouvernance et pilotage Définir et mettre en œuvre la roadmap MLOps / LLMOps , en adéquation avec les besoins des équipes Data & IA Piloter un portefeuille de projets techniques Gérer les budgets et l’allocation des ressources Animer les instances de pilotage (Comité Projet, Comité de Pilotage) S’appuyer sur les outils de suivi : SCIFORMA (planning et suivi budgétaire), JIRA (suivi des tâches) 5. Communication et coordination Interagir avec les équipes Data Scientists, Data Analysts, Architectes, Sécurité et Opérations Présenter l’avancement et les résultats aux parties prenantes internes (direction, métiers) Animer des ateliers de partage de connaissances et de bonnes pratiques Accompagner l’adoption de la plateforme par les équipes Data & IA Livrables attendus Organisation cible et plan de charge de l’équipe MLOps Roadmap détaillée de la plateforme MLOps / LLMOps Documentation technique et fonctionnelle Rapports d’activité et tableaux de bord de suivi Propositions d’architecture et de choix technologiques Processus et procédures MLOps / LLMOps formalisés Supports de formation et de sensibilisation
Mission freelance
Data Architect GCP
Atlas Connect
Publiée le
Apache
Apache Airflow
Apache Spark
12 mois
540-600 €
Marseille, Provence-Alpes-Côte d'Azur
L’objectif principal est la conception et la mise en œuvre d’un Data Lake moderne sur GCP , basé sur une architecture Médaillon (Bronze / Silver / Gold) et s’appuyant sur Apache Iceberg , avec la capacité de détacher une brique autonome pour certains clients manipulant des données sensibles. Missions principalesArchitecture & Data Platform Concevoir et mettre en place un Data Lake sur GCP basé sur Apache Iceberg Définir et implémenter une architecture Médaillon (ingestion, transformation, exposition) Participer aux choix d’architecture pour une brique data autonome dédiée aux données sensibles Contribuer à l’ internalisation de la plateforme data (design, outillage, bonnes pratiques) Data Engineering Développer des pipelines d’ingestion pour : Données capteurs issues de drones Données tabulaires associées Gérer des pics de charge importants (jusqu’à 10 Go ingérés simultanément) Garantir la disponibilité rapide des données après les vols d’essai Mettre en place des contrôles de qualité, traçabilité et gouvernance des données Data & Analytics Préparer les données pour des cas d’usage de maintenance prédictive Optimiser les performances de lecture et d’écriture (partitionnement, schéma, versioning) Collaborer avec les équipes data science / métier Sécurité & conformité Travailler dans un contexte habilitable (données sensibles, clients spécifiques) Appliquer les contraintes de sécurité et de cloisonnement des données
Mission freelance
Data Product Manager/PO (Rennes)
Atlas Connect
Publiée le
BigQuery
Data Lake
Data science
12 mois
500-540 €
Rennes, Bretagne
Nous recherchons un Data Product Manager freelance hybride, technique et opérationnel, capable de traduire les besoins métiers en solutions concrètes et de participer activement à la réalisation de prototypes. Compétences et qualités : Technique : maîtrise avancée de SQL (idéalement BigQuery), capable de manipuler la donnée et de créer des dashboards simples (ex. Looker Studio) pour prototyper. Pragmatique : travailler en mode MVP rapide, tester et itérer rapidement. Relationnel : aisance relationnelle, capacité à fluidifier les échanges et créer du lien avec les équipes. Connaissance de GCP (Google Cloud Platform) Notions de Python (lecture et compréhension de scripts simples) Modalités Localisation : Rennes / Hybride (à définir) Démarrage : Dès que possible
Mission freelance
Senior DevOps - ML Platform
Atlas Connect
Publiée le
Administration linux
AWS Cloud
AWS CloudFormation
12 mois
600-710 €
Île-de-France, France
Vous rejoindrez l’équipe ML Platform , dont la mission est d’améliorer la productivité des chercheurs en machine learning en développant des bibliothèques, services, outils et bonnes pratiques, tout en garantissant une mise en production robuste des modèles ML à grande échelle. L’équipe est composée : d’ingénieurs travaillant sur des projets transverses, et de profils accompagnant les équipes fonctionnelles dans leur parcours ML. Vous travaillerez également en étroite collaboration avec le ML Lab , une équipe de recherche académique nécessitant des outils et infrastructures dédiés, distincts de l’infrastructure principale, afin de : accéder librement aux technologies open source de pointe, collaborer avec des partenaires externes, expérimenter rapidement à grande échelle. Mission En tant que Senior DevOps Engineer au sein de l’équipe ML Platform, vous mettrez à profit votre solide background en ingénierie logicielle, votre maîtrise de Python et votre expérience des environnements cloud pour faciliter le travail quotidien du ML Lab sur , tout en assurant les interconnexions nécessaires avec l’infrastructure principale, majoritairement basée sur AWS . Responsabilités principales Configurer et maintenir l’environnement cloud , notamment pour l’accès GPU du ML Lab Mettre en place des mécanismes FinOps et des protections minimales contre les erreurs humaines (“fat fingers”) Optimiser les images Docker afin de réduire les temps de cold start Implémenter et maintenir des systèmes de monitoring pour l’entraînement des modèles ML Contribuer ponctuellement aux projets transverses de l’équipe ML Platform sur AWS (CI/CD, outillage cloud, services communs pour les chercheurs) Promouvoir et implémenter des processus d’ automatisation Renforcer la sécurité via des évaluations de vulnérabilités, la gestion des risques et le déploiement de mesures de cybersécurité adaptées
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
8 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois