Trouvez votre prochaine offre d’emploi ou de mission freelance HDFS (Hadoop Distributed File System) à Toulouse

Votre recherche renvoie 3 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance Architecte socle big data F/H - 100% télétravail

LeHibou
Publiée le
Cloudera
Docker
Hadoop

2 ans
450-580 €
Toulouse, Occitanie

Notre client dans le secteur Conseil et audit recherche un Architecte socle BigData H/F Descriptif de la mission: Dans la gamme « Socle Applicatif et Usine Logicielle » au sein du secteur Architecture et Composants Techniques, nous recherchons dès que possible un architecte socle BigData. Description de la mission : Au sein de l’équipe socle BigData, en lien avec le product owner socle et l’architecte déjà présent, le profil prend un rôle d’architecte / expert sur le socle BigData : • Porter des sujets d’architecture pour intégrer le Cloudera Data Platform au sein du SI • Contribuer à l’industrialisation de notre plateforme Big Data (déploiement des composants, supervision, sécurité, etc…), • Rédiger des modes opératoires et des documentations techniques pour faciliter la compréhension et la montée en compétence de l’équipe, • Qualifier et chalenger les architectures applicatives proposer par les équipes projets • Identifier les faiblesses des environnements et proposer des solutions pour optimiser et améliorer la robustesse de la plateforme , • Apporter de l’expertise sur les incidents et être force de proposition sur les nouveaux usages (APIsation, PRA/PCI, etc…), • Si le profil a une fibre chef de projet / scrum master, il pourra prendre en charge une partie de l’animation de l’équipe socle. Ces activités nécessitent une connaissance technique de l’environnement Hadoop Big Data acquise sur plusieurs architectures Big Data déployées en production, le sens du service et une forte autonomie. Une bonne vision d’ensemble sera nécessaire : sécurité, exploitation, etc…  Livrables de la prestation : • Etudes d’architecture • POC : Code source commenté / Tests • Industrialisation de composant du socle • Documentations diverses  Compétences techniques requises : • Maitrise d’une solution HDP ou CDP on premise • Cloudera Manager, Kerberos, Ranger • Kafka • Spark, Zeppelin • HDFS, Hive, Hbase • Oozie • Yarn • Jenkins • Docker L’ensemble de ces activités nécessitent une très bonne connaissance des composants Hadoop. Une expérience de 3 à 5 ans sur un poste d’architecte Big Data nous semble nécessaire pour bien appréhender ces activités. Ces activités nécessitent une forte autonomie, un mindset d’architecture et d’administration de plateforme Big Data, de la curiosité et une appétence pour la mise en place de solutions techniques. Un profil ayant une appétence pour l'animation d'équipe serait idéal. Une expérience réalisée sur un cluster sécurisé et « kerberisé » serait un plus, tout comme une expérience de déploiement de cluster à la demande. Compétences / Qualités indispensables: • Maitrise d’une solution HDP ou CDP on premise, • Cloudera Manager, Kerberos, Ranger,Kafka, • Spark, Zeppelin, • HDFS, Hive, Hbase,Oozie,Yarn,Jenkins,Docker, • Etudes d’architecture

Freelance

Mission freelance Data Architect - Hadoop

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Kafka
Hadoop

6 mois
100-1k €
Toulouse, Occitanie

Voici le descriptif : Loc : Est de Toulouse, transport en commun à proximité TT : oui deux jours Description de la mission : Au sein de l’équipe socle BigData, en lien avec le product owner socle et l’architecte déjà présent, le profil prend un rôle d’architecte / expert sur le socle BigData : Porter des sujets d’architecture pour intégrer le Cloudera Data Platform au sein du SI UCN Contribuer à l’industrialisation de notre plateforme Big Data (déploiement des composants, supervision, sécurité, etc…), Rédiger des modes opératoires et des documentations techniques pour faciliter la compréhension et la montée en compétence de l’équipe, Qualifier et chalenger les architectures applicatives proposer par les équipes projets Identifier les faiblesses des environnements et proposer des solutions pour optimiser et améliorer la robustesse de la plateforme , Apporter de l’expertise sur les incidents et être force de proposition sur les nouveaux usages (APIsation, PRA/PCI, etc…), Si le profil a une fibre chef de projet / scrum master, il pourra prendre en charge une partie de l’animation de l’équipe socle. Ces activités nécessitent une connaissance technique de l’environnement Hadoop Big Data acquise sur plusieurs architectures Big Data déployées en production, le sens du service et une forte autonomie. Une bonne vision d’ensemble sera nécessaire : sécurité, exploitation, etc… Livrables de la prestation : Etudes d’architecture POC : Code source commenté / Tests Industrialisation de composant du socle Documentations diverses Compétences techniques requises : Maitrise d’une solution HDP ou CDP on premise Cloudera Manager, Kerberos, Ranger Kafka Spark, Zeppelin HDFS, Hive, Hbase Oozie Yarn Jenkins Docker

Freelance

Mission freelance Architecte Hadoop

CS Group Solutions
Publiée le
Hadoop

6 mois
180-580 €
Toulouse, Occitanie

Je recherche un profil architecte sur du Hadoop. Voici le descriptif : Loc : Est de Toulouse, transport en commun à proximité TT : oui deux jours Description de la mission : Au sein de l’équipe socle BigData, en lien avec le product owner socle et l’architecte déjà présent, le profil prend un rôle d’architecte / expert sur le socle BigData : Porter des sujets d’architecture pour intégrer le Cloudera Data Platform au sein du SI UCN Contribuer à l’industrialisation de notre plateforme Big Data (déploiement des composants, supervision, sécurité, etc…), Rédiger des modes opératoires et des documentations techniques pour faciliter la compréhension et la montée en compétence de l’équipe, Qualifier et chalenger les architectures applicatives proposer par les équipes projets Identifier les faiblesses des environnements et proposer des solutions pour optimiser et améliorer la robustesse de la plateforme , Apporter de l’expertise sur les incidents et être force de proposition sur les nouveaux usages (APIsation, PRA/PCI, etc…), Si le profil a une fibre chef de projet / scrum master, il pourra prendre en charge une partie de l’animation de l’équipe socle. Ces activités nécessitent une connaissance technique de l’environnement Hadoop Big Data acquise sur plusieurs architectures Big Data déployées en production, le sens du service et une forte autonomie. Une bonne vision d’ensemble sera nécessaire : sécurité, exploitation, etc… Livrables de la prestation : Etudes d’architecture POC : Code source commenté / Tests Industrialisation de composant du socle Documentations diverses Compétences techniques requises : Maitrise d’une solution HDP ou CDP on premise Cloudera Manager, Kerberos, Ranger Kafka Spark, Zeppelin HDFS, Hive, Hbase Oozie Yarn Jenkins Docker

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !