Trouvez votre prochaine offre d’emploi ou de mission Hbase

Votre recherche renvoie 11 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance Lead Tech plateforme Big data On Premise HDFS, Yarn, Hive, Solr, Hbase, Oozie, Sqoop Sénior.

WorldWide People
Publiée le

2 ans
Issy-les-Moulineaux, Île-de-France
Lead Tech plateforme Big data On Premise Sénior. Nous recherchons pour notre client banque basé à Paris 12ème, un profil Lead Tech plateforme Big data On Premise Sénior. Framework Hadoop On Premise (HDFS, Yarn, Hive, Solr, Hbase, Oozie, Sqoop, ..etc) Distribution Cloudera (Cloudera Manager, Knox, Hue ... ) Localisation Paris 12ème / Télétravail Durée de la mission : 2 ans Projet : Nous cherchons un tech Lead avec un expertise Framework Hadoop On Premise (HDFS, Yarn, Hive, Solr, Hbase, Oozie, Sqoop, ..etc) Distribution Cloudera (Cloudera Manager, Knox, Hue ... ) Amélioration continue & évolution de la Plateforme BigData on Premise actuelle Tâches : Faire évoluer la plateforme Big Data On Premise et identifier les patterns et normes Participer à la construction et au maintien de solutions IT évolutives, modulaires, innovantes, cohérentes avec leur écosystème et répondant au besoin métier. Décliner le cadre d’Architecture d’Entreprise (processus, normes, patterns ) et contribuer à son évolution Faciliter la prise de décision de manière collaborative sur la meilleure architecture (conformité, sécurité, risques...), avec un juste équilibre entre le respect de la cible d’entreprise et la réponse pragmatique au besoin Maitriser les objectifs visés par le cadre d’Architecture d’Entreprise et décrit des solutions qui s’y conforment et sont implémentables sous forme incrémentale dans les sprints Participer à l’exploration continue (étude d’opportunité, cadrage) et aider à estimer l’effort et la valeur délivrée par les choix de designs éligibles pour favoriser la priorisation par le Product Owner et le Pôle Utilisateur (évolutivité, testabilité, déployabilité...) Suivre et faciliter la visibilité de la conformité des solutions de son périmètre par rapport à la stratégie d’entreprise Responsable de la documentation produit(s) en veillant à sa pertinence, fiabilité et sa cohérence avec les cadres de référence de l’architecture (processus, guides, patterns...). Contribuer à l’enrichissement des référentiels d’entreprise. Veille technologique Former la squad aux bonnes pratiques et nouvelles technologies applicables Mission : Définir les solutions techniques. être garant des solutions, de la conception technique, de la qualité fonctionnelle des développements (Homogénéise l’ensemble des développements..) et des livraisons. être référent de l’équipe pour le design d’application en adressant toutes les thématiques requises (technologique, architecturale, applicative, fonctionnelle, urbanisme, performance, etc.) Apporter son feedback terrain pour faire évoluer le corpus de connaissances du SI et contribue à le faire connaître des équipes pour favoriser leur appropriation Participer à la construction de la roadmap des offres de la Squad et l’évolution de la plateforme Big Data Compétences requises : Bonnes compétences en communication, management, gestion de projet Prendre part au développement de la vision produit en apportant une expertise et perspective technique Être impliqué dans la phase de conception et être capable de valider techniquement la faisabilité Maîtrise de l’écosystème Hadoop on Premise (distribution Cloudera et/ou Hortonworks ) Maitrise de la chaîne de valeur du traitement de la donnée : BigData, Streaming : Kafka. Search : ElasticSearch, logstash, Kibana. DevOps : GitLab, Jenkins, Nexus, Ansible .. Compétences solides et maîtrise des concepts infra (Active Directory ,Système, Réseaux, Sécurité, Stockage, Supervision ) Maitrise des principaux langages de développement (Bash, Python, Scala, SQL, ...) ainsi que les frameworks de déploiement de Machine Learning (Spark, ML Flow, Tensorflow, ) Optionnelles : Connaissance des offres Cloud Datascience Chaine MLOPS Kube, Docker, S3
Freelance

Mission freelance Ingénieur Linux (Yocto) embarqué bas niveau (kernel, drivers) F/H

CELAD
Publiée le

380-420 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement dans le Sud-Est et recrutons un(e) Ingénieur software embarqué bas niveau Linux (ici Yocto) pour l'un de nos clients situé sur Aix-en-Provence. Mission : Au sein de l'équipe Software, vos missions seront : - Participation aux choix d'architecture & à la conception logicielle - Mise en place d'un projet Yocto & customisation du noyau Linux - Développement logiciel Linux embarqué (Yocto) couches bas niveau et dans une moindre mesure middleware pour produits IOT - Un peu de scripting Shell, quelques bouts de Python - Analyse et debug
CDI

Offre d'emploi Ingénieur Linux (Yocto) embarqué bas niveau (kernel, drivers) F/H

CELAD
Publiée le

35k-46k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement dans le Sud-Est et recrutons un(e) Ingénieur software embarqué bas niveau Linux (ici Yocto) pour l'un de nos clients situé sur Aix-en-Provence. Mission : Au sein de l'équipe Software, vos missions seront :- Participation aux choix d'architecture & à la conception logicielle- Mise en place d'un projet Yocto & customisation du noyau Linux- Développement logiciel Linux embarqué (Yocto) couches bas niveau et dans une moindre mesure middleware pour produits IOT- Un peu de scripting Shell, quelques bouts de Python- Analyse et debug
Freelance

Mission freelance Ingénieur Linux (Yocto) embarqué bas niveau (kernel, drivers)

CELAD
Publiée le

380-420 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement dans le Sud-Est et recrutons un(e) Ingénieur software embarqué bas niveau Linux (ici Yocto) pour l'un de nos clients situé sur Aix-en-Provence. Mission : Au sein de l'équipe Software, vos missions seront : - Participation aux choix d'architecture & à la conception logicielle - Mise en place d'un projet Yocto & customisation du noyau Linux - Développement logiciel Linux embarqué (Yocto) couches bas niveau et dans une moindre mesure middleware pour produits IOT - Un peu de scripting Shell, quelques bouts de Python - Analyse et debug
CDI

Offre d'emploi Ingénieur Linux (Yocto) embarqué bas niveau (kernel, drivers)

CELAD
Publiée le

35k-46k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement dans le Sud-Est et recrutons un(e) Ingénieur software embarqué bas niveau Linux (ici Yocto) pour l'un de nos clients situé sur Aix-en-Provence. Mission : Au sein de l'équipe Software, vos missions seront :- Participation aux choix d'architecture & à la conception logicielle- Mise en place d'un projet Yocto & customisation du noyau Linux- Développement logiciel Linux embarqué (Yocto) couches bas niveau et dans une moindre mesure middleware pour produits IOT- Un peu de scripting Shell, quelques bouts de Python- Analyse et debug
CDI

Offre d'emploi Ingénieur Big data H/F

Proxiad
Publiée le

Val-de-Marne, France
La mission sera, au sein du domaine PGER , de mener une analyse fine de l’implémentation existante basée sur la distribution Hadoop Cloudera et de proposer/mettre en place des solutions permettant au système d’afficher des performances optimales sur les traitements quotidiens, et d’identifier/sécuriser les points de reprise en cas d’incidents. Le consultant sera amené, à travailler en méthode Agile avec les acteurs projet. Expertises spécifiques : Compétences recherchées : Maitrise de l’écosystème Hadoop particulièrement la distribution Cloudera ( HDFS, HIVE, HBASE, YARN, TEZ,RANGER..) Maitrise de Spark ( développement de jobs , analyse des logs, recherche de bug optimisation des traitements, Analyse du DAG) Maitrise de JAVA 8 Maitrise de SQL. Idéalement connaissance dans le DevOps ( Jenkins, Bitbucket, XLDeploy,Sonar) Bonne communication, autonomie et fluidité du travail en équipe. Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent.
Freelance

Mission freelance Data Governance Consultant

Lawrence Harvey (LHI group limited)
Publiée le

6 mois
Île-de-France, France
Je suis à la recherche d'un consultant en gouvernance des données pour un client situé en Île-de-France. Expertises technologiques : Infrastructure & Stockage : Microsoft Azure, Amazon WebServices, Snowflake, RedShift, BigQuery, Hadoop, Cloudera, HortonWorks, MongoDB, Hbase, Cassandra, GCP Traitements de données : Spark, Scala, Spark Streaming, Kafka, Talend BigData, Python . BI & Analytics : Stratégie ETL & Architecture DataWarehouse : Expertise ETL, montée de versions, conception de DataWarehouse et de DataMart, modélisation, optimisation et développement de flux ETL. Reporting & Smart BI : Exploration et visualisation, KPI et design de tableaux de bord, BI agile (self-service BI & DataViz), diffusion, POC Si vous êtes intéressé(e) par cette opportunité et estimez répondre aux critères mentionnés ci-dessus, veuillez envoyer votre CV à -email masqué-Nous restons à votre disposition pour répondre à toutes vos questions supplémentaires. Cordialement, Gael Kisombe Lawrence Harvey is acting as an Employment Business in regards to this position. Visit our website and follow us on Twitter for all live vacancies (lawharveyjobs)
Freelance

Mission freelance Développeur Big DataJava/Spark/Python

CAT-AMANIA
Publiée le

3 ans
400-480 €
Paris, France
En 2023, un projet stratégique vise à migrer l’ensemble des cas d’usages depuis une Plateforme Hadoop , amenée à être décommissionnée à la fin de l’année, vers une autre plateforme Hadoop pérenne. En parallèle de ce sujet migration, les premières applications dans le Cloud (GCP / Big Query) sont cours de réalisation ou de cadrage et le périmètre de la mission comprend également des développements sur cet asset. Une première expérience relative à un cas d’usage d’ingeston / dataprep / exposition de données avec Big Query serait souhaitable. Expertises spécifiques : Compétences recherchées - Manipulation de données / Modélisation / SQL - Compétences de programmation: Java & Spring, Scala, Spark, Pyspark, Python, maven - Environnement Big Data: Hadoop, HDFS, HIVE, HBASE, CDP, Ambari, ranger, kerberos, etc... - DevOps: git, jenkins, XLdeploy, XL release - 1ère expérience avec GCP / Big Query
CDI

Offre d'emploi Expert Big data H/F

Proxiad
Publiée le
HDFS (Hadoop Distributed File System)
J2EE / Java EE
Spark Streaming

Paris, France
La mission sera, au sein du domaine Pertes, Garanties et Entrepôt Risques , de mener une analyse fine de l’implémentation existante basée sur la distribution Hadoop Cloudera et de proposer/mettre en place des solutions permettant au système d’afficher des performances optimales sur les traitements quotidiens, et d’identifier/sécuriser les points de reprise en cas d’incidents. Le consultant sera amené, à travailler en méthode Agile avec les acteurs projet. Expertises spécifiques : Compétences recherchées : Maitrise de l’écosystème Hadoop particulièrement la distribution Cloudera ( HDFS, HIVE, HBASE, YARN, TEZ,RANGER..) Maitrise de Spark ( développement de jobs , analyse des logs, recherche de bug optimisation des traitements, Analyse du DAG) Maitrise de JAVA 8 Maitrise de SQL. Idéalement connaissance dans le DevOps ( Jenkins, Bitbucket, XLDeploy,Sonar) Bonne communication, autonomie et fluidité du travail en équipe. Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent.
CDI

Offre d'emploi DATA ENGINEER H/F

Proxiad
Publiée le
J2EE / Java EE
Python
Spark Streaming

45k-60k €
Paris, France
Compétences recherchées : - Manipulation de données / Modélisation / SQL - Compétences de programmation: Java & Spring, Scala, Spark, Pyspark, Python, maven - Environnement Big Data: Hadoop, HDFS, HIVE, HBASE, CDP, Ambari, ranger, kerberos, etc... - DevOps: git, jenkins, XLdeploy, XL release - 1ère expérience avec GCP / Big Query Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark Traitement et ingestion de plusieurs formats des données Développement des scripts Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données Développement des moyens de restitution via génération de fichier et ou API & Dashboarding Collecter toutes les données et les fournir aux clients en tant qu’API ou fichiers Développer de pipelines d’ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP Participer à la conception, mise en place et administration de solutions Big Data Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d’extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Freelance

Mission freelance Un consultant Hadoop sur Île-de-France 94

Smarteo
Publiée le

6 mois
400-550 €
Val-de-Marne, France
Smarteo recherche pour l’un de ses clients, Un consultant Hadoop sur Île-de-France 94. Description : hadoop - Confirmé - Impératif CDP 7.1.x - Confirmé - Important RedHat - Confirmé - Souhaitable Nifi - Confirmé - Serait un plus Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée : Au sein de l’équipe Socle Bigdata, vous serez en charge de l’administration, l’évolution, et les taches MCO sur les plateformes hadoop on prem (solution Cloudera) Vos interlocuteurs privilégiés seront les productions applicatives, les équipes infrastructures, les plates-formes internationales mais également les métiers auxquels vous apporterez votre support e t expertise technique. A ce titre, vos principales activités sont : - Administrer quotidiennement des clusters Hadoop, Cloudera Data Platform (HDFS, yarn, Hbase, Hive, Kafka, Solr, Knox, Spark, Ranger, Zookeeper, atlas, etc...), Cloudera Flow Management - Améliorer en continue l’infrastructure, qu’il s’agisse de performance, de sécurité ou de fonctionnalités demandées par les utilisateurs - Industrialiser et automatiser le déploiement de l’ensemble des composants logiciels de l’offre Hadoop - Contribuer à l’élaboration et à l’exécution des stratégies de migration des clusters Hadoop Cloudera. - Participer à la résolution de problèmes complexes sur les plateformes - Apporter un support quotidien aux équipes applicatives et métiers dans leurs études de cas d’usage, leurs problématiques de développement ou de montée en charge - Prendre en charge et animer des projets au sein de l’entité Le poste est soumis à astreintes et interventions hors périodes ouvrées par rotation (couverture horaire de l?équipe : 8h/19h) L’anglais est obligatoire (support editeur worlwide, échange avec des équipes au Portugal, en Asie ou aux USA) La connaissance de StarBurst, Opensource Data Platform ou Trunk Data Platform serait un plus(produits en cours de qualification) Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jour au format Word.

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !