Trouvez votre prochaine offre d’emploi ou de mission Hbase
Votre recherche renvoie 11 résultats.
Astuce
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Mission freelance Lead Tech plateforme Big data On Premise HDFS, Yarn, Hive, Solr, Hbase, Oozie, Sqoop Sénior.
WorldWide People
Publiée le
2 ans
Issy-les-Moulineaux, Île-de-France
Lead Tech plateforme Big data On Premise Sénior. Nous recherchons pour notre client banque basé à Paris 12ème, un profil Lead Tech plateforme Big data On Premise Sénior. Framework Hadoop On Premise (HDFS, Yarn, Hive, Solr, Hbase, Oozie, Sqoop, ..etc)
Distribution Cloudera (Cloudera Manager, Knox, Hue ... )
Localisation Paris 12ème / Télétravail
Durée de la mission : 2 ans
Projet :
Nous cherchons un tech Lead avec un expertise Framework Hadoop On Premise (HDFS, Yarn, Hive, Solr, Hbase, Oozie, Sqoop, ..etc)
Distribution Cloudera (Cloudera Manager, Knox, Hue ... )
Amélioration continue & évolution de la Plateforme BigData on Premise actuelle
Tâches :
Faire évoluer la plateforme Big Data On Premise et identifier les patterns et normes
Participer à la construction et au maintien de solutions IT évolutives, modulaires, innovantes, cohérentes avec leur écosystème et répondant au besoin métier.
Décliner le cadre d’Architecture d’Entreprise (processus, normes, patterns ) et contribuer à son évolution
Faciliter la prise de décision de manière collaborative sur la meilleure architecture (conformité, sécurité, risques...), avec un juste équilibre entre le respect de la cible d’entreprise et la réponse pragmatique au besoin
Maitriser les objectifs visés par le cadre d’Architecture d’Entreprise et décrit des solutions qui s’y conforment et sont implémentables sous forme incrémentale dans les sprints
Participer à l’exploration continue (étude d’opportunité, cadrage) et aider à estimer l’effort et la valeur délivrée par les choix de designs éligibles pour favoriser la priorisation par le Product Owner et le Pôle Utilisateur (évolutivité, testabilité, déployabilité...)
Suivre et faciliter la visibilité de la conformité des solutions de son périmètre par rapport à la stratégie d’entreprise
Responsable de la documentation produit(s) en veillant à sa pertinence, fiabilité et sa cohérence avec les cadres de référence de l’architecture (processus, guides, patterns...).
Contribuer à l’enrichissement des référentiels d’entreprise.
Veille technologique
Former la squad aux bonnes pratiques et nouvelles technologies applicables
Mission :
Définir les solutions techniques.
être garant des solutions, de la conception technique, de la qualité fonctionnelle des développements (Homogénéise l’ensemble des développements..) et des livraisons.
être référent de l’équipe pour le design d’application en adressant toutes les thématiques requises (technologique, architecturale, applicative, fonctionnelle, urbanisme, performance, etc.)
Apporter son feedback terrain pour faire évoluer le corpus de connaissances du SI et contribue à le faire connaître des équipes pour favoriser leur appropriation
Participer à la construction de la roadmap des offres de la Squad et l’évolution de la plateforme Big Data
Compétences requises :
Bonnes compétences en communication, management, gestion de projet
Prendre part au développement de la vision produit en apportant une expertise et perspective technique
Être impliqué dans la phase de conception et être capable de valider techniquement la faisabilité
Maîtrise de l’écosystème Hadoop on Premise (distribution Cloudera et/ou Hortonworks )
Maitrise de la chaîne de valeur du traitement de la donnée : BigData, Streaming : Kafka. Search : ElasticSearch, logstash, Kibana. DevOps : GitLab, Jenkins, Nexus, Ansible ..
Compétences solides et maîtrise des concepts infra (Active Directory ,Système, Réseaux, Sécurité, Stockage, Supervision )
Maitrise des principaux langages de développement (Bash, Python, Scala, SQL, ...) ainsi que les frameworks de déploiement de Machine Learning (Spark, ML Flow, Tensorflow, )
Optionnelles :
Connaissance des offres Cloud Datascience
Chaine MLOPS
Kube, Docker, S3

Mission freelance Ingénieur Linux (Yocto) embarqué bas niveau (kernel, drivers) F/H
CELAD
Publiée le
380-420 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement dans le Sud-Est et recrutons un(e) Ingénieur software embarqué bas niveau Linux (ici Yocto) pour l'un de nos clients situé sur Aix-en-Provence.
Mission :
Au sein de l'équipe Software, vos missions seront :
- Participation aux choix d'architecture & à la conception logicielle
- Mise en place d'un projet Yocto & customisation du noyau Linux
- Développement logiciel Linux embarqué (Yocto) couches bas niveau et dans une moindre mesure middleware pour produits IOT
- Un peu de scripting Shell, quelques bouts de Python
- Analyse et debug

Offre d'emploi Ingénieur Linux (Yocto) embarqué bas niveau (kernel, drivers) F/H
CELAD
Publiée le
35k-46k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement dans le Sud-Est et recrutons un(e) Ingénieur software embarqué bas niveau Linux (ici Yocto) pour l'un de nos clients situé sur Aix-en-Provence.
Mission :
Au sein de l'équipe Software, vos missions seront :- Participation aux choix d'architecture & à la conception logicielle- Mise en place d'un projet Yocto & customisation du noyau Linux- Développement logiciel Linux embarqué (Yocto) couches bas niveau et dans une moindre mesure middleware pour produits IOT- Un peu de scripting Shell, quelques bouts de Python- Analyse et debug

Mission freelance Ingénieur Linux (Yocto) embarqué bas niveau (kernel, drivers)
CELAD
Publiée le
380-420 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement dans le Sud-Est et recrutons un(e) Ingénieur software embarqué bas niveau Linux (ici Yocto) pour l'un de nos clients situé sur Aix-en-Provence.
Mission :
Au sein de l'équipe Software, vos missions seront :
- Participation aux choix d'architecture & à la conception logicielle
- Mise en place d'un projet Yocto & customisation du noyau Linux
- Développement logiciel Linux embarqué (Yocto) couches bas niveau et dans une moindre mesure middleware pour produits IOT
- Un peu de scripting Shell, quelques bouts de Python
- Analyse et debug

Offre d'emploi Ingénieur Linux (Yocto) embarqué bas niveau (kernel, drivers)
CELAD
Publiée le
35k-46k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement dans le Sud-Est et recrutons un(e) Ingénieur software embarqué bas niveau Linux (ici Yocto) pour l'un de nos clients situé sur Aix-en-Provence.
Mission :
Au sein de l'équipe Software, vos missions seront :- Participation aux choix d'architecture & à la conception logicielle- Mise en place d'un projet Yocto & customisation du noyau Linux- Développement logiciel Linux embarqué (Yocto) couches bas niveau et dans une moindre mesure middleware pour produits IOT- Un peu de scripting Shell, quelques bouts de Python- Analyse et debug

Offre d'emploi Ingénieur Big data H/F
Proxiad
Publiée le
Val-de-Marne, France
La mission sera, au sein du domaine PGER , de mener une analyse fine de l’implémentation existante basée sur la distribution Hadoop Cloudera et de proposer/mettre en place des solutions permettant au système d’afficher des performances optimales sur les traitements quotidiens, et d’identifier/sécuriser les points de reprise en cas d’incidents.
Le consultant sera amené, à travailler en méthode Agile avec les acteurs projet.
Expertises spécifiques :
Compétences recherchées :
Maitrise de l’écosystème Hadoop particulièrement la distribution Cloudera ( HDFS, HIVE, HBASE, YARN, TEZ,RANGER..)
Maitrise de Spark ( développement de jobs , analyse des logs, recherche de bug optimisation des traitements, Analyse du DAG)
Maitrise de JAVA 8
Maitrise de SQL.
Idéalement connaissance dans le DevOps ( Jenkins, Bitbucket, XLDeploy,Sonar)
Bonne communication, autonomie et fluidité du travail en équipe.
Description :
Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise
Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent.
Mission freelance Data Governance Consultant
Lawrence Harvey (LHI group limited)
Publiée le
6 mois
Île-de-France, France
Je suis à la recherche d'un consultant en gouvernance des données pour un client situé en Île-de-France.
Expertises technologiques :
Infrastructure & Stockage : Microsoft Azure, Amazon WebServices, Snowflake, RedShift, BigQuery, Hadoop, Cloudera, HortonWorks, MongoDB, Hbase, Cassandra, GCP
Traitements de données : Spark, Scala, Spark Streaming, Kafka, Talend BigData, Python .
BI & Analytics :
Stratégie ETL & Architecture DataWarehouse : Expertise ETL, montée de versions, conception de DataWarehouse et de DataMart, modélisation, optimisation et développement de flux ETL.
Reporting & Smart BI : Exploration et visualisation, KPI et design de tableaux de bord, BI agile (self-service BI & DataViz), diffusion, POC
Si vous êtes intéressé(e) par cette opportunité et estimez répondre aux critères mentionnés ci-dessus, veuillez envoyer votre CV à -email masqué-Nous restons à votre disposition pour répondre à toutes vos questions supplémentaires.
Cordialement,
Gael Kisombe
Lawrence Harvey is acting as an Employment Business in regards to this position. Visit our website and follow us on Twitter for all live vacancies (lawharveyjobs)

Mission freelance Développeur Big DataJava/Spark/Python
CAT-AMANIA
Publiée le
3 ans
400-480 €
Paris, France
En 2023, un projet stratégique vise à migrer l’ensemble des cas d’usages depuis une Plateforme Hadoop , amenée à être décommissionnée à la fin de l’année, vers une autre plateforme Hadoop pérenne.
En parallèle de ce sujet migration, les premières applications dans le Cloud (GCP / Big Query) sont cours de réalisation ou de cadrage et le périmètre de la mission comprend également des développements sur cet asset. Une première expérience relative à un cas d’usage d’ingeston / dataprep / exposition de données avec Big Query serait souhaitable.
Expertises spécifiques :
Compétences recherchées
- Manipulation de données / Modélisation / SQL
- Compétences de programmation: Java & Spring, Scala, Spark, Pyspark, Python, maven
- Environnement Big Data: Hadoop, HDFS, HIVE, HBASE, CDP, Ambari, ranger, kerberos, etc...
- DevOps: git, jenkins, XLdeploy, XL release
- 1ère expérience avec GCP / Big Query

Offre d'emploi Expert Big data H/F
Proxiad
Publiée le
HDFS (Hadoop Distributed File System)
J2EE / Java EE
Spark Streaming
Paris, France
La mission sera, au sein du domaine Pertes, Garanties et Entrepôt Risques , de mener une analyse fine de l’implémentation existante basée sur la distribution Hadoop Cloudera et de proposer/mettre en place des solutions permettant au système d’afficher des performances optimales sur les traitements quotidiens, et d’identifier/sécuriser les points de reprise en cas d’incidents.
Le consultant sera amené, à travailler en méthode Agile avec les acteurs projet.
Expertises spécifiques :
Compétences recherchées :
Maitrise de l’écosystème Hadoop particulièrement la distribution Cloudera ( HDFS, HIVE, HBASE, YARN, TEZ,RANGER..)
Maitrise de Spark ( développement de jobs , analyse des logs, recherche de bug optimisation des traitements, Analyse du DAG)
Maitrise de JAVA 8
Maitrise de SQL.
Idéalement connaissance dans le DevOps ( Jenkins, Bitbucket, XLDeploy,Sonar)
Bonne communication, autonomie et fluidité du travail en équipe.
Description :
Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise
Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent.

Offre d'emploi DATA ENGINEER H/F
Proxiad
Publiée le
J2EE / Java EE
Python
Spark Streaming
45k-60k €
Paris, France
Compétences recherchées :
- Manipulation de données / Modélisation / SQL
- Compétences de programmation: Java & Spring, Scala, Spark, Pyspark, Python, maven
- Environnement Big Data: Hadoop, HDFS, HIVE, HBASE, CDP, Ambari, ranger, kerberos, etc...
- DevOps: git, jenkins, XLdeploy, XL release
- 1ère expérience avec GCP / Big Query
Description :
Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise
Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent
Activités et tâches :
Acheminement de la donnée
Mise à disposition de la donnée aux équipes utilisatrices
Mise en production de modèles statistiques
Suivi de projet de développement
Développement job spark
Traitement et ingestion de plusieurs formats des données
Développement des scripts
Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données
Développement des moyens de restitution via génération de fichier et ou API & Dashboarding
Collecter toutes les données et les fournir aux clients en tant qu’API ou fichiers
Développer de pipelines d’ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI)
Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP
Participer à la conception, mise en place et administration de solutions Big Data
Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d’extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka
Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

Mission freelance Un consultant Hadoop sur Île-de-France 94
Smarteo
Publiée le
6 mois
400-550 €
Val-de-Marne, France
Smarteo recherche pour l’un de ses clients, Un consultant Hadoop sur Île-de-France 94.
Description :
hadoop - Confirmé - Impératif
CDP 7.1.x - Confirmé - Important
RedHat - Confirmé - Souhaitable
Nifi - Confirmé - Serait un plus
Connaissances linguistiques Anglais Professionnel (Impératif)
Description détaillée :
Au sein de l’équipe Socle Bigdata, vous serez en charge de l’administration, l’évolution, et les taches MCO sur les plateformes hadoop on prem (solution Cloudera)
Vos interlocuteurs privilégiés seront les productions applicatives, les équipes infrastructures, les plates-formes internationales mais également les métiers auxquels vous apporterez votre support e
t expertise technique.
A ce titre, vos principales activités sont :
- Administrer quotidiennement des clusters Hadoop, Cloudera Data Platform (HDFS, yarn, Hbase, Hive, Kafka, Solr, Knox, Spark, Ranger, Zookeeper, atlas, etc...), Cloudera Flow Management
- Améliorer en continue l’infrastructure, qu’il s’agisse de performance, de sécurité ou de fonctionnalités demandées par les utilisateurs
- Industrialiser et automatiser le déploiement de l’ensemble des composants logiciels de l’offre Hadoop
- Contribuer à l’élaboration et à l’exécution des stratégies de migration des clusters Hadoop Cloudera.
- Participer à la résolution de problèmes complexes sur les plateformes
- Apporter un support quotidien aux équipes applicatives et métiers dans leurs études de cas d’usage, leurs problématiques de développement ou de montée en charge
- Prendre en charge et animer des projets au sein de l’entité
Le poste est soumis à astreintes et interventions hors périodes ouvrées par rotation (couverture horaire de l?équipe : 8h/19h)
L’anglais est obligatoire (support editeur worlwide, échange avec des équipes au Portugal, en Asie ou aux USA)
La connaissance de StarBurst, Opensource Data Platform ou Trunk Data Platform serait un plus(produits en cours de qualification)
Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jour au format Word.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes
Paris
Marseille
Lyon
Toulouse
Nice
Nantes
Montpellier
Strasbourg
Bordeaux
Lille
Rennes
Reims
Saint-Étienne
Le Havre
Toulon
Grenoble
Dijon
Angers
Nîmes
Villeurbanne
Saint-Denis
Le Mans
Aix-en-Provence
Clermont-Ferrand
Brest
Tours
Amiens
Limoges
Annecy
Perpignan
Boulogne-Billancourt
Besançon
Metz
Orléans
Rouen
Argenteuil
Mulhouse
Montreuil
Caen
Nancy
Saint-Paul
Tourcoing
Roubaix
Nanterre
Avignon
Vitry-sur-Seine
Poitiers
Créteil
Dunkerque
Versailles
Asnières-sur-Seine
Aubervilliers
Colombes

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !