Trouvez votre prochaine offre d’emploi ou de mission Cloudera

Votre recherche renvoie 17 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Suivant
Freelance

Mission freelance DataOPS confirmé Cloudera MAPR

BMA Conseil Groupe
Publiée le

3 ans
400-550 €
Paris, France
Environnement technique : distribution bigData Cloudera/MAPR, Spring boot, Java 11 , Kafka , MongoDB , Jenkins, K8S , ArgoCD , Sonar , et plusieurs autres techno à la pointe.
CDI

Offre d'emploi Devops Data Cloudera - H/F

ENOV-IT
Publiée le
AWS Cloud
Azure
Big Data

45k-61k €
Paris, France
Vous serez integré à l’équipe Data et aurez la charge du maintien et de évolution de l’infrastructure machine du pôle Data on premise et cloud du client. Vous participerez au MCO du cluster BigData on premise Cloudera ainsi que ses outils associés Vous gererez la sécurité et de la sauvegarde du parc machine en partenariat avec le service infrastructure Vous travaillerez en collaboration avec l’équipe PO sur les sujets d’infrastructure cloud et on permise Vous aurez pour challenge l’optimisation de l’infrastrucutre et l’automatisation des processus
Freelance

Mission freelance Developpeur BI / SPARK/ JAVA/ HADOOP/CLOUDERA

Groupe ASTEK
Publiée le

1 an
400-510 €
Boulogne-Billancourt, Île-de-France
Nous recherchons un expert BI: Compétences recherchées : Maitrise de l’écosystème Hadoop particulièrement la distribution Cloudera ( HDFS, HIVE, HBASE, YARN, TEZ,RANGER..) Maitrise de Spark ( développement de jobs , analyse des logs, recherche de bug optimisation des traitements, Analyse du DAG) Maitrise de JAVA 8 Maitrise de SQL. Idéalement connaissance dans le DevOps ( Jenkins, Bitbucket, XLDeploy,Sonar) Bonne communication, autonomie et fluidité du travail en équipe.
CDI

Offre d'emploi Data Engineer

AGIL-IT
Publiée le
Ansible
Apache Kafka
Big Data

45k-64k €
Issy-les-Moulineaux, Île-de-France
En tant que consultant Data Engineer, vous interviendrez dans le cadre de projets Big Data en cours ou From Scratch. Vous contribuerez : - Aux études, à la conception et à l implémentation des projets - A l’intégration de nouveaux flux en mode batch ou streaming - A la configuration et optimisation des programmes applicatifs - A la configuration des outils de restitution, gestion des habilitations, gestion de la sécurité - A la mise en place de POC sur de nouveaux outils - A la mise en œuvre des actions correctives à court et moyen terme - A la rédaction de dossier d implémentation, restitution à la communauté des intégrateurs - A assurer le RUN des projets passés en production : résolution des incidents niveau 2 et 3, diagnostique et remise en service dans les meilleurs délais
Freelance

Mission freelance Architecte BI technique/fonctionnel

Phaidon London- Glocomms
Publiée le
BI
Business Intelligence
Cloudera

1 an
Lyon, Auvergne-Rhône-Alpes
Nous recherchons pour l’un de nos clients du secteur financier basé à Lyon, un Architecte BI Technique/Fonctionnel. Vous collaborerez avec des équipes interfonctionnelles, analyserez des ensembles de données complexes et les transformerez en informations exploitables pour soutenir la prise de décision basée sur les données. Ce poste intéressant est freelance, à long terme et hybride. Les entretiens commenceront au début de la semaine prochaine. Rôle : Architecte BI technique/fonctionnel Durée du contrat : Contrat à long terme - 12 mois extensible Travail hybride Date de début : Novembre (Flexible) Responsabilités : - Participer activement aux discussions sur l’architecture des données - Suivre la mise en œuvre de l’architecture, des solutions techniques ou de l’évolution des versions des bases techniques pour définir et intégrer si nécessaire les impacts potentiels sur l’architecture logicielle, les standards, les développements, etc. - Assurer une veille technologique et participer aux discussions sur les choix potentiels d’outils complémentaires et participer à leur déploiement - Être le garant technique de la prise de décision - S’approprier et enrichir les normes et bonnes pratiques, capitaliser les expériences acquises - Veiller au respect de l’utilisation des modèles d’architecture référencés. - Formaliser la dette technique si nécessaire, s’assurer de la bonne prise en compte des demandes de résorption de la dette. Profil : - 5+ ans d’expérience en tant qu’architecte technique/fonctionnel BI. - Forte expérience avec SQL, PowerBI, DataStage & TeraData/Cloudera. - Une expérience de travail avec Postgre, Git, BitBucket & Spark est également très bénéfique. - Les certifications BI/Data pertinentes seront bénéfiques. Si vous êtes intéressé(e), merci de postuler directement à cette annonce.
Freelance

Mission freelance Data Engineer

ICSIS
Publiée le
Agile Scrum
Apache Kafka
Apache Spark

2 ans
430-500 €
Lille, Hauts-de-France
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler sur des missions de Data Science en lien avec les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - GCP, BigQuery, SQL, Data Studio, Qlikview, Shell, Power BI, Python, Stambia... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais un+ Cette mission vous intéresse ? Contactez-nous. -lien masqué-
Freelance

Mission freelance Un consultant Hadoop sur Île-de-France 94

Smarteo
Publiée le

6 mois
400-550 €
Val-de-Marne, France
Smarteo recherche pour l’un de ses clients, Un consultant Hadoop sur Île-de-France 94. Description : hadoop - Confirmé - Impératif CDP 7.1.x - Confirmé - Important RedHat - Confirmé - Souhaitable Nifi - Confirmé - Serait un plus Connaissances linguistiques Anglais Professionnel (Impératif) Description détaillée : Au sein de l’équipe Socle Bigdata, vous serez en charge de l’administration, l’évolution, et les taches MCO sur les plateformes hadoop on prem (solution Cloudera) Vos interlocuteurs privilégiés seront les productions applicatives, les équipes infrastructures, les plates-formes internationales mais également les métiers auxquels vous apporterez votre support e t expertise technique. A ce titre, vos principales activités sont : - Administrer quotidiennement des clusters Hadoop, Cloudera Data Platform (HDFS, yarn, Hbase, Hive, Kafka, Solr, Knox, Spark, Ranger, Zookeeper, atlas, etc...), Cloudera Flow Management - Améliorer en continue l’infrastructure, qu’il s’agisse de performance, de sécurité ou de fonctionnalités demandées par les utilisateurs - Industrialiser et automatiser le déploiement de l’ensemble des composants logiciels de l’offre Hadoop - Contribuer à l’élaboration et à l’exécution des stratégies de migration des clusters Hadoop Cloudera. - Participer à la résolution de problèmes complexes sur les plateformes - Apporter un support quotidien aux équipes applicatives et métiers dans leurs études de cas d’usage, leurs problématiques de développement ou de montée en charge - Prendre en charge et animer des projets au sein de l’entité Le poste est soumis à astreintes et interventions hors périodes ouvrées par rotation (couverture horaire de l?équipe : 8h/19h) L’anglais est obligatoire (support editeur worlwide, échange avec des équipes au Portugal, en Asie ou aux USA) La connaissance de StarBurst, Opensource Data Platform ou Trunk Data Platform serait un plus(produits en cours de qualification) Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jour au format Word.
CDI

Offre d'emploi Ingénieur Big data H/F

Proxiad
Publiée le

Val-de-Marne, France
La mission sera, au sein du domaine PGER , de mener une analyse fine de l’implémentation existante basée sur la distribution Hadoop Cloudera et de proposer/mettre en place des solutions permettant au système d’afficher des performances optimales sur les traitements quotidiens, et d’identifier/sécuriser les points de reprise en cas d’incidents. Le consultant sera amené, à travailler en méthode Agile avec les acteurs projet. Expertises spécifiques : Compétences recherchées : Maitrise de l’écosystème Hadoop particulièrement la distribution Cloudera ( HDFS, HIVE, HBASE, YARN, TEZ,RANGER..) Maitrise de Spark ( développement de jobs , analyse des logs, recherche de bug optimisation des traitements, Analyse du DAG) Maitrise de JAVA 8 Maitrise de SQL. Idéalement connaissance dans le DevOps ( Jenkins, Bitbucket, XLDeploy,Sonar) Bonne communication, autonomie et fluidité du travail en équipe. Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent.
Freelance

Mission freelance LEADER TECHNIQUE JAVA BACKEND

Intuition IT Solutions Ltd.
Publiée le

6 mois
400-450 €
Nantes, Pays de la Loire
Au sein du pole Relation Client du CDS, nous cherchons a intégrer un lead tech au projet Reférentiel Client Unique. Il devra se positionner en meneur au sein d’une équipe d’une dizaine de personnes, répartis entre la France et l’Espagne, avec en barycentre Nantes. MISSION : - Réalisation des cadrages techniques et technico-fonctionnels, rédaction des conceptions techniques détaillées (CTD), estimation de charge et planification d’intégration. - Lien étroit avec les architectes dans la mise en place des éléments structurants - Participations aux comités d’architecture et comités de suivi techniques (internes et client) - Encadrement de l’équipe de développement France/Espagne (explications, feedback, alertes sur la productivité) en français et anglais - Réalisation des code reviews pour l’équipe de développement (pipelines, nommage, TU, TI) et s’assure de la qualité du livrable - Intégration de produits sur environnement de développement (Cloudera, Artemis, etc.). - Support client en incidents (prod ou hors prod) et analyses complexes. COMPETENCES : Java +++ Active MQ Artemis ++ Cloudera/Kafka ++ PostgreSQL ++ Nice to have : JMS Liquibase Posture : autonome, curieux, lead, force de proposition, bon relationnel
CDI

Offre d'emploi Expert Big data H/F

Proxiad
Publiée le
HDFS (Hadoop Distributed File System)
J2EE / Java EE
Spark Streaming

Paris, France
La mission sera, au sein du domaine Pertes, Garanties et Entrepôt Risques , de mener une analyse fine de l’implémentation existante basée sur la distribution Hadoop Cloudera et de proposer/mettre en place des solutions permettant au système d’afficher des performances optimales sur les traitements quotidiens, et d’identifier/sécuriser les points de reprise en cas d’incidents. Le consultant sera amené, à travailler en méthode Agile avec les acteurs projet. Expertises spécifiques : Compétences recherchées : Maitrise de l’écosystème Hadoop particulièrement la distribution Cloudera ( HDFS, HIVE, HBASE, YARN, TEZ,RANGER..) Maitrise de Spark ( développement de jobs , analyse des logs, recherche de bug optimisation des traitements, Analyse du DAG) Maitrise de JAVA 8 Maitrise de SQL. Idéalement connaissance dans le DevOps ( Jenkins, Bitbucket, XLDeploy,Sonar) Bonne communication, autonomie et fluidité du travail en équipe. Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent.
Freelance

Mission freelance Administrateur plateforme big data

Gentis Recruitment SAS
Publiée le

1 an
Paris, France
Nous sommes à la recherche d’un profil pour l’administration des plateformes type Hadoop et des clusters ElasticSearch pour une mission d’assistance technique pour l’un de nos client grand compte dans le secteur bancaire Tâches à réaliser : Installation et configuration des différents distributions sur Hadoop Installation et configuration des différents composants : Zookeeper, HDFS, Spark, Hive, Kerberos, Sentry, Anaconda, Hue, Kafka, Monitoring des clusters avec Ambari, Cloudera manager Administration des clusters : droits d’accès, Policy Ranger, création d’environnements, CI/CD Ansible, Jenkins, Développement des playbooks Ansible Optimisation des clusters ElasticSearch et Kafka à tous les niveaux notamment sur les parties requêtes, utilisation des features, architecture et performance Compétences recherchées : Maitrise ElasticSearch ELK Maitrise Ansible Tower Maitrise des grands usages et intégration de Dynatrace Expérience nécessaire : de 3 à 5 années minimum Méthodologie : Scrum, Safe et Kanban
Freelance

Mission freelance Data Governance Consultant

Lawrence Harvey (LHI group limited)
Publiée le

6 mois
Île-de-France, France
Je suis à la recherche d'un consultant en gouvernance des données pour un client situé en Île-de-France. Expertises technologiques : Infrastructure & Stockage : Microsoft Azure, Amazon WebServices, Snowflake, RedShift, BigQuery, Hadoop, Cloudera, HortonWorks, MongoDB, Hbase, Cassandra, GCP Traitements de données : Spark, Scala, Spark Streaming, Kafka, Talend BigData, Python . BI & Analytics : Stratégie ETL & Architecture DataWarehouse : Expertise ETL, montée de versions, conception de DataWarehouse et de DataMart, modélisation, optimisation et développement de flux ETL. Reporting & Smart BI : Exploration et visualisation, KPI et design de tableaux de bord, BI agile (self-service BI & DataViz), diffusion, POC Si vous êtes intéressé(e) par cette opportunité et estimez répondre aux critères mentionnés ci-dessus, veuillez envoyer votre CV à -email masqué-Nous restons à votre disposition pour répondre à toutes vos questions supplémentaires. Cordialement, Gael Kisombe Lawrence Harvey is acting as an Employment Business in regards to this position. Visit our website and follow us on Twitter for all live vacancies (lawharveyjobs)
Freelance

Mission freelance Consultant SI Big Data Hadoop

CELAD
Publiée le

1 an
500 €
Paris, France
La DSI Corporate met en place sur le projet Base des Pertes une solution basée sur les technologies Big Data. La mission sera, au sein du domaine Pertes, Garanties et Entrepôt Risques , de mener une analyse fine de l’implémentation existante basée sur la distribution Hadoop Cloudera et de proposer/mettre en place des solutions permettant au système d’afficher des performances optimales sur les traitements quotidiens, et d’identifier/sécuriser les points de reprise en cas d’incidents. Le consultant sera amené, à travailler en méthode Agile avec les acteurs projet. Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark
Freelance

Mission freelance Tech Lead Big Data - Spark

DLA CONSEIL
Publiée le

1 an
Biot, Provence-Alpes-Côte d'Azur
Contexte de la prestation L’URSSAF est devenu opérateur de service essentiel de la DSN (Déclaration Sociale Nominative). A ce titre, elle a l’ambition de devenir l’opérateur de référence de la fiabilisation de la DSN dans l’objectif de fiabiliser le Recouvrement des cotisations sociales et les droits des salariés. Pour atteindre cet objectif, l’URSSAF opère une transformation de son système d’information DSN en mettant le big data au cœur de son architecture de traitement de la donnée. Objectifs de la prestation : Tech Lead Big Data - Spark Télétravail : 100 pourcent Missions : - Participer à la revue des exigences (User Stories) avec les membres du triptyque PO/proxy PO/Assistant PO et à la spécification des critères d’acceptation - Porter la conception technique des solutions mises en œuvre - Porter la mise en œuvre des enablers exploration de solution (POC) , changement d’infrastructure , changement d’architecture , Industrialisation - Participer à l’évaluation des charges de développement - Participer au sprint en tant que développeur expert - Assurer le support technique aux développeurs - Garantir le respect des normes de développement - Garantir la qualité des livrables Logiciels et Documentaires Compétences requises : - Expérience minimum de 5 ans en tant que Tech Lead Big Data dont 3 ans sur Spark, et au moins un projet Big Data Spark mené de bout en bout jusqu’à la production, - Expertise de l’écosystème Hadoop et Cloudera (Spark, Parquet, Oozie, HDFS, S3, )
CDI

Offre d'emploi Tech Lead Mlops (H/F)

HR-TEAM
Publiée le

54k-60k €
Paris, France
Faire évoluer la plateforme Big Data On Premise et identifier les patterns et normes pour un usage par les 40 caisses régionales Participer à la construction et au maintien de solutions IT évolutives, modulaires, innovantes, cohérentes avec leur écosystème et répondant au besoin métier. Décliner le cadre d’Architecture d’Entreprise (processus, normes, patterns ) et contribuer à son évolution Faciliter la prise de décision de manière collaborative sur la meilleure architecture (conformité, sécurité, risques...), avec un juste équilibre entre le respect de la cible d’entreprise et la réponse pragmatique au besoin Maitriser les objectifs visés par le cadre d’Architecture d’Entreprise et décrit des solutions qui s’y conforment et sont implémentables sous forme incrémentale dans les sprints Participer à l’exploration continue (étude d’opportunité, cadrage) et aider à estimer l’effort et la valeur délivrée par les choix de designs éligibles pour favoriser la priorisation par le Product Owner et le Pôle Utilisateur (évolutivité, testabilité, déployabilité...) Suivre et faciliter la visibilité de la conformité des solutions de son périmètre par rapport à la stratégie d’entreprise Responsable de la documentation produit(s) en veillant à sa pertinence, fiabilité et sa cohérence avec les cadres de référence de l’architecture (processus, guides, patterns...). Contribuer à l’enrichissement des référentiels d’entreprise. Veille technologique Former la squad aux bonnes pratiques et nouvelles technologies applicables - Nous cherchons un tech Lead avec un expertise Framework Hadoop On Premise (HDFS, Yarn, Hive, Solr, Hbase, Oozie, Sqoop, ..etc) - Distribution Cloudera (Cloudera Manager, Knox, Hue ... ) - Amélioration continue & évolution de la Plateforme BigData on Premise actuelle - Définir les solutions techniques. - être garant des solutions, de la conception technique, de la qualité fonctionnelle des développements (Homogénéise l’ensemble des développements..) et des livraisons. - être référent de l’équipe pour le design d’application en adressant toutes les thématiques requises (technologique, architecturale, applicative, fonctionnelle, urbanisme, performance, etc.) - Apporter son feedback terrain pour faire évoluer le corpus de connaissances du SI et contribue à le faire connaître des équipes pour favoriser leur appropriation - Participer à la construction de la roadmap des offres de la Squad et l’évolution de la plateforme Big Data ZEUS - Bonnes compétences en communication, management, gestion de projet - Prendre part au développement de la vision produit en apportant une expertise et perspective technique - Être impliqué dans la phase de conception et être capable de valider techniquement la faisabilité - Maîtrise de l’écosystème Hadoop on Premise (distribution Cloudera et/ou Hortonworks ) - Maitrise de la chaîne de valeur du traitement de la donnée : BigData, Streaming : Kafka. Search : ElasticSearch, logstash, Kibana. DevOps : GitLab, Jenkins, Nexus, Ansible .. - Compétences solides et maîtrise des concepts infra (Active Directory ,Système, Réseaux, Sécurité, Stockage, Supervision ) - Maitrise des principaux langages de développement (Bash, Python, Scala, SQL, ...) ainsi que les frameworks de déploiement de Machine Learning (Spark, ML Flow, Tensorflow, )
Freelance

Mission freelance Data Analyste (H/F)

Insitoo Freelances
Publiée le

1 an
Lille, Hauts-de-France
Insitoo Freelance, facilitateur du freelancing depuis 2007, recherche pour son client en direct un Data Analyste (H/F). Dans une équipe agile pluridisciplinaire, composée de data analystes, data ingénieurs et data scientists sont réalisés les tâches suivantes : - Ingestion des données - Analyses fonctionnelles - Restitutions - Ordonnancement des traitements Les missions attendues par le Data Analyste (H/F) sont : -Au sein de l’équipe Agile, le Data Analyste devra : -Analyser des besoins fonctionnels et les traduire en solutions techniques via SQL -Nettoyer, préparer et exposer les données en assurant leur qualité -Manipuler les fichiers sous UNIX et HADOOP -Développer l’ingestion de données via des scripts SQL -Développer de nouvelles UDF -Ordonnancer les traitements -Suivre le run et gérer les erreurs -Optimiser les traitements SQL -Industrialiser les solutions d’imports et d’exports de données -Industrialiser les traitements des Data Scientists -Réaliser des imports et exports de données aux formats non standards -Développer des pipelines d’ingestions et d’export en streaming -Participer au collectif agile Compétences requises : -Esprit d’équipe / Ouverture d’esprit -Maitrise du SQL et de ses optimisations -Connaissances pratiques de SVN / GIT -Bonnes connaissances de l’environnement HADOOP, UNIX et du SHELL -Bonnes connaissances de Python -Notions de traitements en streaming (Spark, Nifi) -Concepts de l’agilité -Des connaissances de Cloudera, SAS Visual Analytics, DigDash ou Jupyter sont un plus Expérience souhaitée de 2 à 5 ans minimum sur un poste similaire Compétences techniques et fonctionnelles attendues : - SQL - Confirmé - Indispensable - Git - Souhaitable - Hadoop - Souhaitable Cette mission vous intéresse ? N’attendez plus pour postuler ! Retrouvez-nous sur notre page linkedin : Insitoo Et retrouvez le détail de la mission sur notre site internet : -lien masqué-
Suivant

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !