Trouvez votre prochaine offre d’emploi ou de mission Cloudera
Votre recherche renvoie 17 résultats.
Astuce
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Mission freelance DataOPS confirmé Cloudera MAPR
BMA Conseil Groupe
Publiée le
3 ans
400-550 €
Paris, France
Environnement technique : distribution bigData Cloudera/MAPR, Spring boot, Java 11 , Kafka , MongoDB , Jenkins, K8S , ArgoCD , Sonar , et plusieurs autres techno à la pointe.

Offre d'emploi Devops Data Cloudera - H/F
ENOV-IT
Publiée le
AWS Cloud
Azure
Big Data
45k-61k €
Paris, France
Vous serez integré à l’équipe Data et aurez la charge du maintien et de évolution de l’infrastructure machine du pôle Data on premise et cloud du client.
Vous participerez au MCO du cluster BigData on premise Cloudera ainsi que ses outils associés
Vous gererez la sécurité et de la sauvegarde du parc machine en partenariat avec le service infrastructure
Vous travaillerez en collaboration avec l’équipe PO sur les sujets d’infrastructure cloud et on permise
Vous aurez pour challenge l’optimisation de l’infrastrucutre et l’automatisation des processus
Mission freelance Developpeur BI / SPARK/ JAVA/ HADOOP/CLOUDERA
Groupe ASTEK
Publiée le
1 an
400-510 €
Boulogne-Billancourt, Île-de-France
Nous recherchons un expert BI:
Compétences recherchées :
Maitrise de l’écosystème Hadoop particulièrement la distribution Cloudera ( HDFS, HIVE, HBASE, YARN, TEZ,RANGER..)
Maitrise de Spark ( développement de jobs , analyse des logs, recherche de bug optimisation des traitements, Analyse du DAG)
Maitrise de JAVA 8
Maitrise de SQL.
Idéalement connaissance dans le DevOps ( Jenkins, Bitbucket, XLDeploy,Sonar)
Bonne communication, autonomie et fluidité du travail en équipe.

Offre d'emploi Data Engineer
AGIL-IT
Publiée le
Ansible
Apache Kafka
Big Data
45k-64k €
Issy-les-Moulineaux, Île-de-France
En tant que consultant Data Engineer, vous interviendrez dans le cadre de projets Big Data en cours ou From Scratch. Vous contribuerez :
- Aux études, à la conception et à l implémentation des projets
- A l’intégration de nouveaux flux en mode batch ou streaming
- A la configuration et optimisation des programmes applicatifs
- A la configuration des outils de restitution, gestion des habilitations, gestion de la sécurité
- A la mise en place de POC sur de nouveaux outils
- A la mise en œuvre des actions correctives à court et moyen terme
- A la rédaction de dossier d implémentation, restitution à la communauté des intégrateurs
- A assurer le RUN des projets passés en production : résolution des incidents niveau 2 et 3, diagnostique et remise en service dans les meilleurs délais

Mission freelance Architecte BI technique/fonctionnel
Phaidon London- Glocomms
Publiée le
BI
Business Intelligence
Cloudera
1 an
Lyon, Auvergne-Rhône-Alpes
Nous recherchons pour l’un de nos clients du secteur financier basé à Lyon, un Architecte BI Technique/Fonctionnel. Vous collaborerez avec des équipes interfonctionnelles, analyserez des ensembles de données complexes et les transformerez en informations exploitables pour soutenir la prise de décision basée sur les données.
Ce poste intéressant est freelance, à long terme et hybride. Les entretiens commenceront au début de la semaine prochaine.
Rôle : Architecte BI technique/fonctionnel
Durée du contrat : Contrat à long terme - 12 mois extensible
Travail hybride
Date de début : Novembre (Flexible)
Responsabilités :
- Participer activement aux discussions sur l’architecture des données
- Suivre la mise en œuvre de l’architecture, des solutions techniques ou de l’évolution des versions des bases techniques pour définir et intégrer si nécessaire les impacts potentiels sur l’architecture logicielle, les standards, les développements, etc.
- Assurer une veille technologique et participer aux discussions sur les choix potentiels d’outils complémentaires et participer à leur déploiement
- Être le garant technique de la prise de décision
- S’approprier et enrichir les normes et bonnes pratiques, capitaliser les expériences acquises
- Veiller au respect de l’utilisation des modèles d’architecture référencés.
- Formaliser la dette technique si nécessaire, s’assurer de la bonne prise en compte des demandes de résorption de la dette.
Profil :
- 5+ ans d’expérience en tant qu’architecte technique/fonctionnel BI.
- Forte expérience avec SQL, PowerBI, DataStage & TeraData/Cloudera.
- Une expérience de travail avec Postgre, Git, BitBucket & Spark est également très bénéfique.
- Les certifications BI/Data pertinentes seront bénéfiques.
Si vous êtes intéressé(e), merci de postuler directement à cette annonce.

Mission freelance Data Engineer
ICSIS
Publiée le
Agile Scrum
Apache Kafka
Apache Spark
2 ans
430-500 €
Lille, Hauts-de-France
La mission consiste à :
- Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité
- Transformer des données issues du DataLake afin de les normaliser
- Modéliser la sphère de données
- Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise
- Travailler sur des missions de Data Science en lien avec les données qu’il aura exposées
- Mettre en place des rapports de Dataviz
- Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire
Compétences demandées :
- Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science
- Première expérience en Data Engineering indispensable
- GCP, BigQuery, SQL, Data Studio, Qlikview, Shell, Power BI, Python, Stambia...
- Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication...
- Méthode Agile
- Anglais un+
Cette mission vous intéresse ? Contactez-nous.
-lien masqué-

Mission freelance Un consultant Hadoop sur Île-de-France 94
Smarteo
Publiée le
6 mois
400-550 €
Val-de-Marne, France
Smarteo recherche pour l’un de ses clients, Un consultant Hadoop sur Île-de-France 94.
Description :
hadoop - Confirmé - Impératif
CDP 7.1.x - Confirmé - Important
RedHat - Confirmé - Souhaitable
Nifi - Confirmé - Serait un plus
Connaissances linguistiques Anglais Professionnel (Impératif)
Description détaillée :
Au sein de l’équipe Socle Bigdata, vous serez en charge de l’administration, l’évolution, et les taches MCO sur les plateformes hadoop on prem (solution Cloudera)
Vos interlocuteurs privilégiés seront les productions applicatives, les équipes infrastructures, les plates-formes internationales mais également les métiers auxquels vous apporterez votre support e
t expertise technique.
A ce titre, vos principales activités sont :
- Administrer quotidiennement des clusters Hadoop, Cloudera Data Platform (HDFS, yarn, Hbase, Hive, Kafka, Solr, Knox, Spark, Ranger, Zookeeper, atlas, etc...), Cloudera Flow Management
- Améliorer en continue l’infrastructure, qu’il s’agisse de performance, de sécurité ou de fonctionnalités demandées par les utilisateurs
- Industrialiser et automatiser le déploiement de l’ensemble des composants logiciels de l’offre Hadoop
- Contribuer à l’élaboration et à l’exécution des stratégies de migration des clusters Hadoop Cloudera.
- Participer à la résolution de problèmes complexes sur les plateformes
- Apporter un support quotidien aux équipes applicatives et métiers dans leurs études de cas d’usage, leurs problématiques de développement ou de montée en charge
- Prendre en charge et animer des projets au sein de l’entité
Le poste est soumis à astreintes et interventions hors périodes ouvrées par rotation (couverture horaire de l?équipe : 8h/19h)
L’anglais est obligatoire (support editeur worlwide, échange avec des équipes au Portugal, en Asie ou aux USA)
La connaissance de StarBurst, Opensource Data Platform ou Trunk Data Platform serait un plus(produits en cours de qualification)
Si vous êtes disponible et intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jour au format Word.

Offre d'emploi Ingénieur Big data H/F
Proxiad
Publiée le
Val-de-Marne, France
La mission sera, au sein du domaine PGER , de mener une analyse fine de l’implémentation existante basée sur la distribution Hadoop Cloudera et de proposer/mettre en place des solutions permettant au système d’afficher des performances optimales sur les traitements quotidiens, et d’identifier/sécuriser les points de reprise en cas d’incidents.
Le consultant sera amené, à travailler en méthode Agile avec les acteurs projet.
Expertises spécifiques :
Compétences recherchées :
Maitrise de l’écosystème Hadoop particulièrement la distribution Cloudera ( HDFS, HIVE, HBASE, YARN, TEZ,RANGER..)
Maitrise de Spark ( développement de jobs , analyse des logs, recherche de bug optimisation des traitements, Analyse du DAG)
Maitrise de JAVA 8
Maitrise de SQL.
Idéalement connaissance dans le DevOps ( Jenkins, Bitbucket, XLDeploy,Sonar)
Bonne communication, autonomie et fluidité du travail en équipe.
Description :
Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise
Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent.

Mission freelance LEADER TECHNIQUE JAVA BACKEND
Intuition IT Solutions Ltd.
Publiée le
6 mois
400-450 €
Nantes, Pays de la Loire
Au sein du pole Relation Client du CDS, nous cherchons a intégrer un lead tech au projet Reférentiel Client Unique. Il devra se positionner en meneur au sein d’une équipe d’une dizaine de personnes, répartis entre la France et l’Espagne, avec en barycentre Nantes.
MISSION :
- Réalisation des cadrages techniques et technico-fonctionnels, rédaction des conceptions techniques détaillées (CTD), estimation de charge et planification d’intégration.
- Lien étroit avec les architectes dans la mise en place des éléments structurants - Participations aux comités d’architecture et comités de suivi techniques (internes et client)
- Encadrement de l’équipe de développement France/Espagne (explications, feedback, alertes sur la productivité) en français et anglais
- Réalisation des code reviews pour l’équipe de développement (pipelines, nommage, TU, TI) et s’assure de la qualité du livrable
- Intégration de produits sur environnement de développement (Cloudera, Artemis, etc.).
- Support client en incidents (prod ou hors prod) et analyses complexes.
COMPETENCES :
Java +++
Active MQ Artemis ++
Cloudera/Kafka ++
PostgreSQL ++
Nice to have :
JMS
Liquibase
Posture : autonome, curieux, lead, force de proposition, bon relationnel

Offre d'emploi Expert Big data H/F
Proxiad
Publiée le
HDFS (Hadoop Distributed File System)
J2EE / Java EE
Spark Streaming
Paris, France
La mission sera, au sein du domaine Pertes, Garanties et Entrepôt Risques , de mener une analyse fine de l’implémentation existante basée sur la distribution Hadoop Cloudera et de proposer/mettre en place des solutions permettant au système d’afficher des performances optimales sur les traitements quotidiens, et d’identifier/sécuriser les points de reprise en cas d’incidents.
Le consultant sera amené, à travailler en méthode Agile avec les acteurs projet.
Expertises spécifiques :
Compétences recherchées :
Maitrise de l’écosystème Hadoop particulièrement la distribution Cloudera ( HDFS, HIVE, HBASE, YARN, TEZ,RANGER..)
Maitrise de Spark ( développement de jobs , analyse des logs, recherche de bug optimisation des traitements, Analyse du DAG)
Maitrise de JAVA 8
Maitrise de SQL.
Idéalement connaissance dans le DevOps ( Jenkins, Bitbucket, XLDeploy,Sonar)
Bonne communication, autonomie et fluidité du travail en équipe.
Description :
Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise
Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent.

Mission freelance Administrateur plateforme big data
Gentis Recruitment SAS
Publiée le
1 an
Paris, France
Nous sommes à la recherche d’un profil pour l’administration des plateformes type Hadoop et des clusters ElasticSearch pour une mission d’assistance technique pour l’un de nos client grand compte dans le secteur bancaire
Tâches à réaliser :
Installation et configuration des différents distributions sur Hadoop
Installation et configuration des différents composants : Zookeeper, HDFS, Spark, Hive, Kerberos, Sentry, Anaconda, Hue, Kafka,
Monitoring des clusters avec Ambari, Cloudera manager
Administration des clusters : droits d’accès, Policy Ranger, création d’environnements,
CI/CD Ansible, Jenkins,
Développement des playbooks Ansible
Optimisation des clusters ElasticSearch et Kafka à tous les niveaux notamment sur les parties requêtes, utilisation des features, architecture et performance
Compétences recherchées :
Maitrise ElasticSearch ELK
Maitrise Ansible Tower
Maitrise des grands usages et intégration de Dynatrace
Expérience nécessaire : de 3 à 5 années minimum
Méthodologie : Scrum, Safe et Kanban
Mission freelance Data Governance Consultant
Lawrence Harvey (LHI group limited)
Publiée le
6 mois
Île-de-France, France
Je suis à la recherche d'un consultant en gouvernance des données pour un client situé en Île-de-France.
Expertises technologiques :
Infrastructure & Stockage : Microsoft Azure, Amazon WebServices, Snowflake, RedShift, BigQuery, Hadoop, Cloudera, HortonWorks, MongoDB, Hbase, Cassandra, GCP
Traitements de données : Spark, Scala, Spark Streaming, Kafka, Talend BigData, Python .
BI & Analytics :
Stratégie ETL & Architecture DataWarehouse : Expertise ETL, montée de versions, conception de DataWarehouse et de DataMart, modélisation, optimisation et développement de flux ETL.
Reporting & Smart BI : Exploration et visualisation, KPI et design de tableaux de bord, BI agile (self-service BI & DataViz), diffusion, POC
Si vous êtes intéressé(e) par cette opportunité et estimez répondre aux critères mentionnés ci-dessus, veuillez envoyer votre CV à -email masqué-Nous restons à votre disposition pour répondre à toutes vos questions supplémentaires.
Cordialement,
Gael Kisombe
Lawrence Harvey is acting as an Employment Business in regards to this position. Visit our website and follow us on Twitter for all live vacancies (lawharveyjobs)

Mission freelance Consultant SI Big Data Hadoop
CELAD
Publiée le
1 an
500 €
Paris, France
La DSI Corporate met en place sur le projet Base des Pertes une solution basée sur les technologies Big Data.
La mission sera, au sein du domaine Pertes, Garanties et Entrepôt Risques , de mener une analyse fine de l’implémentation existante basée sur la distribution Hadoop Cloudera et de proposer/mettre en place des solutions permettant au système d’afficher des performances optimales sur les traitements quotidiens, et d’identifier/sécuriser les points de reprise en cas d’incidents.
Le consultant sera amené, à travailler en méthode Agile avec les acteurs projet.
Description :
Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise
Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent
Activités et tâches :
Acheminement de la donnée
Mise à disposition de la donnée aux équipes utilisatrices
Mise en production de modèles statistiques
Suivi de projet de développement
Développement job spark
Mission freelance Tech Lead Big Data - Spark
DLA CONSEIL
Publiée le
1 an
Biot, Provence-Alpes-Côte d'Azur
Contexte de la prestation
L’URSSAF est devenu opérateur de service essentiel de la DSN (Déclaration Sociale Nominative). A ce titre, elle a l’ambition de devenir l’opérateur de référence de la fiabilisation de la DSN dans l’objectif de fiabiliser le Recouvrement des cotisations sociales et les droits des salariés. Pour atteindre cet objectif, l’URSSAF opère une transformation de son système d’information DSN en mettant le big data au cœur de son architecture de traitement de la donnée.
Objectifs de la prestation : Tech Lead Big Data - Spark
Télétravail : 100 pourcent
Missions :
- Participer à la revue des exigences (User Stories) avec les membres du triptyque PO/proxy PO/Assistant PO et à la spécification des critères d’acceptation
- Porter la conception technique des solutions mises en œuvre
- Porter la mise en œuvre des enablers exploration de solution (POC) , changement d’infrastructure , changement d’architecture , Industrialisation
- Participer à l’évaluation des charges de développement
- Participer au sprint en tant que développeur expert
- Assurer le support technique aux développeurs
- Garantir le respect des normes de développement
- Garantir la qualité des livrables Logiciels et Documentaires
Compétences requises :
- Expérience minimum de 5 ans en tant que Tech Lead Big Data dont 3 ans sur Spark, et au moins un projet Big Data Spark mené de bout en bout jusqu’à la production,
- Expertise de l’écosystème Hadoop et Cloudera (Spark, Parquet, Oozie, HDFS, S3, )

Offre d'emploi Tech Lead Mlops (H/F)
HR-TEAM
Publiée le
54k-60k €
Paris, France
Faire évoluer la plateforme Big Data On Premise et identifier les patterns et normes pour un usage par les 40 caisses régionales
Participer à la construction et au maintien de solutions IT évolutives, modulaires, innovantes, cohérentes avec leur écosystème et répondant au besoin métier.
Décliner le cadre d’Architecture d’Entreprise (processus, normes, patterns ) et contribuer à son évolution
Faciliter la prise de décision de manière collaborative sur la meilleure architecture (conformité, sécurité, risques...), avec un juste équilibre entre le respect de la cible d’entreprise et la réponse pragmatique au besoin
Maitriser les objectifs visés par le cadre d’Architecture d’Entreprise et décrit des solutions qui s’y conforment et sont implémentables sous forme incrémentale dans les sprints
Participer à l’exploration continue (étude d’opportunité, cadrage) et aider à estimer l’effort et la valeur délivrée par les choix de designs éligibles pour favoriser la priorisation par le Product Owner et le Pôle Utilisateur (évolutivité, testabilité, déployabilité...)
Suivre et faciliter la visibilité de la conformité des solutions de son périmètre par rapport à la stratégie d’entreprise
Responsable de la documentation produit(s) en veillant à sa pertinence, fiabilité et sa cohérence avec les cadres de référence de l’architecture (processus, guides, patterns...).
Contribuer à l’enrichissement des référentiels d’entreprise.
Veille technologique
Former la squad aux bonnes pratiques et nouvelles technologies applicables
- Nous cherchons un tech Lead avec un expertise Framework Hadoop On Premise (HDFS, Yarn, Hive, Solr, Hbase, Oozie, Sqoop, ..etc)
- Distribution Cloudera (Cloudera Manager, Knox, Hue ... )
- Amélioration continue & évolution de la Plateforme BigData on Premise actuelle
- Définir les solutions techniques.
- être garant des solutions, de la conception technique, de la qualité fonctionnelle des développements (Homogénéise l’ensemble des développements..) et des livraisons.
- être référent de l’équipe pour le design d’application en adressant toutes les thématiques requises (technologique, architecturale, applicative, fonctionnelle, urbanisme, performance, etc.)
- Apporter son feedback terrain pour faire évoluer le corpus de connaissances du SI et contribue à le faire connaître des équipes pour favoriser leur appropriation
- Participer à la construction de la roadmap des offres de la Squad et l’évolution de la plateforme Big Data ZEUS
- Bonnes compétences en communication, management, gestion de projet
- Prendre part au développement de la vision produit en apportant une expertise et perspective technique
- Être impliqué dans la phase de conception et être capable de valider techniquement la faisabilité
- Maîtrise de l’écosystème Hadoop on Premise (distribution Cloudera et/ou Hortonworks )
- Maitrise de la chaîne de valeur du traitement de la donnée : BigData, Streaming : Kafka. Search : ElasticSearch, logstash, Kibana. DevOps : GitLab, Jenkins, Nexus, Ansible ..
- Compétences solides et maîtrise des concepts infra (Active Directory ,Système, Réseaux, Sécurité, Stockage, Supervision )
- Maitrise des principaux langages de développement (Bash, Python, Scala, SQL, ...) ainsi que les frameworks de déploiement de Machine Learning (Spark, ML Flow, Tensorflow, )

Mission freelance Data Analyste (H/F)
Insitoo Freelances
Publiée le
1 an
Lille, Hauts-de-France
Insitoo Freelance, facilitateur du freelancing depuis 2007, recherche pour son client en direct un Data Analyste (H/F).
Dans une équipe agile pluridisciplinaire, composée de data analystes, data ingénieurs et data scientists sont réalisés les tâches suivantes :
- Ingestion des données
- Analyses fonctionnelles
- Restitutions
- Ordonnancement des traitements
Les missions attendues par le Data Analyste (H/F) sont :
-Au sein de l’équipe Agile, le Data Analyste devra :
-Analyser des besoins fonctionnels et les traduire en solutions techniques via SQL
-Nettoyer, préparer et exposer les données en assurant leur qualité
-Manipuler les fichiers sous UNIX et HADOOP
-Développer l’ingestion de données via des scripts SQL
-Développer de nouvelles UDF
-Ordonnancer les traitements
-Suivre le run et gérer les erreurs
-Optimiser les traitements SQL
-Industrialiser les solutions d’imports et d’exports de données
-Industrialiser les traitements des Data Scientists
-Réaliser des imports et exports de données aux formats non standards
-Développer des pipelines d’ingestions et d’export en streaming
-Participer au collectif agile
Compétences requises :
-Esprit d’équipe / Ouverture d’esprit
-Maitrise du SQL et de ses optimisations
-Connaissances pratiques de SVN / GIT
-Bonnes connaissances de l’environnement HADOOP, UNIX et du SHELL
-Bonnes connaissances de Python
-Notions de traitements en streaming (Spark, Nifi)
-Concepts de l’agilité
-Des connaissances de Cloudera, SAS Visual Analytics, DigDash ou Jupyter sont un plus
Expérience souhaitée de 2 à 5 ans minimum sur un poste similaire
Compétences techniques et fonctionnelles attendues :
- SQL - Confirmé - Indispensable
- Git - Souhaitable
- Hadoop - Souhaitable
Cette mission vous intéresse ? N’attendez plus pour postuler !
Retrouvez-nous sur notre page linkedin : Insitoo
Et retrouvez le détail de la mission sur notre site internet : -lien masqué-
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes
Paris
Marseille
Lyon
Toulouse
Nice
Nantes
Montpellier
Strasbourg
Bordeaux
Lille
Rennes
Reims
Saint-Étienne
Le Havre
Toulon
Grenoble
Dijon
Angers
Nîmes
Villeurbanne
Saint-Denis
Le Mans
Aix-en-Provence
Clermont-Ferrand
Brest
Tours
Amiens
Limoges
Annecy
Perpignan
Boulogne-Billancourt
Besançon
Metz
Orléans
Rouen
Argenteuil
Mulhouse
Montreuil
Caen
Nancy
Saint-Paul
Tourcoing
Roubaix
Nanterre
Avignon
Vitry-sur-Seine
Poitiers
Créteil
Dunkerque
Versailles
Asnières-sur-Seine
Aubervilliers
Colombes

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !