Trouvez votre prochaine offre d’emploi ou de mission freelance Cloudera
Mission freelance
DATA ENGINEER
Dans le cadre d’un projet stratégique lié à l’industrialisation de nouvelles lignes de production, nous recherchons un Data Engineer Sénior pour intervenir sur la conception et le développement de flux de données. La mission consiste à spécifier, développer et maintenir des pipelines d’ingestion et de transformation de données dans un environnement Big Data. Le consultant interviendra en régie, au sein d’une équipe Data pluridisciplinaire, en lien avec les équipes IT et métiers. Expérience : Minimum 2 ans en tant que Data Engineer dans des environnements Big Data

Offre d'emploi
Data Engineer Big Data
Compétences techniques : Framework Big Data & Langage : Spark - spark streaming et batch (requis), SQL (requis) Kafka (apprécié) java (apprécié) scala (apprécié) shell (apprécié) Ecosystème Big Data : Stack Hadoop Cloudera (fortement apprécié) Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Apprécié : Outil de Data Visualisation : Microstrategy étant un plus (ou connaissance Power Bi, Tableau) Compétences humaines : Requis : Autonomie, Adaptabilité, Bonne communication / Pédagogue / Vulgarisation Data pour des équipes métiers Force de proposition, Sait challenger les besoins et comprend le sens métier des travaux menés 5 à 10 ans d'exp. Paris 12ème 3 jours sur site

Offre d'emploi
DATA ENGINEER
Compétences humaines : Autonomie, Adaptabilité, Bonne communication / Pédagogue Force de proposition, Sait challenger les besoins Compétences techniques : Langage : Spark - spark streaming et batch (requis), Kafka (requis) SQL (requis) java (apprécié) shell (apprécié) Stack Hadoop Cloudera Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Apprécié : Outil de Data Visualisation : Microstrategy étant un plus (ou connaissance Power Bi, Tableau) Expérimenté (4 à 7 ans) PARIS 12 - ON SITE 3J/SEM

Offre d'emploi
Data Engineer confirmé
Site : Vannes, 3 jours sur site par semaine Date de démarrage : asap Nationalité et langues parlées : français Durée mission : jusqu'au 31/12/2025 Mission : intervention pour le compte du Chapitre Data à Vannes Nb années d'expérience : 5 à 7 ans Profil : Data Engineer confirmé Compétences techniques - Langage : Spark - spark streaming et batch (requis), Kafka (apprécié) java (apprécié) shell (apprécié) Stack Hadoop Cloudera Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Compétences techniques souhaitées – appréciées BDD Teradata, xDI, SQL Data viz : Microstrategy

Mission freelance
96719/TECHNICAL INTEGRATOR NIFI Jenkins Gitlab NANTES
TECHNICAL INTEGRATOR NIFI Jenkins Gitlab NANTES Les modèles d'applications évoluent constamment et tendent à générer et manipuler de plus en plus de données qui peuvent être très sensibles ou critiques pour l'entreprise. Ces données sont également de plus en plus convoitées par les hackers et il devient indispensable d'en assurer un haut niveau sécurité. La prestation consiste a effectuer les Installations/Intégration en s'assurant du haut niveau de sécurité. Les tâches à effectuer : - Mise à jour des packages d’installation de la solution NIFI (version communautaire et version éditeur Cloudera). - Automatisation de la mise à jour des socles existants et report les propriétés de configuration et bases de sécurité, certificats, … - Installation déployées notamment sur PaaS Openshift (en POD). Les versions actuelles permettent maintenant d’être containerisée ; elles étaient jusqu’à présent installés sur VM. - Installation à automatiser à l’aide de jobs Jenkins et/ou Gitlab CI. - Mise à jour des différentes documentations liées

Offre d'emploi
Administrateur UNIX H/F
Nous recherchons un(e) Administrateur(trice) Systèmes et Middleware expérimenté(e) pour renforcer les équipes de notre client (secteur bancaire). Vos missions principales : Administration et exploitation de serveurs Linux / Unix (installation, configuration, supervision, optimisation). Gestion et administration de clusters Cloudera (Hadoop, services Big Data). Administration des middlewares : Weblogic, Tomcat, JBoss (déploiement, paramétrage, troubleshooting). Administration et support d’ETL Datastage . Planification et gestion des traitements avec IBM Workload Scheduler (IWS) . Sécurité : gestion des certificats, contrôle des accès, conformité. Gestion des filesystems et optimisation des ressources. Participation aux projets d’industrialisation et d’automatisation (scripts, outils de déploiement). Astreintes et interventions hors horaires ouvrés (HNO) dans le cadre du support et de la continuité de service.

Offre d'emploi
Data Ops H/F
Dans le cadre de l’évolution de son infrastructure Big Data, notre client, un organisme public recherche un Administrateur / Expert Hadoop pour intervenir sur un projet de migration de la plateforme Hortonworks Data Platform (HDP) vers Cloudera Data Platform (CDP) . Sous la responsabilité du Product Owner et de l’ Architecte Big Data , le consultant interviendra sur l’ensemble des phases techniques du projet. Objectifs de la mission : Participer à la migration du socle Big Data de HDP vers CDP Assurer l’ administration de la plateforme CDP Installer et configurer les composants techniques de la solution Réaliser des développements et configurations spécifiques : scripts Shell, automatisation via Ansible, intégration DevOps Rédiger des modes opératoires et documentations techniques à destination des équipes internes ️ Environnement technique : Hadoop (HDP / CDP) Kerberos, Ranger, Hive, Yarn, Oozie, Spark Ansible, Shell scripting GitLab Docker (notions de conteneurisation)
Offre d'emploi
Analyste fraude monétique & data
I. Contexte : Au sein de l'équipe Data Science & Scoring Vous jouerez un rôle clé dans la lutte contre la fraude monétique. En tant qu’Analyste Fraude Data, vous combinerez une approche métier et technique pour détecter, analyser et prévenir les fraudes sur les paiements par carte et les nouveaux moyens de paiement. - Projet 1 : Wero : identification des scénarios de fraude - Projet 2 : transactions cartes : construction de règles de scoring II. Missions : Vos principales missions seront : Identifier des scénarios de fraude Construire des règles de scoring en temps réel Implémenter ces règles et émettre des préconisations aux banques Interaction avec les banques partenaires pour expliquer les règles, les résultats de scoring et les aider dans leurs décisions Contribuer à la détection de fraudes Construire et analyser des dashboards interactifs Réaliser des analyses de segmentation, arbres de décision, reporting Suivre la pertinence des règles existantes et proposer des optimisations Manipuler et explorer les données récentes (SQL, Python) III. Environnement technique : Langages : Python, SQL Big Data : Cloudera, Spark, PySpark
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.