Find your next tech and IT Job or contract Cloudera
 
 
            Contractor job
            
        POT8703 - Un Chef de projet Workplace / VDI – Contexte International sur Guyancourt 
      
 Almatek recherche pour l'un de ses clients ,Un Chef de projet Workplace expérimenté / VDI – Contexte International sur Guyancourt (78) Projet : Chef de projet expérimenté devant connaitre les aspects Workplace et plus particulièrement les VDI. le candidat va être amené à travailler dans un contexte international. Principaux livrables : Spécifications, configurations, développements d’ APIs Compétences requises : SCCM, Windows 10, Exchange, GPO, Packaging, VDI, Softphonie, Master La connaissance des réglementations liées à la sécurité du monde bancaire, appliquée au niveau postes de travail Outils Big Data (Cloudera, Kafka) Réseaux Office 365 Capacité à définir, gérer et suivre un ou plusieurs budgets
 
 
            Contractor job
            
        Data Ingénieur Cloudera
      
 Pour le besoin de mon client, je suis à la recherche d'un profil Data Engineer confirmé Tâches Piloter les projets DevOps complexes : planification, suivi des délais, budget et livrables. Coordonner les équipes (techniques, métiers, sécurité) et animer les comités de suivi. Superviser les évolutions systèmes et infrastructures liées au DevOps. Intégrer la cybersécurité dans les projets et veiller au respect des bonnes pratiques. SQL (notamment HIVE) HADOOP (développement sur Cloudera Data Platform) Shell UNIX JAVA/Spark Git
 
 
            Contractor job
            
        Expert CDP-HDP / Data Platform
      
 Contexte de la mission: Dans le cadre d’un programme de modernisation et d’optimisation d’une plateforme Big Data au sein d’un grand groupe du secteur bancaire international, nous recherchons un Expert CDP (Cloudera Data Platform) disposant d’une solide expérience sur HDP (Hortonworks Data Platform). Le consultant interviendra sur la gestion et l’amélioration continue des environnements Big Data, l’automatisation des processus via Ansible, ainsi que la coordination d’équipes techniques multi-pays. Responsabilités principales: Assurer l’amélioration continue des services sur CDP (optimisation, tuning, configuration). Gérer et résoudre les incidents de production sur les environnements HDP et CDP. Développer et maintenir les playbooks Ansible pour le déploiement et l’exploitation des clusters. Contribuer à la standardisation et à l’automatisation des processus d’exploitation. Participer à la documentation technique et à la montée en compétence des équipes locales et offshore. Compétences techniques recherchées: CDP / HDP : expertise sur la gestion des clusters, sécurité, monitoring, optimisation. Ansible / Ansible Tower : automatisation du déploiement et des opérations. CI/CD : intégration et déploiement continus dans des environnements complexes. Linux : très bonne maîtrise des environnements et scripts système. Elastic Stack et Dynatrace : supervision et suivi de la performance. LDAP / Kerberos : gestion des identités et des accès sécurisés. Expérience internationale appréciée (collaboration France / Inde). Anglais professionnel requis. Livrables attendus: Documentation technique actualisée des environnements Big Data. Playbooks Ansible fonctionnels et industrialisés. Rapports d’optimisation et recommandations d’évolution.
 
 
            Contractor job
            
        Scrum Master Senior / Pilote Delivery - Projets Data (GCP/Cloudera)
      
 Pour le compte d'un client majeur dans son secteur, nous recherchons un Scrum Master expérimenté pour structurer et piloter les activités d'une équipe de développement stratégique. Dans un environnement technique riche (Data, Cloud), vous serez le garant de la mise en place d'un cycle agile performant et de la qualité du delivery. Vos Missions : Implémentation et Pilotage Agile : Définir, mettre en œuvre et animer le framework agile (Scrum, Kanban, SAFe) adapté aux besoins de l'équipe. Pilotage du Delivery : Assurer la gestion complète du portefeuille de projets de l'équipe : suivi des jalons, maîtrise du budget, gestion du RAF (Reste à Faire fonctionnel) et qualification des chiffrages. Point de Contact Central : Agir en tant qu'interlocuteur principal de l'équipe de développement auprès des différentes instances et parties prenantes. Garantie de la Qualité : Incarner l'excellence opérationnelle de l'équipe par une rigueur d'exécution et une qualité de communication irréprochables, ce poste étant une vitrine du savoir-faire technique.
 
 
            Job Vacancy
            
        Data Engineer - Expert Cloudera (F/H)
      
 Data Engineer & Expert Cloudera – CDI – Gennevilliers (92) – 60/70 K€ Contexte du poste Dans le cadre d’un projet Groupe couvrant 5 divisions métiers, la DSI renforce son équipe Data avec le recrutement d’un Data Engineer. L’objectif est de concevoir et mettre en place un Data Layer commun et de développer une série d’indicateurs métiers structurants pour le pilotage des activités. Le Data Engineer interviendra également sur l’ implémentation des user stories issues du backlog défini par le PPO. L’équipe actuelle se compose de 4 Chefs de projet BI et 1 Architecte Big Data . À terme, elle intégrera 2 Consultants BI , 2 PPO et 1 autre Data Engineer . Missions principales Participer à la spécification et au développement au sein de la nouvelle infrastructure Cloudera Réaliser les scripts d’intégration et de transformation des données en Scala / Spark Concevoir et préparer les jeux de données nécessaires au reporting dans Power BI Concevoir, documenter et optimiser les modèles de données pour la performance et la maintenabilité Être force de proposition pour l’évolution de la plateforme et l’amélioration des performances globales
 
 
            Job Vacancy
            
        Architecte Data Expérimenté
      
 Dans le cadre du renforcement de l'équipe Socles Data pour un grand acteur bancaire, nous recherchons un Architecte technique Solutions Data. Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plateformes DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux réflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modernisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query, ....).
 
 
            Job Vacancy
            
        Scrum Master - DATA 
      
 📢 Offre de mission – Scrum Master Data Au sein d’un département IT Data, vous interviendrez sur la mise en place et le pilotage d’un cadre Agile pour l’ensemble des activités de développement de l’équipe. 🎯 Objectif de la mission : Le Scrum Master aura pour rôle de structurer le cycle agile, d’assurer le pilotage du delivery (jalons, budget, RAF fonctionnel, validation des chiffrages) et de représenter l’équipe de développement au sein des différentes instances. Ce poste, à forte visibilité, nécessite un excellent sens du relationnel , une rigueur d’exécution et une communication claire et professionnelle , véritables vitrines de la qualité du travail de l’équipe. Responsabilités principales : Mettre en place et animer le cycle Agile (Scrum, Kanban, SAFe). Piloter le delivery : suivi des jalons, budgets et charges. Qualifier les chiffrages et coordonner la planification avec les équipes métier et techniques. Faciliter la communication entre les développeurs, les PO et les parties prenantes. Contribuer à l’amélioration continue des pratiques agiles et à la performance de l’équipe.
 
 
            Contractor job
            
        Administrateur Technique plateforme Cloudera
      
 En quelques mots Cherry Pick est à la recherche d'un "Administrateur Technique plateforme Cloudera" pour un client dans le secteur des telecoms Description 🎯 Contexte L’entité Data & AI (230 experts) accompagne Orange Business dans sa transformation autour de la donnée et de l’intelligence artificielle. L’équipe Platform conçoit et maintient les composants techniques qui permettent de démocratiser l’usage de la Data & de l’IA pour les salariés et clients. Au sein de cette équipe, la mission s’inscrit dans le cadre de l’Enterprise Data Hub (EDH), plateforme Big Data B2B d’Orange Business : +180 sources de données intégrées +700 To de données hébergées +100 projets Data supportés Migration et évolution vers le Cloud Azure en cours 🛠️ Missions principales En tant qu’Administrateur Technique Big Data, vous intégrerez l’équipe en charge de l’exploitation et de l’évolution de la plateforme : RUN & Support : gestion opérationnelle de la plateforme Cloudera et des composants Big Data. Déploiement : participation aux déploiements de nouvelles plateformes et environnements. Monitoring & Optimisation : mise en place et suivi des outils de monitoring, tuning des performances. Automatisation : développement de scripts et d’outils pour uniformiser et industrialiser les processus. Documentation & Knowledge sharing : rédaction et mise à jour de la documentation technique. Collaboration internationale : échanges avec des équipes réparties sur plusieurs continents (anglais professionnel).
            Job Vacancy
            
        Tech Lead Data Engineer – Big Data / Java Spark
      
 Contexte du projet : Dans le cadre d’un vaste programme de transformation digitale, CBX Group accompagne un grand acteur dans la mise en place et l’industrialisation d’une plateforme Big Data. Nous recherchons un Tech Lead Data Engineer expérimenté pour renforcer l’équipe Data et piloter la conception, le développement et la mise en production de traitements batch et temps réel, tout en encadrant les Data Engineers de la squad. Missions principales : Piloter la conception et le développement de pipelines en Spark SQL et Java Spark (batch & streaming). Définir les standards de développement et garantir la qualité technique de la squad (revues de code, bonnes pratiques, CI/CD). Concevoir et optimiser des traitements temps réel (Kafka, MongoDB, event-driven). Accompagner le design des usages Data en lien avec les Product Owners et le métier. Assurer l’optimisation et le tuning des traitements Spark pour garantir performance et scalabilité. Encadrer et coacher les Data Engineers de l’équipe, favoriser le partage de connaissances. Documenter l’architecture et les traitements dans Confluence, assurer le support et la maintenance. Participer aux rituels agiles et contribuer à la roadmap technique de la plateforme. Stack technique : Cloudera / MAPR, Java 11/17/21, Spark 2/3, Spring Boot, Kafka, MongoDB, Jenkins, Kubernetes, ArgoCD, SonarQube ; cloud GCP
 
 
            Contractor job
            
        Data Ingénieur cloudera 
      
 Data Engineer avec compétence sur la stack technique Hadoop, Python, Spark/PySpark, Cloudera Expérimenté 3 à 5 années d'expérience sur des activités similaires ... ... .. ... ... .. .. ... ... ... ... ... ... ... .. ... ... ... ... .. ... ... .. ..... ... ... ... ... .. ... ... .. .. ... ... ... ... ... ... ... .. ... ... ... ... .. ... ... .. ..... ... ... ... ... .. ... ... .. .. ... ... ... ... ... ... ... .. ... ... ... ... .. ... ... .. ..... ... ... ... ... .. ... ... .. .. ... ... ... ... ... ... ... .. ... ... ... .
 
 
            Contractor job
            
        DevOps /Admin Senior Big Data F/H
      
 Administrer les clusters Big Data et les briques logicielles OpenShift, Cloudera Data PlatForm du Socle DataLake Groupe ; Prendre en charge l’Expertise des technologies Big Data (principalement OpenShift, Cloudera Data PlatForm) utilisées par le OneDataLake avec un focus sur les niveaux de service rendus par la Plate-Forme et des ROI associés ; Concevoir et développer une solution à l’état de l’art sur les couches infra et techniques de la plateforme One Data Lake pour offrir le meilleur niveau de réponse aux exigences fonctionnelles des métiers ainsi qu’aux exigences de performance, de scalabilité, de résilience, d’évolutivité, d’exploitabilité et de conformité aux règlements PSSI et RGPD Assurer le support de Niveau N3 (Heures Ouvrées); Maitriser les enjeux du cycle de vie de la Plate-Forme OneDataLake : conception, développement, intégration et déploiement techniques de briques socle, d’applications ou de solutions Big Data/IA ; Diffuser l’expertise et accompagner les équipes Socle Outils, Socle Applicatifs et DataFactories pour un bon usage du Socle Technique, dans l’appropriation du cadre technologique et de sa bonne mise en application ; Assurer ou veiller à la mise à jour exhaustive et complète de la documentation du Produit Socle DataLake ; S’inscrire dans une organisation opérationnelle SAFe, Scrum, XP ; Reporter aux PM/POs Socle DataLake ; S’inscrire dans la démarche qualité et la gouvernance de la DIWO / DSI.
 
 
            Contractor job
            
        Chef de projet Workplace VDI SCCM Windows 10, Exchange, GPO, Packaging
      
 Chef de projet Workplace VDI SCCM client Banque basé à Guyancourt, un Chef de projet - Expérimenté avec un minimum de 6 ans d’expériences sur des projets similaires avec une expérience significative sur les VDI. SCCM, Windows 10, Exchange, GPO, Packaging, VDI, Softphonie, Master La connaissance des réglementations liées à la sécurité du monde bancaire, appliquée au niveau postes de travail Outils Big Data (Cloudera, Kafka) Réseaux Office 365 Capacité à définir, gérer et suivre un ou plusieurs budgets Localisation Guyancourt (78)/ Télétravail Durée de la mission : 2 ans Projet : Chef de projet expérimenté devant connaitre les aspects Workplace et plus particulièrement les VDI. le candidat va être amené à travailler dans un contexte international. Principaux livrables : Spécifications, configurations, développements d’ APIs Compétences requises : SCCM, Windows 10, Exchange, GPO, Packaging, VDI, Softphonie, Master La connaissance des réglementations liées à la sécurité du monde bancaire, appliquée au niveau postes de travail Outils Big Data (Cloudera, Kafka) Réseaux Office 365 Capacité à définir, gérer et suivre un ou plusieurs budgets
 
 
            Contractor job
            
        Data Engineer Databricks
      
 En tant que Data Engineer Databricks, nous vous proposons d’intégrer une équipe d’ingénieurs expérimentés et multi-compétentes. Au sein de nos clients issus de différents secteurs d'activité (Industrie, Services, Transport, Logistique, Banque, Assurances, Énergie), vous jouez un rôle clé dans la migration des données et des tâches de l'environnement Cloudera vers Databricks. Vous êtes également chargé d'automatiser le déploiement des jobs via le CI/CD. Pour réussir ces différents challenges, nous vous proposerons des actions de formation, des parrainages, des certifications sur les outils concernés et un dispositif d’évaluation personnel régulier.
            Contractor job
            
        AWS engineer / Architect 
      
 Hanson Regan recherche un AWS/ingénieur/Architectes pour une mission de 12 mois basée à Paris Architecte avec Expertise IaC sur AWS, modèle d'habilitation IAM Architecture de la plateforme Data et du Datalab sur Services Data AWS natifs Ingénieurs Data avec Expérience AWS : Ingestions de fichiers simples avec AWS Glue Portage de code Spark2 vers Spark 3 de cloudera vers EMR (mix Python & Scala) Services Data Natifs AWS (GLue, EMR, Tables GLue sur S3 et éventuellement S3Tables Iceberg) Document d'expositionDB/MongoDB En raison des exigences du client, les indépendants doivent pouvoir travailler via leur propre entreprise, car nous ne pouvons malheureusement pas accepter de solutions globales pour cette mission. Veuillez nous contacter au plus vite si vous êtes intéressé.
 
 
            Contractor job
            
        Développeur Big Data
      
 CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Data Management, Développeur Big Data Spécialités technologiques : Big Data Au sein du chapitre DATA, entité transverse au service des différentes tribus métiers, vous interviendrez dans un environnement stimulant où la donnée est au cœur des réflexions stratégiques. Votre rôle consistera à accompagner les équipes métiers dans la conception et l’industrialisation des solutions DATA, notamment autour de problématiques d’analyse de risque dans le cadre d’investissements et d’accords de prêt aux professionnels. MISSIONS Vous serez un référent technique et méthodologique, garant de la qualité, de la cohérence et de la performance des solutions Big Data déployées sur les plateformes SPARK et CLOUDERA. Missions principales - Intervenir en appui des équipes métiers pour les aider à formaliser et concevoir des solutions DATA robustes et évolutives. - Participer à la construction de pipelines de données performants et scalables (traitement, transformation, ingestion, qualité). - Assurer la mise en œuvre technique des projets sur l’écosystème Big Data (SPARK, CLOUDERA, HADOOP). - Challenger les besoins métiers pour garantir la pertinence et la faisabilité des solutions. - Promouvoir les bonnes pratiques de développement et d’architecture DATA au sein des équipes. - Contribuer à la maturité data globale de l’organisation, en accompagnant les équipes vers plus d’autonomie et de rigueur dans la manipulation des données. Expertise souhaitée Compétences techniques - Solide maîtrise des environnements SPARK, CLOUDERA, HADOOP. - Bonnes connaissances de Hive et Java (BONUS). Soft skills et posture - Capacité à prendre du recul et à aborder les sujets sous un angle global et critique. - Aisance dans la communication transverse et l’interaction avec des interlocuteurs non techniques. - Esprit de leadership intellectuel : savoir challenger, convaincre, faire réfléchir les équipes métiers. - Autonomie, curiosité et sens du collectif. - Goût pour la pédagogie technique et l’accompagnement au changement.
 
 
            Job Vacancy
            
        PMO IT (H/F)
      
 Pour notre client grand compte du secteur bancaire, nous recherchons un PMO / Chef de Projet confirmé afin d’accompagner les évolutions réglementaires du dispositif Big Data de stress tests Risque. La mission couvre : • Les projections des paramètres de risque basées sur les variables macroéconomiques • Les simulations mesurant l’impact des chocs sur le coût du risque et les provisions • La mise en conformité du dispositif avec les exigences réglementaires et prudentielles Le consultant interviendra au sein de l’équipe Stress Test Risk SI, en coordination avec les équipes Data, Risk Modeling, IT et Architecture. Missions • Organiser, préparer et animer les instances de gouvernance (COPIL, COPROJ, comités transverses) • Piloter l’état d’avancement des projets : KPI, indicateurs, tableaux de bord, reporting d’avancement • Assurer le suivi du planning, de la charge, du budget et de la qualité des livrables • Identifier et analyser les risques projet, définir les plans d’actions et suivre leur exécution • Coordonner les interactions avec les équipes Stress Test, Data Engineering, Modélisation et Architecture • Contribuer à la structuration et à la cohérence de la documentation opérationnelle et réglementaire • Participer aux échanges offshoring/onshoring et assurer la cohérence des travaux • Préparer les éléments attendus dans le cadre des audits internes et externes • Accompagner la mise en place ou l’amélioration des pratiques Agile au sein des équipes • Intervenir sur le pilotage technique lié au dispositif Big Data (Hadoop, Cloudera, Hortonworks, Databricks, GCP Dataproc/BigQuery, AWS EMR/Redshift, Azure Synapse/HDInsight)
Submit your CV
-  Manage your visibility Salary, remote work... Define all the criteria that are important to you. 
-  Get discovered Recruiters come directly to look for their future hires in our CV library. 
-  Join a community Connect with like-minded tech and IT professionals on a daily basis through our forum. 
Latest forum topics
-  I'm looking for Unity or Unreal Engine unpaid programmers
-  Backend Challenges in Building a Cryptocurrency Exchange Platform
-  Focusing on Daily Discipline and Routine
-  Load the animation just when it apperas on the page
-  What Helped Me Earn Consistently
-  Are tokenized stocks the next big trend or just hype ?
Jobs by city
Jobs by country
