Trouvez votre prochaine offre d’emploi ou de mission freelance Cloudera
Votre recherche renvoie 25 résultats.
Mission freelance
Expert DataOps Aix en Provence ASAP Maitrise Cloudera, Kubernetes et devOps
Publiée le
Cloudera
Kubernetes
6 mois
400-440 £GB
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Expert DataOps Aix en Provence ASAP Maitrise Cloudera, Kubernetes et devOps Mise en place d'outils IA/Data pour les équipes à fortes valeurs ajoutées tout en gardant les nombres au stricte minimum. Mise en place et gestion des pipelines CI/CD en mode GitOps Utilisation des systèmes de monitoring et d'alerting (ex. Victoria Metrics, Grafana). Collaboration étroite avec les équipes de développement et d'opérations. Analyse et optimisation des performances des applications et infrastructures. Rédaction de documentation technique et guides de procédures. Gestion des incidents et mise en œuvre de solutions préventives.
Mission freelance
Ingénieur d'exploitation /Production dispo ASAP
Publiée le
Cloudera
Control-M
1 an
400-550 €
Île-de-France, France
Télétravail partiel
En tant qu’ingénieur d’exploitation pour les services Entrepôt et Big DATA, la mission consiste à : - Produire le relevé matinal des exécution des traitements sur les deux plates formes, et de remonter tous types d’ incidents (8h) sur l’environnement complet « Entrepôt et usages » et « BigData » - Assurer une communication unique pour les deux environnements et vulgarisation technico-fonctionnel auprès des différents intervenants - Analyser les actions correctrices à lancer court terme (relance rapide), à moyen terme (consignes pour les pilotes de nuit) et à long terme (correctifs d’ordonnancement ou de traitements), - Intervenir sous contraintes de délais lors des incidents d’exploitation (analyse des incidents, diagnostic et résolution des incidents). - Créer les incidents suivant le process (JIRA) - Faire des états des incidents par mois et contribuer aux reporting et comités - Analyser les indicateurs d’assurance qualité de données en place et en faire également un report et une communication aux acteurs concernés N."
Mission freelance
Expert BigData Aix en Provence ASAP Maitrise Cloudera, Kubernetes et devOps
Publiée le
Big Data
Cloudera
6 mois
400-440 £GB
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Expert BigData Aix en Provence ASAP Maitrise Cloudera, Kubernetes et devOps Mise en place d'outils IA/Data pour les équipes à fortes valeurs ajoutées tout en gardant les nombres au stricte minimum. Mise en place et gestion des pipelines CI/CD en mode GitOps Utilisation des systèmes de monitoring et d'alerting (ex. Victoria Metrics, Grafana). Collaboration étroite avec les équipes de développement et d'opérations. Analyse et optimisation des performances des applications et infrastructures. Rédaction de documentation technique et guides de procédures. Gestion des incidents et mise en œuvre de solutions préventives.
Mission freelance
Expert CDP / HDP (Cloudera - Hortonworks)
Publiée le
5 mois
500 €
Montreuil, Île-de-France
Objectifs principaux Garantir la fiabilité, la performance et la sécurité des plateformes CDP & HDP Automatiser et industrialiser les opérations d'exploitation Piloter et traiter les incidents de production Contribuer à la modernisation et l'évolution des environnements Big Data Responsabilités1. Exploitation & amélioration continue Optimiser les performances, configurations et usages des services CDP/HDP Mettre en œuvre des actions d'amélioration continue sur les clusters Gérer les incidents : analyse, diagnostic, résolution et rapports RCA 2. Automatisation / Ansible Maintenir et faire évoluer les playbooks Ansible existants Automatiser les opérations récurrentes : déploiement, gestion de configurations, sécurité, montée de version Contribuer à l' industrialisation via Ansible Tower : workflows, inventaires, délégation 3. Observabilité & monitoring Superviser les clusters via Elastic Stack (ELK) et Dynatrace Mettre en place et optimiser les alertes, dashboards et KPIs Améliorer l'observabilité : logs, métriques et traces 4. Sécurité & conformité Gérer les configurations LDAP : identités et droits Administrer et sécuriser Kerberos Garantir la conformité sécurité des clusters Cloudera/Hortonworks 5. Coordination & collaboration Collaborer quotidiennement avec les équipes techniques en France et en Inde Participer aux comités techniques et points de suivi Contribuer à la documentation, au partage de connaissances et à la montée en compétences des équipes Montreal Associates is acting as an Employment Business in relation to this vacancy.
Offre d'emploi
Administrateur Systèmes N2/N3 – Data Lake / Linux / Cloudera
Publiée le
Ansible
Apache Airflow
Linux
24 mois
Île-de-France, France
Télétravail partiel
Mission: Lieu : IDF (sud de Paris) Démarrage souhaité : Janvier 2026 Télétravail : 2 jours par semaine Astreintes : Oui Nous recherchons trois Administrateurs Systèmes N2/N3 pour intervenir sur une plateforme Data Lake de grande envergure. Vous rejoindrez l’équipe en charge de l’administration, du maintien en conditions opérationnelles et de l’automatisation des environnements Linux/Cloudera. Il s’agit d’une mission longue et techniquement exigeante, dans un environnement moderne mêlant Big Data, automatisation, scripting et ordonnancement. Responsabilités principales Administrer et exploiter la plateforme Data Lake (environnements Cloudera & Linux) Assurer le MCO/MCS des clusters (fiabilité, disponibilité, supervision) Implémenter et maintenir des pipelines d’automatisation via AWX / Ansible Rédiger et maintenir des scripts d’administration (Python, Shell, Ansible) Participer aux phases d’industrialisation, normalisation et sécurisation des environnements Gérer les accès et l’identité via IDM / FreeIPA Exploiter et optimiser les workflows sous Airflow Participer à la gestion des incidents (N2/N3), astreintes et interventions HNO Travailler en coordination avec les équipes Data, Sécurité et Exploitation
Mission freelance
Administrateur / Expert Big Data (Cloudera)
Publiée le
Apache Spark
Cloudera
Hadoop
3 ans
500-700 €
Île-de-France, France
Télétravail partiel
Vous serez en charge du déploiement ainsi que du MCO/MCS de l’écosystème Cloudera (Cloudera Manager, services Cloudera Data Platform : HDFS, Vous interviendrez également sur la gestion d’une architecture Lake house , comprenant : Data Security : Apache Ranger Data gouvernance : Apache Atlas Data processing : Spark, Apache Zeppelin Data ingestion : NiFi Data analytics : Apache Impala Data lake : Hadoop, Apache Kudu Data serving : Hue Responsabilités Documenter les procédures d’exploitation et rédiger des rapports synthétiques Garantir le bon fonctionnement des services dans le respect des SLA Opérer en environnement de production en s’appuyant sur les processus ITIL (gestion des incidents, problèmes, changements) Communiquer en anglais avec les éditeurs (dont Cloudera) et les fournisseurs Automatiser les déploiements (fichiers de configuration, certificats, keystores) via Ansible Utiliser les outils DevOps (GitHub, Jenkins) pour le versionning et les pipelines Exploiter les environnements Linux et analyser les logs dans le cadre du traitement des incidents Être force de proposition concernant l’amélioration de l'exploitabilité, la robustesse et la supervision des services Participer aux réunions d’équipe, aux projets et aux différents comités, et assurer un reporting régulier Livrables attendus Dossier d’ingénierie de la plateforme Lake house Fiches et procédures d’exploitation Dossier de mise en production PV de mise en production
Mission freelance
POT8703 - Un Chef de projet Workplace / VDI – Contexte International sur Guyancourt
Publiée le
Cloudera
6 mois
250-400 €
Guyancourt, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients ,Un Chef de projet Workplace expérimenté / VDI – Contexte International sur Guyancourt (78). . Projet : Chef de projet expérimenté devant connaitre les aspects Workplace et plus particulièrement les VDI. le candidat va être amené à travailler dans un contexte international. Principaux livrables : Spécifications, configurations, développements d’ APIs Compétences requises : SCCM, Windows 10, Exchange, GPO, Packaging, VDI, Softphonie, Master La connaissance des réglementations liées à la sécurité du monde bancaire, appliquée au niveau postes de travail Outils Big Data (Cloudera, Kafka) Réseaux Office 365 Capacité à définir, gérer et suivre un ou plusieurs budgets
Mission freelance
[MISSION LONGUE] Administrateur Lakehouse / Cloudera – Expert Big Data (H/F)
Publiée le
Apache
Apache NiFi
Apache Spark
12 mois
400-650 €
Paris, France
Télétravail partiel
Client final : secteur paiement – mission longue – environnement Cloudera CDP Nous recherchons un Administrateur Lakehouse / Administrateur Cloudera confirmé ou senior pour accompagner l’un de nos clients grands comptes dans la gestion et l’exploitation de son écosystème Big Data. 🎯 Compétences OBLIGATOIRES (critères majeurs) 👉 Maîtrise parfaite des composants Lakehouse suivants : Apache Ranger (Data Security) Apache Atlas (Gouvernance & Lineage) Spark + Apache Zeppelin (Processing) NiFi (Ingestion) Apache Impala (Analytics) Hadoop (HDFS) + Apache Kudu (Data Lake) Hue (Serving / SQL UI) ➡️ Ces compétences sont indispensables : seuls les profils maîtrisant ces briques seront retenus. 🧩 Vos responsabilités Administrer et maintenir l’écosystème Cloudera / CDP (Cloudera Manager, HDFS, Yarn, Zookeeper…). Assurer le MCO/MCS : disponibilité, performances, sécurité, supervision. Documenter les procédures d’exploitation & rédiger des rapports synthétiques. Respecter les SLA et intervenir en cas d’incident. Travailler en environnement ITIL (gestion incidents, problèmes, changements). Automatiser les déploiements via Ansible (certificats, keystores, configurations). Utiliser les outils DevOps : GitHub , Jenkins . Exploiter les environnements Linux (analyse de logs, diagnostic). Participer aux réunions d’équipe, aux projets et aux comités. Être force de proposition sur l’amélioration continue et la supervision. 🌍 Environnement technique Cloudera CDP • Cloudera Manager • HDFS • Yarn • Zookeeper Apache Ranger • Apache Atlas • Spark • Zeppelin • NiFi • Impala Hadoop • Kudu • Hue Ansible • GitHub • Jenkins • Linux 📌 Profil recherché 5 à 7+ ans en administration Big Data / Hadoop / Cloudera impératif. Très forte expertise sur les briques Lakehouse listées ci-dessus. À l’aise en production, ITIL, sécurité, automatisation. Bon niveau d’anglais (échanges éditeurs Cloudera & fournisseurs). Consultant autonome, structuré, capable de rendre compte et d’améliorer l’existant. 🚀 Disponibilité immédiate ou rapide Si vous maîtrisez Cloudera + Ranger + Atlas + Spark + NiFi + Impala + Kudu , contactez-moi directement.
Mission freelance
Architecte Technique Solution Data
Publiée le
Big Data
Cloudera
3 mois
400-690 €
Île-de-France, France
La Tribu DATA (DAT) construit et développe des applications sur la base de puissantes plates-formes DATA à des fins d’usages variés servant toutes les directions métiers de la banque. Pour répondre à ces usages, DAT est au cœur de la stratégie datacentric de LCL, et intervient aussi bien au niveau de l’architecture Data, sur les technologies data, Big data, IA, Teradata, SAS, ainsi que sur les solutions analytiques et de datavizualisation. Plus particulièrement dans le cadre de la squad Socles Data, nous recherchons un Architecte technique Solutions Data. Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plates-forme DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux reflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modérnisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query, ....). LCL SNI TPI PSP 19/09/2025 Page 1 Les solutions doivent être mises en place dans une optique de service performant et évolutif pour nos métiers et utilisateurs divers, prenant en compte l’écosystème informatique LCL actuel ainsi que la stratégie de modernisation future. Le profil recherché doit avoir une connaissance forte des solutions Data de l’écosystème LCL, ainsi qu’une expérience très significative en qualité d’architecte technique Data. Il doit également avoir quelques notions des nouvelles technologies présentées dans le cadre de la stratégie de modernisation de nos plates-formes et être capable de monter rapidement en compétences dessus. Description complémentaire du profil Softskills: Sens du service. Bonne gestion du stress et des priorisations Très bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie (
Offre d'emploi
Développeur Fullstack Data Java / Python / SQL
Publiée le
Automatisation
CI/CD
Cloudera
3 ans
40k-55k €
350-550 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Description du poste Nous recherchons un Développeur Fullstack orienté Data pour intervenir dans un environnement bancaire sur des sujets de conception, développement et optimisation de solutions data. Votre rôle portera sur la mise en place et l’optimisation des bases de données, la conception et l’intégration de traitements via Python et Java, ainsi que la création d’outils permettant de suivre, fiabiliser et sécuriser les usages data. Vous aurez la responsabilité d’assurer la disponibilité, la cohérence, la qualité et la performance des systèmes, tout en veillant à leur bonne exploitation. Vous participerez également à la mise en œuvre d’outils de supervision, à la documentation technique, à l’industrialisation de scripts et aux activités de support auprès des utilisateurs. La mission s’effectue dans un contexte agile avec un fort niveau d’autonomie et de collaboration technique. Compétences techniques Python Java SQL PostgreSQL Azure Synapse / Synapse Analytics Cloudera CI/CD – Environnements DevOps Optimisation et structuration de bases de données Scripting et automatisation
Mission freelance
Expert CDP-HDP / Data Platform
Publiée le
Cloudera
Hortonworks Data Platform (HDP)
6 mois
400-600 €
Paris, France
Contexte de la mission: Dans le cadre d’un programme de modernisation et d’optimisation d’une plateforme Big Data au sein d’un grand groupe du secteur bancaire international, nous recherchons un Expert CDP (Cloudera Data Platform) disposant d’une solide expérience sur HDP (Hortonworks Data Platform). Le consultant interviendra sur la gestion et l’amélioration continue des environnements Big Data, l’automatisation des processus via Ansible, ainsi que la coordination d’équipes techniques multi-pays. Responsabilités principales: Assurer l’amélioration continue des services sur CDP (optimisation, tuning, configuration). Gérer et résoudre les incidents de production sur les environnements HDP et CDP. Développer et maintenir les playbooks Ansible pour le déploiement et l’exploitation des clusters. Contribuer à la standardisation et à l’automatisation des processus d’exploitation. Participer à la documentation technique et à la montée en compétence des équipes locales et offshore. Compétences techniques recherchées: CDP / HDP : expertise sur la gestion des clusters, sécurité, monitoring, optimisation. Ansible / Ansible Tower : automatisation du déploiement et des opérations. CI/CD : intégration et déploiement continus dans des environnements complexes. Linux : très bonne maîtrise des environnements et scripts système. Elastic Stack et Dynatrace : supervision et suivi de la performance. LDAP / Kerberos : gestion des identités et des accès sécurisés. Expérience internationale appréciée (collaboration France / Inde). Anglais professionnel requis. Livrables attendus: Documentation technique actualisée des environnements Big Data. Playbooks Ansible fonctionnels et industrialisés. Rapports d’optimisation et recommandations d’évolution.
Offre d'emploi
Architecte Big Data GCP & Cloudera (H/F)
Publiée le
Cloudera
Google Cloud Platform (GCP)
1 an
55k-70k €
550-660 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Architecte Big Data confirmé maîtrisant les environnements GCP (Google Cloud Platform) et Cloudera , capable d’allier vision stratégique et excellence technique. En tant qu’Architecte Big Data, vous interviendrez sur des projets de transformation data à grande échelle : Concevoir et faire évoluer des architectures Big Data hybrides (Cloud & on-premise). Définir la stratégie de données et les bonnes pratiques de gouvernance, sécurité et performance. Encadrer les équipes techniques (Data Engineers, DevOps, Data Scientists). Piloter les choix technologiques sur les écosystèmes GCP (BigQuery, Dataflow, Pub/Sub, Composer, Dataproc) et Cloudera (CDP, HDFS, Hive, Spark, Kafka) . Garantir la scalabilité, la résilience et l’optimisation des coûts des plateformes data. Participer aux revues d’architecture et à la veille technologique sur les solutions Cloud et Open Source.
Offre d'emploi
Architecte Technique Data
Publiée le
Apache Spark
Architecture
Big Data
2 ans
48k-98k €
400-770 €
Villejuif, Île-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Architecte technique Data Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plates-forme DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux reflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modérnisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query etc)
Mission freelance
Scrum Master Senior / Pilote Delivery - Projets Data (GCP/Cloudera)
Publiée le
Agile Scrum
Cloud
Kanban
6 mois
400-550 €
Île-de-France, France
Télétravail partiel
Pour le compte d'un client majeur dans son secteur, nous recherchons un Scrum Master expérimenté pour structurer et piloter les activités d'une équipe de développement stratégique. Dans un environnement technique riche (Data, Cloud), vous serez le garant de la mise en place d'un cycle agile performant et de la qualité du delivery. Vos Missions : Implémentation et Pilotage Agile : Définir, mettre en œuvre et animer le framework agile (Scrum, Kanban, SAFe) adapté aux besoins de l'équipe. Pilotage du Delivery : Assurer la gestion complète du portefeuille de projets de l'équipe : suivi des jalons, maîtrise du budget, gestion du RAF (Reste à Faire fonctionnel) et qualification des chiffrages. Point de Contact Central : Agir en tant qu'interlocuteur principal de l'équipe de développement auprès des différentes instances et parties prenantes. Garantie de la Qualité : Incarner l'excellence opérationnelle de l'équipe par une rigueur d'exécution et une qualité de communication irréprochables, ce poste étant une vitrine du savoir-faire technique.
Offre d'emploi
Scrum Master - DATA
Publiée le
Cloudera
Google Cloud Platform (GCP)
Kanban
1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
📢 Offre de mission – Scrum Master Data Au sein d’un département IT Data, vous interviendrez sur la mise en place et le pilotage d’un cadre Agile pour l’ensemble des activités de développement de l’équipe. 🎯 Objectif de la mission : Le Scrum Master aura pour rôle de structurer le cycle agile, d’assurer le pilotage du delivery (jalons, budget, RAF fonctionnel, validation des chiffrages) et de représenter l’équipe de développement au sein des différentes instances. Ce poste, à forte visibilité, nécessite un excellent sens du relationnel , une rigueur d’exécution et une communication claire et professionnelle , véritables vitrines de la qualité du travail de l’équipe. Responsabilités principales : Mettre en place et animer le cycle Agile (Scrum, Kanban, SAFe). Piloter le delivery : suivi des jalons, budgets et charges. Qualifier les chiffrages et coordonner la planification avec les équipes métier et techniques. Faciliter la communication entre les développeurs, les PO et les parties prenantes. Contribuer à l’amélioration continue des pratiques agiles et à la performance de l’équipe.
Offre d'emploi
Data Engineer
Publiée le
Apache Hive
Apache Kafka
Apache Spark
6 mois
Vannes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer confirmé : Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
25 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois