Trouvez votre prochaine offre d’emploi ou de mission freelance Cloudera
Votre recherche renvoie 29 résultats.
Mission freelance
Senior Data Engineer – Secteur Banque (Lab Data)
Syneam
Publiée le
Cloudera
Dataiku
PySpark
6 mois
Île-de-France, France
Dans le cadre d’initiatives data en environnement bancaire, vous intervenez au sein d’un Lab dédié à des use cases de reporting risque. L’objectif est de concevoir et tester rapidement des solutions (POC), avant leur industrialisation à plus grande échelle. Descriptif de la mission : Concevoir et développer des pipelines data autour de cas d’usage Risk / Finance Participer à la mise en place de POC (collecte, transformation, mise à disposition des données) Industrialiser les solutions validées (robustesse, performance, scalabilité) Travailler en étroite collaboration avec un Business Analyst pour cadrer les besoins Interagir avec les équipes métiers (Risk, Finance) pour affiner les modèles de données Garantir la qualité, la traçabilité et la fiabilité des données traitées Contribuer à l’amélioration des pratiques data en environnement Lab / agile
Mission freelance
101070/Test Engineer Nantes : Cloudera Hadoop,Squash TM (Test Management),MS Azure Databricks,Jira
WorldWide People
Publiée le
Azure
Cloudera
12 mois
330-350 €
Nantes, Pays de la Loire
est Engineer Nantes QUALIFICATION : Cloudera Hadoop,Squash TM (Test Management),MS Azure Databricks,Jira Confluence, Mission à temps plein dans le secteur financier, d'une durée de 1an minimum. Elle consiste à tester et intégrer des solutions de données dans le cadre d'un projet de migration d'un lac de données sur site vers une plateforme cloud Azure Databricks. Contexte : - Cette mission s'inscrit dans un projet de migration d'un lac de données sur site (ODLG) vers une plateforme cloud Azure Databricks pour le domaine financier. - Ce domaine comprend une trentaine de sources de données et une trentaine de cas d'utilisation à migrer d'ici mi-2028. - La mission est axée sur les tests et l'intégration, les tests fonctionnels étant gérés par l'AMOA. Responsabilités : - Définir les scénarios de test et rédiger la documentation de test. - Exécuter les tests. - Enregistrer et suivre les anomalies. - Fournir des indicateurs de progression et de qualité. - Proposer des outils d'automatisation ou d'IA pour optimiser les activités de test et garantir la pérennité des tests, le cas échéant. La prestation nécessite les compétences suivantes : - Maîtrise de Microsoft Azure, Databricks et Cloudera pour l'exécution des tests. - Expérience pratique de Jira/Confluence et Squash pour la documentation et le suivi. - Connaissance d'Archimate pour la documentation. - Capacité à travailler de manière autonome et en équipe. - Solides compétences analytiques et de résolution de problèmes. - Excellentes compétences en communication pour documenter et présenter les activités et les résultats des tests.
Mission freelance
Administrateur Plateforme Data (Cloudera & Open Source)
VISIAN
Publiée le
Administration linux
Bash
Cloudera
1 an
400-470 €
Île-de-France, France
Contexte Dans le cadre du développement d’une plateforme Data & IA au sein d’un grand groupe du secteur financier , nous recherchons un Data Platform Engineer / Administrateur Data pour assurer l’administration, l’évolution et la fiabilité des infrastructures Data. Vous interviendrez sur des environnements Big Data basés sur l’écosystème Cloudera et Open Source , au sein d’équipes techniques et métiers. Missions Administration et exploitation des plateformes Data Administrer et maintenir les plateformes Big Data en condition opérationnelle Superviser les systèmes et assurer la maintenance corrective et évolutive Intervenir sur la résolution d’incidents complexes sur les plateformes Data Conception et gestion des flux de données Identifier les besoins métiers en matière de collecte et stockage de données Développer des solutions d’ingestion de données (API, pipelines) Concevoir des architectures de stockage robustes (Data Lake / Big Data) Automatiser les traitements via batchs et pipelines de données Valorisation et gouvernance des données Industrialiser les processus de transformation et de nettoyage des données Gérer des bases de données hétérogènes et multi-sources Garantir la conformité et la gouvernance des données Industrialisation Data Science / IA Industrialiser le déploiement de modèles statistiques et machine learning Mettre en place des mécanismes de validation et monitoring des modèles Assurer le suivi opérationnel des modèles intégrés aux applications Contribution aux projets Data Définir les spécifications techniques Assurer le reporting d’avancement auprès du pilotage projet Apporter un support technique aux équipes métiers et applicatives Le poste peut inclure des astreintes par rotation et une participation à la continuité de service des plateformes Data .
Mission freelance
Ingénieur Infrastructure Data – Cloudera / Hadoop
Deodis
Publiée le
Red Hat
1 an
450 €
Île-de-France, France
Au sein de l’équipe Data & IA, l’Ingénieur Infrastructure Data est responsable de l’administration, de l’évolution et du maintien en conditions opérationnelles des plateformes Big Data basées sur l’écosystème Cloudera CDP et des technologies Open Source. Il conçoit et met en œuvre des solutions d’ingestion, de stockage et de traitement de données (Hadoop, Ozone, Hive, Kafka, Spark, etc.), automatise les pipelines de données et veille à la qualité, la sécurité et la conformité des données, notamment au regard du RGPD. Il participe également à l’industrialisation et au déploiement de modèles de data science et de machine learning, tout en assurant le support technique aux équipes applicatives et métiers. Enfin, il contribue aux projets d’évolution des plateformes, à la migration des clusters Hadoop et à l’amélioration continue des infrastructures, en collaboration avec les équipes infrastructures, production et internationales.
Mission freelance
101070/Test Engineer Nantes : Cloudera Hadoop,Squash TM (Test Management),MS Azure Databricks,Jira
WorldWide People
Publiée le
Azure
Cloudera
12 mois
330-350 €
Nantes, Pays de la Loire
est Engineer Nantes QUALIFICATION : Cloudera Hadoop,Squash TM (Test Management),MS Azure Databricks,Jira Confluence, Mission à temps plein dans le secteur financier, d'une durée de 1an minimum. Elle consiste à tester et intégrer des solutions de données dans le cadre d'un projet de migration d'un lac de données sur site vers une plateforme cloud Azure Databricks. Contexte : - Cette mission s'inscrit dans un projet de migration d'un lac de données sur site (ODLG) vers une plateforme cloud Azure Databricks pour le domaine financier. - Ce domaine comprend une trentaine de sources de données et une trentaine de cas d'utilisation à migrer d'ici mi-2028. - La mission est axée sur les tests et l'intégration, les tests fonctionnels étant gérés par l'AMOA. Responsabilités : - Définir les scénarios de test et rédiger la documentation de test. - Exécuter les tests. - Enregistrer et suivre les anomalies. - Fournir des indicateurs de progression et de qualité. - Proposer des outils d'automatisation ou d'IA pour optimiser les activités de test et garantir la pérennité des tests, le cas échéant. La prestation nécessite les compétences suivantes : - Maîtrise de Microsoft Azure, Databricks et Cloudera pour l'exécution des tests. - Expérience pratique de Jira/Confluence et Squash pour la documentation et le suivi. - Connaissance d'Archimate pour la documentation. - Capacité à travailler de manière autonome et en équipe. - Solides compétences analytiques et de résolution de problèmes. - Excellentes compétences en communication pour documenter et présenter les activités et les résultats des tests.
Mission freelance
Administrer les boitiers HSM
Codezys
Publiée le
Cloudera
6 mois
Paris, France
Assurer la maintenance opérationnelle des boîtiers HSM, principalement des modèles Proteccio, pour le compte de plusieurs départements métier. Cela inclut la fourniture de produits certifiés, l'organisation des cérémonies de gestion des clés, la mise à jour des firmware, ainsi que la gestion des incidents et des évolutions. Gérer la solution CLM DigitalBerry et assurer le cycle de vie complet des certificats internes et publics intégrés au système d'information du client. Apporter une expertise en cryptographie et en solutions PKI pour les nouveaux projets. Livrables : Script(s) de cérémonie des clés
Offre d'emploi
DATA ENGINEER (H/F)
GROUPE ALLIANCE
Publiée le
Cloudera
Hadoop
Python
50k-65k €
France
ACCROCHE SI TU ADORES CONSTRUIRE DES PIPELINES SOLIDES COMME LE ROC, CETTE ANNONCE EST POUR TOI... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à l’ingénierie des données, aux flux et aux performances Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur , tu participeras : Les pipelines de données, tu développeras La qualité, la fiabilité et la sécurité des données, tu garantiras L’intégration et la transformation des données, tu automatiseras Les architectures data (batch & temps réel), tu concevras La scalabilité et la performance des traitements, tu optimiseras Les outils de monitoring et de gestion des flux, tu mettras en place Ton équipe projet, tu accompagneras Aux rituels agiles et instances data, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de ans minimum en ingénierie de la donnée ou en développement data Expert(e) en Habile avec les outils AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Mission freelance
Architecte Data Cloudera
HOXTON PARTNERS
Publiée le
Cloudera
6 mois
500-580 €
Paris, France
🚀 Architecte Plateforme Data – Cloudera | Big Data | Oracle | Talend 📍 Paris 1er arrondissement 📅 Démarrage : ASAP 📆 Durée : Mission longue ⚠️ Profils 100% freelance uniquement (pas de portage salarial) Dans le cadre d’un nouveau projet stratégique, nous recherchons un Architecte Plateforme Data pour intervenir chez un client basé dans le 1er arrondissement de Paris 🎯 Votre mission En tant qu’Architecte Data, vous serez responsable de la conception, de l’optimisation et de l’évolution de la plateforme Big Data. Vos principales responsabilités : Définir l’architecture de la plateforme Cloudera Concevoir et faire évoluer des environnements Big Data Intégrer et optimiser les flux via Talend Assurer l’interopérabilité avec les environnements Oracle Garantir la performance, la sécurité et la scalabilité de la plateforme Accompagner les équipes techniques dans les bonnes pratiques d’architecture 🛠️ Compétences clés Expertise Cloudera Solide expérience en architecture Big Data Bonne maîtrise des environnements Oracle Expérience significative sur Talend Capacité à intervenir sur des environnements complexes et à forts enjeux 👤 Profil recherché Expérience confirmée en tant qu’Architecte Data Forte autonomie Capacité à challenger l’existant et proposer des solutions innovantes Excellentes compétences en communication
Offre d'emploi
Développeur Big Data sur Lyon
EterniTech
Publiée le
Cloudera
Hadoop
SQL
3 ans
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un de mes client un Développeur Big Data sur Lyon CONTEXTE DE LA MISSION Le client, dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs. DESCRIPTION DE LA MISSION Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gouvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Les principales missions confiées seront les suivantes : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs - Capacité à expliquer simplement le sujet, à communiquer vers des interlocuteurs type développeur, bureau d'étude, qualifieur et "clients" (Groupes de protection sociale). La connaissance de Power BI et SAS sont des plus. Exemples de livrables attendus : - Code source documenté - Plan de tests / fiches de test - Bilan - Bordereau de livraison - Manuel d’installation - Dossier d’exploitation - JIRA documentée Environnement technique : - Hadoopa Cloudera - Hive - Impala - Python - Shell - Spark - Linux - SQL - VBA - Git - Jupyter Des connaissances de l’écosystème de la protection sociale sont les bienvenues (retraite complémentaire idéalement).
Offre d'emploi
Architecte Data
R&S TELECOM
Publiée le
Apache Hive
Cloudera
Hadoop
1 mois
Lyon, Auvergne-Rhône-Alpes
Le profil interviendra pour définir, concevoir et accomagner la construction de l'architecture cible Data. Ses missions principales seront de : Définir l’architecture cible Data : concevoir l’architecture Data cible n, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance).
Offre d'emploi
Data Engineer Senior - Nantes &Vannes F/H
Argain Consulting Innovation
Publiée le
Apache
Apache Hive
Batch
2 ans
40k-45k €
450-500 €
Nantes, Pays de la Loire
Nous recherchons un Data Engineer pour intervenir sur la fabrication de cas d’usages Data et le développement des produits associés. L’environnement est transverse, multi-sites, avec des enjeux forts de cohérence, de qualité et d’industrialisation des solutions Data à l’échelle de l’entreprise, en lien avec les équipes métiers et techniques. 📍 Localisation Si vous etes localisé à Nantes, vous serez rattaché(e) au site de Nantes avec 2 jours de déplacement par mois requis sur le site de Vannes. Si vous etes localisé(e) à Vannes vous serez rattaché (e) au site de Vannes Mission longue Vos missions : Vous interviendrez sur l’ensemble du cycle de vie des produits Data : Participation à la définition de l’architecture Data , en lien avec les architectes et les équipes projet Conception, développement et optimisation des solutions de collecte et de stockage de données (multi-sources) Mise à disposition des données pour les usages métiers Mise en œuvre de tests unitaires et automatisés Déploiement des solutions sur les différents environnements Suivi du bon fonctionnement en production : support, assistance, gestion des incidents Contribution à l’ amélioration continue des pratiques (qualité du code, performance, fiabilité)
Offre d'emploi
Consultant Data Gouvernance sur Paris 12
EterniTech
Publiée le
Cloudera
Microsoft Power BI
SAS
2 ans
75560 CEDEX 12, Paris, Île-de-France
Je recherche pour un de mes clients un Consultant Data Gouvernance sur Paris 12 CONTEXTE DE LA MISSION Dans le cadre de ses missions de définition des politiques de gestion des données et du suivi de leur mise en œuvre, l'activité Gouvernance de la Donnée du client (3 salariés à ce jour) souhaite renforcer son équipe d'un profil confirmé en la matière. Le client recherche donc à apporter à l'équipe Gouvernance de la donnée un accompagnement assorti d'un regard éclairé dans l'exécution des différents pans de ses missions : définition des politiques de gestion des données (rôles et responsabilités; mise en place/alimentation d'un Glossaire métier et d'un Dictionnaire des données; modalités de suivi de la qualité des données; modalités permettant d'assurer la sécurité et la conformité réglementaire de l'accès aux données; articulation avec les capacités de la plate-forme Data choisie par l'entreprise); mise en oeuvre et suivi de ces politiques, en lien avec les contributeurs nécessaires; acculturation des différentes populations de l'entreprise aux exigences et apports en lien avec la gouvernance des données; etc..... DESCRIPTION DE LA MISSION Les missions principales au sein de l'activité Gouvernance de la donnée seront les suivantes : - Participation le cas échéant au choix des outils de gouvernance des données (rencontres fournisseurs initiées ; échanges en cours) - Catalogage / connaissance des données : Définir les standards et bonnes pratiques et en vérifier la bonne application en mobilisant les acteurs requis (SI, métier), assurer l’acculturation nécessaire ; - Cartographie des Données : Approfondir la cartographie des données qui aura été initiée (avec les acteurs métier, SI, urbanistes) et être capable de la présenter, la faire adopter et de l’utiliser à des fins de gouvernance des données… - Conformité règlementaire : Garantir que toutes les données respectent les normes internes et externes, en particulier en matière de RGPD et de conformité légale. - Gestion des rôles et animation de la communauté Data : Identifier les relais de la gouvernance dans un contexte de responsabilités fédérées. Mobiliser les acteurs (animation de séminaires, communication…). - Gestion des habilitations : Définir la granularité des habilitations des rôles et utilisateurs identifiés. - Accompagnement de la montée en compétence des autres membres de l'équipe sur des sujets structurants devant être maîtrisés pour mener à bien les missions de l'activité LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Exemples de livrables attendus : Chapitres thématiques de la politique de Gouvernance des données : - rôles et responsabilités ; - gestion Glossaire/Dictionnaire ; - gestion du Data Lineage ; - sécurité et droits d'accès, dont conformité juridique ; - Suivi de la qualité des données ; - process permettant l'évolution de la plate-forme Data Environnement technique : Sélection en cours du fournisseur pour une plateforme Data d’entreprise cible Couche stockage : - Teradata - Hadoopa Cloudera - Postgre Transformation : - Data stage - Spark BI : - Power BI - SAS Expériences attendues : - Expérience au sein d'un Data Office en charge de la Gouvernance des données (au moins 2 expériences significatives) - Utilisation des outils de Gouvernance des données (gestion des méta données, dont Glossaire / Dictionnaire, Catalogage, Création/Exposition de Data Product, Data Quality, Lineage) - Compréhension des grands modèles d'Architecture Data (Extraction/Chargement, Transformation/Nettoyage, Mise à disposition, Suivi des usages) - Pratique d'une solution Plate-Forme Data
Offre d'emploi
Data Engineer Hadoop/Cloudera/Airflow/Spark
OBJECTWARE
Publiée le
Apache Airflow
Apache Spark
Cloudera
3 ans
40k-67k €
400-550 €
Île-de-France, France
Les missions sont : Les consultants retenus auront pour mission : • Administration et optimisation de clusters HDP/CDP • Installation, configuration et maintenance des clusters. • Gestion des mises à jour et des patchs de sécurité. • Surveillance des performances et optimisation des ressources. • gestion/administration de clusters Kubernetes • Automatisation des déploiements avec Operators…, etc. • Sécurisation et monitoring des environnements conteneurisés. • Orchestration des workflows avec Apache Airflow : • Développement et optimisation des DAGs pour la gestion des pipelines de données. • Gestion des dépendances et optimisation des temps d’exécution. • Intégration avec les autres outils de l’écosystème. • Traitement et analyse des données avec Apache Spark : • Développement et optimisation des jobs Spark (batch et streaming). • Gestion des performances et tuning des jobs. • Intégration avec les systèmes de stockage distribués. • Optimisation des requêtes et accès aux données avec Starburst : • Configuration et administration de Starburst. • Optimisation des requêtes SQL distribuées. • Sécurisation et gestion des accès aux différentes sources de données. Français/Anglais
Offre d'emploi
Consultant·e Customer Technology Advisor – Cloud (GCP), Data & Adoption des Offres
ANAFI CONSULTING
Publiée le
Architecture
Big Data
BigQuery
2 ans
50k-80k €
400-680 €
Île-de-France, France
Qui sommes-nous ? Anafi Consulting est un cabinet de conseil en transformation technologique et organisationnelle, basé à Paris. Nous accompagnons nos clients grands comptes dans leurs projets stratégiques autour du Cloud, de la Data, du DevOps et des plateformes IT , en combinant expertise technique, vision produit et accompagnement au changement. Votre rôle Dans le cadre du renforcement d’une équipe dédiée à l’adoption des offres technologiques, nous recherchons un(e) Customer Technology Advisor (Adopt Owner) . Vous serez au cœur de la relation entre les équipes métiers (clients internes) et les pôles technologiques , avec pour objectif de faciliter l’adoption, la compréhension et l’usage des solutions IT (Cloud, Data, plateformes). Votre rôle combine expertise technique, coordination produit et accompagnement des équipes . Vos missions principales Relation & Pilotage Être le point de contact privilégié entre les entités clientes et les équipes technologiques. Collecter, qualifier et prioriser les besoins et irritants métiers . Piloter les demandes , leur suivi et leur traitement. Assurer la co-construction des offres avec les équipes produit. Adoption & Acculturation Accompagner les équipes dans l’ adoption des nouvelles offres et fonctionnalités . Animer des présentations, ateliers, webinars et sessions d’acculturation. Apporter un premier niveau de support technique et de conseil. Promouvoir les offres et faciliter leur appropriation. Expertise & Innovation Participer à l’ expérimentation de nouvelles technologies (sandbox, POC). Être référent sur les technologies Data, Cloud et bases de données . Contribuer aux roadmaps produits et aux décisions stratégiques (comités, arbitrages). Identifier les impacts techniques, organisationnels et métiers des évolutions. Suivi & Qualité Suivre les indicateurs d’adoption et de performance des offres . Assurer la cohérence entre services délivrés et niveaux de service attendus . Remonter les dysfonctionnements et contribuer à l’amélioration continue. Environnement technique Big Data & NoSQL : Data Lakehouse, Cloudera, Teradata, MongoDB Bases de données : PostgreSQL, Oracle, MySQL, SQL Server, Redis Cloud Public (GCP) : BigQuery, Firestore Environnements Data, streaming et architectures distribuées
Mission freelance
Architecte Solutions/ Teach Lead Snowflake/Snowpark (Bancaire)
Nicholson SAS
Publiée le
Apache Spark
Azure
CI/CD
6 mois
460 €
Fontenay-sous-Bois, Île-de-France
Cette mission d’envergure au sein du pilier RPBI de mon client bancaire dans le Val de Marne vise à transformer l'architecture data du groupe. En tant qu’ Architecte Solutions / Tech Lead , vous piloterez la migration stratégique de l'écosystème Hadoop vers Snowflake/Snowpark . Le rôle combine vision architecturale et leadership technique au sein d’un environnement Agile. Vos responsabilités incluent la définition des standards de développement, l'optimisation des pipelines de données via Snowpark/Scala et l'encadrement des Feature Teams. Dans un contexte Cloud Azure , vous garantirez la robustesse des solutions en appliquant les principes de Clean Code et de CI/CD. Points clés : Expertise : Snowflake, Snowpark, Scala et migration Hadoop (Cloudera). Profil : +7 ans d'expérience, capacité de vulgarisation et leadership. Durée : Longue visibilité (jusqu’en sept. 2028). Rythme : Hybride (2 jours sur site). C'est une opportunité rare de structurer la gouvernance data d'une grande banque internationale.
Offre d'emploi
Développeur Big Data Expérimenté (H/F)
CITECH
Publiée le
Cloudera
Git
Hadoop
50k-60k €
Lyon, Auvergne-Rhône-Alpes
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet innovant, nous avons LE poste pour vous ! Nous recherchons en effet un(e) Développeur Big Data Expérimenté (H/F) 🚀 ☘️ Votre mission est pour un client connu du secteur de la retraite et prévoyance. L’objectif de la mission est dans le cadre de la réalisation et la maintenance de développements nécessaires à l'alimentation d’une plateforme, ainsi que la mise en place d'extractions de données et l'accompagnement des utilisateurs finaux. Description du poste 👉 Vous aurez les missions suivantes : 👈 🔸 Développement et maintenance : Assurer l'alimentation du Datalake et faire évoluer les flux en fonction des besoins métiers. 🔸 Conception et architecture : Mettre en place des extractions de données et contribuer à garantir la tenue de la plateforme en environnement opérationnel. 🔸 Support et expertise : Assurer le support de niveau 2, apporter une expertise technique sur l'écosystème Hadoop et réaliser des revues de code. 🔸 Coordination : Collaborer avec la Direction Technique Informatique et la Gouvernance de la Donnée pour le respect et l'évolution des modèles référencés. 🔸 Documentation : Rédiger la documentation technique (spécifications, dossiers d'exploitation, manuels d'installation) et les bilans de tests.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
29 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois