Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Hive

Offre d'emploi
Analyste SOC (F/H) TOULOUSE
Description détaillée "Dans le cadre du développement du SOC XXXX, celui-ci souhaite lancer un appel à prestation pour une mission d'assistance en cybersécurité N2, principalement sur la lutte contre la fraude. Intégré au sein du SOC, cette mission portera principalement sur les activités suivantes : - Détection, qualification et analyse des incidents de sécurité infrastructures, applicatifs - Pilotage des plans de réponse à incident - Suivi des plans de remédiation - Mise en place de scénario de détection et du traitement des alertes associées - Amélioration et mise en place de playbook d'automatisation En raison des contraintes réglementaires applicables à l'environnement du SOC XXXX être ressortissant de l'Union Européenne est indispensable à la réalisation de cette mission. Le profil pour cette mission supposera : - Une expérience de 2 ans minimum en cybersécurité - Une expérience opérationnelle en SOC est souhaitable - Une bonne capacité de communication, d'analyse et de synthèse - Capacité à travailler avec rigueur et en équipe - Connaissance Splunk impérative - Connaissance en développement PHP et Python

Mission freelance
Développeur Big Data
La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad CCO qui aujourd'hui gére l'Entrepôt des données client de la CIB à travers l'application INDIXIS utilisée par les équipes IT et métiers. L'objectif de la mission est de renforcer l'équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein de la Squad : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python ) Expertises spécifiques : - Spark / PySpark /Python / Java / SpringBoot / .net - Hadoop sur infra on premise - Hive / SQL/HQL - Unix/Bash - Pipeline CI/CD jenkins - XLDeploy/XLRelease - Control-M - API

Mission freelance
217760/Ingénieur(e) Data Power BI Cloudera, Hive, Spark, Kafka Thionville
Ingénieur(e) Data Power BI Cloudera, Hive, Spark, Kafka Thionville Contexte de la mission Pour un client du secteur industriel de l'Est nous recherchons un Ingénieur Data pour rejoindre un écosystème Big Data. Objectifs et livrables Dans une équipe pluridisciplinaire, l'objet de la prestation inclura : Les spécifications techniques Le développements de solutions d’ingestion de données et de Data Ingénierie Résultats à obtenir (livrables) : Spécifications techniques de flux (ingestion, transformation…) Développements de flux (Kafka, Talend, Spark (PySpark)) Profil(s) souhaité(s) pour la mission : Compétences ou connaissances indispensables : Ecosystème Big Data (Cloudera/Hadoop, Spark, Kafka, PySpark), Bases de données relationnelles (SQL Server…), Adaptabilité, Autonomie, communication. Compétences ou connaissances souhaitées : Talend, Anglais, connaissance du monde de l'industrie Compétences ou connaissances qui seraient un plus : Datavisualisation Écosystème client : Périmètre technique : Big Data : Cloudera, Hive, Spark, Kafka… ETL : Talend Bases données : SQL Server Reporting : Power BI Compétences demandées KAFKA Confirmé HADOOP Confirmé TALEND Élémentaire sqlserver Confirmé Cloudera Impala Confirmé PYSPARK Confirmé Microsoft Power BI Avancé
Mission freelance
Développeur Data – MCO DataLake
Une grande entreprise du secteur de l’énergie recherche un(e) Développeur(se) Data confirmé(e) pour assurer le maintien en conditions opérationnelles (MCO) de son DataLake en production. Le DataLake est alimenté par une quinzaine de sources différentes et repose sur une stack technique moderne basée sur Hadoop (distribution TDP) . Vous rejoindrez une petite équipe autonome (2 devs) fonctionnant en mode agile, en lien avec les équipes DevOps, TDP, exploitation et les métiers.

Offre d'emploi
DataEngineer Confirmé - Marketing et Connaissance client - Nantes
Spark (spark streaming et batch), Kafka, scala, java Valeurs et Pratiques agiles ; cadre Scrum. Stack Hadoop Cloudera Hdfs, Hive, Hbase, Phoenix DEVOPS : GITLAB CI/CD, Jenkins, Artifactory, SonarQube, XL Release, ELK, Grafana … TESTS : XRAY et JUNIT, bonnes pratiques d'automatisation (Craftmanship) Compétences Humaines L'envie constante d'apprendre et de progresser Intelligence collective : Une bonne communication et l'esprit d'équipe La pugnacité nécessaire pour trouver les solutions les plus efficaces et être force de proposition 3 jours sur site/ 2 jours en TT
Mission freelance
CHEF DE PROJET SOC SENIOR
Dans le cadre d'une mission longue durée nous sommes à la recherche d'un Chef de Projet SOC SENIOR.(10 ans+ OBLIGATOIRE). 🎯 Missions: Définir la roadmap SOC (court, moyen, long terme). Gérer les KPI/KRI de sécurité et établir les reporting pour la direction. Coordonner les échanges entre les équipes internes (RSSI, CERT, IT, métiers...) Suivi et coordination des activités SOC Contribution fonctionnelle et pilotage transverse, en lien avec les équipes techniques. 🔎 Profil recherché: Expérience confirmée en gestion de projet SOC / sécurité (10 ans+ OBLIGATOIRE). Ancien background technique SOC idéalement (capacité à challenger). Maîtrise d’outils et environnements : The Hive, Splunk Forensics. Expérience en méthodes et processus de sécurité (Ebios RM). Fluent en anglais (indispensable). Forte capacité de communication et d’animation des échanges.

Offre d'emploi
DATA ENGINEER
Compétences humaines : Autonomie, Adaptabilité, Bonne communication / Pédagogue Force de proposition, Sait challenger les besoins Compétences techniques : Langage : Spark - spark streaming et batch (requis), Kafka (requis) SQL (requis) java (apprécié) shell (apprécié) Stack Hadoop Cloudera Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Apprécié : Outil de Data Visualisation : Microstrategy étant un plus (ou connaissance Power Bi, Tableau) Expérimenté (4 à 7 ans) PARIS 12 - ON SITE 3J/SEM

Offre d'emploi
Data Engineer Big Data
Compétences techniques : Framework Big Data & Langage : Spark - spark streaming et batch (requis), SQL (requis) Kafka (apprécié) java (apprécié) scala (apprécié) shell (apprécié) Ecosystème Big Data : Stack Hadoop Cloudera (fortement apprécié) Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Apprécié : Outil de Data Visualisation : Microstrategy étant un plus (ou connaissance Power Bi, Tableau) Compétences humaines : Requis : Autonomie, Adaptabilité, Bonne communication / Pédagogue / Vulgarisation Data pour des équipes métiers Force de proposition, Sait challenger les besoins et comprend le sens métier des travaux menés 5 à 10 ans d'exp. Paris 12ème 3 jours sur site

Mission freelance
Data Engineer / DevOps Big Data – CIB Données Client (Hadoop/Spark, Jenkins, DevSecOps)
Contexte & mission Grand groupe bancaire – pôle IT Data Management & BI . Au sein de la squad Big Data & API (domaine CIB / Données Client ), vous renforcez l’équipe pour tenir la production , résorber la dette technique , faire évoluer l’architecture et livrer les développements projets. Vos responsabilités Moderniser : upgrades ( Spring Boot , Spark 2→3 ), optimisation du code (APIs & traitements). Industrialiser : CI/CD Jenkins (migration depuis TFS , création de pipelines from scratch), pratiques DevSecOps . Automatiser : déploiements via XLDeploy/XLRelease , orchestrations Control-M . Exploiter : Hadoop on-prem , Spark/PySpark , Hive/SQL/HQL , Unix/Bash . Développer : APIs et traitements data en Python/Java/.NET .

Offre d'emploi
Data Engineer – Java / Spark SCALA (F/H)
Rejoignez une équipe passionnée et boostez la transformation Big Data ! 🚀 Nous accompagnons notre client pour renforcer une équipe spécialisée dans la gestion et l’industrialisation des traitements de données massifs et recherchons un.e Data Engineer. Vous interviendrez sur une plateforme Big Data dédiée à l’exploitation de larges volumes de données, utilisée pour des analyses avancées et des modèles prédictifs. Votre défi à relever 🎯 En tant que Data Engineer, vous aurez un rôle clé dans la mise en place et l’optimisation des pipelines de données. Vous serez en interaction avec des équipes pluridisciplinaires (développeurs, data scientists, métiers) pour construire des solutions performantes et scalables. Vos missions au quotidien 🛠 · Développer et optimiser des pipelines de données massifs avec Spark et Scala . · Assurer l’ingestion, le nettoyage et l’enrichissement des données en vue de leur exploitation. · Exposer les données via des API et Web Services pour les rendre accessibles aux applications et modèles ML. · Contribuer à l’industrialisation et à la mise en production des traitements Big Data . · Collaborer avec les data scientists pour améliorer la maturité industrielle des modèles de machine learning. · Maintenir et optimiser les solutions en production pour garantir leur performance et leur robustesse. Votre environnement technique 🖥 · Langages : Java (J2EE / JDK 17), Scala · Big Data : Spark (SQL/DataFrame), Impala, Kudu, Hive, SQL, Parquet · Infrastructure & DevOps : Docker, Kubernetes, Helm, Git, Maven · Messaging & Streaming : Kafka, Redis · Tests & Qualité : JUnit, Mockito, PowerMock, ScalaMock · API : Web Services Rest

Offre d'emploi
Data Engineer confirmé
Site : Vannes, 3 jours sur site par semaine Date de démarrage : asap Nationalité et langues parlées : français Durée mission : jusqu'au 31/12/2025 Mission : intervention pour le compte du Chapitre Data à Vannes Nb années d'expérience : 5 à 7 ans Profil : Data Engineer confirmé Compétences techniques - Langage : Spark - spark streaming et batch (requis), Kafka (apprécié) java (apprécié) shell (apprécié) Stack Hadoop Cloudera Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Compétences techniques souhaitées – appréciées BDD Teradata, xDI, SQL Data viz : Microstrategy

Offre d'emploi
Consultant Informatica H/F
Nous recherchons un(e) consultant(e) pour initier une équipe (jusqu’à 3 personnes selon les besoins) dédiée au maintien évolutif et correctif des applications décisionnelles RH d’un grand groupe du secteur bancaire. Tu seras en charge de prendre en main l’environnement, aussi bien sur les plans fonctionnels que techniques, et de poser les bases de cette future équipe. Tes missions Gérer le RUN des outils décisionnels RH. Piloter les évolutions (administration du personnel, paie, formation, recrutement, talent management), en lien avec les métiers et les éditeurs. Contribuer à la préparation des recettes fonctionnelles . Développer et maintenir les univers BO ainsi que les rapports associés. Participer à des projets stratégiques comme le Socle Data Groupe (GCP/IDMC). Apporter un support de proximité aux utilisateurs métiers. ️ Ton environnement tech Business Objects BI 4.3 SQL Developer : SQL, procédures stockées, fonctions Bases de données : Oracle , Hive , Indexima Informatica PowerCenter (projet de migration vers Informatica IDMC ) Power BI Google Cloud Platform (GCP) – BigQuery Infos pratiques Démarrage en septembre , sur le site de Balma (31) Déplacement ponctuel à Paris à prévoir au lancement du projet La maîtrise d’Informatica est un vrai plus pour ce rôle

Offre d'emploi
SDM Communications unifiées CDI Uniquement
Service Delivery Manager expérimenté sur le domaine Communications Unifiées description : Accompagner le client dans le pilotage de la ligne de service Communications Unifiées qui englobe : - Chat : Teams Chat - Meetings & Webinars :Teams Meeting & Audioconferencing - Large events : Teams Live Event & Hive Streaming - Telephony : Teams Telephony - Spaces : Teams Room Systems RUN • Assister le responsable LOREAL dans le suivi et l’amélioration continue des services de nos partenaires (infogérants, mainteneurs, opérateurs, etc.. MSP: Accenture (Teams Telephony) + Microsoft pour MTRP (for Teams Room)) : - Suivre et faire respecter les engagements de ces derniers (SLA/KPI) - S’assurer de la bonne exécution technique et des process, - Suivre les escalades (Incidents, Changements, Problèmes, …) - Suivre les processus d’amélioration continu en collaboration avec nos partenaires (Weekly & Monthly meeting) - Participer aux comités de suivi avec les fournisseurs, - Participer à l’évaluation objective de ceux-ci • Suivre les demandes de changements • Gérer les crises et les incidents (prioritaire) • Suivre et améliorer le reporting mis en place • Etre force de proposition pour améliorer ou faire évoluer les procédures, modes de fonctionnement, technologie et outils. • Réaliser la documentation pertinente • Participer aux projets • Interagir avec d'autres parties prenantes de L'Oréal hors que l'équipe RUN, essentiellement avec les Zones –APAC, AMER, EMEA. SERVICE LINE • Participer à l’harmonisation des processus/bonnes pratiques pour les zones du groupes (AMER, APAC, EMEA, IDF…) • Assurer le suivi, l’évolution et la communication autour des lignes de la Convention de service - Catalogue des services standards - Documentations (DAT, DEX,LLD, …) • Participer en collaboration avec l’équipe Service Management à l’uniformisation des processus et des outils (ex : SNOW)

Offre d'emploi
Data Ops H/F
Dans le cadre de l’évolution de son infrastructure Big Data, notre client, un organisme public recherche un Administrateur / Expert Hadoop pour intervenir sur un projet de migration de la plateforme Hortonworks Data Platform (HDP) vers Cloudera Data Platform (CDP) . Sous la responsabilité du Product Owner et de l’ Architecte Big Data , le consultant interviendra sur l’ensemble des phases techniques du projet. Objectifs de la mission : Participer à la migration du socle Big Data de HDP vers CDP Assurer l’ administration de la plateforme CDP Installer et configurer les composants techniques de la solution Réaliser des développements et configurations spécifiques : scripts Shell, automatisation via Ansible, intégration DevOps Rédiger des modes opératoires et documentations techniques à destination des équipes internes ️ Environnement technique : Hadoop (HDP / CDP) Kerberos, Ranger, Hive, Yarn, Oozie, Spark Ansible, Shell scripting GitLab Docker (notions de conteneurisation)

Offre d'emploi
Data Ingénieur Hadoop – Plateforme Big Data
🎯 Contexte de la mission : Vous rejoignez une équipe agile (Tribe composée de 3 Squads) dédiée à l’administration, à l’évolution et à la sécurisation d’une plateforme Big Data stratégique utilisée pour les calculs réglementaires et financiers d’un grand groupe bancaire. Vous interviendrez au sein de la Squad Data Platform , qui assure l’expertise technique sur la stack (Cloudera Hadoop, Linux, Ansible, K8s, Dataiku, Tableau, etc.). 🚀 Vos missions : Assurer le maintien en conditions opérationnelles de la plateforme Gérer les incidents, évolutions, et montées de version Implémenter des solutions IT répondant aux besoins métiers (calculs réglementaires, stress tests, reporting) Participer à l’ automatisation des déploiements via Ansible Contribuer à l’ amélioration continue de la plateforme (sécurité, obsolescence, résilience, documentation, etc.) Proposer des solutions adaptées aux différents composants techniques : Hadoop (HDFS, Hive, Spark) Dataiku DSS, Tableau Applications internes (Java, Angular, Spark, Shell) Participer à la rédaction de documentation technique et à la conception des solutions dans le respect des normes IT internes

Mission freelance
Data Enginner
Notre client grand compte est à la recherche d'un Data Engineer Scala/Hadoop Profil : Data Engineer (Spark / Hadoop) Nombre d’années d’expérience minimum : 5 Compétences techniques requises/indispensables : Solide maîtrise de Java Forte maîtrise de Spark Très bonne connaissance de l’écosystème Hadoop (Hive, Hdfs, Yarn, Hbase, …) Maîtrise des bases de données relationnelles et NoSQL Expérience dans l’optimisation performances des traitements Batch Spark Expérience avec les outils CI/CD (Git, Jenkins, Kubernetes, …)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Freelances, vous avez surement le même problème que moi...
- Recherche un futur associé pour un projet e-book avancé qui me tient à coeur
- Vous facturez combien de jour par an en moyenne ?
- Reconversion professionnelle cyber
- Reconversion professionnelle dans la cybersécurité