Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Hive à Paris

Mission freelance
Développeur Big Data
La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad CCO qui aujourd'hui gére l'Entrepôt des données client de la CIB à travers l'application INDIXIS utilisée par les équipes IT et métiers. L'objectif de la mission est de renforcer l'équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein de la Squad : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python ) Expertises spécifiques : - Spark / PySpark /Python / Java / SpringBoot / .net - Hadoop sur infra on premise - Hive / SQL/HQL - Unix/Bash - Pipeline CI/CD jenkins - XLDeploy/XLRelease - Control-M - API
Mission freelance
Développeur Data – MCO DataLake
Une grande entreprise du secteur de l’énergie recherche un(e) Développeur(se) Data confirmé(e) pour assurer le maintien en conditions opérationnelles (MCO) de son DataLake en production. Le DataLake est alimenté par une quinzaine de sources différentes et repose sur une stack technique moderne basée sur Hadoop (distribution TDP) . Vous rejoindrez une petite équipe autonome (2 devs) fonctionnant en mode agile, en lien avec les équipes DevOps, TDP, exploitation et les métiers.

Offre d'emploi
Data Engineer Big Data
Compétences techniques : Framework Big Data & Langage : Spark - spark streaming et batch (requis), SQL (requis) Kafka (apprécié) java (apprécié) scala (apprécié) shell (apprécié) Ecosystème Big Data : Stack Hadoop Cloudera (fortement apprécié) Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Apprécié : Outil de Data Visualisation : Microstrategy étant un plus (ou connaissance Power Bi, Tableau) Compétences humaines : Requis : Autonomie, Adaptabilité, Bonne communication / Pédagogue / Vulgarisation Data pour des équipes métiers Force de proposition, Sait challenger les besoins et comprend le sens métier des travaux menés 5 à 10 ans d'exp. Paris 12ème 3 jours sur site
Mission freelance
CHEF DE PROJET SOC SENIOR
Dans le cadre d'une mission longue durée nous sommes à la recherche d'un Chef de Projet SOC SENIOR.(10 ans+ OBLIGATOIRE). 🎯 Missions: Définir la roadmap SOC (court, moyen, long terme). Gérer les KPI/KRI de sécurité et établir les reporting pour la direction. Coordonner les échanges entre les équipes internes (RSSI, CERT, IT, métiers...) Suivi et coordination des activités SOC Contribution fonctionnelle et pilotage transverse, en lien avec les équipes techniques. 🔎 Profil recherché: Expérience confirmée en gestion de projet SOC / sécurité (10 ans+ OBLIGATOIRE). Ancien background technique SOC idéalement (capacité à challenger). Maîtrise d’outils et environnements : The Hive, Splunk Forensics. Expérience en méthodes et processus de sécurité (Ebios RM). Fluent en anglais (indispensable). Forte capacité de communication et d’animation des échanges.

Offre d'emploi
DATA ENGINEER
Compétences humaines : Autonomie, Adaptabilité, Bonne communication / Pédagogue Force de proposition, Sait challenger les besoins Compétences techniques : Langage : Spark - spark streaming et batch (requis), Kafka (requis) SQL (requis) java (apprécié) shell (apprécié) Stack Hadoop Cloudera Base de données : (type Hdfs, Hive, Hbase, Phoenix, MongoDB) DEVOPS : GIT, Jenkins, Artifactory, XL Release, ELK, Grafana Scrum (cadre agile entreprise) Apprécié : Outil de Data Visualisation : Microstrategy étant un plus (ou connaissance Power Bi, Tableau) Expérimenté (4 à 7 ans) PARIS 12 - ON SITE 3J/SEM
Offre d'emploi
Tech Lead Data Engineering Big Data
Le domaine d’intervention du Tech Lead Data Engineering comprend les études, l’architecture du SI Big Data, le choix des solutions et outils, le pilotage technique du Build et du Run. Comme référent technique Big Data, vous assurez le lead technique de l’équipe de développeurs, avec en responsabilité, la conception et la mise en œuvre des solutions XXXX Big Data, ainsi que le pilotage technique de projets. Sous la responsabilité du responsable du SI Big Data, vous piloterez techniquement les activités de Data Engineering : · étude et prise en compte des besoins de traitement de la data, · gestion des priorités et de la cohérence des besoins, · choix des outils et solutions · conception et mise en œuvre des architectures de données évolutives et performantes, sécurisées et résilientes · direction et encadrement technique d’une équipe de data ingénieurs composée d’intervenants externes : suivi, support, adoption des bonnes pratiques de développement sécurisé · suivi de la qualité, de la sécurité des données et des traitements, de la performance opérationnelle des traitements · participation et support au delivery nécessitant l’expertise technique et data · veille technologique pour rester à l’état de l’art en matière de traitement massif des données, et d’utilisation de l’IA pour l’automatisation, la prédiction, la génération de data et de code. · support des équipes Data Science et R&D sur le cycle de déploiement/optimisation et industrialisation des solutions d’IA · conception et mise en place d'API pour l'intégration des solutions Big Data avec d'autres systèmes, · développement et intégration de modèles d'IA générative pour des applications spécifiques, · assurer la maintenance et l'évolution des API et des modèles d'IA générative. FORMATION / EXPERIENCE : Bac+5 avec une expérience avérée en tant que Tech Lead Data Engineering COMPETENCES REQUISES / QUALITES REQUISES Savoir Faire : Maîtrise des technologies du Big Data telles que Hadoop, Spark, Hive/Impala, Kafka Excellentes compétences en programmation, maitrisant des langages tels que : Python, Scala ou Java, Capacité à résoudre des problématiques complexes avec un esprit de synthèse et une pensée analytique Bonne expérience dans la conception et la mise en œuvre de pipelines de données fiables et scalables, en utilisant des frameworks tels que Spark, Oozie, Airflow … Bonnes compétences en mathématiques et statistiques Connaissances monétiques Savoir Être : Aptitudes à la communication, tant écrite qu'orale, formalisation et partage des concepts techniques complexes de manière claire et concise Esprit critique et capacité d’analyse pour remettre en question et améliorer les solutions existantes. Travail en équipe, réactivité et esprit d’initiative INFORMATIONS COMPLEMENTAIRES : Anglais Début de mission : ASAP Durée de la mission : minimum 1 an

Offre d'emploi
SDM Communications unifiées CDI Uniquement
Service Delivery Manager expérimenté sur le domaine Communications Unifiées description : Accompagner le client dans le pilotage de la ligne de service Communications Unifiées qui englobe : - Chat : Teams Chat - Meetings & Webinars :Teams Meeting & Audioconferencing - Large events : Teams Live Event & Hive Streaming - Telephony : Teams Telephony - Spaces : Teams Room Systems RUN • Assister le responsable LOREAL dans le suivi et l’amélioration continue des services de nos partenaires (infogérants, mainteneurs, opérateurs, etc.. MSP: Accenture (Teams Telephony) + Microsoft pour MTRP (for Teams Room)) : - Suivre et faire respecter les engagements de ces derniers (SLA/KPI) - S’assurer de la bonne exécution technique et des process, - Suivre les escalades (Incidents, Changements, Problèmes, …) - Suivre les processus d’amélioration continu en collaboration avec nos partenaires (Weekly & Monthly meeting) - Participer aux comités de suivi avec les fournisseurs, - Participer à l’évaluation objective de ceux-ci • Suivre les demandes de changements • Gérer les crises et les incidents (prioritaire) • Suivre et améliorer le reporting mis en place • Etre force de proposition pour améliorer ou faire évoluer les procédures, modes de fonctionnement, technologie et outils. • Réaliser la documentation pertinente • Participer aux projets • Interagir avec d'autres parties prenantes de L'Oréal hors que l'équipe RUN, essentiellement avec les Zones –APAC, AMER, EMEA. SERVICE LINE • Participer à l’harmonisation des processus/bonnes pratiques pour les zones du groupes (AMER, APAC, EMEA, IDF…) • Assurer le suivi, l’évolution et la communication autour des lignes de la Convention de service - Catalogue des services standards - Documentations (DAT, DEX,LLD, …) • Participer en collaboration avec l’équipe Service Management à l’uniformisation des processus et des outils (ex : SNOW)

Offre d'emploi
INGENIEUR DE PRODUCTION FINANCE DE MARCHE
Contexte de la mission : Dans le cadre du renforcement de ses équipes trading, notre client recherche deux ingénieurs de production pour assurer le support technique des infrastructures critiques liées à ses activités de finance de marché. Vous interviendrez directement en salle de marché, au contact des traders, dans un environnement très exigeant, dynamique et à forte pression. Environnement technique : Systèmes : Windows Server (ligne de commande – admin/monitoring/debug), Linux Ordonnancement : Control-M Progiciel : Sophis Risk (finance de marché – un plus) Fermes de calcul : Plusieurs milliers de cœurs DevOps : Jenkins, XLDeploy, XLRelease, cloud interne/externe Langage : Python (développement d’un framework de calcul) Big Data : Hadoop, Spark, Hive

Mission freelance
Ingénieur Big Data
Nous recherchons un Ingénieur Big Data Objectif global : Accompagner Plateforme BigData Les livrables sont: Big Data & Traitement Distribués Orchestration de workflow Compétences techniques: Spark - Expert - Impératif Kafka - Confirmé - Impératif Stack HADOOP - Expert - Impératif Description détaillée: - Langages de programmation : Python (maîtrise avancée, développement de pipelines de données, optimisation de code, savoir mettre en place une campagne de tests) - Orchestration de workflow : Apache Airflow (création, gestion et optimisation de DAGs, intégration avec divers services) - Big Data & Traitement Distribués : o Apache Spark (Dév et optimisations) o Spark Streaming avec dépendances Kafka o Cloudera CDP (tuning des traitements) - Stockage et Bases de Données : o Hive, HDFS, (+ Impala et Iceberg dans un futur proche) - Sécurité & Chiffrement : o Chiffrement des flux de données et des bases (TLS, SSL, Kerberos, Hashicorp Vault, PGP) o Ranger KMS (chiffrement du stockage sur le cluster) - DevOps & CI/CD : o Git, GitLab CI/CD, Importance de la qualité de code (Sonar, XRay), Jenkins, XL Deploy o Monitoring (Open Search Dashboard, Grafana, ELK Stack) 3. Méthode de travail - Méthodologies Agile (Scrum, Kanban) 4. Soft Skills - Capacité à prendre des décisions stratégiques sur les choix technologiques - Adaptabilité et réactivité face aux évolutions technologiques - Esprit analytique et résolution de problèmes complexes 5. Expérience Recherchée - Minimum 5 ans d’expérience en Big Data avec un focus sur Spark et Airflow - Expérience en tant que Tech Lead sur des projets complexes - Connaissance approfondie des architectures distribuées
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.