Trouvez votre prochaine offre d’emploi ou de mission freelance Hadoop

Votre recherche renvoie 29 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Chef de projet Infra/Obsolescence - H/F

TRSB
Publiée le
Hadoop
KPI
Kubernetes

44k-51k €
Paris, France

Mission : Piloter le programme Obsolescence en assurant l’exécution du plan de levée d’obsolescence du socle et piloter le dispositif global associé. · Consolide le plan pluriannuel de levée d’obsolescence à partir des roadmap Produits, en lien avec les PO et les Responsables d’Activités ; · Pour chaque année, définit le plan de traitement : inventaires consolidés, périmètres d’actions et objectifs de traitement, budget et ressources ; · Engage les projets associées du Plan Projets et organise les travaux ; · Coordonne la communauté des Squad leads du socle et leurs PO et tout autre ressources engagés dans le programme ; · Définit et publie les KPI de suivi ; et réalise les Contrôles Permanents associés · Gère les budgets ; · Gère les risques et met en œuvre les mesures d’atténuation ; · Suit les demandes de dérogations et alerte sur les risques associés (financier, sécurité, opérationnel) ; · Organise et anime les Comités associés : mensuels NDC, stratégiques · Contribue à l’animation et à la performance du Processus de Gestion des Obsolescences

Freelance
CDI

Offre d'emploi
Consultant(e) AMOA Big Data / Data - Bordeaux (33)

Accelite
Publiée le
Agile Scrum
Alteryx
AMOA

13 mois
40k-50k €
Bordeaux, Nouvelle-Aquitaine

En tant que Consultant(e) AMOA Big Data / Data , vous accompagnez la modélisation et à la mise en œuvre des solutions décisionnelles (reporting stratégique, opérationnel, etc.) la mise en œuvre des usages concernant les données des services Solidarités et Droit à l’information. Les solutions à mettre en œuvre le seront sous une architecture technique Hadoop/Hive ; les outils de manipulation des données : Tableau et Alteryx. De plus, vous participez à l’enrichissement des dictionnaires de données sur le périmètre concerné ainsi qu’à la modélisation des datamarts décisionnels répondant aux cas d’usages du projet. Les activités seront menées en méthode dite agile . La durée des sprints est de trois semaines. Le nombre de sprints sera de 9. À ce titre, vous aurez pour rôle : -Accompagnement et interface entre Métier et MOE sur les solutions d’architecture data mises en place -Animer les réunions avec les utilisateurs et l’équipe de développement (une réunion par semaine, de 5 à 10 participants par réunion) -Recueillir et restituer les indicateurs -Tâches attendues pendant un sprint : Analyser les user-stories prises en compte dans les sprints et animer les ateliers métiers associés ; Modélisation fonctionnelle des objets pivots et des datamarts ; Préparer et conduire les recettes -Réalisation d’un mode opératoire, façon Tutoriel, pour que les métiers puissent construire des rapports en autonomie. Cela pourra être sous forme de document de type Powerpoint avec un maximum de 30 slides -Réalisation/automatisation de rapports et d’indicateurs sur demande des métiers -Accompagnement des métiers dans l’utilisation de la solution S.I mise en œuvre -Réalisation de documents sur le fonctionnement de l’outil à destination de la MOA. Les documents seront sous format de type Word. Ils devront être exhaustifs en termes de périmètre de fonctionnalités mise en œuvre.

Freelance
CDI
CDD

Offre d'emploi
DÉVELOPPEUR JAVA / BIG DATA H/F

SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

3 ans
50k €
Paris, France

La prestation consiste à contribuer à/au(x) : Maintien de l'environnement legacy et contribution au projet de migration de l'application vers le Big Data. - Mise en place de la One Plateforme (On premise + Cloude public) - Challenge des choix architecturaux - Audit du codes existants et solutions de factorisation du code - contribution à la validation des futurs développement - Développements, tests unitaires et homologation technique sur des composants applicatifs dans les plannings et délais demandés. La mission doit être effectuée dans le cadre des normes du projet. - Assistance sur les développements produits jusqu'à la mise en production. - Support de production

Freelance

Mission freelance
Data Ingénieur/Spark Scala (F/H)

SMARTPOINT
Publiée le
Apache Spark
Git
Hadoop

12 mois
470-530 €
Île-de-France, France

Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de data Engineering Dans ce cadre la prestation consiste à contribuer à/au(x) :  Recueil et à l'analyse des besoins métier et des processus de bout en bout  La redaction des spécifications techniques.  L'assistance et contribution aux instances projet.  La sécurisation des jalons stratégiques  Suivi et au dépannage de la production pour son maintien en conditions opérationelles Envrionnement technique : Juptyper Lab, ML Flow Environnement Agile Livrables attendus Les livrables attendus sont : - Dévéloppements : Python, système RAG, implémentation des Guardrails, prompt ingénierie) - Contribution aux chantiers transverses : Architecture, Sécurité - Documentation technique de la solution - Contribution à la préparation des instances projets Expertise(s) / technologie(s) Les expertises attendues pour réaliser cette prestation sont listées ci-après :  Compétences en développement (Shell unix, Perl, PHP, Python, git, github)  Continuous Integration  Hadoop (Big Data), Spark  Python

Freelance

Mission freelance
TECH LEAD BIG DATA/SPARK/SCALA

OCSI
Publiée le
Apache Spark
Hadoop
Scala

12 mois
100-600 €
Île-de-France, France

Freelance

Mission freelance
Data Engineering Technos: Hbase Hve Spark Vitrolles/din

WorldWide People
Publiée le
Hadoop
Hbase

6 mois
400-480 €
Vitrolles, Provence-Alpes-Côte d'Azur

Data Engineering Technos: Hbase Hve Spark Maintien en conditions op ProD Docker Hadoop Kafka Kubernetes Python Unix/Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, Github, Scala, Python, Linux, Kube, Linux. Objectifs et livrables L'expertise technique sur le Datalake (plateforme Big Data) consistera à : o Assurer le maintien en conditions opérationnelles de la plateforme Datalake : gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux o Contribuer à l'implémentation/automatisation des solutions o Effectuer les actions de mises en production o Contribuer à l'amélioration continue des outils d'exploitation o Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : o Récapitulatif mensuel des tickets traités (incidents, demandes de travaux) o Statut bi-mensuel sur l'avancée des projets sur lesquels il sera contributeur Technos: Hbase Hve Spark Maintien en conditions op ProD Docker Hadoop Kafka Kubernetes Python Unix/Linux

Freelance

Mission freelance
Lead DevOps / Delivery Management Senior.

BEEZEN
Publiée le
Ansible
DevOps
Gitlab

12 mois
560-600 €
Paris, France

CDI
Freelance

Offre d'emploi
Développeur Big Data

Proxiad
Publiée le
Apache Hive
Hadoop
HDFS (Hadoop Distributed File System)

3 ans
10k-66k €
Val-de-Marne, France

Le bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering Dans ce cadre la prestation consiste à contribuer à/au(x) : - La création des IHM pour les questionnaires - La mise en place d'une base de données, déversement dans le lake - La mise en place de plusieurs liens avec des appli groupe (pour récupérer des données ou en pousser). Les livrables attendus sont : -Développement BigData pour le compte de plusieurs applications - Respect des règles et des best practices. Les expertises attendues pour réaliser cette prestation sont listées ci-après : • Hadoop (Big Data) • Hive • Python • Spark

Freelance

Mission freelance
Ingénieur Développement Data Spark Scala expérimenté

CAT-AMANIA
Publiée le
Agile Scrum
Apache Spark
ITIL

3 mois
100-530 €
Puteaux, Île-de-France

Notre client du domaine de l'Assurance recherche un profil Ingénieur Développement Spark Scala Expérimenté (+10 ans d'expérience). Sur une architecture Big Data permettant de collecter les données de l’ensemble des Back Office dans un Datalake (cluster Hadoop), le projet consiste à exploiter ces données pour alimenter un Dataware communautaire stockée sur une base Exadata. Cette exploitation est réalisée par la conception de nouveaux traitements Spark/Scala manipulant les données raffinées du DataLake avec des règles métiers décisionnelles.

CDI

Offre d'emploi
Data Ingénieur | Big Data (H/F)

CELAD
Publiée le
Big Data

40k-45k €
Lyon, Auvergne-Rhône-Alpes

🌟 Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Data Ingénieur | Big Data pour intervenir chez un de nos clients. 💻💼 Contexte : Vous ferez partie d'une équipe dynamique de 6 personnes, répartie sur plusieurs sites, et vous participerez activement au développement informatique utilisant des technologies telles que Hadoop, HDFS, Hive, Spark SQL et PySpark, ainsi que Sqoop. Vos principales responsabilités seront les suivantes 🎯 : - Contribuer au maintien en conditions opérationnelles - Participer à la conception - Effectuer des développements - Assurer les livraisons - Réaliser les recettes

Freelance
CDI

Offre d'emploi
Appui au pilotage

MSI Experts
Publiée le
Confluence
Gestion de projet
Management

6 mois
38k-43k €
Lyon, Auvergne-Rhône-Alpes

Nous sommes à la recherche, afin de compléter notre équipe d'Experts, d'un profil appui au pilotage qui aura pour mission d'accompagner le manager dans la production de différents livrables et le pilotage des équipes. Il est un appui à la communication, que ce soit avec les instances internes et externes. Vous avez un vrai rôle d'encadrement et d'accompagnement de l'équipe. En tant que tel vos missions seront : o Reporting projet, suivi des actions et livrables o Préparation de présentations o Appui à la gestion logistique, méthodologique (process et outils) des ressources o Suivi des produits o Suivi de l'équipe, suivi individuel o Effectuer l’analyse des risques Activité secondaire : o Suivre les moyens alloués au regard des prévisions o Prise de recul et être force de proposition sur l’environnement projet o Proposer et améliorer les outils et les processus de pilotage et de reporting o Accompagnement sur l’animation des équipes Stack technique du projet : Jira, Confluence, Hadoop, Spark, Spring, Java, Kafka, SQL, PostgreSQL, GIT, Ansible, Docker, Kubernetes, Tableau desktop, Power BI

Freelance
CDI

Offre d'emploi
DBA Sybase SQL Server ORACLE/MySQL Senior

Digistrat consulting
Publiée le
Azure
Cloud
DevOps

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : Prise en charge des sujets de migration de Sybase vers sqlserver Développement et maintenance de scripts powershell et ksh pour automatiser les taches Audit régulier des bases de données MS-SQL (SQL, SSAS, SSIS, SSRS ) Supervision des SGBDs de Production du périmètre ( sqlserver 2014 à sqlserver 2019, ASE 16 ) Prise en compte et traitement des incidents et des appels des utilisateurs Participation aux cellules de crise Contrôle et livraison des modifications de structure de base Prise en charge des demandes de Mise en Production, Prise en compte des demandes d'interventions sur les différentes technologies SGBDs Prise en charge de l'installation, l'administration et l'optimisation avec analyse de performances des serveurs SGBDs Assistance aux équipes études pour le contrôle et l'optimisation des requêtes SQL et procédures stockées Participation aux exercices de continuité et de disponibilité et maintenance des procédures associées. Réalisation et maintenance de la documentation d’exploitation des bases de données. Participation aux projets de veille technologique (Nouvelles fonctionnalités SQL2019, Interfaçage Polybase - Hadoop) Participation au projet bases de données sur Cloud Azure ( SQLServer, Analysis Services, PowerBI ...), AWS et GCP. Application de la politique générale de sécurité du groupe

Freelance

Mission freelance
POT7849-Expert Stockage S3 MinIO sur Kubernetes sur Saint Quentin en Yveline

Almatek
Publiée le
Java
Python

6 mois
100-270 €
Yvelines, France

Almatek recherche pour l'un de ses clients, un Expert Stockage S3 MinIO sur Kubernetes sur Saint Quentin en Yvelines Dans le cadre d'un projet de migration d'une suite d'applications de Cash Management d'une stack Hadoop vers une stack Kubernetes hébergeant Redis, MongoDB, MinIO, Flink, Kafka et Spark, le client recherche un consultant /Expert S3 MinIO avec de fortes compétences techniques Kubernetes : Les principales activités de la prestations sont: Construction d’offres DATA : • Packaging des nouvelles offres dans un environnement Kubernetes • L’automatisation, l’industrialisation et la documentation des solutions • L’intégration dans les offres de solutions de monitoring, alerting, restriction de droits, sécurité • Assurer le RUN des solutions • Veille technologique autour de la Data, réalisation de POC, tests de performances et comparaison de solutions. Adaptions d’offres DATA existantes pour les intégrer dans l’environnement client : • L’intégration des offres Data du client • Qualification des offres afin de mesurer de leur niveau de maturité L’intégration dans les offres de solutions de monitoring, alerting, restriction de droits, sécurité Rôle de conseil expert : • Accompagner les architectes en apportant l’expertise sur les techno NO SQL / S3 • Intervenir en assistance/expertises auprès de nos clients • Définir et documenter les patterns d’usage Stack technique: • Kubernetes • S3 / MinIO • Python/Java • Redis • MongoDB • AWS / GCP • Jira (pour le suivi de l’activité) Une expertise avancée sur Kubernetes, GitOps et CI/CD sont obligatoires. Travail en Agile Bon niveau d’anglais/ Bonne posture et communication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous