Trouvez votre prochaine offre d’emploi ou de mission freelance Hadoop

Votre recherche renvoie 26 résultats.
Freelance
CDI

Offre d'emploi
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans

Digistrat consulting
Publiée le
Apache Spark
Hadoop
Python

3 ans
38k-43k €
300-400 €
Paris, France

🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données

Freelance
CDI

Offre d'emploi
Expert Cloud / Tech Lead Cloud et Data

VISIAN
Publiée le
Hadoop
Scala

1 an
40k-45k €
400-800 €
Île-de-France, France

Descriptif du poste Au sein de l'équipe informatique d'un grand groupe bancaire (350 personnes), la DSI Fonctions Centrales a en charge la gestion d'applications métiers pour le compte des clients corporate (Finance, risque, conformité, marketing, automobile, RH, ...) et des plateformes data. Elle opère pour le compte de ses clients en central, mais est également fournisseur d'applications pour l'ensemble des filiales sur ce périmètre transverse. La prestation se déroule sur le site principal au sein de la Tribe Data France. Missions principales Accompagner les projets de migration vers le Cloud interne Accompagner les équipes de développement dans les bonnes pratiques de développement en intégrant les enjeux data et sécurité Mettre en place des pratiques d'automation/industrialisation via DevSecOps Réaliser la première implémentation de Gen AI dans le contexte Data Participer à des chantiers transverses d'amélioration continue et de monitoring Participer à la définition de la stratégie Data pour le périmètre France

Freelance
CDI

Offre d'emploi
Architecte Infrastructure / IBM DataStage

VISIAN
Publiée le
Hadoop
IBM DataStage

1 an
40k-45k €
400-640 €
Île-de-France, France

Architecte Infrastructure / DataStage Descriptif de la mission Le bénéficiaire souhaite une prestation d'accompagnement pour des activités d'expertise et d'ingénierie des technologies BI DataStage Missions principales Mise en place de la procédure d'installation et de configuration du produit selon les requis Installation/ Configuration / optimisation / Support/ sécurisation du produit DataStage afin de coller au besoin de mise en place d'une plateforme mutualisée partagée mais cloisonnée Définition des règles d'exploitation autour de la solution DataStage/BigIntegrate afin de garantir une bonne supervision du comportement en production

CDI

Offre d'emploi
MOA / BA - Mise en place d'un Datalake Hadoop

BK CONSULTING
Publiée le
AMOA
Big Data
Business Analysis

55k-65k €
Île-de-France, France

Pour mon client bancaire, je recherche MOA / BA - Mise en place d'un Datalake Hadoop. Vous interviendrez sur les sujets liés aux métiers du Financement Structuré et du Risk Management. Recueil des besoins et animation d’ateliers avec les équipes métiers (Financing & Risk) Rédaction de spécifications fonctionnelles claires et structurées Contribution à la modélisation des données et au design fonctionnel Préparation, exécution et suivi des tests utilisateurs Présentation des livrables aux équipes métiers et rédaction de synthèses Accompagnement des utilisateurs dans la conduite du changement Suivi de la qualité de production et amélioration continue

Freelance

Mission freelance
Data Engineer - Spark Hadoop - 2 jours TT - Service Public

Intuition IT Solutions Ltd.
Publiée le
Apache Spark
Hadoop

6 mois
450-500 €
La Défense, Île-de-France

Concevoir, développer et maintenir des pipelines de données robustes et scalables (batch et streaming). Participer à la mise en place et à l’optimisation de la plateforme Big Data (Hadoop/Spark). Intégrer, transformer et nettoyer des données issues de différentes sources (API, bases relationnelles, fichiers plats, etc.). Collaborer étroitement avec les Data Scientists et Data Analysts pour la préparation et la mise à disposition des datasets. Contribuer aux bonnes pratiques de développement, d’automatisation (CI/CD), et de gestion de la qualité des données. Assurer la documentation technique et la maintenance des flux existants. Participer à la montée en compétences de l’équipe interne sur les outils Big Data.

Freelance

Mission freelance
Expert Data Hadoop/Hive/Hbase, Databricks 8 ans d’expériences +/s

WorldWide People
Publiée le
Apache Hive
Databricks
Hadoop

12 mois
400-520 €
Guyancourt, Île-de-France

Expert Data Hadoop/Hive/Hbase, Databricks 8 ans d’expériences + client logistique basé à Guyancourt (ou Montpellier, Nantes) un Expert Data Hadoop/Hive/Hbase, Databricks 8 ans d’expériences + Localisation Guyancourt / Télétravail 2 à 3 jours par semaine Durée de la mission : 2 ans Mission : Création d’une équipe transverse pour : Monitorer la qualité des données : intégration fraicheur des données sur les plateformes data identifier les sources de données actuelles (cartographie SI des données) créer un backlog de contrôles à mettre en place mise en place d’indicateurs o validation de la qualité de la Data de bout en bout o pilotage des correctifs à mettre en place en amont · Dimensionner et organiser la cellule • La cellule sera en relation avec les équipes de RUN les métiers et les autres Lignes Produit Compétences requises : Hadoop/Hive/Hbase Databricks

Freelance
CDI

Offre d'emploi
Data Scientist (H/F)

MSI Experts
Publiée le
Hadoop
PostgreSQL
Python

1 an
52k-62k €
100-570 €
Lyon, Auvergne-Rhône-Alpes

Nous recherchons un.e Data Scientist Sénior afin de contribuer à l’exploitation et à la valorisation des données stratégiques. Le rôle implique la mise en production de solutions data, l’industrialisation de traitements et le développement de modèles avancés pour répondre aux enjeux métiers. Vos futures responsabilités : Concevoir, développer et mettre en production des modèles de Machine Learning et d’analytique avancée Contribuer à l’industrialisation et à l’automatisation des traitements data à grande échelle Travailler sur des problématiques liées au domaine de l’énergie et de l’électricité Collaborer avec les équipes métiers et techniques pour transformer les données en leviers d’optimisation Garantir la qualité, la fiabilité et la performance des modèles déployés

Freelance

Mission freelance
Techlead devops (H/F) - Tours

Espace Freelance
Publiée le
Angular
Centreon
Hadoop

3 mois
400-500 €
Tours, Centre-Val de Loire

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Vos missions Fournir aux équipes agiles un environnement technique performant et des méthodes de développement robustes. Piloter et suivre des chantiers techniques (gestion d’obsolescence, migration, interventions spécifiques). Gérer et faire évoluer les infrastructures (systèmes, environnements, réseaux, conteneurisation, etc.). Assurer un rôle de référent technique sur plusieurs technologies clés du périmètre. Contribuer au support technique (analyses, qualification, gestion d’incidents, post-mortems). Apporter votre expertise sur : L’impact des nouvelles solutions ou technologies sur le SI. Les choix d’architecture et d’outillage, en lien avec les autres pôles d’expertise. Environnement technique Web & API : Spring Boot, Angular, PostgreSQL Flux temps réel : EMS, REST, SOAP, Kafka Flux batch : Spring Batch, Spring Boot Données : Hadoop, Spark, Datahub, Datalake, OpenShift AI Conteneurisation : OpenShift Observabilité : Centreon, Dynatrace, Grafana, Prometheus, OpenSearch Authentification : Keycloak CI/CD : GitLab, Jenkins (ou équivalents)

Freelance

Mission freelance
Data Scientist Python

EXteam
Publiée le
Ansible
GitLab CI
Hadoop

3 ans
600 €
Île-de-France, France

(Expérience du domaine de l'énergie obligatoire) Profil capable de s’adapter à l’environnement technique du département SCC et aux pratiques de l’équipe qu’il va rejoindre • Capacité de travailler de manière autonome • Disposant d’un bon sens de l’organisation et de la rigueur • Capacité de synthétiser ses travaux pour communiquer efficacement à ses commanditaires Participation à des ateliers avec des experts métiers pour collecter le besoin et comprendre les données • Conception et développement de traitements de données • Réalisation d’études statistiques • Présentation de résultats sous la forme de rapports d’étude ou de tableaux de bord • Développement d’outils de visualisation de données pour faciliter les analyses • Documentation des traitements en vue d’une industrialisation Mise en production des traitements de données • Suivi de l'industrialisation, maintien des traitements en production • Participation aux cérémonies agiles de l’équipe • Diffusion et vulgarisation des résultats d’étude L’environnement technique du projet est le suivant : • Python • R • PostgreSQL • Teradata • Hadoop • Gitlab CI • Ansible • Jira / Confluence / Bitbucket • Git Compétences attendues sur le profil : o Maîtrise de Python et de ses librairies pour le traitement et l'analyse de données (pandas, scikit-learn, TensorFlow/PyTorch) o Maitrise des notions d’électricité (puissance/énergie) et notions sur le réseau électrique o Bonne connaissance des bases de données SQL, notamment PostgreSQL et Teradata. o Maîtrise des outils de versioning et d'intégration continue, notamment Git et Gitlab CI/CD. o Familiarité avec Spark (PySpark ou Scala) pour le traitement de grandes volumétries de données o Proactif et autonome, avec une capacité à prendre des initiatives et à résoudre des problèmes. o Capacités à communiquer efficacement et avec pédagogie o Bonnes compétences rédactionnelles o Connaissance dans la rédaction de documents de cadrage du projet o Connaissance approfondie des métiers autour des chaînes communicantes o Expérience dans le recueil de besoins et l’animation d’ateliers métiers o Capacité de synthèse et de restitution d’informations o Capacité à animer des groupes de travail autour des organisations et des processus métiers. o Expérience avérée dans un environnement Agile à l’échelle o Est bon communicant

Freelance

Mission freelance
Data Ingénieur Cloudera

MLMCONSEIL
Publiée le
Git
Hadoop
Java

6 mois
270-430 €
Orléans, Centre-Val de Loire

Pour le besoin de mon client, je suis à la recherche d'un profil Data Engineer confirmé Tâches Piloter les projets DevOps complexes : planification, suivi des délais, budget et livrables. Coordonner les équipes (techniques, métiers, sécurité) et animer les comités de suivi. Superviser les évolutions systèmes et infrastructures liées au DevOps. Intégrer la cybersécurité dans les projets et veiller au respect des bonnes pratiques. SQL (notamment HIVE) HADOOP (développement sur Cloudera Data Platform) Shell UNIX JAVA/Spark Git

Freelance

Mission freelance
Data Engineer GCP

Cherry Pick
Publiée le
Google Cloud Platform (GCP)
Hadoop

12 mois
550-570 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Data Engineer GCP" pour un client dans le secteur de l'assurance Description 🧩 Contexte de la mission Au sein du Département Data Solutions, l’équipe TAI (Traitement et Analyse de l’Information) a pour objectif de préparer, transformer et mettre à disposition les données nécessaires aux applications métiers. Dans le cadre de la modernisation de la plateforme data, l’équipe lance un projet stratégique de migration des assets OnPrem vers le Cloud GCP, en s’appuyant notamment sur DataProc et BigQuery. 🎯 Objectifs et livrables Le consultant interviendra sur la migration technique des traitements data et sur l’accompagnement fonctionnel des équipes métier et techniques. 🔹 Missions fonctionnelles : Analyser et rationaliser le legacy existant pour le rendre compatible avec le Cloud GCP. Rédiger la documentation fonctionnelle de référence : Description technique et métier du SI cible. Implémentation et intégration dans le projet. Être garant de la bonne application des pré-requis techniques et fonctionnels. Maintenir une relation fluide et de confiance entre les équipes SI Source, Data Fabrik et les métiers. Mettre en place les bonnes pratiques sur DataProc et accompagner leur adoption. Accompagner la migration des projets TAI depuis la plateforme OnPrem vers DataProc. Soutenir les équipes (notamment LCB-FT) dans le développement et le déploiement des traitements. 🔹 Missions techniques ("dev") : Concevoir et développer les chaînes de traitement de données de bout en bout (depuis la source jusqu’à la consommation). Réaliser les développements conformes aux besoins métiers. Créer et industrialiser les workflows sous Control-M pour le pilotage automatisé des flux.

Freelance

Mission freelance
Data scientist

ODHCOM - FREELANCEREPUBLIK
Publiée le
Apache Spark
Hadoop
PostgreSQL

6 mois
510-540 €
Courbevoie, Île-de-France

Vous aurez l’opportunité de contribuer à un projet d’envergure : le déploiement massif de bornes de recharge pour véhicules électriques dans les parkings collectifs. Ce programme, déjà en cours, se renforce et constitue une nouvelle équipe de 3 Data Scientists, intégrée à une équipe pluridisciplinaire d’une dizaine de personnes dédiée à la mobilité électrique et aux solutions de demain. Vos missions : - Réaliser des études statistiques et de la modélisation prédictive pour optimiser les déploiements, - Traiter et analyser des données massives en Python (un peu de R possible, mais non indispensable), - Collaborer avec des experts métiers et techniques pour transformer les données en leviers concrets de performance, - Participer au Comité Data interne pour partager les bonnes pratiques et enrichir vos compétences, - Évoluer dans une méthodologie SAFe, au cœur d’un environnement structuré et collaboratif.

CDI
Freelance

Offre d'emploi
Data engineer GCP / Hadoop - DataOps

VISIAN
Publiée le
Apache Spark
BigQuery
Google Cloud Platform (GCP)

1 an
40k-50k €
300-480 €
Paris, France

Au sein du département IT, l'équipe a pour vocation de fournir aux services Technologies & Opérations et Banque de Proximité et Assurance, l’ensemble des applications nécessaires à leur fonctionnement. L'appel d'offre vise à renforcer notre binôme de data engineers, en priorité sur le projet DatOps que nous opérons pour le compte de la Direction des Opérations. Celui-ci s'appuie sur la plateforme GCP, et représentera l'activité majeure du consultant. En mineure, il interviendra en parallèle sur un second projet, qui vise à le doter d'une plateforme data basé sur le Hadoop on premise du groupe. Nous recherchons un profil data engineer GCP + Hadoop qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les demandes métier sur le projet DatOps. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. Les tâches suivantes seront confiés au consultant : Mettre en œuvre de nouvelles ingestions de données, data prep/transformation Maintenir et faire évoluer nos outils de gestion des pipeline de données Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme

CDI
Freelance

Offre d'emploi
Data Engineer (Hadoop-Scala) Junior H/F

STORM GROUP
Publiée le
Hadoop
Scala

3 ans
42k-45k €
470 €
Île-de-France, France

Contexte et objectifs de la prestation : Le département informatique aligné avec les métiers en charge du pilotage financier du groupe. Cette tribu est en charge de la maitrise d'ouvrage, de la maitrise d'oeuvre et du support des produits (applications) nécessaire à la bonne exécution de ces processus financiers. Le Bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de certains de ses produits dédiés au pilotage opérationnel des directions centrales (BASYCOUT) et retail (AGENOR) mais aussi de la facturation interne (FI) et des expenses (Expenses Engagement), basés sur des technologies Datalake et cube OLAP, dans un cadre d'agilité à l'echelle (SAFE). Le Bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre, la Prestation consistera à contribuer à/au(x) : - Code livré sous GIT - Tests unitaires développés et joués - Monitoring des traitements de production - Tickets JIRA & Unity mis à jour

CDI
Freelance

Offre d'emploi
Tech Lead expérimenté Cash Management

Actiis IT
Publiée le
Apache Spark
Big Data
Hadoop

12 mois
Île-de-France, France

Vous intégrerez les équipes du Cash Management Services (CMS), en tant que Technical Lead expérimenté Vous aurez pour missions principales de : Coordonner et animer une équipe de développeurs Garantir la qualité des développements et l’exploitabilité des applications Gérer la relation avec l’équipe projet, avec les architectes, avec d’autres cellules de développeur, avec CA-GIP Encadrez les membres de l’équipe, et savoir les coacher sur un sujet technique et/ou méthodologique que vous maîtrisez Assurer le support des composants développés et du périmètre en charge Veillez à la cohérence des solutions dans l’urbanisation CA-CIB en prenant en compte la sécurité et la performance Participer à la définition des solutions techniques Participer et être à l’origine d’améliorations régulières du service Collaboration étroite avec les analystes, les designers et les équipes en charge du support et des infrastructures Participer à la conception des solutions techniques adaptées et à la mise en place de nouvelles architectures (nouvelles architectures (API, microservices, Cloud) Assurer le développement et la maintenance évolutive et corrective des applications Garantir que les contraintes d’assurance qualité, de performance, de stabilité, de maintenabilité et d’évolutivité sont respectées Respecter les standards de développement mis en place (CI/CD, DDD) et promouvoir les pratiques de tests systématiques (BDD/TDD) Assurer la rédaction des documents techniques et projets.

Freelance

Mission freelance
Data Platform Architect

Phaidon London- Glocomms
Publiée le
AWS Cloud
Big Data
Data analysis

6 mois
450-620 €
Paris, France

Fournir un accompagnement fonctionnel et technique solide pour garantir la conception adéquate de la plateforme de données et d'analyse, en visant des solutions techniques et d'intégration de pointe. Concevoir, coordonner et exécuter des projets pilotes, des prototypes ou des preuves de concept pour valider des scénarios spécifiques. Diriger et coordonner les activités opérationnelles liées à la plateforme de données et d'analyse. Assurer la responsabilité de la documentation technique des plateformes impliquées dans la plateforme. Collaborer avec les architectes d'entreprise pour aligner les conceptions de la plateforme de données et d'analyse sur l'architecture globale et contribuer à cette architecture. Superviser et améliorer continuellement l'architecture et l'écosystème de la plateforme de données et d'analyse. Maintenir une connaissance approfondie des outils et plateformes utilisés dans la plateforme de données et d'analyse, ainsi que de leur écosystème et de leur feuille de route. Répondre aux besoins organisationnels des différents utilisateurs de la plateforme de données et d'analyse, notamment les data scientists, les data engineers et les développeurs Qlik. Mener la transition continue du système sur site vers le cloud public. Coaching de l'équipe de développement dans les domaines pertinents.

26 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous