Find your next tech and IT Job or contract Hadoop

Your search returns 41 results.
Contractor
Permanent

Job Vacancy
Architecte Data / Cloud

KLETA
Published on
Apache Airflow
AWS Cloud
Azure

2 years
Paris, France

Dans le cadre de la modernisation du SI Data, l’équipe recherche un Architecte Data Cloud pour concevoir et accompagner la mise en œuvre de plateformes Data multi-cloud (AWS, Azure, GCP), interconnectées aux produits numériques développés dans l’entreprise. La mission consiste à garantir la cohérence, la gouvernance et la performance des architectures Data Cloud. Missions principales Concevoir des architectures Data sur les environnements Cloud (AWS, Azure, GCP). Définir les standards d’intégration, stockage, orchestration et exposition de la donnée. Élaborer les architectures cibles (Data Lake, Data Mesh, Virtualisation, Catalogues) . Superviser la migration de systèmes On-Prem vers le Cloud (Oracle, Hadoop, etc.). Mettre en place les pipelines d’alimentation (Airflow, Trino, Spark, Glue, Data Factory…). Garantir la conformité (sécurité, RGPD, souveraineté, Cloud de Confiance). Participer aux jalons PMPG (cadrage, déploiement, bénéfices). Documenter les DAT, schémas techniques, POC et livrables d’architecture. Contribuer au transfert de compétences auprès des équipes internes.

Permanent
Contractor

Job Vacancy
Tech Lead expérimenté Cash Management

Actiis IT
Published on
Apache Spark
Big Data
Hadoop

12 months
Ile-de-France, France

Vous intégrerez les équipes du Cash Management Services (CMS), en tant que Technical Lead expérimenté Vous aurez pour missions principales de : Coordonner et animer une équipe de développeurs Garantir la qualité des développements et l’exploitabilité des applications Gérer la relation avec l’équipe projet, avec les architectes, avec d’autres cellules de développeur, avec CA-GIP Encadrez les membres de l’équipe, et savoir les coacher sur un sujet technique et/ou méthodologique que vous maîtrisez Assurer le support des composants développés et du périmètre en charge Veillez à la cohérence des solutions dans l’urbanisation CA-CIB en prenant en compte la sécurité et la performance Participer à la définition des solutions techniques Participer et être à l’origine d’améliorations régulières du service Collaboration étroite avec les analystes, les designers et les équipes en charge du support et des infrastructures Participer à la conception des solutions techniques adaptées et à la mise en place de nouvelles architectures (nouvelles architectures (API, microservices, Cloud) Assurer le développement et la maintenance évolutive et corrective des applications Garantir que les contraintes d’assurance qualité, de performance, de stabilité, de maintenabilité et d’évolutivité sont respectées Respecter les standards de développement mis en place (CI/CD, DDD) et promouvoir les pratiques de tests systématiques (BDD/TDD) Assurer la rédaction des documents techniques et projets.

Contractor

Contractor job
Data ingénieur Confirmé

MLMCONSEIL
Published on
Apache Spark
Git
Hadoop

6 months
100-350 €
Orléans, Centre-Val de Loire

Pour le besoin de mon client, je suis à la recherche d'un profil Data Engineer confirmé Piloter les projets DevOps complexes : planification, suivi des délais, budget et livrables. Coordonner les équipes (techniques, métiers, sécurité) et animer les comités de suivi... ... ... ... .... ... .... ... ... ... .... ..... .. .... .. .. .. .. . .. ... .. .. .. .. . .. . . . .. . . .. . .. . .. . .. . . .. . . .. . . .. . . . . .. . . . . . . .. . . .. . . .. .. . . . . . . .. . . . . . . . . . . . . . .. . .

Contractor
Permanent

Job Vacancy
Big Data Engineer

KLETA
Published on
Apache Kafka
DevOps
ELK

3 years
Paris, France

Environnement Technique :  Tous composants de la distribution HDP 2.6.5 (Hortonworks)  Tous composants de la distribution HDP 3.1.x (Hortonworks)  Technologie KAFKA  Compétences de développements en Shell, Java, Python  Moteur Elasticsearch incluant les fonctionnalités soumises à licence  Docker, Kubernetes, système distribué sur Kubernetes  Infrastructure as Code  DevOps : Ansible, Git, Nexus, Jenkins, JIRA, etc...  Os Linux, Kerberos, SSL, Ldap, RDBMS, SQL Mandatory :  Tous les composants des distributions Hadoop  Tous les composants de la suite Elasticsearch : Kibana, Logstash, suite beats  Administration de composants big data

Permanent
Contractor

Job Vacancy
Data Engineer orienté DevOps

STORM GROUP
Published on
Apache Spark
DevOps
Hadoop

2 years
40k-45k €
400-550 €
Charenton-le-Pont, Ile-de-France

- Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python

Contractor
Permanent

Job Vacancy
Architecte Solution Technique

VISIAN
Published on
Apache Spark
Architecture
Cloud

3 years
40k-55k €
400-600 €
Annecy, Auvergne-Rhône-Alpes

Dans le cadre d’un vaste programme de modernisation du système d’information d’un acteur bancaire, nous recherchons un Architecte Technique Solution . Vous interviendrez au sein d’équipes agiles (tribus / squads) en lien direct avec les métiers. Votre rôle consistera à définir et animer les architectures techniques, produire les livrables associés et en superviser l’évolution. Vous accompagnerez les équipes projets dans l’implémentation des solutions, dans une approche DevOps et Agile. Vous contribuerez également aux phases de tests, benchmarks et à la gestion des obsolescences techniques. Enfin, vous participerez au suivi de la construction des produits techniques en coordination avec les socles technologiques et fournisseurs.

Contractor

Contractor job
Administrateur Technique plateforme Cloudera

Cherry Pick
Published on
Apache Airflow
Apache Kafka
Apache Spark

12 months
580-600 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Administrateur Technique plateforme Cloudera" pour un client dans le secteur des telecoms Description 🎯 Contexte L’entité Data & AI (230 experts) accompagne Orange Business dans sa transformation autour de la donnée et de l’intelligence artificielle. L’équipe Platform conçoit et maintient les composants techniques qui permettent de démocratiser l’usage de la Data & de l’IA pour les salariés et clients. Au sein de cette équipe, la mission s’inscrit dans le cadre de l’Enterprise Data Hub (EDH), plateforme Big Data B2B d’Orange Business : +180 sources de données intégrées +700 To de données hébergées +100 projets Data supportés Migration et évolution vers le Cloud Azure en cours 🛠️ Missions principales En tant qu’Administrateur Technique Big Data, vous intégrerez l’équipe en charge de l’exploitation et de l’évolution de la plateforme : RUN & Support : gestion opérationnelle de la plateforme Cloudera et des composants Big Data. Déploiement : participation aux déploiements de nouvelles plateformes et environnements. Monitoring & Optimisation : mise en place et suivi des outils de monitoring, tuning des performances. Automatisation : développement de scripts et d’outils pour uniformiser et industrialiser les processus. Documentation & Knowledge sharing : rédaction et mise à jour de la documentation technique. Collaboration internationale : échanges avec des équipes réparties sur plusieurs continents (anglais professionnel).

Contractor
Permanent
Fixed term

Job Vacancy
Ingénieur Big Data

VISIAN
Published on
Docker
Hadoop
Kubernetes

1 year
40k-45k €
490-600 €
Montpellier, Occitania

Nous recherchons un ingénieur Big Data confirmé pour intervenir sur une plateforme Datalake de grande envergure. Vous apporterez votre expertise technique sur l’exploitation et l’évolution d’un écosystème Big Data complexe et moderne, et contribuerez à son maintien en condition opérationnelle ainsi qu’à son amélioration continue. Vos principales missions : Assurer le maintien en conditions opérationnelles de la plateforme Big Data (MCO, incidents, demandes projets/utilisateurs). Contribuer à l’ implémentation et à l’automatisation des solutions. Réaliser et suivre les mises en production . Participer à l’ amélioration continue des outils et processus d’exploitation. Communiquer et accompagner les utilisateurs finaux. Produire les livrables attendus : Récapitulatif mensuel des tickets traités (incidents, demandes). Statut bimensuel des projets en cours.

Contractor

Contractor job
Data Engineer Big Data & API – Spark/PySpark/Scala, Hadoop / Starburst, CI/CD, Control-M

CAT-AMANIA
Published on
Control-M
Hadoop
JIRA

2 years
400-490 €
Ile-de-France, France

Contexte Équipe IT Data Management & BI – Squad Big Data & API. Le data lake “ESG” sert de plateforme de données pour des équipes IT et métiers. La mission peut évoluer vers d’autres squads Data selon les besoins. Missions Assurer le rôle de Data Engineer et développeur d’API au sein de la squad. Exploitation/production : supervision des traitements, corrections, optimisation des performances. Gestion de la dette technique : refactor, qualité, sécurité. Architecture : revue de l’existant et propositions d’évolutions . Développements projets : pipelines de données et APIs d’exposition.

Contractor

Contractor job
Data Engineer / DevOps Big Data – CIB Données Client (Hadoop/Spark, Jenkins, DevSecOps)

CAT-AMANIA
Published on
API
Control-M
DevOps

1 year
400-490 €
Ile-de-France, France

Contexte & mission Grand groupe bancaire – pôle IT Data Management & BI . Au sein de la squad Big Data & API (domaine CIB / Données Client ), vous renforcez l’équipe pour tenir la production , résorber la dette technique , faire évoluer l’architecture et livrer les développements projets. Vos responsabilités Moderniser : upgrades ( Spring Boot , Spark 2→3 ), optimisation du code (APIs & traitements). Industrialiser : CI/CD Jenkins (migration depuis TFS , création de pipelines from scratch), pratiques DevSecOps . Automatiser : déploiements via XLDeploy/XLRelease , orchestrations Control-M . Exploiter : Hadoop on-prem , Spark/PySpark , Hive/SQL/HQL , Unix/Bash . Développer : APIs et traitements data en Python/Java/.NET .

Permanent
Contractor

Job Vacancy
TECH LEAD BIG DATA

UCASE CONSULTING
Published on
Apache Kafka
Apache Spark
Azure

3 years
35k-67k €
480-980 €
Paris, France

Bonjour, Pour le compte de notre client nous recherchons un TECH LEAD BIG DATA Le domaine d’intervention du Tech Lead Data Engineering comprend les études, l’architecture du SI Big Data, le choix des solutions et outils, le pilotage technique du Build et du Run. Comme référent technique Big Data, vous assurez le lead technique de l’équipe de développeurs, avec en responsabilité, la conception et la mise en œuvre des solutions Big Data, ainsi que le pilotage technique de projets. Sous la responsabilité du responsable du SI Big Data, vous piloterez techniquement les activités de Data Engineering : - étude et prise en compte des besoins de traitement de la data, - gestion des priorités et de la cohérence des besoins, - choix des outils et solutions - conception et mise en œuvre des architectures de données évolutives et performantes, sécurisées et résilientes - direction et encadrement technique d’une équipe de data ingénieurs composée d’intervenants externes : suivi, support, adoption des bonnes pratiques de développement sécurisé - suivi de la qualité, de la sécurité des données et des traitements, de la performance opérationnelle des traitements - participation et support au delivery nécessitant l’expertise technique et data - veille technologique pour rester à l’état de l’art en matière de traitement massif des données, et d’utilisation de l’IA pour l’automatisation, la prédiction, la génération de data et de code. - support des équipes Data Science et R&D sur le cycle de déploiement/optimisation et industrialisation des solutions d’IA - conception et mise en place d'API pour l'intégration des solutions Big Data avec d'autres systèmes, - développement et intégration de modèles d'IA générative pour des applications spécifiques, - assurer la maintenance et l'évolution des API et des modèles d'IA générative.

Contractor
Permanent

Job Vacancy
Dev / Data Engineer orienté DevOps

VISIAN
Published on
Apache Spark
Control-M
Hadoop

1 year
45k-55k €
400-560 €
Paris, France

L'objectif de la mission est de renforcer une équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein d'une Squad : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets La mission principale de la prestation aura pour but de : traiter nos obsolescences de Framework (ex : springboot , spark2 ) moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : migration depuis tfs vers jenkins création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python )

Contractor

Contractor job
Développeur Big Data

Signe +
Published on
.NET
Apache Hive
Apache Spark

3 months
400-480 €
Paris, France

La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad CCO qui aujourd'hui gére l'Entrepôt des données client de la CIB à travers l'application INDIXIS utilisée par les équipes IT et métiers. L'objectif de la mission est de renforcer l'équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein de la Squad : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python ) Expertises spécifiques : - Spark / PySpark /Python / Java / SpringBoot / .net - Hadoop sur infra on premise - Hive / SQL/HQL - Unix/Bash - Pipeline CI/CD jenkins - XLDeploy/XLRelease - Control-M - API

Permanent
Contractor

Job Vacancy
Consultant MSBI (H/F)

STORM GROUP
Published on
MSBI
Transact-SQL

3 years
48k-55k €
400-500 €
Ile-de-France, France

Missions : - Concevoir, développer et maintenir des flux de données (XLM, JSON, WS, xslt, ..) - Concevoir, développer et maintenir des modèles de données (Sqlserver / Sybase IQ) - Maintenir/Optimiser des cubes SSAS Multi-dimensionnels & Tabular - Mettre en place/maintenir des chaines de batchs (CTRL-M) - Assurer des tâches de support - Contribuer aux projet devops - Rédiger des documentations techniques et des procédures - Participer au dispositif d’astreintes. Stack technique : SQL Server/Sybase IQ, Transact-Sql, CTRL-M, Azure Devops, Jira, Microsoft Visual Studio, XlDeploy, XlRelease, MSBI SSAS, MQ Series, Web Services, Web API, XML,Hadoop,HDFS,HIve,..

Contractor

Contractor job
Consultant (H/F) Senior Big Data & Cloud Architect Telecom

HOXTON PARTNERS
Published on
Data governance
Telecom

56 days
Clipperton Island, France

Dans le cadre d’un diagnostic Data Lake et Cloud pour un grand opérateur télécom, nous recherchons un Data Architect Senior Big Data & Cloud. La mission consiste à évaluer l’architecture data existante, analyser la résilience et la performance des pipelines, identifier les points de friction, et proposer des recommandations pragmatiques. Le consultant interviendra sur l’écosystème Big Data (Hadoop, Spark, MapR, ClickHouse) et sur l’évaluation des workloads cloud (AWS, Azure, GCP). Compétences clés : Hadoop / Spark / MapR / ClickHouse (écosystèmes Big Data open source). Orchestration de pipelines : Airflow, Dagster… Logs, monitoring, optimisation de la performance. Expérience on-premise & cloud (AWS, Azure, GCP). Capacité à évaluer workloads cloud et produire une matrice de risques . Connaissances sécurité data (contrôles d’accès, RGPD, loi marocaine 09-08 un plus).

Contractor

Contractor job
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP

PROPULSE IT
Published on
Azure
Cloud

24 months
325-650 €
Paris, France

Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess

Submit your CV

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

41 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us