Trouvez votre prochaine offre d’emploi ou de mission freelance Hadoop à Paris

Votre recherche renvoie 13 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi Ingénieur Expert Hadoop (Cloudera CDP)/ Ansible

Digistrat consulting
Publiée le
Ansible
Github
Hadoop

3 ans
40k-60k €
Paris, France

Contexte: Le service réalise le développement BIGDATA , et garantit : - L’exploitabilité des présentations mises en œuvre - L'expertise des ensembles applicatifs - Le planning global de production - Le support au pilotage 💡 Les principales missions sont : - L’automatisation basée sur Cloudera CDP 7.1 à base d’Ansible et Terraform dans un contexte hybride cloud interne et serveurs physiques - Maintien de la production - La gestion des nouvelles demandes de nos bénéficiaires - Livraisons des projets qui apportent de la valeur à nos bénéficiaires - L’automatisation de l'administration et des demandes (self-service, API, scripts) - La mise en place des tests de nouveaux composants

Freelance

Mission freelance Expert Hadoop / Cloudera / ELK

skiils
Publiée le
Cloudera
ELK
Hadoop

1 an
100-700 €
Paris, France

Contexte : Dans un environnement big data, nous sommes à la recherche d’experts spécialisés dans les domaines suivants : Hadoop, Cloudera et ELK (Elasticsearch, Logstash, Kibana). - Expert Hadoop : Traitement big data / optimisation programme MapReduce, Park / administration & maintenance clusters - Expert Cloudera : Platform : solution complète de stockage, analyse et ingénierie de données conçue pour le multi-cloud hybride - Expert ELK : mise en place et de l'utilisation de l'ensemble ELK (Elasticsearch, Logstash, Kibana) pour l'analyse de logs et de données Ecosystème client: GCP, Python, PySpark, SQL, Selenium, Shell Big Data : HADOOP, Teradata (MapReduce, Sqoop, Pig, Hbase, Hive, Spark), ELK Reporting : QlikView, Microstrategy

Freelance

Mission freelance ADMINISTRATEUR HADOOP + ANSIBLE

BEEZEN
Publiée le

1 an
Paris, France

Le service réalise le développement de l’ensemble des services BIGDATA , et garantit : - L’exploitabilité des présentations mises en œuvre - L’expertise des ensembles applicatifs - Le planning global de production - Le support au pilotage. Le Bénéficiaire souhaite améliorer la qualité de la gestion de ses systèmes informatiques. A ce titre, le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire en termes d’ Architecture technique. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : - L’automatisation basée sur Cloudera CDP 7.1 à base d’Ansible et Terraform dans un contexte hybride cloud interne et serveurs physiques - Maintien de la production - La gestion des nouvelles demandes de nos bénéficiaires - Livraisons des projets qui apportent de la valeur à nos bénéficiaires - L’automatisation de l’administration et des demandes (self-service, API, scripts) - La mise en place des tests de nouveaux composants

Freelance

Mission freelance Administrateur Hadoop/ DevOps (H/F)

DCS EASYWARE
Publiée le

Paris, France

Nous cherchons à intégrer dans nos équipes, un Administrateur Hadoop/HDFS (H/F), pour intervenir sur une de nos prestations sur la ville de Paris. Vous intervenez au sein de l'équipe Data Platform, en tant que administrateur Hadoop/Expert DevOps, vous travaillez en étroite collaboration avec les équipes de production et êtes le garant de la fiabilité et de la cohérence des solutions DATA. Vous assurez la disponibilité opérationnelle des plateformes du groupe et participez activement à leur évolution vers le Cloud. A ce titre vos missions principales seront les suivantes: - Conception et développement des mécanismes de déploiement automatisés via les outils DevOps (Ansible,Tower/ AWX). - Implémentation de solutions techniques dans un contexte agile (epic/sprint) - Echanges et préparations de démos avec les outils métiers - Maintien d'une veille technologie permanente - Gestion du RUN des plates-formes existantes Vous êtes titulaire d'une formation supérieur en informatique (type Bac+5), vous justifiez au minimum de 5 ans sur une expérience similaire. Vous avez une maîtrise parfaite de l'écosystème Hadoop ( HDFS, Hive...) ,Spark, Kafka, ElasticSearch/SolR. Vous avez une parfaite maîtrise des environnements et outils suivants:- Ansible Tower; AWX; Terraform - Maîtrise de l'écosystème object storage et kubernetes : (API S3, Helm,...) - grande expérience de la production - Un plus si : - Maîtrise de l'écosystème transport de données : Nifi, kafka connect,... - Connaissance des concepts NoSQL et maîtrise d'au moins une solution parmi celles-ci : Cassandra, MongoDB, Redis. - Connaissance des concepts de streaming : Flink Vous avez plein d'autres qualités ? On n'en doute pas et on a hâte de voir ça. Notre processus de recrutement : Freelance en 4 étapes, tout simplement. 1. Dans un premier temps, vous échangerez avec l'une d'entre nous par téléphone 2. Puis, nous aurons le plaisir de nous rencontrer lors d'un entretien en visio. 3. Pour finir, discutez métier avec l'un de nos managers opérationnels. 4. Bienvenue chez nous ! Ce poste vous intéresse ? Place à l'action : Postulez ou partagez avec votre réseau ! AGILE HADOOP

Freelance

Mission freelance ADMINISTRATEUR AZURE CLOUD Kubernetes - Spark connaissances Hadoop

BEEZEN
Publiée le

1 an
Paris, France

Ingénieur maîtrisant le cloud Azure, AKS (Azure Kubernetes Service) et l’architecture du framework Spark. 7-10 ans d’expérience. Pour la mission suivante : Implémentation et maintien de solutions de traitement distribué avec le Framework Spark Déploiement automatisé et intégration de ces solutions en respectant les exigences de sécurité (autorisation, authentification, chiffrement, résilience, Azure policies ). Le candidat doit idéalement avoir une expérience significative dans un environnement bigdata (Spark, Hive, Hadoop ) en production (résilience, DR, incident ). Expertise Docker/K8S/AKS : Docker . Helm Charts Déploiement d’application sur Kubernetes . Spécificités Azure Kubernetes Service (Azure Identity, CSI, nodepool, auto-scaling, VM spot ) CI/CD & GitOps : Jenkins ArgoCD Github/Git Nexus Harbor Maîtrise des protocoles de sécurité : OAuth . SSL (certificats ) Partie RUN : Gestion des incidents de production Gestion des changements (Préparation change, Tests, Coordination des intervenants ) Environnement technique : Azure : ADLS, AKS, Synapse, Azure Policies, Service Endpoint Policy, Vnet/Subnet . Big Data : Spark, Hive Metastore, Hadoop . BDD : PostgresSQL & SQL Server . Monitoring : ELK

CDD

Offre d'emploi Consultant big data Hadoop

STORM GROUP
Publiée le

3 ans
40k-45k €
Paris, France

Contexte Le service XXX réalise le développement de l’ensemble des services BIGDATA , et garantit : - L’exploitabilité des présentations mises en œuvre - L’expertise des ensembles applicatifs - Le planning global de production - Le support au pilotage Les expertises attendues Apache NiFi  Hadoop (Big Data)  Scripting (GuitHub, Ansible, AWX, shell, vba)

CDI

Offre d'emploi INGÉNIERIE EXPERTISÉE HADOOP (CLOUDERA CDP)/ ANSIBLE

OBJECTWARE MANAGEMENT GROUP
Publiée le

Paris, France

- L’automatisation basée sur Cloudera CDP 7.1 à base d’Ansible et Terraform dans un contexte hybride cloud interne et serveurs physiques - Maintien de la production - Gestion des nouvelles demandes de nos bénéficiaires - Livraisons des projets qui apportent de la valeur à nos bénéficiaires - L’automatisation de l’administration et des demandes (self-service, API, scripts) - La mise en place des tests de nouveaux composants Les livrables attendus sont : - Documentation technique concernant les développements - Développement de playbook Ansible - Implémentation CHAOS monkey et sa documentation Environnement Technique :  Apache NiFi  Hadoop (Big Data)  Scripting (GuitHub, Ansible, AWX, shell, vba)

Freelance

Mission freelance INGÉNIERIE EXPERTISÉE HADOOP (CLOUDERA CDP)/ ANSIBLE

OBJECTWARE MANAGEMENT GROUP
Publiée le

1 an
Paris, France

- L’automatisation basée sur Cloudera CDP 7.1 à base d’Ansible et Terraform dans un contexte hybride cloud interne et serveurs physiques - Maintien de la production - Gestion des nouvelles demandes de nos bénéficiaires - Livraisons des projets qui apportent de la valeur à nos bénéficiaires - L’automatisation de l’administration et des demandes (self-service, API, scripts) - La mise en place des tests de nouveaux composants Les livrables attendus sont : - Documentation technique concernant les développements - Développement de playbook Ansible - Implémentation CHAOS monkey et sa documentation Environnement Technique :  Apache NiFi  Hadoop (Big Data)  Scripting (GuitHub, Ansible, AWX, shell, vba)

Freelance
CDI

Offre d'emploi Lead Data Scientist (h/f)

HR-TEAM
Publiée le
Data science
Hadoop
Python

12 mois
60k-70k €
Paris, France

Nous recherchons un Lead Tech Data Scientist pour intervenir sur un projet à forte valeur ajouté. Contexte : Contexte organisationnel : Au sein de la tribu DATAFACTORY, Squad Usages DATA & IA Contexte Projet : Moteur de recommandation (Next Best Offer) Dans le contexte d'un marketing customer-centric dont l’objectif n’est plus de créer des segments uniformes mais de comprendre les besoins et les comportements des clients pour promouvoir des offres et des produits personnalisés. Tâches : • Organiser et piloter la fabrication du projet dans sa composante développement et industrialisation (définition des US en coordination avec le lead data science, le business analyst, chiffrages, priorisation en appui du PO). • Prendre part à la fabrication du projet (entre 60% et 80% selon les phases): en coordination avec les nombreuses parties prenantes : - avec les squads "fabricantes" du projet (Pole Produit data / Squad Usages DATA & IA, Pole Produit Marketing Communication, autres ...) - avec les experts référents (architecture, devops, sécurité, tests, ...) - avec les partenaires internes au Groupe • Faire de la pédagogie notamment lors des cérémonies agiles type démo, pour présenter l’avancée des travaux d’un pt de vue utilisateur et métier, en binôme avec le lead data science et la Business Analyst. • Contribuer à la monter en compétence sur la data ingénierie les ML ingénieurs internes + junior de la Squad Usages IA

Freelance
CDI

Offre d'emploi Big Data Engineer

KLETA
Publiée le
Apache Kafka
DevOps
Elasticsearch

3 ans
10k-70k €
Paris, France

Environnement Technique :  Tous composants de la distribution HDP 2.6.5 (Hortonworks)  Tous composants de la distribution HDP 3.1.x (Hortonworks)  Technologie KAFKA  Compétences de développements en Shell, Java, Python  Moteur Elasticsearch incluant les fonctionnalités soumises à licence  Docker, Kubernetes, système distribué sur Kubernetes  Infrastructure as Code  DevOps : Ansible, Git, Nexus, Jenkins, JIRA, etc...  Os Linux, Kerberos, SSL, Ldap, RDBMS, SQL Mandatory :  Tous les composants des distributions Hadoop  Tous les composants de la suite Elasticsearch : Kibana, Logstash, suite beats  Administration de composants big data

CDI

Offre d'emploi Support Applicatif Technique Big Data

OBJECTWARE MANAGEMENT GROUP
Publiée le
HDFS (Hadoop Distributed File System)

45k-60k €
Paris, France

Au sein d'une grande banque française basée à paris, vous rejoindrez une équipe en charge de la plateformes et des outils de gestion de données : socle de données (datalake on premise et dans le cloud public), outils de data management et urbanisation des architectures de données. Vous interviendrez sur les technologies Hadoop en tant que support technique de niveau 2 et 3. Dans ce cadre la prestation consiste à contribuer à : Au référencement technique sur les composants Big data A l'assistance aux différentes équipes La rédaction de la documentation pour les projets de la plateforme BIG DATA. Support aux applications sur le périmètre BIG DATA La veille technologique permettant de tester de nouvelles fonctionnalités et nouveaux outils

Freelance

Mission freelance Support Technique Big Data

OBJECTWARE MANAGEMENT GROUP
Publiée le
Hadoop

3 ans
400-450 €
Paris, France

Description : Vous serez rattaché à l’équipe de support technique qui est en charge de la plateformes et des outils de gestion de données : socle de données (datalake on premise et dans le cloud public), outils de data management, urbanisation des architectures de données. Vous interviendrez dans une équipe en tant qu’expert sur les technologies Hadoop pour intervenir en tant que support technique de niveau 2 et 3. Mission : Mission : - Participer au référencement technique sur les composants Big data - Effectuer le support technique de Niv 2 et de Niv 3 sur le périmètre BIG DATA - Participer à la rédaction de la documentation pour les projets de la plateforme BIG DATA - Effectuer de la veille technologique permettant de tester de nouvelles fonctionnalités et nouveaux outils Compétences principales : Connaissance de l’écosystème HADOOP. Compétences secondaires : Script Shell / python / Ansible

CDI

Offre d'emploi Support Technique Big Data

OBJECTWARE MANAGEMENT GROUP
Publiée le
Hadoop

45k-58k €
Paris, France

Description : Vous serez rattaché à l’équipe de support technique qui est en charge de la plateformes et des outils de gestion de données : socle de données (datalake on premise et dans le cloud public), outils de data management, urbanisation des architectures de données. Vous interviendrez dans une équipe en tant qu’expert sur les technologies Hadoop pour intervenir en tant que support technique de niveau 2 et 3. Mission : Mission : - Participer au référencement technique sur les composants Big data - Effectuer le support technique de Niv 2 et de Niv 3 sur le périmètre BIG DATA - Participer à la rédaction de la documentation pour les projets de la plateforme BIG DATA - Effectuer de la veille technologique permettant de tester de nouvelles fonctionnalités et nouveaux outils Compétences principales : Connaissance de l’écosystème HADOOP. Compétences secondaires : Script Shell / python / Ansible

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !