Trouvez votre prochaine offre d’emploi ou de mission freelance Hadoop à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi Ingénieur Expert Hadoop (Cloudera CDP)/ Ansible
Contexte: Le service réalise le développement BIGDATA , et garantit : - L’exploitabilité des présentations mises en œuvre - L'expertise des ensembles applicatifs - Le planning global de production - Le support au pilotage 💡 Les principales missions sont : - L’automatisation basée sur Cloudera CDP 7.1 à base d’Ansible et Terraform dans un contexte hybride cloud interne et serveurs physiques - Maintien de la production - La gestion des nouvelles demandes de nos bénéficiaires - Livraisons des projets qui apportent de la valeur à nos bénéficiaires - L’automatisation de l'administration et des demandes (self-service, API, scripts) - La mise en place des tests de nouveaux composants
Mission freelance Expert Hadoop / Cloudera / ELK
Contexte : Dans un environnement big data, nous sommes à la recherche d’experts spécialisés dans les domaines suivants : Hadoop, Cloudera et ELK (Elasticsearch, Logstash, Kibana). - Expert Hadoop : Traitement big data / optimisation programme MapReduce, Park / administration & maintenance clusters - Expert Cloudera : Platform : solution complète de stockage, analyse et ingénierie de données conçue pour le multi-cloud hybride - Expert ELK : mise en place et de l'utilisation de l'ensemble ELK (Elasticsearch, Logstash, Kibana) pour l'analyse de logs et de données Ecosystème client: GCP, Python, PySpark, SQL, Selenium, Shell Big Data : HADOOP, Teradata (MapReduce, Sqoop, Pig, Hbase, Hive, Spark), ELK Reporting : QlikView, Microstrategy
Mission freelance ADMINISTRATEUR HADOOP + ANSIBLE
Le service réalise le développement de l’ensemble des services BIGDATA , et garantit : - L’exploitabilité des présentations mises en œuvre - L’expertise des ensembles applicatifs - Le planning global de production - Le support au pilotage. Le Bénéficiaire souhaite améliorer la qualité de la gestion de ses systèmes informatiques. A ce titre, le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire en termes d’ Architecture technique. Dans ce cadre, la Prestation consiste à contribuer à/au(x) : - L’automatisation basée sur Cloudera CDP 7.1 à base d’Ansible et Terraform dans un contexte hybride cloud interne et serveurs physiques - Maintien de la production - La gestion des nouvelles demandes de nos bénéficiaires - Livraisons des projets qui apportent de la valeur à nos bénéficiaires - L’automatisation de l’administration et des demandes (self-service, API, scripts) - La mise en place des tests de nouveaux composants
Mission freelance Administrateur Hadoop/ DevOps (H/F)
Nous cherchons à intégrer dans nos équipes, un Administrateur Hadoop/HDFS (H/F), pour intervenir sur une de nos prestations sur la ville de Paris. Vous intervenez au sein de l'équipe Data Platform, en tant que administrateur Hadoop/Expert DevOps, vous travaillez en étroite collaboration avec les équipes de production et êtes le garant de la fiabilité et de la cohérence des solutions DATA. Vous assurez la disponibilité opérationnelle des plateformes du groupe et participez activement à leur évolution vers le Cloud. A ce titre vos missions principales seront les suivantes: - Conception et développement des mécanismes de déploiement automatisés via les outils DevOps (Ansible,Tower/ AWX). - Implémentation de solutions techniques dans un contexte agile (epic/sprint) - Echanges et préparations de démos avec les outils métiers - Maintien d'une veille technologie permanente - Gestion du RUN des plates-formes existantes Vous êtes titulaire d'une formation supérieur en informatique (type Bac+5), vous justifiez au minimum de 5 ans sur une expérience similaire. Vous avez une maîtrise parfaite de l'écosystème Hadoop ( HDFS, Hive...) ,Spark, Kafka, ElasticSearch/SolR. Vous avez une parfaite maîtrise des environnements et outils suivants:- Ansible Tower; AWX; Terraform - Maîtrise de l'écosystème object storage et kubernetes : (API S3, Helm,...) - grande expérience de la production - Un plus si : - Maîtrise de l'écosystème transport de données : Nifi, kafka connect,... - Connaissance des concepts NoSQL et maîtrise d'au moins une solution parmi celles-ci : Cassandra, MongoDB, Redis. - Connaissance des concepts de streaming : Flink Vous avez plein d'autres qualités ? On n'en doute pas et on a hâte de voir ça. Notre processus de recrutement : Freelance en 4 étapes, tout simplement. 1. Dans un premier temps, vous échangerez avec l'une d'entre nous par téléphone 2. Puis, nous aurons le plaisir de nous rencontrer lors d'un entretien en visio. 3. Pour finir, discutez métier avec l'un de nos managers opérationnels. 4. Bienvenue chez nous ! Ce poste vous intéresse ? Place à l'action : Postulez ou partagez avec votre réseau ! AGILE HADOOP
Mission freelance ADMINISTRATEUR AZURE CLOUD Kubernetes - Spark connaissances Hadoop
Ingénieur maîtrisant le cloud Azure, AKS (Azure Kubernetes Service) et l’architecture du framework Spark. 7-10 ans d’expérience. Pour la mission suivante : Implémentation et maintien de solutions de traitement distribué avec le Framework Spark Déploiement automatisé et intégration de ces solutions en respectant les exigences de sécurité (autorisation, authentification, chiffrement, résilience, Azure policies ). Le candidat doit idéalement avoir une expérience significative dans un environnement bigdata (Spark, Hive, Hadoop ) en production (résilience, DR, incident ). Expertise Docker/K8S/AKS : Docker . Helm Charts Déploiement d’application sur Kubernetes . Spécificités Azure Kubernetes Service (Azure Identity, CSI, nodepool, auto-scaling, VM spot ) CI/CD & GitOps : Jenkins ArgoCD Github/Git Nexus Harbor Maîtrise des protocoles de sécurité : OAuth . SSL (certificats ) Partie RUN : Gestion des incidents de production Gestion des changements (Préparation change, Tests, Coordination des intervenants ) Environnement technique : Azure : ADLS, AKS, Synapse, Azure Policies, Service Endpoint Policy, Vnet/Subnet . Big Data : Spark, Hive Metastore, Hadoop . BDD : PostgresSQL & SQL Server . Monitoring : ELK
Offre d'emploi Consultant big data Hadoop
Contexte Le service XXX réalise le développement de l’ensemble des services BIGDATA , et garantit : - L’exploitabilité des présentations mises en œuvre - L’expertise des ensembles applicatifs - Le planning global de production - Le support au pilotage Les expertises attendues Apache NiFi Hadoop (Big Data) Scripting (GuitHub, Ansible, AWX, shell, vba)
Offre d'emploi INGÉNIERIE EXPERTISÉE HADOOP (CLOUDERA CDP)/ ANSIBLE
- L’automatisation basée sur Cloudera CDP 7.1 à base d’Ansible et Terraform dans un contexte hybride cloud interne et serveurs physiques - Maintien de la production - Gestion des nouvelles demandes de nos bénéficiaires - Livraisons des projets qui apportent de la valeur à nos bénéficiaires - L’automatisation de l’administration et des demandes (self-service, API, scripts) - La mise en place des tests de nouveaux composants Les livrables attendus sont : - Documentation technique concernant les développements - Développement de playbook Ansible - Implémentation CHAOS monkey et sa documentation Environnement Technique : Apache NiFi Hadoop (Big Data) Scripting (GuitHub, Ansible, AWX, shell, vba)
Mission freelance INGÉNIERIE EXPERTISÉE HADOOP (CLOUDERA CDP)/ ANSIBLE
- L’automatisation basée sur Cloudera CDP 7.1 à base d’Ansible et Terraform dans un contexte hybride cloud interne et serveurs physiques - Maintien de la production - Gestion des nouvelles demandes de nos bénéficiaires - Livraisons des projets qui apportent de la valeur à nos bénéficiaires - L’automatisation de l’administration et des demandes (self-service, API, scripts) - La mise en place des tests de nouveaux composants Les livrables attendus sont : - Documentation technique concernant les développements - Développement de playbook Ansible - Implémentation CHAOS monkey et sa documentation Environnement Technique : Apache NiFi Hadoop (Big Data) Scripting (GuitHub, Ansible, AWX, shell, vba)
Offre d'emploi Lead Data Scientist (h/f)
Nous recherchons un Lead Tech Data Scientist pour intervenir sur un projet à forte valeur ajouté. Contexte : Contexte organisationnel : Au sein de la tribu DATAFACTORY, Squad Usages DATA & IA Contexte Projet : Moteur de recommandation (Next Best Offer) Dans le contexte d'un marketing customer-centric dont l’objectif n’est plus de créer des segments uniformes mais de comprendre les besoins et les comportements des clients pour promouvoir des offres et des produits personnalisés. Tâches : • Organiser et piloter la fabrication du projet dans sa composante développement et industrialisation (définition des US en coordination avec le lead data science, le business analyst, chiffrages, priorisation en appui du PO). • Prendre part à la fabrication du projet (entre 60% et 80% selon les phases): en coordination avec les nombreuses parties prenantes : - avec les squads "fabricantes" du projet (Pole Produit data / Squad Usages DATA & IA, Pole Produit Marketing Communication, autres ...) - avec les experts référents (architecture, devops, sécurité, tests, ...) - avec les partenaires internes au Groupe • Faire de la pédagogie notamment lors des cérémonies agiles type démo, pour présenter l’avancée des travaux d’un pt de vue utilisateur et métier, en binôme avec le lead data science et la Business Analyst. • Contribuer à la monter en compétence sur la data ingénierie les ML ingénieurs internes + junior de la Squad Usages IA
Offre d'emploi Big Data Engineer
Environnement Technique : Tous composants de la distribution HDP 2.6.5 (Hortonworks) Tous composants de la distribution HDP 3.1.x (Hortonworks) Technologie KAFKA Compétences de développements en Shell, Java, Python Moteur Elasticsearch incluant les fonctionnalités soumises à licence Docker, Kubernetes, système distribué sur Kubernetes Infrastructure as Code DevOps : Ansible, Git, Nexus, Jenkins, JIRA, etc... Os Linux, Kerberos, SSL, Ldap, RDBMS, SQL Mandatory : Tous les composants des distributions Hadoop Tous les composants de la suite Elasticsearch : Kibana, Logstash, suite beats Administration de composants big data
Offre d'emploi Support Applicatif Technique Big Data
Au sein d'une grande banque française basée à paris, vous rejoindrez une équipe en charge de la plateformes et des outils de gestion de données : socle de données (datalake on premise et dans le cloud public), outils de data management et urbanisation des architectures de données. Vous interviendrez sur les technologies Hadoop en tant que support technique de niveau 2 et 3. Dans ce cadre la prestation consiste à contribuer à : Au référencement technique sur les composants Big data A l'assistance aux différentes équipes La rédaction de la documentation pour les projets de la plateforme BIG DATA. Support aux applications sur le périmètre BIG DATA La veille technologique permettant de tester de nouvelles fonctionnalités et nouveaux outils
Mission freelance Support Technique Big Data
Description : Vous serez rattaché à l’équipe de support technique qui est en charge de la plateformes et des outils de gestion de données : socle de données (datalake on premise et dans le cloud public), outils de data management, urbanisation des architectures de données. Vous interviendrez dans une équipe en tant qu’expert sur les technologies Hadoop pour intervenir en tant que support technique de niveau 2 et 3. Mission : Mission : - Participer au référencement technique sur les composants Big data - Effectuer le support technique de Niv 2 et de Niv 3 sur le périmètre BIG DATA - Participer à la rédaction de la documentation pour les projets de la plateforme BIG DATA - Effectuer de la veille technologique permettant de tester de nouvelles fonctionnalités et nouveaux outils Compétences principales : Connaissance de l’écosystème HADOOP. Compétences secondaires : Script Shell / python / Ansible
Offre d'emploi Support Technique Big Data
Description : Vous serez rattaché à l’équipe de support technique qui est en charge de la plateformes et des outils de gestion de données : socle de données (datalake on premise et dans le cloud public), outils de data management, urbanisation des architectures de données. Vous interviendrez dans une équipe en tant qu’expert sur les technologies Hadoop pour intervenir en tant que support technique de niveau 2 et 3. Mission : Mission : - Participer au référencement technique sur les composants Big data - Effectuer le support technique de Niv 2 et de Niv 3 sur le périmètre BIG DATA - Participer à la rédaction de la documentation pour les projets de la plateforme BIG DATA - Effectuer de la veille technologique permettant de tester de nouvelles fonctionnalités et nouveaux outils Compétences principales : Connaissance de l’écosystème HADOOP. Compétences secondaires : Script Shell / python / Ansible
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes
Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !