Trouvez votre prochaine offre d’emploi ou de mission Hadoop

Votre recherche renvoie 44 résultats.
Suivant
Freelance

Mission freelance Spark / Hadoop / Java

Digistrat consulting
Publiée le

36 mois
Paris, France
Le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire en termes de Conception et Développement. Dans ce cadre la prestation consiste à contribuer à/au(x) : - La mise en place du process de benchmark et backtesting Risque de contrepartie et Marché Les livrables attendus sont : - Développement des composants de la chaine sur les produits de repo Spark/Hadoop/Java (incluant les BDD) - Tests - Déploiement Expertise : - Java
CDI

Offre d'emploi Spark / Hadoop / Java

Digistrat consulting
Publiée le

Paris, France
Le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire en termes de Conception et Développement. Dans ce cadre la prestation consiste à contribuer à/au(x) : - La mise en place du process de benchmark et backtesting Risque de contrepartie et Marché Les livrables attendus sont : - Développement des composants de la chaine sur les produits de repo Spark/Hadoop/Java (incluant les BDD) - Tests - Déploiement Expertise : - Java
Freelance

Mission freelance Ingénieur Système Hadoop

OCSI
Publiée le

24 mois
400-700 €
Île-de-France, France
Nous recherchons un profil INFRAOPS avancé sur toute la partie HADOOP. Les missions : Assurer le maintien en conditions opérationnelles des environnements en collaboration avec les N3 Traitement des incidents d’exploitation sur tous les environnements (production, Intégration et Qualif) : analyse, diagnostic (mise en exergue de la root cause) et implémentation de solutions Assistance aux clients de la DataPlatform dans leur optimisation de traitements / requêtes Astreintes 2 jours par mois déclenchées sur incident, à se répartir sur l’équipe support Automatisation de l’infrastructure BigData / actions récurrentes via ANSIBLE Implémentation des recommandations N3/cloudera Participer aux déploiements de cluster Produire de la documentation sous Confluence, Git mais aussi Jira en renseignant les détails de résolution Agilité à l’échelle sur toutes les équipes de la DataPlatform, participation aux rituels SCRUM (System Demo/Lancement de sprint/PI planning/Rétrospective) Environnement technique : RHEL, PostgreSQL, Autosys, Ansible Tower, Openshift, Script Shell, Ansible, Hadoop, Open Search /ELastic Search, GIT.
Freelance

Mission freelance Full Stack / Devops / Hadoop

Digistrat consulting
Publiée le

36 mois
Paris, France
L’entité en charge les applications liées : - à la gestion du portefeuille de crédit. - au calcul de la liquidité réglementaire pour GLFI & CORI - au monitoring du capital réglementaire consommé. - à la gestion du défaut et du provisionnement des opérations douteuses. - à la gestion des services de Transaction Banking Le Bénéficiaire souhaite mettre en œuvre les évolutions de son socle technique. A ce titre, Le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire pour le Project Management et le déploiement des fonctions DEVOPS dans son environnement Big Data. Dans ce cadre, la prestation consistera à/au-x- : - Pilotage, la mise en place de la Feature Team DEVOPS qui a vocation à supporter l’ensemble des Chapters Big Data de la tribe , à standardiser et homogénéiser les pratiques DEVOPS entre Chapters Data, à prendre en charge leur support L1 - Suivi du Backlog de la Feature Team DEVOPS - Support à l’’implémentation sur le périmètre DEVOPS, aux besoins d’assistance technique des différents Utilisateurs et/ou Bénéficiaires - La définition des principes et standards DEVOPS à mettre en oeuvre (CI/CD, automatisation du monitoring...) dans le respect des standards d’architecture du groupe SG et en tenant compte de l’existant DEVOPS déjà déployé par les Chapters Data, - La mise en place du déploiement des principes et standards DEVOPS dans les Chapters Data de la tribe, à mettre en place et à maintenir la road map de standardisation DEVOPS , - La mise en place de la Stream OPS avec le transfert du support L1 des Chapters Data vers la FT DEVOPS, en lien avec applications sources et les différents Utilisateurs et/ou Bénéficiaires - Divers chiffrages - Respect des échéances techniques transversales, - Remontées d’alertes et mise en place et déploiement de plans de mitigation. Expertises : - Gestion de projets techniques en environnement bancaire, - DEVOPS (CI/CD, Monitoring, ...), - Java Full Stack (batch & dev Angular) et de Spark Scala - Culture SRE & Craftmanship, - Mode Agile (Scrum), - Environnement anglophone. 2 - Livrables attendus - Chiffrages d’implementation des composants DEVOPS - Stratégie de déploiement du DEVOPS sur les différents chapters - Road map d’implementation et d’intégration - Backlog - Alerting 3 - Expertise(s) / technologie(s) Les expertises attendues pour réaliser cette prestation sont listées ci-après : - Agile Scrum - Ansible - Docker - Git Hub - Hadoop (Big Data) - Jenkins - JIRA - Kubernetes - Maven - PL SQL - Python - Shell - Sonar - ELK ElastikSearch
CDI

Offre d'emploi Full Stack / Devops / Hadoop

Digistrat consulting
Publiée le

Paris, France
L’entité en charge les applications liées : - à la gestion du portefeuille de crédit. - au calcul de la liquidité réglementaire pour GLFI & CORI - au monitoring du capital réglementaire consommé. - à la gestion du défaut et du provisionnement des opérations douteuses. - à la gestion des services de Transaction Banking Le Bénéficiaire souhaite mettre en œuvre les évolutions de son socle technique. A ce titre, Le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire pour le Project Management et le déploiement des fonctions DEVOPS dans son environnement Big Data. Dans ce cadre, la prestation consistera à/au-x- : - Pilotage, la mise en place de la Feature Team DEVOPS qui a vocation à supporter l’ensemble des Chapters Big Data de la tribe , à standardiser et homogénéiser les pratiques DEVOPS entre Chapters Data, à prendre en charge leur support L1 - Suivi du Backlog de la Feature Team DEVOPS - Support à l’’implémentation sur le périmètre DEVOPS, aux besoins d’assistance technique des différents Utilisateurs et/ou Bénéficiaires - La définition des principes et standards DEVOPS à mettre en oeuvre (CI/CD, automatisation du monitoring...) dans le respect des standards d’architecture du groupe SG et en tenant compte de l’existant DEVOPS déjà déployé par les Chapters Data, - La mise en place du déploiement des principes et standards DEVOPS dans les Chapters Data de la tribe, à mettre en place et à maintenir la road map de standardisation DEVOPS , - La mise en place de la Stream OPS avec le transfert du support L1 des Chapters Data vers la FT DEVOPS, en lien avec applications sources et les différents Utilisateurs et/ou Bénéficiaires - Divers chiffrages - Respect des échéances techniques transversales, - Remontées d’alertes et mise en place et déploiement de plans de mitigation. Expertises : - Gestion de projets techniques en environnement bancaire, - DEVOPS (CI/CD, Monitoring, ...), - Java Full Stack (batch & dev Angular) et de Spark Scala - Culture SRE & Craftmanship, - Mode Agile (Scrum), - Environnement anglophone. 2 - Livrables attendus - Chiffrages d’implementation des composants DEVOPS - Stratégie de déploiement du DEVOPS sur les différents chapters - Road map d’implementation et d’intégration - Backlog - Alerting 3 - Expertise(s) / technologie(s) Les expertises attendues pour réaliser cette prestation sont listées ci-après : - Agile Scrum - Ansible - Docker - Git Hub - Hadoop (Big Data) - Jenkins - JIRA - Kubernetes - Maven - PL SQL - Python - Shell - Sonar - ELK ElastikSearch
Freelance

Mission freelance Ingénieur de production DATA/ Big DATA / HADOOP / CLOUDERA

BI SOLUTIONS
Publiée le

24 mois
400-550 €
Paris, France
Ingénieur de production DATA/ Big DATA / HADOOP / CLOUDERA - Gérer la production du SI - Diagnostiquer la nature et l’origine des incidents d’exploitation et ou des problèmes et mettre en œuvre les mesures correctives, - Surveiller, en s’appuyant sur les outils de supervision notamment, l’état des ressources informatiques et intervenir de manière préventive si nécessaire - - Participer à la résolution des incidents critiques - Apporter une assistance technique et un support aux Incidents Managers, aux Service Delivery Manager - Rédiger ou contribuer à la rédaction et valider les fiches actions/fiches consignes, - Participer aux retours d’expérience (REX/Post mortem), en collaboration avec les Incidents Managers, Service Delivery Managers, - Contribue à la rédaction des documentations techniques (dossiers d’exploitation, fiches actions, ) et valide les paragraphes/chapitres propres à son activité - Participe, accompagne voir réalise les mises en productions techniques (hors applicatif) - Etre force de proposition concernant l’amélioration continue du processus de gestion des incidents - Participer activement aux instances de pilotage opérationnelles de partenaires (hébergeurs, ) - Le poste comporte des astreintes - Environnement Hadoop / Cloudera, Kafka, Scala 480 e
Freelance

Mission freelance Tech lead Senior/Spark/Hadoop/Java Big Data

Digistrat consulting
Publiée le

36 mois
Paris, France
La prestation consiste à contribuer à : - Participer à l’intégration cohérente des cas d’usages Datalake dans le SI avec l’Architecture Techniques - Identifier et prévenir les risques éventuels de dérapages en terme de coûts et de délais et proposer le cas échéant des moyens pragmatiques et cohérentes afin de mitiger le risque identifié - Développement et Implémentations des collectes de données, des jobs de traitement et Mapping de données (Spark/Scala) - Développement des moyens de restitution via génération de fichier et ou API & Dashboarding ( Java Spring Batch/Boot, rest API, Postgres, Angular) - Implémenter/Améliorer la chaîne de livraison continue ( Jenkins, Sonar, Nexus , Kubernetes) - Faire la revue de code avec les autres membres de l’entité Assister l’Architectures Techniques dans les choix d’implémentation au sein du SI - Contribuer aux préconisations en termes d’architecture big data - Elaborer les moyens techniques en conformité avec les lignes directrices fixées par les métiers, les normes et standard SG - Garantir de la qualité et de la maintenance technique du produit - S’assurer que la stratégie de test du produit est bien respectée Contribuer à la veille technique de son périmètre et à sa diffusion Co-élaborer le design technique des cas d’usages - Analyse des besoins des utilisateurs afin de les transcrire en spécifications d’architecture techniques détaillées - Stimuler les entités dans la recherche collective des moyens techniques optimales - assistance et conduite du changement 2 - Livrables attendus Les livrables attendus sont - Documentation d’architecture technique des uses cases - Documentation techniques et focntionnelles des collectes et traitements incluants les sources de donnees et les traitements associes - Developpement des jobs de Collecte & de Traitements des donnees - Developpement des services de restitution (Rest APi, fichier sur Object Storage) - Automatisation du deploiement des Jobs (CI/CD) 3 - Expertise(s) / technologie(s) Les expertises attendues pour réaliser cette prestation sont listées ci-après :  Hadoop (Big Data)  Jenkins  Kubernetes  REST  Scala  Spark
Freelance

Mission freelance Architecte BIG DATA/HADOOP Confirmé (H/F)

Reactis
Publiée le

18 mois
540-600 €
Paris, France
En 2023 la DSI de notre client ajuste son organisation et déploie une solution Big Data basée sur Hadoop. Au sein du pôle Support au pilotage opérationnel - pilotage de programmes , la mission consiste à accompagner le responsable de la gouvernance de la donnée afin d’identifier les cas d’usage qui devront être fonctionnellement instanciés dans cette filière Big Data. Les applications décisionnelles permettent de générer et de fournir auprès des équipes de direction et de gestion des états de restitutions sous la forme de reporting opérationnel et de tableaux de bord. Les indicateurs produits permettent d’assurer un suivi opérationnel des processus métier à des fréquences adaptées au besoin, soit quotidienne (par exemple pour le suivi des corbeilles de tâches), hebdomadaires ou mensuelles. Depuis 2018 une première plate-forme Big Data s’appuyant sur la technologie Hadoop a été mise en place pour répondre à d’autres cas d’usage non couverts et nécessitant plus d’agilité pour explorer, croiser les données et manipuler de gros volumes de données. La première distribution logicielle basée sur la distribution logicielle Hortonworks a migré en 2021 vers la distribution Cloudera CDP . Cette distribution logicielle est un framework d’applications distribuées doté de mécanismes de scalabilité, de tolérance aux pannes et de distribution des traitements de données. L’objectif fonctionnel de ce socle est de pouvoir répondre à différents cas d’usages tels que : Pour les équipes DSI Etudes : o Dans le cadre de phases d’études amont être en capacité d’explorer, croiser et analyser des données provenant de différents contextes, afin de formaliser des points structurants relatifs à la gestion des informations. o Dans le cadre de phases de spécifications savoir adapter la solution aux enjeux de volumétrie d’un cas d’usage ; Pour les équipes DSI Supports Fonctionnels : o Participer au suivi de Production pour explorer, croiser analyser les données inter-applications dans le but de piloter les opérations d’exploitation et être en mesure d’adresser aux éditeurs des demandes d’intervention pertinentes. Pour les équipes DSI Centre National de Recette et d’Intégration : o Préparer les jeux de données en explorant et en identifiant les données des applications qui constitueront les jeux d’essais en lien avec les critères métier. Pour les équipes DSI Système d’Information Décisionnel , envisager une bascule vers Hadoop d’une partie des données stockées dans Teradata, dans l’objectif de réduire l’impact Teradata. Pour la Direction Technique (Actuaires) qui s’oriente vers les métiers de la Data-Science ; Pour d’autres besoins tels que la lutte contre la fraude ; Vos missions sont notamment : - Référencer les cas d’usage - Décliner opérationnellement les modèles organisationnels en fonction des cas d’usage à instancier - Etre le point d’entrée vis-à-vis de la direction technique informatique. Cette direction a en charge d’établir les modèles d’architecture technique ainsi que de provisionner l’infrastructure physique et logicielle nécessaire au fonctionnement de la plate-forme Hadoop. - Etre le point d’entrée de l’équipe informatique Décisionnel & Big Data . Cette équipe a en charge la gestion opérationnelle de la plate-forme Big Data. - Assurer le change management inhérent à la mise en oeuvre - Organiser / Structurer une filière Data Science au sein de la plate-forme Hadoop. Environnement technique Cloudera Private Cloud 7.1.7 : HDFS, YARN, Cloudera Manager, Hive, Hue, Impala, Spark, Zeppelin, Ranger, Knox, SQL, Zookeeper, Teradata Durant la mission, des déplacements seront à prévoir à Lyon, site sur lequel est situé l’équipe Décisionnel & Big Data . La majorité des accès seront toutefois à distance.
CDI

Offre d'emploi Tech lead Senior/Spark/Hadoop/Java Big Data

Digistrat consulting
Publiée le

Paris, France
La prestation consiste à contribuer à : - Participer à l’intégration cohérente des cas d’usages Datalake dans le SI avec l’Architecture Techniques - Identifier et prévenir les risques éventuels de dérapages en terme de coûts et de délais et proposer le cas échéant des moyens pragmatiques et cohérentes afin de mitiger le risque identifié - Développement et Implémentations des collectes de données, des jobs de traitement et Mapping de données (Spark/Scala) - Développement des moyens de restitution via génération de fichier et ou API & Dashboarding ( Java Spring Batch/Boot, rest API, Postgres, Angular) - Implémenter/Améliorer la chaîne de livraison continue ( Jenkins, Sonar, Nexus , Kubernetes) - Faire la revue de code avec les autres membres de l’entité Assister l’Architectures Techniques dans les choix d’implémentation au sein du SI - Contribuer aux préconisations en termes d’architecture big data - Elaborer les moyens techniques en conformité avec les lignes directrices fixées par les métiers, les normes et standard SG - Garantir de la qualité et de la maintenance technique du produit - S’assurer que la stratégie de test du produit est bien respectée Contribuer à la veille technique de son périmètre et à sa diffusion Co-élaborer le design technique des cas d’usages - Analyse des besoins des utilisateurs afin de les transcrire en spécifications d’architecture techniques détaillées - Stimuler les entités dans la recherche collective des moyens techniques optimales - assistance et conduite du changement 2 - Livrables attendus Les livrables attendus sont - Documentation d’architecture technique des uses cases - Documentation techniques et focntionnelles des collectes et traitements incluants les sources de donnees et les traitements associes - Developpement des jobs de Collecte & de Traitements des donnees - Developpement des services de restitution (Rest APi, fichier sur Object Storage) - Automatisation du deploiement des Jobs (CI/CD) 3 - Expertise(s) / technologie(s) Les expertises attendues pour réaliser cette prestation sont listées ci-après :  Hadoop (Big Data)  Jenkins  Kubernetes  REST  Scala  Spark
CDI

Offre d'emploi Ingénieur production support N1 Hadoop

HIGHTEAM
Publiée le

Île-de-France, France
Localisation : Levallois-Perret Durée de la mission : 6 mois renouvelable Description de poste : Dans le cadre de notre partenariat avec une entreprise du secteur bancaire, nous recherchons un Technicien de Production Applicative (H/F) pour rejoindre l’équipe ITG - Production. Vous serez en charge du suivi de run et du maintien en condition opérationnelle des applications Fonctions Centrales utilisées par les équipes métiers de PF France. Titre de poste : Technicien de Production Applicative (H/F) Type de contrat : Freelance / CDI Localisation : Levallois-Perret Durée de la mission : 6 mois renouvelable Description de poste : Dans le cadre de notre partenariat avec une entreprise du secteur bancaire, nous recherchons un Technicien de Production Applicative (H/F) pour rejoindre l’équipe ITG - Production. Vous serez en charge du suivi de run et du maintien en condition opérationnelle des applications Fonctions Centrales utilisées par les équipes métiers de PF France. Tâches principales : Suivi des traitements de production Analyse en autonomie des incidents et coordination des actions de corrections Relance de jobs Autosys en cas d’incidents Réalisation de la maintenance corrective des alimentations Shell et Oracle principalement, mais aussi de DataStage, Hadoop ou Essbase Exécution des scénarios de test en environnement Agile avec l’équipe de Delivery Proposition et mise en œuvre des scénarios automatisés Participation au support fonctionnel de l’application Coordination des actions avec les autres équipes techniques Alimentation du Product Backlog Réalisation des Delivery / packaging Réalisation des mises en production Contribution active à la mise en place de solutions d’amélioration ou de montées de version Support de l’équipe de développement sur les environnements d’intégration Participation à la cohésion d’équipe DevOps
CDI

Offre d'emploi Spark / Hadoop / Java

Digistrat consulting
Publiée le

Paris, France
Le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire en termes de Conception et Développement. Dans ce cadre la prestation consiste à contribuer à/au(x) : - La mise en place du process de benchmark et backtesting Risque de contrepartie et Marché Les livrables attendus sont : - Développement des composants de la chaine sur les produits de repo Spark/Hadoop/Java (incluant les BDD) - Tests - Déploiement Expertise : - Java
Freelance

Mission freelance Expert Administration Hadoop

SARIEL
Publiée le

12 mois
500-650 €
Paris, France
La société SARIEL recherche en région parisienne un(e) ou plusieurs Experts administration Hadoop (H/F). 1 - Contexte et objectifs de la prestation La mission s’inscrit au sein de l’équipe Infrastructure Databases et Big Data en région parisienne pour l’un de nos clients Grands-Comptes dans le secteur bancaire. 2 - Expertise(s) / technologie(s) Les expertises attendues pour réaliser cette prestation sont listées ci-après : Capable de construire à partir de zéro des clusters de plusieurs dizaines de nodes D’en assurer l’exploitation Le MCO sur l’ensemble des composants techniques (hbase, zookeeper, etc.) et sur les composants d’ingestion (kafka/nifi) et restitution (Elastic) 3 - Type de prestation & niveau attendu La prestation attendue est : Expertise Administration Hadoop 4 - Lieu de la prestation La prestation aura lieu dans les locaux de notre client (92). Aucun déplacement professionnel n’est prévu pendant le projet. Dans le cadre de cette prestation, le pourcentage d’exécution prévu hors site (télétravail) est à définir.
Freelance

Mission freelance Spark / Hadoop / Java

Digistrat consulting
Publiée le

36 mois
Paris, France
Le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire en termes de Conception et Développement. Dans ce cadre la prestation consiste à contribuer à/au(x) : - La mise en place du process de benchmark et backtesting Risque de contrepartie et Marché Les livrables attendus sont : - Développement des composants de la chaine sur les produits de repo Spark/Hadoop/Java (incluant les BDD) - Tests - Déploiement Expertise : - Java
Freelance

Mission freelance DevOps Hadoop

VADEMI
Publiée le

12 mois
500-600 €
Paris, France
profil INFRAOPS avancé sur toute la partie HADOOP. Vous trouverez la grille de compétence ci-dessous Version Niveaux minimaux Système d’exploitation RHEL =7 Avancé Base de données PostgreSQL autonome Ordonnancement Autosys =11 Intermédiaire Ansible Tower / AWX intermédiaire Openshift intermédiaire Langage Script Shell Autonome Ansible =2.9 Autonome Big Data Hadoop CDP 7.1 Avancé Open Search/ Elastic Search =5 Autonome Outils GIT Autonome Fiche de poste : Assurer le maintien en conditions opérationnelles des environnements en collaboration avec les N3 Traitement des incidents d’exploitation sur tous les environnements (production, Intégration et Qualif) : analyse, diagnostic (mise en exergue de la root cause) et implémentation de solutions Assistance aux clients de la DataPlatform dans leur optimisation de traitements / requêtes Astreintes 2 jours par mois déclenchées sur incident, à se répartir sur l’équipe support Automatisation de l’infrastructure BigData / actions récurrentes via ANSIBLE Implémentation des recommandations N3/cloudera Participer aux déploiements de cluster Produire de la documentation sous Confluence, Git mais aussi Jira en renseignant les détails de resolution Agilité à l’échelle sur toutes les équipes de la DataPlatform, participation aux rituels SCRUM (System Demo/Lancement de sprint/PI planning/Rétrospective) Principales qualités attendues : Sens du service rendu au client Sens des priorités Curiosité technologique Organisé et méthodique Bon relationnel Réactivité Adaptabilité
Freelance

Mission freelance Full Stack / Devops / Hadoop

Digistrat consulting
Publiée le

36 mois
Paris, France
L’entité en charge les applications liées : - à la gestion du portefeuille de crédit. - au calcul de la liquidité réglementaire pour GLFI & CORI - au monitoring du capital réglementaire consommé. - à la gestion du défaut et du provisionnement des opérations douteuses. - à la gestion des services de Transaction Banking Le Bénéficiaire souhaite mettre en œuvre les évolutions de son socle technique. A ce titre, Le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire pour le Project Management et le déploiement des fonctions DEVOPS dans son environnement Big Data. Dans ce cadre, la prestation consistera à/au-x- : - Pilotage, la mise en place de la Feature Team DEVOPS qui a vocation à supporter l’ensemble des Chapters Big Data de la tribe , à standardiser et homogénéiser les pratiques DEVOPS entre Chapters Data, à prendre en charge leur support L1 - Suivi du Backlog de la Feature Team DEVOPS - Support à l’’implémentation sur le périmètre DEVOPS, aux besoins d’assistance technique des différents Utilisateurs et/ou Bénéficiaires - La définition des principes et standards DEVOPS à mettre en oeuvre (CI/CD, automatisation du monitoring...) dans le respect des standards d’architecture du groupe SG et en tenant compte de l’existant DEVOPS déjà déployé par les Chapters Data, - La mise en place du déploiement des principes et standards DEVOPS dans les Chapters Data de la tribe, à mettre en place et à maintenir la road map de standardisation DEVOPS , - La mise en place de la Stream OPS avec le transfert du support L1 des Chapters Data vers la FT DEVOPS, en lien avec applications sources et les différents Utilisateurs et/ou Bénéficiaires - Divers chiffrages - Respect des échéances techniques transversales, - Remontées d’alertes et mise en place et déploiement de plans de mitigation. Expertises : - Gestion de projets techniques en environnement bancaire, - DEVOPS (CI/CD, Monitoring, ...), - Java Full Stack (batch & dev Angular) et de Spark Scala - Culture SRE & Craftmanship, - Mode Agile (Scrum), - Environnement anglophone. 2 - Livrables attendus - Chiffrages d’implementation des composants DEVOPS - Stratégie de déploiement du DEVOPS sur les différents chapters - Road map d’implementation et d’intégration - Backlog - Alerting 3 - Expertise(s) / technologie(s) Les expertises attendues pour réaliser cette prestation sont listées ci-après : - Agile Scrum - Ansible - Docker - Git Hub - Hadoop (Big Data) - Jenkins - JIRA - Kubernetes - Maven - PL SQL - Python - Shell - Sonar - ELK ElastikSearch
CDI

Offre d'emploi Full Stack / Devops / Hadoop

Digistrat consulting
Publiée le

Paris, France
L’entité en charge les applications liées : - à la gestion du portefeuille de crédit. - au calcul de la liquidité réglementaire pour GLFI & CORI - au monitoring du capital réglementaire consommé. - à la gestion du défaut et du provisionnement des opérations douteuses. - à la gestion des services de Transaction Banking Le Bénéficiaire souhaite mettre en œuvre les évolutions de son socle technique. A ce titre, Le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire pour le Project Management et le déploiement des fonctions DEVOPS dans son environnement Big Data. Dans ce cadre, la prestation consistera à/au-x- : - Pilotage, la mise en place de la Feature Team DEVOPS qui a vocation à supporter l’ensemble des Chapters Big Data de la tribe , à standardiser et homogénéiser les pratiques DEVOPS entre Chapters Data, à prendre en charge leur support L1 - Suivi du Backlog de la Feature Team DEVOPS - Support à l’’implémentation sur le périmètre DEVOPS, aux besoins d’assistance technique des différents Utilisateurs et/ou Bénéficiaires - La définition des principes et standards DEVOPS à mettre en oeuvre (CI/CD, automatisation du monitoring...) dans le respect des standards d’architecture du groupe SG et en tenant compte de l’existant DEVOPS déjà déployé par les Chapters Data, - La mise en place du déploiement des principes et standards DEVOPS dans les Chapters Data de la tribe, à mettre en place et à maintenir la road map de standardisation DEVOPS , - La mise en place de la Stream OPS avec le transfert du support L1 des Chapters Data vers la FT DEVOPS, en lien avec applications sources et les différents Utilisateurs et/ou Bénéficiaires - Divers chiffrages - Respect des échéances techniques transversales, - Remontées d’alertes et mise en place et déploiement de plans de mitigation. Expertises : - Gestion de projets techniques en environnement bancaire, - DEVOPS (CI/CD, Monitoring, ...), - Java Full Stack (batch & dev Angular) et de Spark Scala - Culture SRE & Craftmanship, - Mode Agile (Scrum), - Environnement anglophone. 2 - Livrables attendus - Chiffrages d’implementation des composants DEVOPS - Stratégie de déploiement du DEVOPS sur les différents chapters - Road map d’implementation et d’intégration - Backlog - Alerting 3 - Expertise(s) / technologie(s) Les expertises attendues pour réaliser cette prestation sont listées ci-après : - Agile Scrum - Ansible - Docker - Git Hub - Hadoop (Big Data) - Jenkins - JIRA - Kubernetes - Maven - PL SQL - Python - Shell - Sonar - ELK ElastikSearch
Suivant

Nouveauté ! Bénéficiez dès maintenant de plus de 350 deals dénichés pour vous (logiciels, outils et bien d'autres).