Trouvez votre prochaine offre d’emploi ou de mission Hadoop
Votre recherche renvoie 44 résultats.

Mission freelance Spark / Hadoop / Java
Digistrat consulting
Publiée le
36 mois
Paris, France
Le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire en termes de Conception et Développement.
Dans ce cadre la prestation consiste à contribuer à/au(x) :
- La mise en place du process de benchmark et backtesting Risque de contrepartie et Marché
Les livrables attendus sont :
- Développement des composants de la chaine sur les produits de repo Spark/Hadoop/Java (incluant les BDD)
- Tests
- Déploiement
Expertise :
- Java

Offre d'emploi Spark / Hadoop / Java
Digistrat consulting
Publiée le
Paris, France
Le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire en termes de Conception et Développement.
Dans ce cadre la prestation consiste à contribuer à/au(x) :
- La mise en place du process de benchmark et backtesting Risque de contrepartie et Marché
Les livrables attendus sont :
- Développement des composants de la chaine sur les produits de repo Spark/Hadoop/Java (incluant les BDD)
- Tests
- Déploiement
Expertise :
- Java

Mission freelance Ingénieur Système Hadoop
OCSI
Publiée le
24 mois
400-700 €
Île-de-France, France
Nous recherchons un profil INFRAOPS avancé sur toute la partie HADOOP.
Les missions :
Assurer le maintien en conditions opérationnelles des environnements en collaboration avec les N3
Traitement des incidents d’exploitation sur tous les environnements (production, Intégration et Qualif) : analyse, diagnostic (mise en exergue de la root cause) et implémentation de solutions
Assistance aux clients de la DataPlatform dans leur optimisation de traitements / requêtes
Astreintes 2 jours par mois déclenchées sur incident, à se répartir sur l’équipe support
Automatisation de l’infrastructure BigData / actions récurrentes via ANSIBLE
Implémentation des recommandations N3/cloudera
Participer aux déploiements de cluster
Produire de la documentation sous Confluence, Git mais aussi Jira en renseignant les détails de résolution
Agilité à l’échelle sur toutes les équipes de la DataPlatform, participation aux rituels SCRUM (System Demo/Lancement de sprint/PI planning/Rétrospective)
Environnement technique :
RHEL, PostgreSQL, Autosys, Ansible Tower, Openshift, Script Shell, Ansible, Hadoop, Open Search /ELastic Search, GIT.

Mission freelance Full Stack / Devops / Hadoop
Digistrat consulting
Publiée le
36 mois
Paris, France
L’entité en charge les applications liées :
- à la gestion du portefeuille de crédit.
- au calcul de la liquidité réglementaire pour GLFI & CORI
- au monitoring du capital réglementaire consommé.
- à la gestion du défaut et du provisionnement des opérations douteuses.
- à la gestion des services de Transaction Banking
Le Bénéficiaire souhaite mettre en œuvre les évolutions de son socle technique.
A ce titre, Le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire pour le Project Management et le déploiement des fonctions DEVOPS dans son environnement Big Data.
Dans ce cadre, la prestation consistera à/au-x- :
- Pilotage, la mise en place de la Feature Team DEVOPS qui a vocation à supporter l’ensemble des Chapters Big Data de la tribe , à standardiser et homogénéiser les pratiques DEVOPS entre Chapters Data, à prendre en charge leur support L1
- Suivi du Backlog de la Feature Team DEVOPS
- Support à l’’implémentation sur le périmètre DEVOPS, aux besoins d’assistance technique des différents Utilisateurs et/ou Bénéficiaires
- La définition des principes et standards DEVOPS à mettre en oeuvre (CI/CD, automatisation du monitoring...) dans le respect des standards d’architecture du groupe SG et en tenant compte de l’existant DEVOPS déjà déployé par les Chapters Data,
- La mise en place du déploiement des principes et standards DEVOPS dans les Chapters Data de la tribe, à mettre en place et à maintenir la road map de standardisation DEVOPS ,
- La mise en place de la Stream OPS avec le transfert du support L1 des Chapters Data vers la FT DEVOPS, en lien avec applications sources et les différents Utilisateurs et/ou Bénéficiaires
- Divers chiffrages
- Respect des échéances techniques transversales,
- Remontées d’alertes et mise en place et déploiement de plans de mitigation.
Expertises :
- Gestion de projets techniques en environnement bancaire,
- DEVOPS (CI/CD, Monitoring, ...),
- Java Full Stack (batch & dev Angular) et de Spark Scala
- Culture SRE & Craftmanship,
- Mode Agile (Scrum),
- Environnement anglophone.
2 - Livrables attendus
- Chiffrages d’implementation des composants DEVOPS
- Stratégie de déploiement du DEVOPS sur les différents chapters
- Road map d’implementation et d’intégration
- Backlog
- Alerting
3 - Expertise(s) / technologie(s)
Les expertises attendues pour réaliser cette prestation sont listées ci-après :
- Agile Scrum
- Ansible
- Docker
- Git Hub
- Hadoop (Big Data)
- Jenkins
- JIRA
- Kubernetes
- Maven
- PL SQL
- Python
- Shell
- Sonar
- ELK ElastikSearch

Offre d'emploi Full Stack / Devops / Hadoop
Digistrat consulting
Publiée le
Paris, France
L’entité en charge les applications liées :
- à la gestion du portefeuille de crédit.
- au calcul de la liquidité réglementaire pour GLFI & CORI
- au monitoring du capital réglementaire consommé.
- à la gestion du défaut et du provisionnement des opérations douteuses.
- à la gestion des services de Transaction Banking
Le Bénéficiaire souhaite mettre en œuvre les évolutions de son socle technique.
A ce titre, Le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire pour le Project Management et le déploiement des fonctions DEVOPS dans son environnement Big Data.
Dans ce cadre, la prestation consistera à/au-x- :
- Pilotage, la mise en place de la Feature Team DEVOPS qui a vocation à supporter l’ensemble des Chapters Big Data de la tribe , à standardiser et homogénéiser les pratiques DEVOPS entre Chapters Data, à prendre en charge leur support L1
- Suivi du Backlog de la Feature Team DEVOPS
- Support à l’’implémentation sur le périmètre DEVOPS, aux besoins d’assistance technique des différents Utilisateurs et/ou Bénéficiaires
- La définition des principes et standards DEVOPS à mettre en oeuvre (CI/CD, automatisation du monitoring...) dans le respect des standards d’architecture du groupe SG et en tenant compte de l’existant DEVOPS déjà déployé par les Chapters Data,
- La mise en place du déploiement des principes et standards DEVOPS dans les Chapters Data de la tribe, à mettre en place et à maintenir la road map de standardisation DEVOPS ,
- La mise en place de la Stream OPS avec le transfert du support L1 des Chapters Data vers la FT DEVOPS, en lien avec applications sources et les différents Utilisateurs et/ou Bénéficiaires
- Divers chiffrages
- Respect des échéances techniques transversales,
- Remontées d’alertes et mise en place et déploiement de plans de mitigation.
Expertises :
- Gestion de projets techniques en environnement bancaire,
- DEVOPS (CI/CD, Monitoring, ...),
- Java Full Stack (batch & dev Angular) et de Spark Scala
- Culture SRE & Craftmanship,
- Mode Agile (Scrum),
- Environnement anglophone.
2 - Livrables attendus
- Chiffrages d’implementation des composants DEVOPS
- Stratégie de déploiement du DEVOPS sur les différents chapters
- Road map d’implementation et d’intégration
- Backlog
- Alerting
3 - Expertise(s) / technologie(s)
Les expertises attendues pour réaliser cette prestation sont listées ci-après :
- Agile Scrum
- Ansible
- Docker
- Git Hub
- Hadoop (Big Data)
- Jenkins
- JIRA
- Kubernetes
- Maven
- PL SQL
- Python
- Shell
- Sonar
- ELK ElastikSearch

Mission freelance Ingénieur de production DATA/ Big DATA / HADOOP / CLOUDERA
BI SOLUTIONS
Publiée le
24 mois
400-550 €
Paris, France
Ingénieur de production DATA/ Big DATA / HADOOP / CLOUDERA
- Gérer la production du SI
- Diagnostiquer la nature et l’origine des incidents d’exploitation et ou des problèmes et mettre en œuvre les mesures correctives,
- Surveiller, en s’appuyant sur les outils de supervision notamment, l’état des ressources informatiques et intervenir de manière préventive si nécessaire
-
- Participer à la résolution des incidents critiques
- Apporter une assistance technique et un support aux Incidents Managers, aux Service Delivery Manager
- Rédiger ou contribuer à la rédaction et valider les fiches actions/fiches consignes,
- Participer aux retours d’expérience (REX/Post mortem), en collaboration avec les Incidents Managers, Service Delivery Managers,
- Contribue à la rédaction des documentations techniques (dossiers d’exploitation, fiches actions, ) et valide les paragraphes/chapitres propres à son activité
- Participe, accompagne voir réalise les mises en productions techniques (hors applicatif)
- Etre force de proposition concernant l’amélioration continue du processus de gestion des incidents
- Participer activement aux instances de pilotage opérationnelles de partenaires (hébergeurs, )
- Le poste comporte des astreintes
- Environnement Hadoop / Cloudera, Kafka, Scala
480 e

Mission freelance Tech lead Senior/Spark/Hadoop/Java Big Data
Digistrat consulting
Publiée le
36 mois
Paris, France
La prestation consiste à contribuer à :
- Participer à l’intégration cohérente des cas d’usages Datalake dans le SI avec l’Architecture
Techniques
- Identifier et prévenir les risques éventuels de dérapages en terme de coûts et de délais et proposer le
cas échéant des moyens pragmatiques et cohérentes afin de mitiger le risque identifié
- Développement et Implémentations des collectes de données, des jobs de traitement et Mapping de
données (Spark/Scala)
- Développement des moyens de restitution via génération de fichier et ou API & Dashboarding ( Java
Spring Batch/Boot, rest API, Postgres, Angular)
- Implémenter/Améliorer la chaîne de livraison continue ( Jenkins, Sonar, Nexus , Kubernetes)
- Faire la revue de code avec les autres membres de l’entité
Assister l’Architectures Techniques dans les choix d’implémentation au sein du SI
- Contribuer aux préconisations en termes d’architecture big data
- Elaborer les moyens techniques en conformité avec les lignes directrices fixées par les métiers, les
normes et standard SG
- Garantir de la qualité et de la maintenance technique du produit
- S’assurer que la stratégie de test du produit est bien respectée
Contribuer à la veille technique de son périmètre et à sa diffusion
Co-élaborer le design technique des cas d’usages
- Analyse des besoins des utilisateurs afin de les transcrire en spécifications d’architecture techniques
détaillées
- Stimuler les entités dans la recherche collective des moyens techniques optimales
- assistance et conduite du changement
2 - Livrables attendus
Les livrables attendus sont
- Documentation d’architecture technique des uses cases
- Documentation techniques et focntionnelles des collectes et traitements incluants les sources de
donnees et les traitements associes
- Developpement des jobs de Collecte & de Traitements des donnees
- Developpement des services de restitution (Rest APi, fichier sur Object Storage)
- Automatisation du deploiement des Jobs (CI/CD)
3 - Expertise(s) / technologie(s)
Les expertises attendues pour réaliser cette prestation sont listées ci-après :
Hadoop (Big Data)
Jenkins
Kubernetes
REST
Scala
Spark
Mission freelance Architecte BIG DATA/HADOOP Confirmé (H/F)
Reactis
Publiée le
18 mois
540-600 €
Paris, France
En 2023 la DSI de notre client ajuste son organisation et déploie une solution Big Data basée sur Hadoop.
Au sein du pôle Support au pilotage opérationnel - pilotage de programmes , la mission consiste à accompagner le responsable de la gouvernance de la donnée afin d’identifier les cas d’usage qui devront être fonctionnellement instanciés dans cette filière Big Data.
Les applications décisionnelles permettent de générer et de fournir auprès des équipes de direction et de gestion des états de restitutions sous la forme de reporting opérationnel et de tableaux de bord. Les indicateurs produits permettent d’assurer un suivi opérationnel des processus métier à des fréquences adaptées au besoin, soit quotidienne (par exemple pour le suivi des corbeilles de tâches), hebdomadaires ou mensuelles.
Depuis 2018 une première plate-forme Big Data s’appuyant sur la technologie Hadoop a été mise en place pour répondre à d’autres cas d’usage non couverts et nécessitant plus d’agilité pour explorer, croiser les données et manipuler de gros volumes de données. La première distribution logicielle basée sur la distribution logicielle Hortonworks a migré en 2021 vers la distribution Cloudera CDP . Cette distribution logicielle est un framework d’applications distribuées doté de mécanismes de scalabilité, de tolérance aux pannes et de distribution des traitements de données.
L’objectif fonctionnel de ce socle est de pouvoir répondre à différents cas d’usages tels que :
Pour les équipes DSI Etudes :
o Dans le cadre de phases d’études amont être en capacité d’explorer, croiser et analyser des données provenant de différents contextes, afin de formaliser des points structurants relatifs à la gestion des informations.
o Dans le cadre de phases de spécifications savoir adapter la solution aux enjeux de volumétrie d’un cas d’usage ;
Pour les équipes DSI Supports Fonctionnels :
o Participer au suivi de Production pour explorer, croiser analyser les données inter-applications dans le but de piloter les opérations d’exploitation et être en mesure d’adresser aux éditeurs des demandes d’intervention pertinentes.
Pour les équipes DSI Centre National de Recette et d’Intégration :
o Préparer les jeux de données en explorant et en identifiant les données des applications qui constitueront les jeux d’essais en lien avec les critères métier.
Pour les équipes DSI Système d’Information Décisionnel , envisager une bascule vers Hadoop d’une partie des données stockées dans Teradata, dans l’objectif de réduire l’impact Teradata.
Pour la Direction Technique (Actuaires) qui s’oriente vers les métiers de la Data-Science ;
Pour d’autres besoins tels que la lutte contre la fraude ;
Vos missions sont notamment :
- Référencer les cas d’usage
- Décliner opérationnellement les modèles organisationnels en fonction des cas d’usage à instancier
- Etre le point d’entrée vis-à-vis de la direction technique informatique. Cette direction a en charge d’établir les modèles d’architecture technique ainsi que de provisionner l’infrastructure physique et logicielle nécessaire au fonctionnement de la plate-forme Hadoop.
- Etre le point d’entrée de l’équipe informatique Décisionnel & Big Data . Cette équipe a en charge la gestion opérationnelle de la plate-forme Big Data.
- Assurer le change management inhérent à la mise en oeuvre
- Organiser / Structurer une filière Data Science au sein de la plate-forme Hadoop.
Environnement technique
Cloudera Private Cloud 7.1.7 : HDFS, YARN, Cloudera Manager, Hive, Hue, Impala, Spark, Zeppelin, Ranger, Knox, SQL, Zookeeper, Teradata
Durant la mission, des déplacements seront à prévoir à Lyon, site sur lequel est situé l’équipe Décisionnel & Big Data . La majorité des accès seront toutefois à distance.

Offre d'emploi Tech lead Senior/Spark/Hadoop/Java Big Data
Digistrat consulting
Publiée le
Paris, France
La prestation consiste à contribuer à :
- Participer à l’intégration cohérente des cas d’usages Datalake dans le SI avec l’Architecture
Techniques
- Identifier et prévenir les risques éventuels de dérapages en terme de coûts et de délais et proposer le
cas échéant des moyens pragmatiques et cohérentes afin de mitiger le risque identifié
- Développement et Implémentations des collectes de données, des jobs de traitement et Mapping de
données (Spark/Scala)
- Développement des moyens de restitution via génération de fichier et ou API & Dashboarding ( Java
Spring Batch/Boot, rest API, Postgres, Angular)
- Implémenter/Améliorer la chaîne de livraison continue ( Jenkins, Sonar, Nexus , Kubernetes)
- Faire la revue de code avec les autres membres de l’entité
Assister l’Architectures Techniques dans les choix d’implémentation au sein du SI
- Contribuer aux préconisations en termes d’architecture big data
- Elaborer les moyens techniques en conformité avec les lignes directrices fixées par les métiers, les
normes et standard SG
- Garantir de la qualité et de la maintenance technique du produit
- S’assurer que la stratégie de test du produit est bien respectée
Contribuer à la veille technique de son périmètre et à sa diffusion
Co-élaborer le design technique des cas d’usages
- Analyse des besoins des utilisateurs afin de les transcrire en spécifications d’architecture techniques
détaillées
- Stimuler les entités dans la recherche collective des moyens techniques optimales
- assistance et conduite du changement
2 - Livrables attendus
Les livrables attendus sont
- Documentation d’architecture technique des uses cases
- Documentation techniques et focntionnelles des collectes et traitements incluants les sources de
donnees et les traitements associes
- Developpement des jobs de Collecte & de Traitements des donnees
- Developpement des services de restitution (Rest APi, fichier sur Object Storage)
- Automatisation du deploiement des Jobs (CI/CD)
3 - Expertise(s) / technologie(s)
Les expertises attendues pour réaliser cette prestation sont listées ci-après :
Hadoop (Big Data)
Jenkins
Kubernetes
REST
Scala
Spark
Offre d'emploi Ingénieur production support N1 Hadoop
HIGHTEAM
Publiée le
Île-de-France, France
Localisation : Levallois-Perret
Durée de la mission : 6 mois renouvelable
Description de poste :
Dans le cadre de notre partenariat avec une entreprise du secteur bancaire, nous recherchons un Technicien de Production Applicative (H/F) pour rejoindre l’équipe ITG - Production.
Vous serez en charge du suivi de run et du maintien en condition opérationnelle des applications Fonctions Centrales utilisées par les équipes métiers de PF France.
Titre de poste : Technicien de Production Applicative (H/F)
Type de contrat : Freelance / CDI
Localisation : Levallois-Perret
Durée de la mission : 6 mois renouvelable
Description de poste :
Dans le cadre de notre partenariat avec une entreprise du secteur bancaire, nous recherchons un Technicien de Production Applicative (H/F) pour rejoindre l’équipe ITG - Production.
Vous serez en charge du suivi de run et du maintien en condition opérationnelle des applications Fonctions Centrales utilisées par les équipes métiers de PF France.
Tâches principales :
Suivi des traitements de production
Analyse en autonomie des incidents et coordination des actions de corrections
Relance de jobs Autosys en cas d’incidents
Réalisation de la maintenance corrective des alimentations Shell et Oracle principalement, mais aussi de DataStage, Hadoop ou Essbase
Exécution des scénarios de test en environnement Agile avec l’équipe de Delivery
Proposition et mise en œuvre des scénarios automatisés
Participation au support fonctionnel de l’application
Coordination des actions avec les autres équipes techniques
Alimentation du Product Backlog
Réalisation des Delivery / packaging
Réalisation des mises en production
Contribution active à la mise en place de solutions d’amélioration ou de montées de version
Support de l’équipe de développement sur les environnements d’intégration
Participation à la cohésion d’équipe DevOps

Offre d'emploi Spark / Hadoop / Java
Digistrat consulting
Publiée le
Paris, France
Le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire en termes de Conception et Développement.
Dans ce cadre la prestation consiste à contribuer à/au(x) :
- La mise en place du process de benchmark et backtesting Risque de contrepartie et Marché
Les livrables attendus sont :
- Développement des composants de la chaine sur les produits de repo Spark/Hadoop/Java (incluant les BDD)
- Tests
- Déploiement
Expertise :
- Java

Mission freelance Expert Administration Hadoop
SARIEL
Publiée le
12 mois
500-650 €
Paris, France
La société SARIEL recherche en région parisienne un(e) ou plusieurs Experts administration Hadoop (H/F).
1 - Contexte et objectifs de la prestation
La mission s’inscrit au sein de l’équipe Infrastructure Databases et Big Data en région parisienne pour l’un de nos clients Grands-Comptes dans le secteur bancaire.
2 - Expertise(s) / technologie(s)
Les expertises attendues pour réaliser cette prestation sont listées ci-après :
Capable de construire à partir de zéro des clusters de plusieurs dizaines de nodes
D’en assurer l’exploitation
Le MCO sur l’ensemble des composants techniques (hbase, zookeeper, etc.) et sur les composants d’ingestion (kafka/nifi) et restitution (Elastic)
3 - Type de prestation & niveau attendu
La prestation attendue est : Expertise Administration Hadoop
4 - Lieu de la prestation
La prestation aura lieu dans les locaux de notre client (92).
Aucun déplacement professionnel n’est prévu pendant le projet.
Dans le cadre de cette prestation, le pourcentage d’exécution prévu hors site (télétravail) est à définir.

Mission freelance Spark / Hadoop / Java
Digistrat consulting
Publiée le
36 mois
Paris, France
Le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire en termes de Conception et Développement.
Dans ce cadre la prestation consiste à contribuer à/au(x) :
- La mise en place du process de benchmark et backtesting Risque de contrepartie et Marché
Les livrables attendus sont :
- Développement des composants de la chaine sur les produits de repo Spark/Hadoop/Java (incluant les BDD)
- Tests
- Déploiement
Expertise :
- Java
Mission freelance DevOps Hadoop
VADEMI
Publiée le
12 mois
500-600 €
Paris, France
profil INFRAOPS avancé sur toute la partie HADOOP.
Vous trouverez la grille de compétence ci-dessous
Version Niveaux minimaux
Système d’exploitation
RHEL =7 Avancé
Base de données
PostgreSQL autonome
Ordonnancement
Autosys =11 Intermédiaire
Ansible Tower / AWX intermédiaire
Openshift intermédiaire
Langage
Script Shell Autonome
Ansible =2.9 Autonome
Big Data
Hadoop CDP 7.1 Avancé
Open Search/ Elastic Search =5 Autonome
Outils
GIT Autonome
Fiche de poste :
Assurer le maintien en conditions opérationnelles des environnements en collaboration avec les N3
Traitement des incidents d’exploitation sur tous les environnements (production, Intégration et Qualif) : analyse, diagnostic (mise en exergue de la root cause) et implémentation de solutions
Assistance aux clients de la DataPlatform dans leur optimisation de traitements / requêtes
Astreintes 2 jours par mois déclenchées sur incident, à se répartir sur l’équipe support
Automatisation de l’infrastructure BigData / actions récurrentes via ANSIBLE
Implémentation des recommandations N3/cloudera
Participer aux déploiements de cluster
Produire de la documentation sous Confluence, Git mais aussi Jira en renseignant les détails de resolution
Agilité à l’échelle sur toutes les équipes de la DataPlatform, participation aux rituels SCRUM (System Demo/Lancement de sprint/PI planning/Rétrospective)
Principales qualités attendues :
Sens du service rendu au client
Sens des priorités
Curiosité technologique
Organisé et méthodique
Bon relationnel
Réactivité
Adaptabilité

Mission freelance Full Stack / Devops / Hadoop
Digistrat consulting
Publiée le
36 mois
Paris, France
L’entité en charge les applications liées :
- à la gestion du portefeuille de crédit.
- au calcul de la liquidité réglementaire pour GLFI & CORI
- au monitoring du capital réglementaire consommé.
- à la gestion du défaut et du provisionnement des opérations douteuses.
- à la gestion des services de Transaction Banking
Le Bénéficiaire souhaite mettre en œuvre les évolutions de son socle technique.
A ce titre, Le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire pour le Project Management et le déploiement des fonctions DEVOPS dans son environnement Big Data.
Dans ce cadre, la prestation consistera à/au-x- :
- Pilotage, la mise en place de la Feature Team DEVOPS qui a vocation à supporter l’ensemble des Chapters Big Data de la tribe , à standardiser et homogénéiser les pratiques DEVOPS entre Chapters Data, à prendre en charge leur support L1
- Suivi du Backlog de la Feature Team DEVOPS
- Support à l’’implémentation sur le périmètre DEVOPS, aux besoins d’assistance technique des différents Utilisateurs et/ou Bénéficiaires
- La définition des principes et standards DEVOPS à mettre en oeuvre (CI/CD, automatisation du monitoring...) dans le respect des standards d’architecture du groupe SG et en tenant compte de l’existant DEVOPS déjà déployé par les Chapters Data,
- La mise en place du déploiement des principes et standards DEVOPS dans les Chapters Data de la tribe, à mettre en place et à maintenir la road map de standardisation DEVOPS ,
- La mise en place de la Stream OPS avec le transfert du support L1 des Chapters Data vers la FT DEVOPS, en lien avec applications sources et les différents Utilisateurs et/ou Bénéficiaires
- Divers chiffrages
- Respect des échéances techniques transversales,
- Remontées d’alertes et mise en place et déploiement de plans de mitigation.
Expertises :
- Gestion de projets techniques en environnement bancaire,
- DEVOPS (CI/CD, Monitoring, ...),
- Java Full Stack (batch & dev Angular) et de Spark Scala
- Culture SRE & Craftmanship,
- Mode Agile (Scrum),
- Environnement anglophone.
2 - Livrables attendus
- Chiffrages d’implementation des composants DEVOPS
- Stratégie de déploiement du DEVOPS sur les différents chapters
- Road map d’implementation et d’intégration
- Backlog
- Alerting
3 - Expertise(s) / technologie(s)
Les expertises attendues pour réaliser cette prestation sont listées ci-après :
- Agile Scrum
- Ansible
- Docker
- Git Hub
- Hadoop (Big Data)
- Jenkins
- JIRA
- Kubernetes
- Maven
- PL SQL
- Python
- Shell
- Sonar
- ELK ElastikSearch

Offre d'emploi Full Stack / Devops / Hadoop
Digistrat consulting
Publiée le
Paris, France
L’entité en charge les applications liées :
- à la gestion du portefeuille de crédit.
- au calcul de la liquidité réglementaire pour GLFI & CORI
- au monitoring du capital réglementaire consommé.
- à la gestion du défaut et du provisionnement des opérations douteuses.
- à la gestion des services de Transaction Banking
Le Bénéficiaire souhaite mettre en œuvre les évolutions de son socle technique.
A ce titre, Le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire pour le Project Management et le déploiement des fonctions DEVOPS dans son environnement Big Data.
Dans ce cadre, la prestation consistera à/au-x- :
- Pilotage, la mise en place de la Feature Team DEVOPS qui a vocation à supporter l’ensemble des Chapters Big Data de la tribe , à standardiser et homogénéiser les pratiques DEVOPS entre Chapters Data, à prendre en charge leur support L1
- Suivi du Backlog de la Feature Team DEVOPS
- Support à l’’implémentation sur le périmètre DEVOPS, aux besoins d’assistance technique des différents Utilisateurs et/ou Bénéficiaires
- La définition des principes et standards DEVOPS à mettre en oeuvre (CI/CD, automatisation du monitoring...) dans le respect des standards d’architecture du groupe SG et en tenant compte de l’existant DEVOPS déjà déployé par les Chapters Data,
- La mise en place du déploiement des principes et standards DEVOPS dans les Chapters Data de la tribe, à mettre en place et à maintenir la road map de standardisation DEVOPS ,
- La mise en place de la Stream OPS avec le transfert du support L1 des Chapters Data vers la FT DEVOPS, en lien avec applications sources et les différents Utilisateurs et/ou Bénéficiaires
- Divers chiffrages
- Respect des échéances techniques transversales,
- Remontées d’alertes et mise en place et déploiement de plans de mitigation.
Expertises :
- Gestion de projets techniques en environnement bancaire,
- DEVOPS (CI/CD, Monitoring, ...),
- Java Full Stack (batch & dev Angular) et de Spark Scala
- Culture SRE & Craftmanship,
- Mode Agile (Scrum),
- Environnement anglophone.
2 - Livrables attendus
- Chiffrages d’implementation des composants DEVOPS
- Stratégie de déploiement du DEVOPS sur les différents chapters
- Road map d’implementation et d’intégration
- Backlog
- Alerting
3 - Expertise(s) / technologie(s)
Les expertises attendues pour réaliser cette prestation sont listées ci-après :
- Agile Scrum
- Ansible
- Docker
- Git Hub
- Hadoop (Big Data)
- Jenkins
- JIRA
- Kubernetes
- Maven
- PL SQL
- Python
- Shell
- Sonar
- ELK ElastikSearch
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes
Paris
Marseille
Lyon
Toulouse
Nice
Nantes
Montpellier
Strasbourg
Bordeaux
Lille
Rennes
Reims
Saint-Étienne
Le Havre
Toulon
Grenoble
Dijon
Angers
Nîmes
Villeurbanne
Saint-Denis
Le Mans
Aix-en-Provence
Clermont-Ferrand
Brest
Tours
Amiens
Limoges
Annecy
Perpignan
Boulogne-Billancourt
Besançon
Metz
Orléans
Rouen
Argenteuil
Mulhouse
Montreuil
Caen
Nancy
Saint-Paul
Tourcoing
Roubaix
Nanterre
Avignon
Vitry-sur-Seine
Poitiers
Créteil
Dunkerque
Versailles
Asnières-sur-Seine
Aubervilliers
Colombes