Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 168 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Développeur Java/Angular

CREALIS ingénierie
Publiée le
Angular
Apache Tomcat
API REST

6 mois
30k-50k €
Bordeaux, Nouvelle-Aquitaine

Au sein Créalis Bordeaux et pour le compte de notre client, vos missions seront essentiellement: Participer aux ateliers de conception technico-fonctionnels Estimer vos charges et votre reste à faire Développer les composants répondant aux normes et standards des technologies utilisées Produire le code et utiliser un gestionnaire de configuration Participer activement aux daily et rituels du projet Écrire des tests unitaires Participer aux campagnes de tests Assurer la documentation et la capitalisation Participer à la vie de l'équipe

Freelance

Mission freelance
Architecte Système Kafka Confluent Cloud

Montash
Publiée le
Apache Kafka
Java
JIRA

6 mois
100-3k €
Paris, France

Responsabilités principales : Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent. Outils : KAFKA toolset Programmation et scripting (Java, PL/SQL, SQL, Unix, etc) Job Scheduling / Ordonnanceur (OpCon) Database (SQL Server) Gestion de la demande et service incident (JIRA / SNOW)

Freelance

Mission freelance
Architect KAFKA confluent

Cherry Pick
Publiée le
Apache Kafka
Architecture

12 mois
600-650 €
Paris, France

Dans le cadre de la création de l’équipe streaming basé sur la technologie KAFKA Confluent Cloud, nous recrutons un(e) Système Architecte Kafka confluent Cloud. En tant qu'Architecte Kafka sur Confluent, vous serez responsable de la conception et de l'implémentation des architectures de streaming de données à grande échelle en utilisant Apache Kafka et la plateforme Confluent. Vous travaillerez étroitement avec les équipes de développement et d'opérations pour assurer la scalabilité, la sécurité et l'efficacité des solutions de données. Responsabilités principales Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent. Ce rôle implique : L'accompagnement des équipes clientes IT dans la mise en œuvre des solutions liées à Kafka L’encadrement d’équipes techniques sur les projets L’accompagnement de nos équipes sur leur montée en compétences L’écriture des spécifications techniques en amont de la réalisation La validation des chiffrage projets Gestion de back log utilisant la méthode adaptée Le travail en étroite collaboration avec l’équipe IT Métier pour délivrer les projets selon les priorités stratégiques partagée Et, surtout, et créer un cadre de travail harmonieux et valoriser le travail des équipes de développements pour fédérer les meilleurs talents Expérience attendue Expérience dans le développement opérationnel de flux sous KAFKA Expérience significative sur la plateforme Confluent Expérience significative dans un environnement Agile/ Hybrid Expérience de management d’équipes de développeurs et de suivi du delivery Test unitaire/Compliance /Performance Documentation & procédures afin de facilité au support le Monitoring technico fonctionnel des interfaces/Jobs Expérience SAP (ECC & S4/HANA) serait apprécié Coordination avec l’équipe de DEV afin de délivrer un support N3.

Freelance
CDI

Offre d'emploi
Ingénieur de production (H/F)

CITECH
Publiée le
Apache
Apache Tomcat

1 an
55k-65k €
Paris, France

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Ingénieur de production (H/F) 🚀 💰 Votre mission est pour un client reconnu dans le secteur bancaire, implanté dans de nombreuses villes en France, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. 💳 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Mettre en œuvre des solutions techniques. 🔸 Réaliser des diagnostics pour identifier les causes de dysfonctionnement, proposer et mettre en œuvre des corrections et des solutions de "back-up". 🔸 Proposer des solutions pour améliorer les performances de son domaine d'activité. 🔸 Assurer, si nécessaire, l'interface des experts des autres domaines et gère les échanges avec les sous-traitants. 🔸 Définir les règles de bonne gestion des systèmes d'exploitation. 🔸 Concevoir si nécessaire les normes et les règles de bonne gestion et vérifier systématiquement leur application (sécurité informatique, qualité?). 🔸 Assurer la mise à niveau, l'assemblage, la cohérence et l'homologation des différents logiciels (progiciels, base de données, développements spécifiques) dans le respect de l'architecture retenue. 🔸 Prendre en charge l'intégration de nouvelles applications ou de progiciels (transactionnel et/ou batch) dans le respect des normes et procédures en vigueur 🔸 Effectuer la réception, la validation et le packaging des composants. 🔸 Installer et met à disposition des composants. 🔸 Réaliser la recette technique et l'homologation des composants / applications. 🔸 Participer à l'amélioration des processus et des outils d'industrialisation et de déploiement. 🔸 Travailler en relation étroite et permanente avec les équipes Etudes, Infrastructures et Sécurité. 🔸 Spécificités pour les tests techniques. 🔸 Prise de connaissance du changement et de son contexte technique. 🔸 Compléter le plan de tests proposé. 🔸 Préparer les infrastructures de tests. 🔸 Valider les documents et les procédures à destination de la production. 🔸 Réaliser les différents tests techniques. 🔸 Analyser les résultats. 🔸 Contribuer au diagnostic en cas de dysfonctionnement. 🔸 Rédiger les rapports détaillés qui aideront à la décision du GO/NOGO pour la mise en production. 🔸 Constituer ou met à jour le patrimoine de tests réutilisable pour les intégrations ultérieures. 🔸 Effectuer le reporting vers le Responsable Intégration. 🔸 Contribuer à l'amélioration continue. 🔸 Industrialiser les tests techniques récurrents (automatisation, outillage).

Freelance

Mission freelance
Architecte Kafka confluent Cloud

ASENIUM
Publiée le
Apache Kafka

6 mois
610-800 €
Paris, France

Pour l'un de nos clients finaux sur Paris, nous sommes à la recherche d'un Système Architecte Kafka confluent Cloud. Démarrage dès que possible pour long terme. En tant qu'Architecte Kafka sur Confluent, vous serez responsable de la conception et de l'implémentation des architectures de streaming de données à grande échelle en utilisant Apache Kafka et la plateforme Confluent. Vous travaillerez étroitement avec les équipes de développement et d'opérations pour assurer la scalabilité, la sécurité et l'efficacité des solutions de données. Responsabilités principales Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent. Compétences et qualifications Diplôme en informatique, ingénierie ou domaine connexe. Expérience approfondie avec Apache Kafka et la plateforme Confluent. Expérience démontrée en architecture de solutions de données à grande échelle. Maîtrise des langages de programmation tels que Java, Scala ou Python. Connaissance approfondie des pratiques de sécurité des données et des architectures microservices. Excellentes compétences en communication, en présentation et en leadership. Ce rôle implique : L'accompagnement des équipes clientes IT dans la mise en œuvre des solutions liées à Kafka L’encadrement d’équipes techniques sur les projets L’accompagnement de nos équipes sur leur montée en compétences L’écriture des spécifications techniques en amont de la réalisation La validation des chiffrage projets Gestion de back log utilisant la méthode adaptée Le travail en étroite collaboration avec l’équipe IT Métier pour délivrer les projets selon les priorités stratégiques partagée Et, surtout, et créer un cadre de travail harmonieux et valoriser le travail des équipes de développements pour fédérer les meilleurs talents

Freelance

Mission freelance
Développeur Java Solr Elasticsearch

Kaïbee
Publiée le
Apache Solr
Elasticsearch
Java

1 an
100-590 €
Paris, France

PAS DE SOUS-TRAITANCE // MERCI Pour une mission longue durée nous recherchons un développeur dev back en Java avec des compétences sur micronaut / spring boot/ Apache Solr avec des connaissances sur les moteurs de recherche Responsabilités: Concevoir, développer et déployer des applications robustes en utilisant Java, Micronaut et Spring Boot. Collaborer avec une équipe multidisciplinaire pour concevoir et implémenter des fonctionnalités innovantes. Optimiser les performances des applications et assurer la qualité du code. Intégrer des moteurs de recherche avancés pour améliorer la convivialité et la pertinence des résultats.

Freelance
CDI

Offre d'emploi
Ingénieur système Linux (Redhat) (H/F)

Opstim
Publiée le
Ansible
Apache Kafka
Puppet

1 an
45k-70k €
Île-de-France, France

Ingénieur système Linux (RedHat) (H/F) A PROPOS : Notre client est spécialisé dans l’asset management. L’entreprise est une société mondiale de gestion d’actifs quantitative et systématique appliquant une approche scientifique à la finance pour développer des stratégies d’investissement alternatives pour nos clients. Ils valorisent l’innovation, l’engagement, l’aboutissement et l’intelligence collective en créant un environnement d’experts passionnés et talentueux dans les domaines de la recherche, des technologies et du business pour explorer de nouvelles idées et toujours remettre en question les hypothèses. DESCRIPTION DU POSTE : En tant qu'Ingénieur Système Linux (RedHat), vous rejoindrez l'équipe System Build de l’entreprise dans le but d’intervenir sur l'optimisation, la configuration et le déploiement de serveurs physiques ou virtuels Linux (CentOS/Redhat 9) en fonction des besoins, des équipes métiers. Contexte : Vous devrez maintenir l’architecture, le déploiement, l’évolution et le maintien de leurs différents cluster Kafka mis à disposition des équipes. Vous vous occupez de la mise en place d'un workflow de gestion des topics et des ACLs de ces clusters KAFKA. Vous gérerez la partie monitoring, supervision et documentation de ces architecture. Finalement, vous ferez de l’accompagnement technique/développement des utilisateurs sur ce domaine. VOS MISSIONS : Installation, maintenance et configuration du cluster Apache Kafka pour le traitement de flux de données en temps réel. Automatisation des déploiements à l'aide de Puppet pour assurer la cohérence et l'efficacité des configurations. Kernel Linux Gestion de projets techniques liés à l'infrastructure système et au déploiement de nouvelles technologies. Évolution et maintenance des outils et services existants pour répondre aux besoins croissants de l'entreprise. Gestion et optimisation du stockage, notamment dans des environnements de calcul haute performance (HPC), en collaboration avec les équipes spécialisées. Optimisation fine des cpu Optimisation fine des accès stockage (slurm, lustre) Technologies utilisées : APACHE KAFKA, Linux (CENTOS) – Kernel, PUPPET, ANSIBLE , DOCKER, GIT, JENKINS, NAGIOS, GRAFANA, PYTHON, BASH, VMWARE, VSPHERE, NETAPP, SLURM, LUSTRE, HPC, NFS

Freelance
CDI

Offre d'emploi
Data Engineering - TALEND / SPARK / SCALA / MSBI

Digistrat consulting
Publiée le
Apache Spark
Hadoop
Microsoft Power BI

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : L'entité a pour charge la maintenance, le support et l'évolution de l'outil concernant le pilotage financier de la banque, des directions centrales et de la facturation interne du groupe. Les outils sont basés sur les technologies Big Data pour le stockage, Talend et Spark/Scala pour les traitements, la suite MSBI SQL Server et cube SSAS pour l'analyse mutlidimensionnelle et enfin du Power BI pour la restitution. Le Bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - Support de l'application (notamment lors des clôtures mensuelles) - La maintenance évolutive - La conception et l'implémentation de nouvelles fonctionnalités - La refonte technique - La migration de Talend vers Spark/scala Environnement anglophone 2 - Livrables attendus Les livrables attendus sont : - Optimisation des performances - Le support de l'application et la documentation - La livraison des evolutions - La livraison des nouvelles fonctions demandées dans le cadre des projets.

Freelance

Mission freelance
Data Architect

Mindquest
Publiée le
Apache Kafka
Apache Spark
Hadoop

6 mois
630-850 €
Issy-les-Moulineaux, Île-de-France

Notre client crée un nouveau poste d'Architecte DATA pour piloter la construction de son infrastructure de données et mettre en place une stratégie data ambitieuse. En tant qu'Architecte DATA, vous serez un pionnier de la transformation digitale du Groupe, en concevant et en mettant en œuvre une architecture de données moderne, robuste et évolutive. Vous intervenez auprès des différentes entités pour identifier les besoins métier, proposer des solutions agiles et les mettre en œuvre. Vous partirez d'une page blanche et aurez la responsabilité de construire l'ensemble de l'infrastructure data du Groupe, depuis la définition des besoins métiers jusqu'au choix des technologies et à la mise en place des processus de gouvernance. Construire la stratégie Data du Groupe: Analyser les besoins métiers en matière de données Identifier les quick wins Définir une vision globale de l'architecture de données Déterminer les outils et technologies nécessaires Concevoir et implémenter l'infrastructure de données : Définir les modèles de données pertinents Choisir et mettre en place les solutions de stockage et de traitement de données Assurer l'intégration des données provenant de différentes sources Gérer et maintenir l'architecture de données : Superviser les performances et la sécurité de l'infrastructure Mettre en place des processus de gouvernance des données Documenter l'architecture et les processus Collaborer avec les équipes métiers et IT : Communiquer efficacement les enjeux et les solutions data Comprendre les besoins métiers et les traduire en exigences techniques Soutenir les équipes dans l'utilisation des outils et des données

Freelance

Mission freelance
Développeur java H/F

Insitoo Freelances
Publiée le
Apache Kafka
Java
Springboot

2 ans
115-471 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur java H/F à Lille et périphérie. Contexte : Dans le cadre de cette stratégie ambitieuse, nous avons constitué une équipe restreinte pour créer un référentiel de données matières. Ce produit est à destination de nos collaborateurs. L’équipe restreinte est constituée seulement d'un Product Manager. Le développeur sera en proximité d'une équipe de dév mais n'en sera pas directement rattaché. Il travaillera également en collaboration avec des Data Ingénieur. Les missions attendues par le Développeur java H/F : Le développeur va construire une brique back qui s'accostera à d'autres briques digitales via des API ou du Kafka. Elle aura sa propre BDD. L'objectif sera de déduire des données descriptives Produit sur base de rapprochement identifiés par une brique digitale tierce. Ce produit n'existe pas et sera à construire from scratch. Une dimension architecture logicielle sera donc à prendre en compte. Il devra suivre les guidelines de développement. Ce chantier est ambitieux, volontariste et passionnant, nous recherchons donc un développeur Back à l’image de ce challenge. Ce développeur doit avoir une communication claire, une grande capacité de travail et d’organisation.

Freelance

Mission freelance
Développeur back java reactive ( H/F )

Insitoo Freelances
Publiée le
Apache Kafka
Java
Mongodb

2 ans
112-451 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur back java reactive ( H/F ) à Lille et périphérie. Contexte : Sur l'un des produits digitaux d'optimisation de vente, nous recherchons un développeur Back (Java Spring à partir de Java 11 ; MongoDB ; Kafka). Les missions attendues par le Développeur back java reactive ( H/F ) : -Réaliser les APIs, -Gérer les business Rules au sein de l'application -Aider au développement des features -Gérer le RUN du produit -Travailler de paire avec le/la PO, et une capacité de Release Manager... En tant que Backeu avec en appétence Java, vous savez contrôler la qualité des réalisations (TU / Sonar / review) et synchroniser avec les Lead Back et TechLead / PO. Il est important pour ce rôle d'avoir une bonne connaissance des tests unitaires en reactif ; ainsi que la connaissance de ce Framework.

Freelance
CDD
CDI

Offre d'emploi
DATA ANALYSIS - BA H/F

SMARTPOINT
Publiée le
Agile Scrum
Apache Hive
PL/SQL

1 an
10k-60k €
Paris, France

la prestation consiste à contribuer à/au-x- :  La documentation des spécifications fonctionnelles sur la base d'une expression de besoins validée et priorisée par le PO  Analyses et documentation des mappings entre les applications sources et le modèle d’entreprise tel que défini dans le projet  Analyses et documentation des mappings entre le modèle local et le model central.  L'évaluation des impacts et définition des moyens les plus pertinentes, leurs coûts et les risques/contraintes associées  Spécifications en user stories détaillées intégrant des critères d’acceptance et des cas de tests  L'assistance aux divers changements (analyse d'impact, remontées et support conduite de changement des utilisations, démarrage, déploiement)  La consolidation et la centratlsation des documentations techniques et fonctionnelles  La remontée des alertes  L'analyse des impacts des changements sur les niveaux de services (SLA /OLA)  La définition des scenarios BDD en assistance avec les différents Utilisateurs et/ou Bénéficiaires  La stratégie et L'assistance/support aux divers tests fonctionnels  L'intégration du produit dans l’architecture globale telle que définie par les différents Utilisateurs et/ou Bénéficiaires  La pérennité des pratiques Agiles au sein de la Feature / Agile Entity  Cérémonies de la Feature Entity FT / Entity Agile en étant axé sur les objectifs de l'itération, sa prévisibilité, sa vélocité…  L'atteinte des objectifs de l’entité tant sur le delivery qu'en production  L'assistance et résolution des problèmes Expertises :  Monde Bancaire et du fonctionnement des grandes organisations  Analyses Métier  Data Mapping et transformation complexe  Environnement anglophone  Outils potentiellement utilisés dans le cadre de la prestation: Business intelligence (Microsoft Power BI), SQL  Méthodologie : Agile Les livrables attendus sont :  Un produit fonctionnel en ligne avec les spécifications définies et validées  Un backlog Produit maintenu dans JIRA avec des user stories  documentées avec les critères d acceptances  estimées en terme d’étude ou de dev ( story points)  Des users stories liées à l’amélioration continue définie lors de rétrospection ou d’évaluation des pratiques agiles  Des documentations d’études présentant les moyens pertinents répondant aux spécifications métiers  Une documentation d'architecture fonctionnelle (et technique en s’appuyant sur l’entité) des uses cases, des collectes et traitements  Une documentation centralisée permettant de retrouver facilement les règles métiers implémentées  Une roadmap à court/moyen terme maintenue et documentée  Suivi et gestion des cérémonies agiles pour chaque Sprints( Sprint Planning , Back log refinement , Sprint Review, Démo, rétrospection , 3 Amigos) Les expertises attendues pour réaliser cette prestation sont listées ci-après :  Agile Scrum  Hive  PL SQL  PostGreSQL

Freelance

Mission freelance
data scientist python anglais

Innov and Co
Publiée le
Apache Airflow
Dataiku
Jupyter Notebook

12 mois
100-610 €
Montrouge, Île-de-France

Notre client est responsable de la conception, du développement et de la production du système d’information et des infrastructures techniques Il définit les politiques de l’IT et coordonne leur mise en place. Afin de répondre aux exigences réglementaires de lutte anti blanchiment la Compliance mène un programme de déploiement de son dispositif de monitoring. Au sein de GIT, l’IT Compliance intervient sur le Programme AML, notamment à travers de solutions editeurs framework IA et des solutions packagées d’AML intégrant des capacités de machine learning. Mission à Montrouge

Freelance

Mission freelance
INGENIEUR DE PRODUCTION

GROUPE ARTEMYS
Publiée le
Apache
Control-M
Oracle

6 mois
380-450 €
Nantes, Pays de la Loire

De belles missions vous attendent chez notre client sur des environnements riches et challengeants : Vous intégrez un acteur majeur du secteur bancaire, aux valeurs fortes telles que la proximité, la coopération et l’expertise. Vos missions au quotidien : Installer, déployer, administrer, exploiter les applications du domaine confié dans le respect des normes et des règles de sécurité. Assurer le bon fonctionnement des applications du Système d’information et des environnements techniques. - Mettre en œuvre la supervision technique, gérer les incidents et effectuer des maintenances de 2eme niveau. Participer à l’installation des infrastructures ou produits, le paramétrage et la validation des composants de l’infrastructure. Participer aux tests et rédiger les dossiers d’exploitation. Contribuer à la réalisation des actions de capacity planning voire en assurer la responsabilité sur délégation de son responsable. Participer à la gestion de l’évolution du SI (analyse des impacts et besoins, schéma d’ensemble et scénarios d’évolution du SI, plans d’équipement). Contribuer activement à la démarche d’amélioration continue.

Freelance

Mission freelance
Ingénieur AppOps Expérimenté (H/F) - 78

Mindquest
Publiée le
Ansible
Apache Kafka
CI/CD

3 mois
100-450 €
Guyancourt, Île-de-France

Contexte : La prestation demandée se déroule au sein du Cluster Clientèles et plus particulièrement dans l’équipe des équipiers OPS (GRC/CSO/CCE) qui a en charge, entre autres, l’expertise technique et l’accompagnement des projets et du RUN pour nos partenaires. Pour assurer vos missions, vous vous appuierez sur les autres équipes spécialisées : système, réseaux, sécurité, CloudOps, etc. ainsi que sur les équipes du cluster. Mission : Au sein de l’équipe des APPOPS du cluster, vous aurez en charge : Administration d’une plateforme Kube avec l’ensemble de l’écosystème CI/CD. D’accompagner nos clients entités dans l’intégration de leurs projets sur les infra Natives (Kubernetes et son écosystème) D’acculturer et accompagner les clients sur les services Natif et autre technologie De collaborer au Build des socles techniques dans des environnements cloud et containers D’accompagner le déploiement des solutions d’infrastructure et utilisation des outils (Chaine CI/CD, outils de monitoring, aspects sécurités) Support niveau 1&2 des environnements de développement et de production De participer aux gestions des incidents et des crises De gérer l'après-crise et les incidents pour corriger l'utilisation, la mise en œuvre et le cycle de vie des modèles. De suivre la Gestion des changements De suivre le Capacity planning et le reporting FinoPPS

Freelance

Mission freelance
Responsable opérationnel d'applications

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Hive
Apache Kafka
Apache Spark

4 mois
100-1 500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Objectifs et livrables L’expertise technique sur le Datalake (plateforme Big Data) consistera à : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake : gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de mises en production · Contribuer à l’amélioration continue des outils d’exploitation · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous