Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Tomcat à Paris

Votre recherche renvoie 40 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
INTEGRATEUR APPLICATIF TOMCAT / APACHE EXPERIMENTE

PROPULSE IT
Publiée le

Paris, France

PROPULSE IT accompagne ses clients grands comptes et PME dans la mise en œuvre des projets It et digitaux. PROPULSE IT est un réseau de consultants à forte valeur ajoutée, complètement associé à notre démarche qualité de suivi des besoins et projets de nos clients. A ce jour, le réseau de freelance PROPULSE IT comporte plus de 18000 consultants sur toute la France, et couvre l'ensemble des besoins IT et digitaux. En constituant ce réseau par cooptation de clients ou de consultants, nous avons privilégié la constance dans le savoir-faire technique et le savoir-être, pour devenir un véritable partenaire privilégié de nos clients. Parallèlement, nous avons développé un réseau de partenaires sélectionnées pour leur expertise technique, et l'adhésion aux valeurs de notre entreprise. Aujourd'hui PROPULSE IT est une société en pleine croissance organique, Champion de la Croissance du journal Les Echos 4 années consécutives. Ce développement s'appuie sur la qualité et la pérennité des missions réalisées. La satisfaction client est ainsi liée à l'épanouissement des consultants ! Alors, n'hésitez pas à postuler ! Pour un démarrage sous un mois environ, nous recherchons un(e) intégrateur technique d'application freelance très expérimenté pour intégrer les application web chez notre client, en lien avec la production et les équipes de développement. Très Important : le profil recherché n'est pas un ingénieur de production qui gère des procédures d'intégration applicative mais un consultant habitué à être intercalé entre les équipes de développements et la production et qui prépare les documents d'installation. de plus il doit être expert et parfaitement autonome avec beaucoup d'expérience sur Tomcat / Apache. Pas de Devops dans le périmètre. Astreintes possibles soir et week-end - répartition selon l'équipe Livrables sont : - Dossier d'installation - Composants applicatifs -Configuration applicative Description détaillée - Capable de configurer/installer tomcat manuellement sur windows ou linux - Capable d'analyser les logs tomcat en cas d'erreur - Capable de configurer/installer manuellement un serveur httpd - Capable d'analyser les logs httpd en cas d'erreur - Savoir évoluer dans un environnement linux - Récupération des livrables de développement sur les outils de Gestion de configuration (SVN, GIT) - Installation des packages sur les plateformes de tests - Qualification des packages sur les plateformes de tests selon les normes en vigueur - Vérification de la conformité des applications vis à vis des contraintes de production - Rédaction et validation des documents d'installation et d'exploitation - Rédaction et exécution des plans de tests techniques - Assistance et support technique à la mise en production - Communication avec l'équipe projet - Reporting Compétences techniques : - Middleware : TomCat, Apache - Expert - Impératif - Systèmes : CentOs, RedHat - Expert - Important -Système : Windows - Confirmé - Serait un plus Connaissances linguistiques - Français Courant (Impératif)

Freelance
CDI

Offre d'emploi
Consultant expert Kubernetes

YGL consulting
Publiée le
Apache Tomcat
Docker
Kubernetes

6 mois
10k-50k €
Paris, France

nous recrutons un( e) consultant( e) expert kubernetes pour le compte de note client parisien Missions: - Accompagnement des équipes de développement pour Dockeriser leurs applications - Réalisation de script shell et python - Réalisation de playbooks et de rôles ansible - Réalisation de déploiements Terraform - Réalisation de pipeline groovy sur jenkins - Réalisation de chart Helm - Documentation des script d'automatisation - Assistance et support des équipes de développement - Communication avec les équipes d'infrastructure

Freelance

Mission freelance
INTEGRATEUR APPLICATIF TOMCAT / APACHE EXPERIMENTE

PROPULSE IT
Publiée le

Paris, France

PROPULSE IT accompagne ses clients grands comptes et PME dans la mise en œuvre des projets It et digitaux. PROPULSE IT est un réseau de consultants à forte valeur ajoutée, complètement associé à notre démarche qualité de suivi des besoins et projets de nos clients. A ce jour, le réseau de freelance PROPULSE IT comporte plus de 18000 consultants sur toute la France, et couvre l'ensemble des besoins IT et digitaux. En constituant ce réseau par cooptation de clients ou de consultants, nous avons privilégié la constance dans le savoir-faire technique et le savoir-être, pour devenir un véritable partenaire privilégié de nos clients. Parallèlement, nous avons développé un réseau de partenaires sélectionnées pour leur expertise technique, et l'adhésion aux valeurs de notre entreprise. Aujourd'hui PROPULSE IT est une société en pleine croissance organique, Champion de la Croissance du journal Les Echos 4 années consécutives. Ce développement s'appuie sur la qualité et la pérennité des missions réalisées. La satisfaction client est ainsi liée à l'épanouissement des consultants ! Alors, n'hésitez pas à postuler ! Pour un démarrage sous un mois environ, nous recherchons un(e) intégrateur technique d'application freelance très expérimenté pour intégrer les application web chez notre client, en lien avec la production et les équipes de développement. Très Important : le profil recherché n'est pas un ingénieur de production qui gère des procédures d'intégration applicative mais un consultant habitué à être intercalé entre les équipes de développements et la production et qui prépare les documents d'installation. de plus il doit être expert et parfaitement autonome avec beaucoup d'expérience sur Tomcat / Apache. Pas de Devops dans le périmètre. Astreintes possibles soir et week-end - répartition selon l'équipe Livrables sont : - Dossier d'installation - Composants applicatifs -Configuration applicative Description détaillée - Capable de configurer/installer tomcat manuellement sur windows ou linux - Capable d'analyser les logs tomcat en cas d'erreur - Capable de configurer/installer manuellement un serveur httpd - Capable d'analyser les logs httpd en cas d'erreur - Savoir évoluer dans un environnement linux - Récupération des livrables de développement sur les outils de Gestion de configuration (SVN, GIT) - Installation des packages sur les plateformes de tests - Qualification des packages sur les plateformes de tests selon les normes en vigueur - Vérification de la conformité des applications vis à vis des contraintes de production - Rédaction et validation des documents d'installation et d'exploitation - Rédaction et exécution des plans de tests techniques - Assistance et support technique à la mise en production - Communication avec l'équipe projet - Reporting Compétences techniques : - Middleware : TomCat, Apache - Expert - Impératif - Systèmes : CentOs, RedHat - Expert - Important -Système : Windows - Confirmé - Serait un plus Connaissances linguistiques - Français Courant (Impératif)

Freelance
CDI

Offre d'emploi
Data engineer scala spark

CELAD
Publiée le
Apache Spark
Scala

2 ans
50k-65k €
Paris, France

Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements. Le consultant devra travailler en étroite collaboration avec le Chef de Projet, responsable du lot et l'équipe de développement du Programme. Une connaissance d'Oracle est nécessaire Une expérience >5 ans sur des technologies SPARK & SCALA est nécessaire Une connaissance de contexte technologique similaire est un plus

Freelance
CDI

Offre d'emploi
Ingénieur de production (H/F)

CITECH
Publiée le
Apache
Apache Tomcat

1 an
55k-65k €
Paris, France

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Ingénieur de production (H/F) 🚀 💰 Votre mission est pour un client reconnu dans le secteur bancaire, implanté dans de nombreuses villes en France, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. 💳 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Mettre en œuvre des solutions techniques. 🔸 Réaliser des diagnostics pour identifier les causes de dysfonctionnement, proposer et mettre en œuvre des corrections et des solutions de "back-up". 🔸 Proposer des solutions pour améliorer les performances de son domaine d'activité. 🔸 Assurer, si nécessaire, l'interface des experts des autres domaines et gère les échanges avec les sous-traitants. 🔸 Définir les règles de bonne gestion des systèmes d'exploitation. 🔸 Concevoir si nécessaire les normes et les règles de bonne gestion et vérifier systématiquement leur application (sécurité informatique, qualité?). 🔸 Assurer la mise à niveau, l'assemblage, la cohérence et l'homologation des différents logiciels (progiciels, base de données, développements spécifiques) dans le respect de l'architecture retenue. 🔸 Prendre en charge l'intégration de nouvelles applications ou de progiciels (transactionnel et/ou batch) dans le respect des normes et procédures en vigueur 🔸 Effectuer la réception, la validation et le packaging des composants. 🔸 Installer et met à disposition des composants. 🔸 Réaliser la recette technique et l'homologation des composants / applications. 🔸 Participer à l'amélioration des processus et des outils d'industrialisation et de déploiement. 🔸 Travailler en relation étroite et permanente avec les équipes Etudes, Infrastructures et Sécurité. 🔸 Spécificités pour les tests techniques. 🔸 Prise de connaissance du changement et de son contexte technique. 🔸 Compléter le plan de tests proposé. 🔸 Préparer les infrastructures de tests. 🔸 Valider les documents et les procédures à destination de la production. 🔸 Réaliser les différents tests techniques. 🔸 Analyser les résultats. 🔸 Contribuer au diagnostic en cas de dysfonctionnement. 🔸 Rédiger les rapports détaillés qui aideront à la décision du GO/NOGO pour la mise en production. 🔸 Constituer ou met à jour le patrimoine de tests réutilisable pour les intégrations ultérieures. 🔸 Effectuer le reporting vers le Responsable Intégration. 🔸 Contribuer à l'amélioration continue. 🔸 Industrialiser les tests techniques récurrents (automatisation, outillage).

Freelance

Mission freelance
Ingénieur Data SPARK/SCALA projet de Business Intelligence & Big Data(N131)

Kaïbee
Publiée le
Apache Spark
Hadoop
ITIL

12 mois
100-520 €
Paris, France

Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements. Le consultant devra travailler en étroite collaboration avec le Chef de Projet, responsable du lot et l'équipe de développement du Programme. Une connaissance d'Oracle est nécessaire Une expérience >5 ans sur des technologies SPARK & SCALA est nécessaire Une connaissance de contexte technologique similaire est un plus

Freelance
CDI

Offre d'emploi
Data Engineering - TALEND / SPARK / SCALA / MSBI

Digistrat consulting
Publiée le
Apache Spark
Hadoop
Microsoft Power BI

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : L'entité a pour charge la maintenance, le support et l'évolution de l'outil concernant le pilotage financier de la banque, des directions centrales et de la facturation interne du groupe. Les outils sont basés sur les technologies Big Data pour le stockage, Talend et Spark/Scala pour les traitements, la suite MSBI SQL Server et cube SSAS pour l'analyse mutlidimensionnelle et enfin du Power BI pour la restitution. Le Bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - Support de l'application (notamment lors des clôtures mensuelles) - La maintenance évolutive - La conception et l'implémentation de nouvelles fonctionnalités - La refonte technique - La migration de Talend vers Spark/scala Environnement anglophone 2 - Livrables attendus Les livrables attendus sont : - Optimisation des performances - Le support de l'application et la documentation - La livraison des evolutions - La livraison des nouvelles fonctions demandées dans le cadre des projets.

Freelance

Mission freelance
Architecte Cloud Native (H/F)

LeHibou
Publiée le
Apache Kafka
Cloud
Kali Linux

12 mois
470-550 €
Paris, France

Notre client dans le secteur Assurance recherche un Architecte cloud native H/F Descriptif de la mission : Nous recherchons pour notre client un architecte cloud, afin de l'accompagner dans une transformation visant à devenir un "cloud service provider" pour les métiers et les marques. Lors de cette mission, les 2 capacités essentielles sont : - Celle de maitriser les principes de conception/développement logiciel et des liens avec les composants middleware L’objectif de la mission est de définir et mettre en place les principes de l’architecture des applications Cloud Native. - Définir les principes de conception d’une application dite Cloud Native en positionnant le rôle des API et du maillage de service - Définir les principes de mises en place des architectures de type microservices dont la granularité associée - Définir et accompagner la mise en œuvre du maillage de services via l’approche ServiceMesh

Freelance

Mission freelance
Expert WS02 - API Management

KEYNAN
Publiée le
Ansible
Apache Tomcat
API

12 mois
450-550 €
Paris, France

Nous sommes à la recherche d'un Expert WS02. La mission consiste à venir en renforts aux équipes en place dans le cadre de l’industrialisation de l’application. Le profil doit présenter les caractéristiques suivantes : - Intégrateur : il doit posséder une forte expérience dans des activités telles que le déploiement de produit, les outils associés (ansible), le suivi de la production avec des tâches d’administration système, point d’entrée des exploitants - Architecture : il doit avoir les compétences techniques pour comprendre voire définir une architecture - API Management : une expérience sur ce domaine (WSO2) est nécessaire pour mieux appréhender les nouveaux sujets - Gestion des identités - Il est en charge de l’adressage technique des sujets - Transfert de compétences : il doit assurer la montée en compétence de son adjoint. Environnement technique du projet : Java 8/11,Spring, CXF, log4j, JUNIT 5

Freelance

Mission freelance
Architect KAFKA confluent

Cherry Pick
Publiée le
Apache Kafka
Architecture

12 mois
600-650 €
Paris, France

Dans le cadre de la création de l’équipe streaming basé sur la technologie KAFKA Confluent Cloud, nous recrutons un(e) Système Architecte Kafka confluent Cloud. En tant qu'Architecte Kafka sur Confluent, vous serez responsable de la conception et de l'implémentation des architectures de streaming de données à grande échelle en utilisant Apache Kafka et la plateforme Confluent. Vous travaillerez étroitement avec les équipes de développement et d'opérations pour assurer la scalabilité, la sécurité et l'efficacité des solutions de données. Responsabilités principales Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent. Ce rôle implique : L'accompagnement des équipes clientes IT dans la mise en œuvre des solutions liées à Kafka L’encadrement d’équipes techniques sur les projets L’accompagnement de nos équipes sur leur montée en compétences L’écriture des spécifications techniques en amont de la réalisation La validation des chiffrage projets Gestion de back log utilisant la méthode adaptée Le travail en étroite collaboration avec l’équipe IT Métier pour délivrer les projets selon les priorités stratégiques partagée Et, surtout, et créer un cadre de travail harmonieux et valoriser le travail des équipes de développements pour fédérer les meilleurs talents Expérience attendue Expérience dans le développement opérationnel de flux sous KAFKA Expérience significative sur la plateforme Confluent Expérience significative dans un environnement Agile/ Hybrid Expérience de management d’équipes de développeurs et de suivi du delivery Test unitaire/Compliance /Performance Documentation & procédures afin de facilité au support le Monitoring technico fonctionnel des interfaces/Jobs Expérience SAP (ECC & S4/HANA) serait apprécié Coordination avec l’équipe de DEV afin de délivrer un support N3.

CDI
Freelance

Offre d'emploi
Data Analyst H/F

CAPEST conseils
Publiée le
Apache Airflow
Python
Snowflake

12 mois
10k-185k €
Paris, France

Afin de renforcer l’équipe DATA, nous recherchons un.e Data Analyst. Le Data Analyst travaille en étroite collaboration avec les équipes métiers et techniques, afin de leur fournir les données nécessaires à une prise de décision éclairée. Vos missions : · Répondre à des questions métiers, de façon ad hoc via des requêtes et extractions ou bien de façon plus pérenne via la création de tableaux de bord · Concevoir, développer, tester et maintenir les pipelines de transformations des données · Construire les transformations qui nous permettront de partager des données de qualité aux différentes directions/filiales · Collaborer avec les métiers afin de concevoir de nouveaux reportings · Collaborer avec l’équipe Data Science afin de les aider à la conception de leurs modules d’intelligence artificielle. · Être force de proposition pour l’amélioration continue des processus existants · Vous connaissez le SQL et vous êtes capable d’écrire des requêtes complexes. · Vous avez une appétence pour l’analyse de données et de Data Visualization · Vous avez un fort esprit analytique · Vous êtes clair et concis et vous savez vulgariser vos connaissances auprès du métier Bonus : · Vous connaissez Snowflake · Vous avez eu une expérience avec Airflow · Vous savez utiliser Git · Vous avez de l’expérience avec des langages de programmation comme Python

Freelance
CDD
CDI

Offre d'emploi
DATA ANALYSIS - BA H/F

SMARTPOINT
Publiée le
Agile Scrum
Apache Hive
PL/SQL

1 an
10k-60k €
Paris, France

la prestation consiste à contribuer à/au-x- :  La documentation des spécifications fonctionnelles sur la base d'une expression de besoins validée et priorisée par le PO  Analyses et documentation des mappings entre les applications sources et le modèle d’entreprise tel que défini dans le projet  Analyses et documentation des mappings entre le modèle local et le model central.  L'évaluation des impacts et définition des moyens les plus pertinentes, leurs coûts et les risques/contraintes associées  Spécifications en user stories détaillées intégrant des critères d’acceptance et des cas de tests  L'assistance aux divers changements (analyse d'impact, remontées et support conduite de changement des utilisations, démarrage, déploiement)  La consolidation et la centratlsation des documentations techniques et fonctionnelles  La remontée des alertes  L'analyse des impacts des changements sur les niveaux de services (SLA /OLA)  La définition des scenarios BDD en assistance avec les différents Utilisateurs et/ou Bénéficiaires  La stratégie et L'assistance/support aux divers tests fonctionnels  L'intégration du produit dans l’architecture globale telle que définie par les différents Utilisateurs et/ou Bénéficiaires  La pérennité des pratiques Agiles au sein de la Feature / Agile Entity  Cérémonies de la Feature Entity FT / Entity Agile en étant axé sur les objectifs de l'itération, sa prévisibilité, sa vélocité…  L'atteinte des objectifs de l’entité tant sur le delivery qu'en production  L'assistance et résolution des problèmes Expertises :  Monde Bancaire et du fonctionnement des grandes organisations  Analyses Métier  Data Mapping et transformation complexe  Environnement anglophone  Outils potentiellement utilisés dans le cadre de la prestation: Business intelligence (Microsoft Power BI), SQL  Méthodologie : Agile Les livrables attendus sont :  Un produit fonctionnel en ligne avec les spécifications définies et validées  Un backlog Produit maintenu dans JIRA avec des user stories  documentées avec les critères d acceptances  estimées en terme d’étude ou de dev ( story points)  Des users stories liées à l’amélioration continue définie lors de rétrospection ou d’évaluation des pratiques agiles  Des documentations d’études présentant les moyens pertinents répondant aux spécifications métiers  Une documentation d'architecture fonctionnelle (et technique en s’appuyant sur l’entité) des uses cases, des collectes et traitements  Une documentation centralisée permettant de retrouver facilement les règles métiers implémentées  Une roadmap à court/moyen terme maintenue et documentée  Suivi et gestion des cérémonies agiles pour chaque Sprints( Sprint Planning , Back log refinement , Sprint Review, Démo, rétrospection , 3 Amigos) Les expertises attendues pour réaliser cette prestation sont listées ci-après :  Agile Scrum  Hive  PL SQL  PostGreSQL

Freelance

Mission freelance
Ingénieur de production –OBSO PAIEMENT N4

KEONI CONSULTING
Publiée le
Apache
Apache Tomcat
Linux

12 mois
100-370 €
Paris, France

Contexte Objectif global : Accompagner les équipes dans le cadre du projet Obsolescence du département Paiement Description détaillée : L'objectif est d'intégrer rapidement les équipes pour les aider/soulager dans le suivi des actions pour remédier l'obsolescence du périmètre. Il sera impératif d'établir des plannings de remédiation et les suivre, remonter les alertes et points de blocage, et d'assurer les échanges entre Spécificités pour les tests techniques : - Prise de connaissance du changement et de son contexte technique - Complète le plan de tests proposé - Prépare les infrastructures de tests - Valide les documents et les procédures à destination de la production - Réalise les différents tests techniques - Analyse les résultats - Contribue au diagnostic en cas de dysfonctionnement - Rédige les rapports détaillés qui aideront à la décision du GO/NOGO pour la mise en production - Constitue ou met à jour le patrimoine de tests réutilisable pour les intégrations ultérieures - Effectue le reporting vers le Responsable Intégration - Contribue à l'amélioration continue - Industrialise les tests techniques récurrents (automatisation, outillage?) Le livrable est : Remédier à l'obsolescence des serveurs, bases de données et briques techniques du parc du département Paiement.

Freelance

Mission freelance
Architecte Système Kafka Confluent Cloud

Montash
Publiée le
Apache Kafka
Java
JIRA

6 mois
100-3k €
Paris, France

Responsabilités principales : Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent. Outils : KAFKA toolset Programmation et scripting (Java, PL/SQL, SQL, Unix, etc) Job Scheduling / Ordonnanceur (OpCon) Database (SQL Server) Gestion de la demande et service incident (JIRA / SNOW)

Freelance

Mission freelance
Ingénieur Système Linux / AWS - (H/F) - 75

Mindquest
Publiée le
Ansible
Apache Tomcat
AWS Cloud

6 mois
100-480 €
Paris, France

Bonjour, Je recherche un Ingénieur Système Linux / AWS afin de renforcer l'équipe infra composée de 8 personnes à Paris (75). Mission : Gérer les problèmes et incidents Linux & Kubernetes (version 1.28) Gérer la partie des projets d’infrastructure nécessitant le provisonning de server Linux Gérer le vulnerability management sur les servers Linux quelque soit le datacenter Gérer les projets de déplacement d’application entre datacenters Gérer le cycle de vie des servers Linux Gérer des projets attrayant à la sécurité (ex mettre l’intranet en HTTPS) Reporter taches et projets Contraintes : Respecter les process du groupe, incident, problème, change, démarche projets, guide d’installation Des taches de compliance, peuvent être demandées, comme à toute la DSI, pour le respect des réponses d’audit, et de règlementation Des opérations de maintenances peuvent être effectuées en nocturne ou le week-end

Freelance

Mission freelance
Systeme Architecte Kafka Confluent Cloud

EMPIRIC
Publiée le
Apache Kafka
Cloud
Confluence

12 mois
100-1 070 €
Paris, France

Notre client dans le sectuer du Retail recherche un Sycteme Architecte Kafka pour une mission freelance de Longue duree (12 mois) . Dans le cadre de la création de l’équipe streaming basé sur la technologie KAFKA Confluent Cloud. Responsabilités principales Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance... Compétences et qualifications Diplôme en informatique, ingénierie ou domaine connexe. Expérience approfondie avec Apache Kafka et la plateforme Confluent. Expérience démontrée en architecture de solutions de données à grande échelle

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous