Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Tomcat à Paris

Votre recherche renvoie 37 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Suivant
Freelance

Mission freelance INTEGRATEUR APPLICATIF TOMCAT / APACHE EXPERIMENTE

PROPULSE IT
Publiée le

Paris, France

PROPULSE IT accompagne ses clients grands comptes et PME dans la mise en œuvre des projets It et digitaux. PROPULSE IT est un réseau de consultants à forte valeur ajoutée, complètement associé à notre démarche qualité de suivi des besoins et projets de nos clients. A ce jour, le réseau de freelance PROPULSE IT comporte plus de 18000 consultants sur toute la France, et couvre l'ensemble des besoins IT et digitaux. En constituant ce réseau par cooptation de clients ou de consultants, nous avons privilégié la constance dans le savoir-faire technique et le savoir-être, pour devenir un véritable partenaire privilégié de nos clients. Parallèlement, nous avons développé un réseau de partenaires sélectionnées pour leur expertise technique, et l'adhésion aux valeurs de notre entreprise. Aujourd'hui PROPULSE IT est une société en pleine croissance organique, Champion de la Croissance du journal Les Echos 4 années consécutives. Ce développement s'appuie sur la qualité et la pérennité des missions réalisées. La satisfaction client est ainsi liée à l'épanouissement des consultants ! Alors, n'hésitez pas à postuler ! Pour un démarrage sous un mois environ, nous recherchons un(e) intégrateur technique d'application freelance très expérimenté pour intégrer les application web chez notre client, en lien avec la production et les équipes de développement. Très Important : le profil recherché n'est pas un ingénieur de production qui gère des procédures d'intégration applicative mais un consultant habitué à être intercalé entre les équipes de développements et la production et qui prépare les documents d'installation. de plus il doit être expert et parfaitement autonome avec beaucoup d'expérience sur Tomcat / Apache. Pas de Devops dans le périmètre. Astreintes possibles soir et week-end - répartition selon l'équipe Livrables sont : - Dossier d'installation - Composants applicatifs -Configuration applicative Description détaillée - Capable de configurer/installer tomcat manuellement sur windows ou linux - Capable d'analyser les logs tomcat en cas d'erreur - Capable de configurer/installer manuellement un serveur httpd - Capable d'analyser les logs httpd en cas d'erreur - Savoir évoluer dans un environnement linux - Récupération des livrables de développement sur les outils de Gestion de configuration (SVN, GIT) - Installation des packages sur les plateformes de tests - Qualification des packages sur les plateformes de tests selon les normes en vigueur - Vérification de la conformité des applications vis à vis des contraintes de production - Rédaction et validation des documents d'installation et d'exploitation - Rédaction et exécution des plans de tests techniques - Assistance et support technique à la mise en production - Communication avec l'équipe projet - Reporting Compétences techniques : - Middleware : TomCat, Apache - Expert - Impératif - Systèmes : CentOs, RedHat - Expert - Important -Système : Windows - Confirmé - Serait un plus Connaissances linguistiques - Français Courant (Impératif)

Freelance

Mission freelance Ingénieur de production – OBSO AUDIT BCE- N4

KEONI CONSULTING
Publiée le
Apache
Apache Tomcat
Linux

12 mois
100-400 €
Paris, France

CONTEXTE Objectif global : Accompagner les équipes dans le cadre du projet Obsolescence du département Paiement MISSIONS : Nous recherchons un ingénieur de production pour compléter les équipes ProdApp .L'objectif est d'intégrer rapidement les équipes pour les aider/soulager dans le suivi des actions pour remédier l'obsolescence du périmètre. Il sera impératif d'établir des plannings de remédiation et les suivre, remonter les alertes et points de blocage, et d'assurer les échanges entre Paris et Porto. Anglais obligatoire. Spécificités pour les tests techniques : - Prise de connaissance du changement et de son contexte technique - Complète le plan de tests proposé - Prépare les infrastructures de tests - Valide les documents et les procédures à destination de la production - Réalise les différents tests techniques - Analyse les résultats - Contribue au diagnostic en cas de dysfonctionnement - Rédige les rapports détaillés qui aideront à la décision du GO/NOGO pour la mise en production - Constitue ou met à jour le patrimoine de tests réutilisable pour les intégrations ultérieures - Effectue le reporting vers le Responsable Intégration - Contribue à l'amélioration continue - Industrialise les tests techniques récurrents (automatisation, outillage?)

Freelance
CDI

Offre d'emploi Ingénieur système linux (Redhat)

Opstim
Publiée le
Apache Kafka
Puppet
Red Hat Linux

1 an
50k-70k €
Paris, France

Ingénieur système Linux (RedHat) (H/F) A PROPOS : Notre client est spécialisé dans l’asset management. L’entreprise propose à des entreprises d’investir en collectant des données quantitatives, systémique. DESCRIPTION DU POSTE : En tant qu'Ingénieur Système Linux (RedHat), vous rejoindrez l'équipe System Build de l’entreprise dans le but d’intervenir sur l'optimisation, la configuration et le déploiement de serveurs physiques ou virtuels Linux (CentOS/Redhat 9) en fonction des besoins, des équipes métiers. VOS MISSIONS : Configuration du cluster Apache Kafka pour le traitement de flux de données en temps réel. Automatisation des déploiements à l'aide de Puppet pour assurer la cohérence et l'efficacité des configurations. Gestion de projets techniques liés à l'infrastructure système et au déploiement de nouvelles technologies. Évolution et maintenance des outils et services existants pour répondre aux besoins croissants de l'entreprise. Gestion et optimisation du stockage, notamment dans des environnements de calcul haute performance (HPC), en collaboration avec les équipes spécialisées. Technologies utilisées : APACHE KAFKA, Linux (CENTOS), PUPPET , ANSIBLE, DOCKER, GIT, JENKINS, NAGIOS, GRAFAN, PYTHON, BASH, VMWARE, VSPHERE, NETAPP, SLURM, LUSTRE, HPC, NFS

Freelance
CDI

Offre d'emploi Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance
CDI

Offre d'emploi Expert Kafka

KLETA
Publiée le
Apache Kafka
DevOps

3 ans
10k-85k €
Paris, France

Au sein de l'équipe, certaines de vos responsabilités seront : Gestion et développement de plusieurs clusters Kafka on premise Forte volumétrie de données (+35k messages / seconde) Monitorer les différents clusters Questionnement d'une possible migration vers Confluent Cloud, à challenger Ensemble de la palette DevOps (chaîne CI/CD, Jenkins, Ansible, Gitlab...) Capacité à travailler dans un contexte international Anglais courant mandatory ... Au plaisir de pouvoir échanger avec vous concernant l'opportunité.

CDI
Freelance

Offre d'emploi Data Engineer Databricks

KLETA
Publiée le
Apache Spark
Azure
Azure Data Factory

3 ans
10k-68k €
Paris, France

Conception de l'architecture de données : Concevoir et mettre en œuvre une architecture de données robuste et évolutive sur la plateforme Databricks. Définir les schémas de données, les pipelines ETL et les flux de données pour répondre aux besoins métier. Développement de pipelines ETL : Développer des pipelines ETL pour extraire, transformer et charger les données à partir de sources variées vers le lac de données Databricks. Utiliser des outils comme Apache Spark pour traiter de gros volumes de données de manière efficace et distribuée. Optimisation des performances : Optimiser les requêtes Spark pour améliorer les performances des traitements de données. Utiliser des techniques telles que le partitionnement, la mise en cache et la gestion de la mémoire pour optimiser l'exécution des jobs Spark. Gestion des données en temps réel : Mettre en place des pipelines de traitement de données en temps réel à l'aide de technologies comme Apache Kafka et Apache Spark Streaming. Traiter les flux de données en continu pour fournir des analyses en temps réel et des insights instantanés. Gestion de la qualité des données : Mettre en place des contrôles de qualité des données pour garantir l'intégrité et la fiabilité des données. Développer des processus de nettoyage, de normalisation des données pour maintenir leur qualité. Sécurité des données : Mettre en place des mesures de sécurité pour protéger les données sensibles et confidentielles. Utiliser des fonctionnalités de sécurité avancées de Databricks telles que le chiffrement des données et la gestion des accès pour garantir la confidentialité et l'intégrité des données. Automatisation des workflows : Automatiser les workflows de traitement de données en planifiant et en orchestrant les jobs ETL à l'aide de Databricks Jobs ou d'autres outils de planification. Mettre en place des déclencheurs pour déclencher des actions en réponse à des événements spécifiques sur la plateforme de données. Surveillance et gestion des opérations : Surveiller les performances et la santé de la plateforme de données en utilisant des outils de surveillance comme Databricks Metrics et Databricks Monitoring. Gérer les incidents et les problèmes opérationnels en assurant une disponibilité continue des services de données. Collaboration avec les équipes métier : Travailler en étroite collaboration avec les équipes métier pour comprendre leurs besoins en matière d'analyse de données et de reporting. Fournir un support technique et des conseils pour aider les utilisateurs à accéder et à analyser les données sur la plateforme Databricks. Veille technologique : Suivre les évolutions dans le domaine du Big Data et du traitement des données pour intégrer les nouvelles technologies et les meilleures pratiques dans la plateforme de données Databricks.

Freelance
CDI

Offre d'emploi Big Data Engineer

KLETA
Publiée le
Apache Kafka
DevOps
Elasticsearch

3 ans
10k-70k €
Paris, France

Environnement Technique :  Tous composants de la distribution HDP 2.6.5 (Hortonworks)  Tous composants de la distribution HDP 3.1.x (Hortonworks)  Technologie KAFKA  Compétences de développements en Shell, Java, Python  Moteur Elasticsearch incluant les fonctionnalités soumises à licence  Docker, Kubernetes, système distribué sur Kubernetes  Infrastructure as Code  DevOps : Ansible, Git, Nexus, Jenkins, JIRA, etc...  Os Linux, Kerberos, SSL, Ldap, RDBMS, SQL Mandatory :  Tous les composants des distributions Hadoop  Tous les composants de la suite Elasticsearch : Kibana, Logstash, suite beats  Administration de composants big data

Freelance
CDI

Offre d'emploi DataOps ELK

KLETA
Publiée le
Ansible
Apache Kafka
Elasticsearch

3 ans
10k-75k €
Paris, France

- Conception & définitions des stratégies et des fonctionnalités du service de log management; - Implémentation & enrichissement de l’automatisation du déploiement des solutions; - Déploiement (via ansible); - Maintien en conditions opérationnelles des plateformes; - Optimisation et sécurisation des composants (perf/sécurité...); - Gestion de l’ingestion des flux de données & traitement des erreurs éventuelles; - Création de l’outillage nécessaire à la bonne administration; Stack : ELK, Ansible, Kafka, Linux (+) Python

Freelance

Mission freelance DevOps (H/F)

CTG
Publiée le
Apache Spark
DevOps
Jenkins

3 ans
100-690 €
Paris, France

En tant que DevOps vous travaillerez en direct avec le Team Lead, les business analystes et le PO. Vous aurez à cœur de comprendre le business model. Les projets à adresser visent le développement et maintenance de modules de gestion des données de consommation (intégration, transformation et exposition), de contrats, et leur représentation à travers différentes interfaces. Vos activités principales seront : Conception, mise en place (scripts versionnés dans GIT, paramétrage, TDD et tests d'intégration) et livraison en production des applications dans les règles de l'art - Contribution aux Agile de l'entité dans le respect du framework Scrum (Daily meeting, Review, Rétrospective, Sprint Planning), - Maintien de la documentation technique et fonctionnelle - L'amélioration continue des processus et bonnes pratiques de développement (au sein de l'entité, mais aussi des entités du Socle BigData) - Support de production

Freelance
CDI

Offre d'emploi Lead développeur PHP Laravel / VueJS / Kafka H/F

HR-TEAM
Publiée le
Apache Kafka
Laravel
PHP

18 mois
50k-90k €
Paris, France

Dans le cadre d'un accroissement d'activité, nous recrutons un lead développeur PHP / Laravel / VueJS / Kafka H/F pour intégrer la DSI. Vos missions : - Suivre au quotidien la bonne prise en compte des principes établis, et de manière générale le respect des bonnes pratiques - Le cas échéant, aider les développeurs - Donner aux POs tous les éléments pour prioriser la backlog en conséquence - Compléter si besoin les consignes à respecter - Adapter la chaîne de CI si nécessaire - Suivre, encadrer et contrôler le travail des équipes off-shore - Prendre connaissance des nouveaux besoins et assister les POs dans la qualification et les macro-estimations. - Détecter des difficultés particulières, imaginer des esquisses de solution, se rapprocher de l’architecte pour envisager les options - Le cas échéant, effectuer la conception détaillée des solutions - Suivre l’exploitabilité et le comportement des applications - Surveiller régulièrement, avec les POs, le comportement des applications avec les outils disponibles - Le cas échéant, proposer/réaliser des dashboards supplémentaires, ou remonter le besoin d’amélioration - Rester en contact régulier avec les intégrateurs et les ops - Suivre et traiter les merge requests - Rester à l’écoute des pratiques et des technologies qui émergent - Contribuer, avec l’architecte et les autres tech leads, à l’animation technique des équipes - Concevoir et réaliser des storiesw - Participer au recrutement des développeurs

Freelance

Mission freelance Ingénieur de production - applications Projet PARME N4

KEONI CONSULTING
Publiée le
Apache
Java

12 mois
100-400 €
Paris, France

Contexte Objectif global : Intégrer Les applications Projet PARME MISSIONS : Environnement et contexte. La mission se déroulera au sein de la Production Applicative Suivi des Echanges qui est en charge de bout en bout de la production,de la performance et de la disponibilité des applications Paiement – SI Paiement de masse. Le SI est majoritairement composé d’applications gérant les échanges des paiements de masse de type MINOS, SEPA et Monétique, … entre le SI des banques et les systèmes de place (Core, step2). L’activité de l’entité est centrale au sein des équipes informatiques : infrastructure, études, sécurité, gouvernance. Particulièrement sur les nouvelles applications mises en oeuvre dans le cadre du Programme Paiement Groupe. La mission a pour enjeux la construction de l'autoroute des paiements pour le compte du client. Mission riche sur les enjeux métier, l’expérience d’exploitant et ses relations humaines. La mission consiste à, dans le respect des processus interne et des engagements pris avec le métier Paiement : A) Dans le cadre la gestion MCO des applications : - Installe, déploie, administre, exploite sur un ou plusieurs sites la solution validée et qualifiée en amont. - Assure le bon fonctionnement des systèmes d'information et des infrastructures en prenant en compte la disponibilité des ressources, la correction des incidents et le maintien en condition. - Installe et met en œuvre les nouveaux composants (applicatifs, techniques ou infrastructures) avec outils les environnements du SI et s'assurer de leur bon fonctionnement. - Diagnostiquer et traiter les incidents sur le périmètre confié. - Participer aux actions d'évolutions et de maintien en condition opérationnelle en veillant à leur qualité et propose des améliorations pour optimiser les ressources existantes et leur organisation. - Gérer les ressources du SI (en général) et vérifie leur disponibilité B) Dans le cadre des Projets , la mission consiste à, dans le respect des processus interne et des engagements pris avec le métier Paiement : - Analyser, cadrer et traiter les travaux d’intégration des évolutions des applications (d’origine métier ou infrastructure). - Veiller au respect des jalons et être garant d’avoir maîtrisé l’impact des interventions sur la qualité de service et dans le respect des exigences d’exploitation. - Traiter les demandes de déploiement des composants applicatifs, coordonner les acteurs et assurer la communication en cours d’opération, - Documenter les configurations, maintenir à jour toutes les documentations relatives à l’exploitation des applications et rédiger les consignes destinées aux différents centres d’expertises impliqués dans la délivrance du service.

CDI

Offre d'emploi DevOps Azure H/F

GREEN LINKS
Publiée le
Apache Maven
Azure
Docker

10k-75k €
Paris, France

En tant que Développeur(se) DevOps Azure H/F, vos missions seront les suivantes : - Concevoir et mettre en œuvre des infrastructures cloud avec Microsoft Azure, en utilisant des outils tels que Terraform, Docker, Maven, Kubernetes, ainsi que les services Azure AKS, Storage Account, Front Door, Key Vault, Container Registry. - Assurer la maintenance en condition opérationnelle des infrastructures cloud existantes. - Participer activement à l'amélioration des processus d'automatisation, notamment en ce qui concerne la mise en place de pipelines CI/CD.

Freelance
CDI

Offre d'emploi Expert Nifi

OMICRONE
Publiée le
Apache
Java

2 ans
10k-45k €
Paris, France

Dans le cadre du renforcement de notre équipe IT, nous sommes à la recherche d'un Expert NiFi passionné et expérimenté pour rejoindre notre entreprise dynamique et innovante. Missions : Conception, déploiement et optimisation des flux de données avec NiFi. Assurer la sécurité et la fiabilité des données traitées. Collaborer avec les équipes de développement pour intégrer les meilleures pratiques de traitement des données. Fournir un support technique et une expertise pour toutes les questions relatives à Apache NiFi. Participer activement à l'amélioration continue des processus et outils internes. Profil recherché : Expérience significative avec NiFi. Bonne connaissance des principes de l'intégration de données et de l'architecture des systèmes d'information. Compétences en programmation (Java, Python, etc.) sont un plus. Capacité à travailler en équipe et à communiquer efficacement. Esprit d'analyse et de résolution de problèmes. Maîtrise de l'anglais technique. Nous offrons : Un environnement de travail stimulant au sein d'une équipe dynamique et collaborative. Des projets variés et innovants. Si vous êtes motivé(e) à relever ce défi et à faire partie de notre aventure, envoyez nous votre CV

Freelance

Mission freelance Data Engineer (H/F)

CTG
Publiée le
Apache Spark
Finance
Kubernetes

3 ans
100-600 €
Paris, France

En tant que Data Engineer, vous travaillerez en direct avec le Team Lead, les business analystes et le PO. Vous aurez à cœur de comprendre le business model. Les projets à adresser visent le développement et maintenance de modules de gestion des données de consommation (intégration, transformation et exposition), de contrats, et leur représentation à travers différentes interfaces. Vous interviendrez aussi bien sur de l'analyse de besoin, design, développement, support, maintenance corrective et évolutive. Vous travaillerez dans une équipe auto-organisée en mode agile avec un Product Owner et 3 BA (Business analystes). Les activités de cette équipe couvrent l'analyse, le développement, les tests, le déploiement et le support. Vos activités principales seront : · La montée en compétence sur les process, produits et applications existantes · La compréhension du business et la réalisation de développements en pair avec un responsable fonctionnel · L’analyse et spécifications des besoins et algorithmes · Implémenter les corrections et évolutions en couvrant tous les aspect conception, codage, sécurité, gestion des erreurs, évolutivité, scalabilité, revues de code, testing, intégration continue, ...- · Fournir des services aux utilisateurs avec le plus haut niveau de satisfaction. · Fournir des estimations de charge et délais · Soutenir l'amélioration continue des services. Identifier les goulots d'étranglement et les bugs et définir des solutions à ces problèmes · Rédiger et mettre à jour les documentations · Proposer des solutions innovantes répondant aux problématiques fonctionnelles et techniques. · Travailler en étroite collaboration avec les BA, les utilisateurs, architectes et autres équipes de développement. · Fournir une communication efficace et opportune aux différentes équipes concernées

Freelance
CDI

Offre d'emploi Développeur Golang (h/f)

HR-TEAM
Publiée le
Apache Kafka
C/C++
Go (langage)

12 jours
64k-70k €
Paris, France

Au sein de la DSI et en particulier de l’équipe Backend Temps Réel, le Développeur Backend Senior participe à la conception, au développement et aux adaptations de modules ou d’applications pour répondre aux besoins des utilisateurs. Les missions principales sont les suivantes : • Développer et tester de nouvelles fonctionnalités sur les serveurs Backend Temps Réel permettant de délivrer le service aux utilisateurs, • Assurer le paramétrage, l’optimisation, la mise en place de la maintenance et l’évolution des fonctionnalités existantes. • Développer de nouvelles interfaces de restitution de données statiques et temps réel. • Réaliser le développement de certaines fonctionnalités temps réel, et en particulier de leur algorithmie. • Estimer, communiquer et respecter les temps de développement des fonctionnalités et correctifs. • Écrire du code de qualité, efficace, testable, testé, maintenable, réutilisable et documenté. • Force de proposition à l’amélioration des pratiques, processus et standards de développement interne.

Freelance

Mission freelance Ingénieur Etudes et Développement Python Airflow H/F

CTG
Publiée le
Apache Airflow
Docker
Flask

3 ans
100-600 €
Paris, France

Les principales activités sont : · Conception et mise en œuvre de services en Python · Développement de processus automatisés en utilisant la technologie Airflow · Support Technique des applications et des outils développés · Automatisation des processus de build, de test et de déploiement (intégration continue) · Rédiger et compléter les spécifications techniques · Estimer la charge · Réaliser la solution technique et la documenter · Assurer le déploiement et les tests sur les environnements hors production · Assurer la préparation à la mise en production

Suivant

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !