Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Tomcat à Paris

Votre recherche renvoie 40 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Systeme Architecte Kafka Confluent Cloud

EMPIRIC
Publiée le
Apache Kafka
Cloud
Confluence

12 mois
100-1 070 €
Paris, France

Notre client dans le sectuer du Retail recherche un Sycteme Architecte Kafka pour une mission freelance de Longue duree (12 mois) . Dans le cadre de la création de l’équipe streaming basé sur la technologie KAFKA Confluent Cloud. Responsabilités principales Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance... Compétences et qualifications Diplôme en informatique, ingénierie ou domaine connexe. Expérience approfondie avec Apache Kafka et la plateforme Confluent. Expérience démontrée en architecture de solutions de données à grande échelle

Freelance

Mission freelance
Architecte Kafka confluent Cloud

ASENIUM
Publiée le
Apache Kafka

6 mois
610-800 €
Paris, France

Pour l'un de nos clients finaux sur Paris, nous sommes à la recherche d'un Système Architecte Kafka confluent Cloud. Démarrage dès que possible pour long terme. En tant qu'Architecte Kafka sur Confluent, vous serez responsable de la conception et de l'implémentation des architectures de streaming de données à grande échelle en utilisant Apache Kafka et la plateforme Confluent. Vous travaillerez étroitement avec les équipes de développement et d'opérations pour assurer la scalabilité, la sécurité et l'efficacité des solutions de données. Responsabilités principales Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent. Compétences et qualifications Diplôme en informatique, ingénierie ou domaine connexe. Expérience approfondie avec Apache Kafka et la plateforme Confluent. Expérience démontrée en architecture de solutions de données à grande échelle. Maîtrise des langages de programmation tels que Java, Scala ou Python. Connaissance approfondie des pratiques de sécurité des données et des architectures microservices. Excellentes compétences en communication, en présentation et en leadership. Ce rôle implique : L'accompagnement des équipes clientes IT dans la mise en œuvre des solutions liées à Kafka L’encadrement d’équipes techniques sur les projets L’accompagnement de nos équipes sur leur montée en compétences L’écriture des spécifications techniques en amont de la réalisation La validation des chiffrage projets Gestion de back log utilisant la méthode adaptée Le travail en étroite collaboration avec l’équipe IT Métier pour délivrer les projets selon les priorités stratégiques partagée Et, surtout, et créer un cadre de travail harmonieux et valoriser le travail des équipes de développements pour fédérer les meilleurs talents

CDI

Offre d'emploi
Data Scientist orienté Engineering - Partenaire Tech pour les Assureurs – Full remote (H/F)

EASY PARTNER
Publiée le
Apache Spark
AWS Cloud
CI/CD

65k-75k €
Paris, France

Contexte du poste : Nous sommes une entreprise innovante dans le secteur des technologies appliquées à l'assurance, basée dans la région parisienne. Notre mission est d'accompagner les assureurs dans la gestion et l'analyse de leurs risques, en utilisant des solutions SaaS avancées. Nous travaillons sur des projets variés visant à optimiser la souscription d'assurances et la gestion de portefeuille grâce à l'intelligence artificielle. Afin de soutenir notre croissance rapide et nos projets d'expansion internationale, nous recherchons un(e)Data Scientist orienté Engineering pour renforcer notre département Insights. Missions : - Concevoir et implémenter des modèles de Machine Learning pour répondre aux besoins business complexes. - Gérer le cycle de vie complet des modèles, de la conceptualisation à la mise en production. - Être le garant de la qualité du code au sein du département Insights, mettre en place des bonnes pratiques de développement. - Conduire des analyses ad hoc pour éclairer les décisions stratégiques. - Participer à des projets d'innovation et d'expérimentation de nouvelles technologies.

Freelance

Mission freelance
Dataiku

STHREE SAS pour COMPUTER FUTURES
Publiée le
Apache Spark
Dataiku
Hadoop

3 ans
100-500 €
Paris, France

Nous recherchons pour un de nos clients un Data engineer avec deux ans d’éxpériences à minima sur daitaiku , Ce collaborateur doit maitriser les technos comme Python stack technique du besoin : Python hadoop spark 2 ans a fond de dataiku Localisation : IDF, metro , Télétravail : 2 jours de télétravail Démarrage : asap Tjm : dépend de l’expérience, entre 500 et 600max Quelqu’un qui connait depuis 5 ans la solution NB : Ce besoin n'est pas encore exprimé chez notre client, c'est assez urgent nous pouvons faire passer les entretiens asap ainsi que le démarrage

Freelance

Mission freelance
Data Engineer (H/F) - Paris

Mindquest
Publiée le
Apache Kafka
Apache Spark
Cassandra

6 mois
700 €
Paris, France

Ingestion des données sources via NIFI dans des tables de travail Cassandra ou en parquet sur AWS S3 Développement des Traitements Spark/Scala en lots des données sources ingérées Traitement au quotidien des nouvelles données clients (ajout nouveaux clients Enrichissement au quotidien des données des clients avec des fichiers de scoring et de segmentation (fournis par un autre projet) Traitement toutes les 8 heures des nouvelles ventes avec notamment la mise à jour des ventes auditées ainsi que l’enrichissement des ventes avec les données des clients Ingestion toutes les 8 heures des données des ventes dans Druid Ajout et mise à jour des nouveaux produits des marques avec leur description, leur taille, leurs stocks …. Traitement en temps réel via Kafka/Spark des données sources fournies par les marques dans les topics dédiés : Enrichissement des données des produits des différentes marques en temps réel avec les informations des stocks, des prix Mise à jour temps réel des données des ventes Mise à jour temps réel des données clients Mise à jour des commandes clients Anonymisation des informations clients (RGPD) Mise à jour des stocks disponibles en magasin Exposition des informations des produits en transit (magasin d’origine, magasin destination) afin que les utilisateurs de Luce puissent estimer leurs dates de livraison Traitement et Stockage des données dans Apache Solr et Cassandra Exposition des données traitées dans une API nodejs à travers Cassandra et Solr Ingestion des données des ventes et commandes sur Apache Druid via NIFI Mise en place de tests automatiques afin d’éviter les régressions suite aux nouvelles évolutions Développement de tests unitaires avant déploiement Garantie de la cohérence des données Planification des heures de lancement des différents traitements afin d’éviter d’avoir des données corrompues Déploiement des différents traitements Spark via Jenkins/Livy dans les environnements dédiés Monitoring des Jobs Spark via Yarn et Spark UI avec un système d’alerting via Slack en cas de problème durant les traitements Mise en place de logs qui seront ensuite déposés dans ElasticSearch afin de faciliter la résolution et la recherche des bugs Optimisation des différents traitements Data (optimisation du code Spark, des traitements NIFI) Migration de tous nos workflows NIFI, traitements de données en lots/ temps réel Spark sur Amazon AWS Migration de l’api ainsi que des tables et collections utilisées dans Cassandra Environnement sur AWS Ordonnancement des tâches via Airflow/Python, gestion des différentes dépendances entre les traitements Mise à jour d’une librairie Airflow pour le lancement de nos Jobs Sparks ainsi que le monitoring (vérification des statuts des traitements). Mise en place des capteurs (sensors) nécessaires pour le suivi des statuts des traitements Mise à jour d’une librairie générique Spark pour les jobs d’ingestion via parquet/csv/json

Freelance
CDI

Offre d'emploi
Ingénieur de production

HN SERVICES
Publiée le
Apache
CFT (Cross File Transfer)
Control-M

2 mois
10k-41k €
Paris, France

Nous recherchons un ingénieur de production pour les missions suivantes : - Pilotage projet (gestions des ressources, copils, reporting) - Prise en charge de l’intégration technique des solutions existantes et nouvelles. - Exploitation des plates-formes techniques en assurant le maintien en conditions opérationnelles. - Mise en œuvre des réponses aux audits externes et aux mises en conformités internes - Applications de la politique de sécurité des SI La mission proposée peut être soumise aux horaires décalés (intervention en HPO notamment) ainsi qu’à une participation au dispositif d’astreinte hebdomadaire et week-end. Il est impératif de pouvoir travailler en anglais (oral et écrit). - Gérer des incidents critiques : communication, diagnostic, correction, coordination d’experts en cellule technique. - Contact avec des cellules supports éditeurs. - Gérer des problèmes (incident récurrent avec plan d’action sur moyen/long terme) - Analyser, Gérer, Piloter des changements. - Supervision, veille technologique - Coordonner des multi-intervenants. - Réaliser l’interface entre les experts techniques et le support Editeur dont vous êtes l’interlocuteur privilégié. - Rédiger les manuels d’exploitation : procédures, sauvegardes, supervision, …

Freelance
CDI

Offre d'emploi
Développement backend SQL/clickhouse

Digistrat consulting
Publiée le
Apache
Big Data
DevOps

3 ans
40k-60k €
Paris, France

Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un développeur backend SQL/clikhouse. Périmètre fonctionnel : banque d'investissement Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, base de donées distribuée avec un systel de cache in memory, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins. Les principales tâches de la missions sont les suivantes : Le but est d'développer des nouvelles fonctionnalités demandées par le trading, et aussi techniquement améliorer la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions. Le candidat sera chargé de la partie back end ainsi que de la partie devops.

Freelance

Mission freelance
DevOps (H/F)

CTG
Publiée le
Apache Spark
Jenkins
Kubernetes

3 ans
100-600 €
Paris, France

En tant que DevOps vous travaillerez en direct avec le Team Lead, les business analystes et le PO. Vous aurez à cœur de comprendre le business model. Les projets à adresser visent le développement et maintenance de modules de gestion des données de consommation (intégration, transformation et exposition), de contrats, et leur représentation à travers différentes interfaces. Vos activités principales seront : Conception, mise en place (scripts versionnés dans GIT, paramétrage, TDD et tests d'intégration) et livraison en production des applications dans les règles de l'art - Contribution aux Agile de l'entité dans le respect du framework Scrum (Daily meeting, Review, Rétrospective, Sprint Planning), - Maintien de la documentation technique et fonctionnelle - L'amélioration continue des processus et bonnes pratiques de développement (au sein de l'entité, mais aussi des entités du Socle BigData) - Support de production

Freelance

Mission freelance
QA Automatisation des tests

K2 Partnering Solutions
Publiée le
Apache Maven
Cucumber
JIRA

12 mois
100-500 €
Paris, France

Bonjour à tous, Je suis à la recherche d'un(e) talentueux(se) QA test automation en freelance pour rejoindre une mission passionnante avec un de nos clients du secteur de l'assurance basé à Paris. 🔍 Compétences recherchées : Solides compétences en automatisation des tests Expertise avancée avec Selenium Expérience en tant que QA Automaticien(ne) - Principaux outils/langage : - Jira (Obligatoire) - JAVA (Obligatoire) - Selenium (Obligatoire) . Maven (Obligatoire) - Approche BDD (Obligatoire) - Cucumber/Gherkin (Obligatoire) - Automatisation des tests API (souhaitable) - Jenkins (souhaitable) - Autres outils : Authentification (Ping, Saviynt) Anglais COURANT (équipe internationale) - Date de démarrage: 30 Avril 2024 - Lieu: Paris 2 jours par semaine et 3 jours de télétravail - Durée: 12 mois - Equipes: Cyberdéfense

Freelance

Mission freelance
DATA ENGINEER SPARK / SCALA

UCASE CONSULTING
Publiée le
Apache Spark
Scala

3 ans
100-600 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un data engineer spark / scala. Mission : Livrables n 1 : Sprint n 1 + Lot 1 : développement des US et tests associés ; + Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d’exploitation ; + Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; + Lot 4 : Mise en place du monitoring ; LE PROFIL RECHERCHE Compétences métiers & outils : Les compétences technologiques attendues sont : + Indispensables : maîtrise de l’API Scala Spark (batch principalement), maîtrise des techniques d’optimisation Spark, expérience dans le traitement de volumétries importantes / complexes, développement et bonnes pratiques Scala, build Maven, travail en environnement cloud (idéalement Azure) + Appréciées : écosystème Databricks, développement d’API HTTP, expérience sur la stack ELK Compétences transverses + Aisance relationnelle + Esprit d’équipe et d’adaptabilité + Esprit de synthèse + Rigueur et esprit d’analyse + Autonomie + Force de proposition + Vous avez le sens des priorités et la capacité à gérer les délais + Vous aimez le travail en mode multi-projets + Appétence client, besoin métier et compréhension du fonctionnel + Mentoring et partage de connaissances

CDI
Freelance

Offre d'emploi
Ingénieur Devops - Middleware

MOVE2CLOUD
Publiée le
Ansible
Apache Kafka
API

12 mois
54k-60k €
Paris, France

Nous cherchons pour l'un de nos client un profil Devops - Middleware (API Management) Taches : · Maintien en Condition Opérationnel – Niveau 2/3 : · Assurer le suivi de la performance de la plateforme HIP(*) qui est au cœur des échanges de données entre les applications du Groupement. · Assurer le suivi des tickets et demandes de support « ouverts » chez les éditeurs · Elaboration et suivi la RoadMAP technique HIP : Suivi des nouvelles version et Patch éditeurs, qualifications des versions et installation · Suivi et gestion de la capacité des briques HIP et MDW · Être en support des intégrateurs des applications dans la résolution des incidents afin de les rendre le plus autonome possible · Evolutions des normes et standards · Maintenir la documentation à jour (procédures, modes opératoires) Optimisation et Evolutions : · Faire évoluer les normes, les bonnes pratiques et les communiquer · Automatiser (ansible) les installations des nouvelles briques techniques et les tâches d’administration courantes · Être force de proposition Périmètre technique Middleware : · VM, Openshift, Kubernetes (Requis) · Ansible Tower / AWX, Ansible, Prometheus, grafana (Requis) · Dynatrace, Instana, Splunk (Requis) · Ticketing: ServiceNow (Requis) · iPaas Boomi et/ou MOM Solace (Requis) · API Gateway (Axway), MFT (GoAnywhere), Kafka, (Souhaité) · CICD : Terraform, Nexus, Gitlab CI, Gitlab, Nexus, Helm, (Souhaité) · Tomcat, Jboss, Websphere, MQSeries, (Souhaité) · Dynatrace (Souhaité)

Freelance
CDI

Offre d'emploi
Expert Big Data & GCP

KLETA
Publiée le
Ansible
Apache Kafka
Apache Spark

2 ans
10k-88k €
Paris, France

Au sein d'une équipe d'expertise sur le volet Ops & Architecture vous intégrez la team en tant qu'architecte Cloud GCP & DevOps Big Data. Vos missions sur ce volet : Administration de la plateforme Hadoop présente Développer et continuer la migration vers GCP sur certaines applications Excellente maîtrise de Kubernetes attendues Connaissance complète de l'environnement Big Data et de la culture DevOps (Hadoop, Kafka, Elastic, Ansible, Kubernetes...) Endosser le rôle de référent technique sur le sujet Big Data

CDD
Freelance
CDI

Offre d'emploi
Data Engineer TALEND / SPARK / SCALA / MSBI H/F

SMARTPOINT
Publiée le
Apache Spark
Scala
Talend

3 ans
55k €
Paris, France

La prestation consiste à contribuer à/au(x) : - Support de l'application (notamment lors des clôtures mensuelles) - La maintenance évolutive - La conception et l'implémentation de nouvelles fonctionnalités - La refonte technique - La migration de Talend vers Spark/scala Environnement anglophone Les livrables attendus sont : - Optimisation des performances - Le support de l'application et la documentation - La livraison des évolutions - La livraison des nouvelles fonctions demandées dans le cadre des projets

Freelance

Mission freelance
Référent technique MLOps

CAT-AMANIA
Publiée le
Apache Kafka
Docker
Elasticsearch

2 ans
500-680 €
Paris, France

Au sein d'un client du domaine bancaire, vous intervenez au sein de la DSI en qualité de Référent technique MLOps. Dans ce cadre, votre quotidien s'articule autour des missions suivantes : mettre en place l'outillage Datascience et MLOPS et identifier les patterns pour un usage global évaluer et adpoter de nouvelles technologies et méthodologie pour améliorer les processus MLOps et l'efficacité de l'équipe Diriger l'élaboration et la mise en oeuvre de pipelineSuperviser et encadrer une équipe technique, en fournissant une orientation technique, en fixant des objectifs et en assurant la montée en compétence des équipes interne Participer à l'exploration continue (étude d'opportunité, cadrage) et aider à estimer l'effort et la valeur délivrée par les choix de designs éligibles pour favoriser la priorisation par le Product Owner et le Pôle Utilisateur (évolutivité, testabilité, déployabilité...) Collaborer avec les parties prenantes internes pour comprendre les besoins métier et fournir des solutions ML efficaces et évolutives Décliner le cadre d’Architecture d’Entreprise(processus, normes, patterns …) et contribuer à son évolution Faciliter la prise de décision de manière collaborative sur la meilleure architecture (conformité, sécurité, risques...), avec un juste équilibre entre le respect de la cible d'entreprise et la réponse pragmatique au besoin Maitrise les objectifs visés par le cadre d'Architecture d’Entreprise et décrit des solutions qui s'y conforment et sont implémentables sous forme incrémentale dans les sprints Suivre et facilite la visibilité de la conformité des solutions de son périmètre par rapport à la stratégie d'entreprise Responsable de la documentation produit(s) en veillant à sa pertinence, fiabilité et sa cohérence avec les cadres de référence de l'architecture (processus, guides, patterns...).s / solutions MLOps pour l'entrainement, le déploiement et la surveillance des modèles ML

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance
CDI
CDD

Offre d'emploi
DÉVELOPPEUR JAVA / BIG DATA H/F

SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

3 ans
50k €
Paris, France

La prestation consiste à contribuer à/au(x) : Maintien de l'environnement legacy et contribution au projet de migration de l'application vers le Big Data. - Mise en place de la One Plateforme (On premise + Cloude public) - Challenge des choix architecturaux - Audit du codes existants et solutions de factorisation du code - contribution à la validation des futurs développement - Développements, tests unitaires et homologation technique sur des composants applicatifs dans les plannings et délais demandés. La mission doit être effectuée dans le cadre des normes du projet. - Assistance sur les développements produits jusqu'à la mise en production. - Support de production

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous