Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Maven à Paris

Votre recherche renvoie 42 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Développement backend SQL/clickhouse

Digistrat consulting
Publiée le
Apache
Big Data
DevOps

3 ans
40k-60k €
Paris, France

Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un développeur backend SQL/clikhouse. Périmètre fonctionnel : banque d'investissement Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, base de donées distribuée avec un systel de cache in memory, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins. Les principales tâches de la missions sont les suivantes : Le but est d'développer des nouvelles fonctionnalités demandées par le trading, et aussi techniquement améliorer la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions. Le candidat sera chargé de la partie back end ainsi que de la partie devops.

Freelance

Mission freelance
Ingénieur de production - assurance vie N4

KEONI CONSULTING
Publiée le
Apache
Control-M
Linux

12 mois
100-390 €
Paris, France

Description détaillée : Le candidat doit être en mesure de gérer les incidents et changement participer aux astreintes mener les projets faire preuve d'autonomie et de curiosité Définition du profil : Participe aux différentes phases projet ou peut être amené à piloter le projet - Met en œuvre des solutions techniques. - Réalise des diagnostics pour identifier les causes de dysfonctionnement, proposer et mettre en œuvre des corrections et des solutions de "back-up". - Propose des solutions pour améliorer les performances de son domaine d'activité. - Assure, si nécessaire, l'interface des experts des autres domaines et gère les échanges avec les sous-traitants. - Définit les règles de bonne gestion des systèmes d'exploitation. - Conçoit si nécessaire les normes et les règles de bonne gestion et vérifier systématiquement leur application (sécurité informatique, qualité?). - Assure la mise à niveau, l'assemblage, la cohérence et l'homologation des différents logiciels (progiciels, base de données, développements spécifiques) dans le respect de l'architecture retenue. - Prend en charge l'intégration de nouvelles applications ou de progiciels (transactionnel et/ou batch) dans le respect des normes et procédures en vigueur - Effectue la réception, la validation et le packaging des composants. - Installe et met à disposition des composants. - Réalise la recette technique et l'homologation des composants / applications. - Participe à l'amélioration des processus et des outils d'industrialisation et de déploiement. - Travaille en relation étroite et permanente avec les équipes Etudes, Infrastructures et Sécurité. Spécificités pour les tests techniques : - Prise de connaissance du changement et de son contexte technique - Complète le plan de tests proposé - Prépare les infrastructures de tests - Valide les documents et les procédures à destination de la production - Réalise les différents tests techniques - Analyse les résultats - Contribue au diagnostic en cas de dysfonctionnement - Rédige les rapports détaillés qui aideront à la décision du GO/NOGO pour la mise en production - Constitue ou met à jour le patrimoine de tests réutilisable pour les intégrations ultérieures - Effectue le reporting vers le Responsable Intégration - Contribue à l'amélioration continue - Industrialise les tests techniques récurrents (automatisation, outillage?).

Freelance

Mission freelance
INTEGRATEUR APPLICATIF TOMCAT / APACHE EXPERIMENTE

PROPULSE IT
Publiée le
Apache
Apache Tomcat
applicatif

24 mois
250-500 €
Paris, France

Pour un démarrage sous un mois environ, nous recherchons un(e) intégrateur technique d'application freelance très expérimenté pour intégrer les application web chez notre client, en lien avec la production et les équipes de développement. Très Important : le profil recherché n'est pas un ingénieur de production qui gère des procédures d'intégration applicative mais un consultant habitué à être intercalé entre les équipes de développements et la production et qui prépare les documents d'installation. de plus il doit être expert et parfaitement autonome avec beaucoup d'expérience sur Tomcat / Apache. Pas de Devops dans le périmètre. Astreintes possibles soir et week-end - répartition selon l'équipe Livrables sont : - Dossier d'installation - Composants applicatifs -Configuration applicative Description détaillée - Capable de configurer/installer tomcat manuellement sur windows ou linux - Capable d'analyser les logs tomcat en cas d'erreur - Capable de configurer/installer manuellement un serveur httpd - Capable d'analyser les logs httpd en cas d'erreur - Savoir évoluer dans un environnement linux - Récupération des livrables de développement sur les outils de Gestion de configuration (SVN, GIT) - Installation des packages sur les plateformes de tests - Qualification des packages sur les plateformes de tests selon les normes en vigueur - Vérification de la conformité des applications vis à vis des contraintes de production - Rédaction et validation des documents d'installation et d'exploitation - Rédaction et exécution des plans de tests techniques - Assistance et support technique à la mise en production - Communication avec l'équipe projet - Reporting

Freelance
CDI

Offre d'emploi
Data Engineering - TALEND / SPARK / SCALA / MSBI

Digistrat consulting
Publiée le
Apache Spark
Hadoop
Microsoft Power BI

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : L'entité a pour charge la maintenance, le support et l'évolution de l'outil concernant le pilotage financier de la banque, des directions centrales et de la facturation interne du groupe. Les outils sont basés sur les technologies Big Data pour le stockage, Talend et Spark/Scala pour les traitements, la suite MSBI SQL Server et cube SSAS pour l'analyse mutlidimensionnelle et enfin du Power BI pour la restitution. Le Bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - Support de l'application (notamment lors des clôtures mensuelles) - La maintenance évolutive - La conception et l'implémentation de nouvelles fonctionnalités - La refonte technique - La migration de Talend vers Spark/scala Environnement anglophone 2 - Livrables attendus Les livrables attendus sont : - Optimisation des performances - Le support de l'application et la documentation - La livraison des evolutions - La livraison des nouvelles fonctions demandées dans le cadre des projets.

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance

Mission freelance
Administrateur Kafka - Finance - Paris - H/F

EASY PARTNER
Publiée le
Apache Kafka
Linux

1 an
500-650 €
Paris, France

Missions : Principales : - Administration : Gestion et maintenance des clusters Kafka, garantir leur haute disponibilité et performance. - Déploiement : Assurer le déploiement et la configuration des clusters Kafka. - Optimisation : Optimiser les performances des systèmes pour réduire la latence. -La mise en place d'un workflow de gestion des topics et des ACLs de ces clusters KAFKA, Monitoring, supervision et documentation de ces architecture, - Accompagnement technique/développement de nos utilisateurs sur ce domaine Stack technique : - Kafka - Linux - Outils de configuration management (Ansible, Puppet) - CI/CD (Jenkins) - Conteneurisation (Docker) - Bash/Python Information de mission : - Télétravail : Politique flexible comprenant jusqu'à 2 jours de télétravail par semaine + 5 semaines additionnelles par an. - Équipement fourni : Laptop de haute performance sous environnement Windows pour des développements sous Linux. - Localisation : Paris - Mission dispo ASAP - Mission un an renouvelable

Freelance
CDI

Offre d'emploi
TECHNICAL LEAD - DÉVELOPPEMENT BIG DATA : SPARK, SCALA

PRIMO CONSULTING
Publiée le
Apache Spark
Scala

1 an
63k-158k €
Paris, France

Le SI regroupe les outils IT relatif à l'intelligence et la gestion des clients : CRM, satisfaction, Pilotage commercial, rentabilité et opportunités. Le Domaine prend plus particulièrement en charge les outils permettant de consolider et mettre à disposition des équipes commerciales les opérations réalisées sur les produits du client. L'entité IT du Client est composée de 3 Feature Team, 2 en charge du backend / processing de données, la dernière en charge de toutes les interfaces (UI) et couches de traitement API. Dans le cadre de la modernisation de son backend, le socle du processing de données est ré-écrit sur une technologie BigData sur Cloud Interne, ce qui permet d'élargir l'offre de services proposée aux utilisateurs. Tâches à mener : · Développement, Clean code · L'intégration continue · La définition des solutions dans l'environnement applicatif (Cloud Platform / Spark Data processing) · Mise en place et suivi des développements en production du socle de fonctionnalités Processing / preparation de données · L'assistance à la conception technique du produit · Diverses assistances techniques (sujets techniques complexes sur le produit, etc...) · La revue de code · L'intégration cohérente du produit dans le système d'information en synchronisation avec l'architecture technique · L'analyse de l'impact de la conception du produit sur l'architecture technique du SI · L'architecture technique aux choix d'implémentation dans le SI · La maintenabilité technique du produit · La stratégie de développement et de tests selon critères pré-définis Autres : · Support applicatif via le monitoring et résolution associée · DevOps pour les parties IAAS et CD. · Environnement anglophone Résultats attendus : de solutions et d'architecture technique pour le backend 2.Développements d'alimentations et processing de données 3.Implementation pour l'exploitation des données, restitution dans des Datasets ou Datamarts adéquats et maintenance évolutive du backend 5.Mise en œuvre de méthodes d'amélioration continue : Craft & Prod CI 6.Monitoring et CI sur qualité du code

Freelance

Mission freelance
Developpeur Java maitraise Elastic Search ou Solr ou Lucene OBLIGATOIRE

Nicholson SAS
Publiée le
Apache Solr
Elasticsearch
J2EE / Java EE

3 ans
500-650 €
Paris, France

MERCI DE POSTULER UNIQUEMENT SI VOUS MAITRISER L'UN DES MOTEURS DE RECHERCHES SUIVANTS: Elastic Search ou search engine Solr et/ou Lucene. Bonjour, Nous recherchons pour l'un de nos clients grand compte un Developpeur Sr Java maitrisant Elastic Search ou search engine Solr et/ou Lucene. Vos missions seront les suivantes: Ø Développer des composants, services et fonctions de notre moteur de recherche juridique et de recherche conversationnel basé sur l’intelligence artificiel (Generative AI). Ø Participer aux réunions SCRUM (daily, review…) et collaborer activement avec l’équipe au sein des sprints de 2 semaines (Scrum) Ø Participer activement avec les autres développeurs et le Techlead à la conception, l’évaluation des charges de réalisation du back-office du produit. Ø Réaliser des développements selon une stratégie de déploiement sur le CLOUD Ø Réaliser des développements dans les règles de l’art : o Participer aux réunions des équipes de développement et s’assurer que le code réalisé (backend et de l’implémentation des flux de données) est en phase avec les bonnes pratiques et les consignes en termes de choix de composants. o Faire du mentorat et promouvoir les bonnes pratiques de développement backend en partageant le savoir avec les autres développeurs de l’équipe. o S’intéresser aux contraintes d’intégration amont et aval des composants implémentés afin de réaliser un interfaçage en étroite relation avec les autres développeurs Lieu: Paris centre Dates de mission: ASAP pour 3 mois renouvelable sur du long terme Tarif: 500-650€ ht selon experiences Pas de sous traitance merci ! Nicholson

Freelance

Mission freelance
Data Engineer DBT

Trait d'Union Consulting
Publiée le
Apache Airflow
Data analysis

1 an
550 €
Paris, France

Nous sommes à la recherche d'un Data Engineer DBT pour l'un de nos client acteur principal du retail en France Le poste est basé à Paris. - pas de profil débutant, au moins une expérience de 2 ans sur dbt - contexte retail, pricing - de préférence une connaissance Airflow - Une expérience Data Analyst est apprécié - agile - très bonne capacité à communiquer afin de remonter les points bloquants - contexte : développement d’un produit (Dashboard sous Tableau) d’analyse des performances des promotions

Freelance

Mission freelance
Développeur Java Senior Java 21 / Kafka / anglais important

Kaïbee
Publiée le
Apache Kafka
Java

1 an
100-560 €
Paris, France

PAS DE SOUS-TRAITANCE // MERCI Pour une mission longue durée, nous recherchons un développeur Java expérimenté avec une solide expertise en Kafka pour rejoindre notre équipe dynamique. Vous serez chargé de concevoir, développer et maintenir des applications robustes et évolutives, en mettant l'accent sur l'intégration de Kafka pour le traitement des flux de données en temps réel. Responsabilités : Analyser les besoins techniques et fonctionnels en collaboration avec l'équipe produit. Concevoir et développer des applications Java 21, en respectant les bonnes pratiques de développement. Intégrer et configurer Apache Kafka pour le traitement des flux de données. Participer à la définition de l'architecture et à l'amélioration continue des systèmes existants. Rédiger des tests unitaires et d'intégration pour assurer la qualité du code. Assurer la maintenance et le support des applications développées. Collaborer étroitement avec les équipes DevOps pour le déploiement continu et la surveillance des applications. Documenter les développements effectués et les solutions techniques mises en place.

Freelance

Mission freelance
Consultant sénior Data / POWER-BI / Expert SQL/Azure Synapse

DHALLON CONSEIL
Publiée le
Apache Spark
Azure Data Factory
Data analysis

2 ans
100-780 €
Paris, France

Notre client, du secteur de la mutuelle, recherche un consultant pour les accompagner à la fois dan s du projet et dans du RUN. Rattaché à la DSI, le consultant travaillera en étroite collaboration avec les BA. Le consultant a déjà eu des expériences sur toutes la chaîne de données, de la production à la distribution de data. Il a une bonne maitrise de la construction des requêtes, modélisation (table s de fait, dimension), le développement sous Power BI (DAX). Le consultant travaillera sur la construction des rapports: pour chaque rapport, il faudra qu'il puisse construire le data set adéquat.

Freelance
CDD

Offre d'emploi
DATA ENGINEER H/F

SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
Azure

12 mois
50k-60k €
Paris, France

Le client souhaite bénéficier de l’expertise du Prestataire en termes de Data Engineering. Dans ce cadre, la Prestation consiste à contribuer à/au(x) :  Gestion de l’intégration des données dans le DataLake Azure  Analyse des données et croisement de ces dernières  Analyse des restitutions responsives et mise en avant de la valeur-ajouté des données  Support de la solution et ses composants Environnement technique Expertises : - Java - Spark - Kubernetes - MS Azure - Kafka - Microsoft PowerBI - Cosmos DB - PosgreSQL

Freelance

Mission freelance
Data Engineer (H/F)

Kleever
Publiée le
Apache Airflow
AWS Cloud
Azure

6 mois
450-550 €
Paris, France

Nous recherchons un Data Analyst expérimenté en Airflow et Python pour rejoindre notre équipe. Le candidat idéal aura une forte expérience en manipulation et analyse de données, ainsi qu’une maîtrise des outils de data engineering. La maîtrise d’Apache Airflow et de Python (pandas, NumPy, scikit-learn) est exigée, avec une connaissance de SQL et des bases de données relationnelles, ainsi que l'utilisation d'outils de visualisation de données (Tableau, Power BI). La mission de 6 mois renouvelable, avec 3 jours de télétravail et 2 jours au bureau.

Freelance
CDI
CDD

Offre d'emploi
Architecture, déploiement,évolution et maintien de cluster Kafka

Gentis Recruitment SAS
Publiée le
Ansible
Apache Kafka

12 mois
10k-80k €
Paris, France

Voici le détail du poste : • L’architecture, le déploiement, l’évolution et le maintien de nos différents cluster Kafka mis à disposition des équipes, • La mise en place d'un workflow de gestion des topics et des ACLs de ces clusters KAFKA, • Monitoring, supervision et documentation de ces architecture, • Accompagnement technique/développement de nos utilisateurs sur ce domaine Competences : • Déploiement, administration, mise à jour de clusters Kafka, • Linux (RedHat / CentOS), • Configuration management (Ansible, Puppet), • CI/CD (Jenkins), • Container (Docker), • Git • Développement / Automatisation (Bash / Python

Freelance
CDI

Offre d'emploi
Développement backend SQL/clickhouse

Digistrat consulting
Publiée le
Apache
Big Data
DevOps

3 ans
40k-60k €
Paris, France

Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un développeur backend SQL/clikhouse. Périmètre fonctionnel : banque d'investissement Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, base de donées distribuée avec un systel de cache in memory, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins. Les principales tâches de la missions sont les suivantes : Le but est d'développer des nouvelles fonctionnalités demandées par le trading, et aussi techniquement améliorer la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions. Le candidat sera chargé de la partie back end ainsi que de la partie devops.

Freelance
CDI

Offre d'emploi
Tech Lead MLOPS (H/F)

SCALIAN
Publiée le
Apache Kafka
AWS Cloud
Data science

12 mois
70k-80k €
Paris, France

• Mettre en place l’outillage Datascience et MLOPS et identifier les patterns et normes pour un usage par 40 caisses régionales • Évaluer et adopter de nouvelles technologies et méthodologies pour améliorer les processus MLOps et l'efficacité de l'équipe • Diriger l'élaboration et la mise en œuvre des pipelines / solutions MLOps pour l'entraînement, le déploiement et la surveillance des modèles ML • Superviser et encadrer une équipe technique, en fournissant une orientation technique, en fixant des objectifs et en assurant la montée en compétence des équipes internes • Participer à l'exploration continue (étude d'opportunité, cadrage) et aider à estimer l'effort et la valeur délivrée par les choix de designs éligibles pour favoriser la priorisation par le Product Owner et le Pôle Utilisateur (évolutivité, testabilité, déployabilité...) • Collaborer avec les parties prenantes internes pour comprendre les besoins métier et fournir des solutions ML efficaces et évolutives • Décliner le cadre d’Architecture d’Entreprise(processus, normes, patterns …) et contribuer à son évolution • Faciliter la prise de décision de manière collaborative sur la meilleure architecture (conformité, sécurité, risques...), avec un juste équilibre entre le respect de la cible d'entreprise et la réponse pragmatique au besoin • Maitrise les objectifs visés par le cadre d'Architecture d’Entreprise et décrit des solutions qui s'y conforment et sont implémentables sous forme incrémentale dans les sprints • Suivre et facilite la visibilité de la conformité des solutions de son périmètre par rapport à la stratégie d'entreprise • Responsable de la documentation produit(s) en veillant à sa pertinence, fiabilité et sa cohérence avec les cadres de référence de l'architecture (processus, guides, patterns...).

42 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous