Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Struts

Votre recherche renvoie 157 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Développeur fullstack JavaScript

ICSIS
Publiée le
Angular
Apache Kafka
Git

2 ans
350-500 €
Lille, Hauts-de-France

Vous serez responsable de: - Concevoir et contribuer au développement du produit - Rédaction des documentations techniques - Mise en place et/ou renforcement de best practices autour du testing, de l'alerting, du monitoring pour assurer la qualité, la stabilité et la extensibilité du produit; - Reprendre en main l’outil afin d’y ajouter les besoins spécifiques - Missions basées en métropole lilloise avec présence sur site obligatoire 3j/semaine Compétences demandées : - Min. 3 ans d’expérience en développement (hors stage et alternance) ++: Nodejs / Nest.js ++ : React / Vue / Angular ++: BDD : GCP, MongoDB, PostgreSQL ... ++: Kafka +: CI/CD ou GitHub Actions - Maitrise et pratique de l'Agile Anglais un + Mission en métropole lilloise avec télétravail partiel (2-3 jours)

CDI
Freelance

Offre d'emploi
Data Analyst H/F

CAPEST conseils
Publiée le
Apache Airflow
Python
Snowflake

12 mois
10k-185k €
Paris, France

Afin de renforcer l’équipe DATA, nous recherchons un.e Data Analyst. Le Data Analyst travaille en étroite collaboration avec les équipes métiers et techniques, afin de leur fournir les données nécessaires à une prise de décision éclairée. Vos missions : · Répondre à des questions métiers, de façon ad hoc via des requêtes et extractions ou bien de façon plus pérenne via la création de tableaux de bord · Concevoir, développer, tester et maintenir les pipelines de transformations des données · Construire les transformations qui nous permettront de partager des données de qualité aux différentes directions/filiales · Collaborer avec les métiers afin de concevoir de nouveaux reportings · Collaborer avec l’équipe Data Science afin de les aider à la conception de leurs modules d’intelligence artificielle. · Être force de proposition pour l’amélioration continue des processus existants · Vous connaissez le SQL et vous êtes capable d’écrire des requêtes complexes. · Vous avez une appétence pour l’analyse de données et de Data Visualization · Vous avez un fort esprit analytique · Vous êtes clair et concis et vous savez vulgariser vos connaissances auprès du métier Bonus : · Vous connaissez Snowflake · Vous avez eu une expérience avec Airflow · Vous savez utiliser Git · Vous avez de l’expérience avec des langages de programmation comme Python

CDI

Offre d'emploi
Développeur Back End Senior

Aepsilon
Publiée le
Apache Kafka
Apache Tomcat
J2EE / Java EE

45k-47k €
Valbonne, Provence-Alpes-Côte d'Azur

Vous offririez bien un peu de challenge à votre vie professionnelle, mais vous n’avez pas encore trouvé LE rôle qui va vous donner cette envie de changement ? Il se peut que l’on ait quelque chose à vous proposer :) En effet, nous vous proposons de rejoindre une entreprise à taille humaine, dynamique et bienveillante. Son domaine d’activité : le voyage. Son objectif : simplifier la réservation des billets d’avion grâce à des solutions innovantes. Venons-en au poste : nous recherchons un Développeur back-end senior . Challenger l’architecture de la solution Prendre part aux décisions concernant les évolutions techniques Gérer la migration du back-end historique vers un nouveau back-end (architecture micro services) Définir les bonnes pratiques de développement pour le back-end Définir, développer et maintenir les composants transverses qui constituent le socle technique back-end Participer à l'élaboration de la documentation nécessaire à l’exploitation et au maintien des applications Assurer une veille sur les technologies back Choisir les technologies les plus judicieuses en fonction de son contexte Liste évidemment non exhaustive ! Suivant la méthodologie Scrum, vous travaillerez en étroite collaboration avec deux développeurs back-end et un développeur front-end, un Product Owner et un CTO.

Freelance

Mission freelance
spark scala - 550€ max

Innov and Co
Publiée le
Apache Spark
Scala

12 mois
100-550 €
Puteaux, Île-de-France

Sur une architecture Big Data permettant de collecter les données de l’ensemble des Back Office dans un Datalake (cluster Hadoop), le projet consiste à exploiter ces données pour alimenter un Dataware communautaire stockée sur une base Exadata. Cette exploitation est réalisée par la conception de nouveaux traitements Spark/Scala manipulant les données raffinées du DataLake avec des règles métiers décisionnelles. Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements. Le consultant devra travailler en étroite collaboration avec le Chef de Projet, responsable du lot et l'équipe de développement du Programme. Une connaissance d'Oracle est nécessaire Une expérience >5 ans sur des technologies SPARK & SCALA est nécessaire Une connaissance de contexte technologique similaire est un plus

Freelance
CDI

Offre d'emploi
Consultant expert Kubernetes

YGL consulting
Publiée le
Apache Tomcat
Docker
Kubernetes

6 mois
10k-50k €
Paris, France

nous recrutons un( e) consultant( e) expert kubernetes pour le compte de note client parisien Missions: - Accompagnement des équipes de développement pour Dockeriser leurs applications - Réalisation de script shell et python - Réalisation de playbooks et de rôles ansible - Réalisation de déploiements Terraform - Réalisation de pipeline groovy sur jenkins - Réalisation de chart Helm - Documentation des script d'automatisation - Assistance et support des équipes de développement - Communication avec les équipes d'infrastructure

Freelance

Mission freelance
Ingénieur Data SPARK/SCALA projet de Business Intelligence & Big Data(N131)

Kaïbee
Publiée le
Apache Spark
Hadoop
ITIL

12 mois
100-520 €
Paris, France

Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements. Le consultant devra travailler en étroite collaboration avec le Chef de Projet, responsable du lot et l'équipe de développement du Programme. Une connaissance d'Oracle est nécessaire Une expérience >5 ans sur des technologies SPARK & SCALA est nécessaire Une connaissance de contexte technologique similaire est un plus

Freelance

Mission freelance
INGENIEUR DE PRODUCTION / CHARGE D’INTEGRATION– AIX EN PROVENCE H/F

Acpqualife
Publiée le
Apache Tomcat
Control-M
DAT

1 an
450-470 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Quel poste proposons-nous ? Dans le cadre de notre développement en région PACA, nous recherchons un Ingénieur Chargé d’Applications / Intégrations (H/F) pour intervenir chez un client grand compte basé à 15 min d’Aix-en-Provence. Le collaborateur intégrera le service « Intégration et Exploitation des Applications » dans la Direction de l’Exploitation. Vos missions consisteront notamment à : Conception d’architecture technique en prenant en compte la résilience et redondance pour répondre à la disponibilité des services en production, Clusterisation Architecture technique orientée middleware et rédaction des DAT Déployer des applications en PREPRODUCTION et PRODUCTION au sein d’un périmètre sensible à haut niveau de sécurité. Concevoir et réaliser les changements complexes afin d'assurer la disponibilité et de la continuité de service du SI. Gérer des incidents N2 et ou N3. Assurer le maintien en conditions opérationnelles des applications. Veiller au maintien de la sécurité opérationnelle. Alimenter et faire respecter le référentiel de connaissance et de bonnes pratiques, MAJ du référentiel documentaire. Accessible : 2 jours de télétravail et 3 jours de présentiel – 1er moins intégration en présentiel

Freelance
CDI

Offre d'emploi
Architecte système Kafka Confluent

HIGHTEAM
Publiée le
Apache Kafka

3 ans
10k-70k €
Île-de-France, France

Responsabilités principales • Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. • Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. • Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. • Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. • Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. • Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. • Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. • Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent.

CDI

Offre d'emploi
Ingénieur devOps (spécialisé KAFKA) _ Sophia Antipolis / (H/F)

ENGIT
Publiée le
Apache Kafka
Kubernetes

43k-55k €
Valbonne, Provence-Alpes-Côte d'Azur

engIT recrute un ingénieur devOps (Kafka) pour intégrer les équipes transverses et middleware de notre partenaire leader mondial dans son secteur. Vous participerez à des projets où une infrastructure haute performance capable de supporter des volumes de données massif en temps réel est nécessaire. Principales responsabilités : Faire évoluer et concevoir des infrastructures Cloud (Kubernetes) Azure Utiliser les processus CI/CD Appréhender et concevoir une infrastructure répondant à des problématiques de haute disponibilité et architectures distribuées (Kafka) Monitorer la plateforme (Prometheus) Utiliser les outils d’infrastructure (Terraform, Ansible, etc.)

Freelance

Mission freelance
Architect KAFKA confluent

Cherry Pick
Publiée le
Apache Kafka
Architecture

12 mois
600-650 €
Paris, France

Dans le cadre de la création de l’équipe streaming basé sur la technologie KAFKA Confluent Cloud, nous recrutons un(e) Système Architecte Kafka confluent Cloud. En tant qu'Architecte Kafka sur Confluent, vous serez responsable de la conception et de l'implémentation des architectures de streaming de données à grande échelle en utilisant Apache Kafka et la plateforme Confluent. Vous travaillerez étroitement avec les équipes de développement et d'opérations pour assurer la scalabilité, la sécurité et l'efficacité des solutions de données. Responsabilités principales Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent. Ce rôle implique : L'accompagnement des équipes clientes IT dans la mise en œuvre des solutions liées à Kafka L’encadrement d’équipes techniques sur les projets L’accompagnement de nos équipes sur leur montée en compétences L’écriture des spécifications techniques en amont de la réalisation La validation des chiffrage projets Gestion de back log utilisant la méthode adaptée Le travail en étroite collaboration avec l’équipe IT Métier pour délivrer les projets selon les priorités stratégiques partagée Et, surtout, et créer un cadre de travail harmonieux et valoriser le travail des équipes de développements pour fédérer les meilleurs talents Expérience attendue Expérience dans le développement opérationnel de flux sous KAFKA Expérience significative sur la plateforme Confluent Expérience significative dans un environnement Agile/ Hybrid Expérience de management d’équipes de développeurs et de suivi du delivery Test unitaire/Compliance /Performance Documentation & procédures afin de facilité au support le Monitoring technico fonctionnel des interfaces/Jobs Expérience SAP (ECC & S4/HANA) serait apprécié Coordination avec l’équipe de DEV afin de délivrer un support N3.

CDI

Offre d'emploi
Consultant BI (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
AWS Cloud
BigQuery

40k-50k €
Lille, Hauts-de-France

💼 Missions pour le Consultant BI : Développement et optimisation : Concevoir et déployer des solutions BI en utilisant Tableau, Power BI, SQL , Python, et plus, pour répondre aux besoins des clients. Analyse de données : Utiliser AWS, DBT, Databricks, GCP ( BigQuery ), pour l'analyse et la transformation des données. Automatisation des processus : Mettre en place des pipelines de données automatisés avec Docker, Airflow, et Git. Surveillance et optimisation : Utiliser Datadog, Looker, SAP BO, Cognos , pour surveiller les performances et optimiser les systèmes. Expertise technique : Fournir des conseils d'expert sur SQL Server, Cubes , SSIS, SSRS, SSAS , pour améliorer les processus et les performances.

CDI

Offre d'emploi
Architecte Cybersécurité

Group V.I.I ORIGIN
Publiée le
Apache Hive
Apache Spark
Hadoop

10k-100k €
Île-de-France, France

Nous recherchons un Architecte Cyber Sécurité afin d'intégrer nos équipes, pour effectuer les tâches suivantes : - Accompagnement sécurité des projets métiers et techniques de la phase d’instruction à la mise en production - Pilotage de sujets sécurité techniques et fonctionnels divers avec des correspondants techniques ou métiers suivant le projet: • Pilotage du volet sécurité de projet de déploiement d’infrastructure ou d’application dans le Cloud • Analyse des risques de sécurité liés à l’introduction de nouvelles technologies ou de nouveaux systèmes d’information • Animation de programme de Cyber Sécurité : veille, réalisation études, gestion et maitrise des risques • Définition de la cible à atteindre, réunions de travail avec les équipes techniques, pilotage des actions • Pilotage de projet technique de transformation de SI, ex : mise en place d’un DLP • Contribution aux projets études et de réalisation technique, dossiers d'architecture, etc. (tout document projet) • Accompagnement au projet, toute contribution sécurité dans les livrables de la méthode projet : o Réalisation d’étude technique o Questionnaire sécurité pour un appel d'offres o Analyse de risque sur le volet technique et organisationnel o Paragraphe sécurité dans le dossier d'architecture o Cahier des charges pour la réalisation de tests d'intrusion o Restitution des vulnérabilités pour les audits de code • Pour le pilotage de sujets techniques sécurité, tout document utile à la mise en place / amélioration de l'outil / processus Environnement technique de la prestation : M365, Spark, Hive, Hadoop

Freelance

Mission freelance
Data Scientist - MLOps (F/H)

SMARTPOINT
Publiée le
Apache
Kubernetes

12 mois
400-450 €
Île-de-France, France

Description du poste : En tant que Data Scientist spécialisé en MLOps (Machine Learning Operations), vous serez chargé de concevoir, développer et déployer des modèles d'apprentissage automatique à grande échelle, tout en assurant leur intégration harmonieuse dans les systèmes de production. Vous travaillerez en étroite collaboration avec les équipes d'ingénierie des données, les scientifiques des données et les développeurs logiciels pour automatiser et optimiser le cycle de vie des modèles, de l'entraînement à la production. Responsabilités : Développement de modèles d'apprentissage automatique : Concevoir et mettre en œuvre des modèles d'apprentissage automatique en utilisant des techniques avancées telles que l'apprentissage supervisé, non supervisé et par renforcement. MLOps : Mettre en place des pipelines de déploiement automatisés pour les modèles, en utilisant des outils et des frameworks tels que Kubeflow, MLflow ou TensorFlow Extended (TFX). Automatisation et orchestration : Développer des processus automatisés pour l'entraînement, le déploiement et la surveillance des modèles, en utilisant des outils tels que Apache Airflow ou Kubernetes. Surveillance des performances : Mettre en place des systèmes de surveillance pour suivre les performances des modèles en production, en identifiant les dégradations de performance et en proposant des améliorations. Collaboration interfonctionnelle : Travailler en étroite collaboration avec les équipes d'ingénierie des données, les scientifiques des données et les développeurs logiciels pour intégrer efficacement les modèles dans les applications et les services. Optimisation des ressources : Optimiser l'utilisation des ressources informatiques en mettant en place des stratégies de mise à l'échelle automatique et en utilisant des architectures cloud adaptées. Sécurité et conformité : Assurer la sécurité et la conformité des modèles en mettant en place des pratiques de gouvernance des données et en garantissant la confidentialité des informations.

Freelance

Mission freelance
INGENIEUR DE PRODUCTION

GROUPE ARTEMYS
Publiée le
Apache
Control-M
Oracle

6 mois
380-450 €
Nantes, Pays de la Loire

De belles missions vous attendent chez notre client sur des environnements riches et challengeants : Vous intégrez un acteur majeur du secteur bancaire, aux valeurs fortes telles que la proximité, la coopération et l’expertise. Vos missions au quotidien : Installer, déployer, administrer, exploiter les applications du domaine confié dans le respect des normes et des règles de sécurité. Assurer le bon fonctionnement des applications du Système d’information et des environnements techniques. - Mettre en œuvre la supervision technique, gérer les incidents et effectuer des maintenances de 2eme niveau. Participer à l’installation des infrastructures ou produits, le paramétrage et la validation des composants de l’infrastructure. Participer aux tests et rédiger les dossiers d’exploitation. Contribuer à la réalisation des actions de capacity planning voire en assurer la responsabilité sur délégation de son responsable. Participer à la gestion de l’évolution du SI (analyse des impacts et besoins, schéma d’ensemble et scénarios d’évolution du SI, plans d’équipement). Contribuer activement à la démarche d’amélioration continue.

Freelance
CDI

Offre d'emploi
Data Engineering - TALEND / SPARK / SCALA / MSBI

Digistrat consulting
Publiée le
Apache Spark
Hadoop
Microsoft Power BI

3 ans
40k-60k €
Paris, France

💡 Contexte /Objectifs : L'entité a pour charge la maintenance, le support et l'évolution de l'outil concernant le pilotage financier de la banque, des directions centrales et de la facturation interne du groupe. Les outils sont basés sur les technologies Big Data pour le stockage, Talend et Spark/Scala pour les traitements, la suite MSBI SQL Server et cube SSAS pour l'analyse mutlidimensionnelle et enfin du Power BI pour la restitution. Le Bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - Support de l'application (notamment lors des clôtures mensuelles) - La maintenance évolutive - La conception et l'implémentation de nouvelles fonctionnalités - La refonte technique - La migration de Talend vers Spark/scala Environnement anglophone 2 - Livrables attendus Les livrables attendus sont : - Optimisation des performances - Le support de l'application et la documentation - La livraison des evolutions - La livraison des nouvelles fonctions demandées dans le cadre des projets.

Freelance
CDI

Offre d'emploi
Ingénieur de production (H/F)

CITECH
Publiée le
Apache
Apache Tomcat

1 an
55k-65k €
Paris, France

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Ingénieur de production (H/F) 🚀 💰 Votre mission est pour un client reconnu dans le secteur bancaire, implanté dans de nombreuses villes en France, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. 💳 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Mettre en œuvre des solutions techniques. 🔸 Réaliser des diagnostics pour identifier les causes de dysfonctionnement, proposer et mettre en œuvre des corrections et des solutions de "back-up". 🔸 Proposer des solutions pour améliorer les performances de son domaine d'activité. 🔸 Assurer, si nécessaire, l'interface des experts des autres domaines et gère les échanges avec les sous-traitants. 🔸 Définir les règles de bonne gestion des systèmes d'exploitation. 🔸 Concevoir si nécessaire les normes et les règles de bonne gestion et vérifier systématiquement leur application (sécurité informatique, qualité?). 🔸 Assurer la mise à niveau, l'assemblage, la cohérence et l'homologation des différents logiciels (progiciels, base de données, développements spécifiques) dans le respect de l'architecture retenue. 🔸 Prendre en charge l'intégration de nouvelles applications ou de progiciels (transactionnel et/ou batch) dans le respect des normes et procédures en vigueur 🔸 Effectuer la réception, la validation et le packaging des composants. 🔸 Installer et met à disposition des composants. 🔸 Réaliser la recette technique et l'homologation des composants / applications. 🔸 Participer à l'amélioration des processus et des outils d'industrialisation et de déploiement. 🔸 Travailler en relation étroite et permanente avec les équipes Etudes, Infrastructures et Sécurité. 🔸 Spécificités pour les tests techniques. 🔸 Prise de connaissance du changement et de son contexte technique. 🔸 Compléter le plan de tests proposé. 🔸 Préparer les infrastructures de tests. 🔸 Valider les documents et les procédures à destination de la production. 🔸 Réaliser les différents tests techniques. 🔸 Analyser les résultats. 🔸 Contribuer au diagnostic en cas de dysfonctionnement. 🔸 Rédiger les rapports détaillés qui aideront à la décision du GO/NOGO pour la mise en production. 🔸 Constituer ou met à jour le patrimoine de tests réutilisable pour les intégrations ultérieures. 🔸 Effectuer le reporting vers le Responsable Intégration. 🔸 Contribuer à l'amélioration continue. 🔸 Industrialiser les tests techniques récurrents (automatisation, outillage).

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous