Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Struts

Votre recherche renvoie 158 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Ingénieur DevOps

INEXSYA
Publiée le
Ansible
Apache Maven
AWS Cloud

3 mois
550-850 €
Paris, France

La DSIO (Direction des Services d’Infrastructures et Opérations) a pour mission de fournir et supporter l’ensemble des services d’infrastructure avec les niveaux d’expertise requis, de construire et sécuriser le fonctionnement des plates-formes applicatives afin de fournir une infrastructure technologique stable et efficace pour les clients internes au niveau du groupe et en local. L’ingénieur DevOps aura pour mission principale de maintenir et d'optimiser les outils constitutifs de la Software Factory en assurant la fiabilité et l'efficacité de ces outils, il/elle jouera un rôle crucial dans l'automatisation des processus de développement, d'intégration et de déploiement, contribuant ainsi directement à l'amélioration de la qualité des logiciels, à la réduction des délais de mise sur le marché et à l'efficacité de la collaboration inter-équipes. Cette mission s'inscrit dans un objectif plus large de consolidation d'une culture DevOps au sein de l'organisation, visant à soutenir l'innovation continue et l'excellence opérationnelle. Il/elle sera garant de la haute disponibilité des services et devra intervenir dans un environnement technique hétérogène, nécessitant une forte adaptabilité et une veille technologique continue. PRINCIPALES RESPONSABILITES • Configurer les outils pour assurer leur bon fonctionnement, leur intégration et leur optimisation • Automatiser les gestes liés à l’exploitation et à la maintenance des outils • Accompagner les équipes de développement dans l’utilisation des outils et les conseiller sur les best practices CI/CD • Former les développeurs à l’usage des outils en animant des sessions de formation • Documenter la Software Factory : les outils, les best-practices, les erreurs courantes, • Sécuriser les outils et les templates afin de respecter les normes et les standards de l’entreprise ACTIVITES / TACHES A REALISER • Installer et configurer les outils de la Software Factory • Automatiser les taches d’exploitation et de maintenance des outils • Concevoir et développer les templates et accélérateurs à utiliser par les équipes de développement • Concevoir et développer des services sous forme d’API pour enrichir les fonctionnalités des outils de la Software Factory JALONS CLES J1 Livraison de RedHat Ansible Automation Platform (RHAAP) 07/2024 J2 Livraison de JFrog Artifactory 09/2024 J3 Livraison de SonarQube Q4 2024 J4 APIsation de l’offre de service Software Factory Lot1 Q2 2025 J5 APIsation de l’offre de service Software Factory Lot2 Q4 2025 LIVRABLES · Ouverture de RHAAP · Ouverture d’Artifactory · Ouverture de SonarQube · Software Factory APIs · Documentation (Runbook, Guide utilisateur, …)

Freelance
CDI

Offre d'emploi
Data Engineer Spark/Scala (H/F)

CITECH
Publiée le
Apache Spark
Oracle
Scala

12 mois
45k-65k €
Puteaux, Île-de-France

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de différents projets, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Engineer Spark/Scala (H/F) 🚀 💰 Votre mission est pour un client du secteur banque et assurance qui dispose de 3000 caisses locales sur l’ensemble du territoire ainsi que de 8000 conseillers. Le projet est pour l’une de ses caisses. 📝 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Conception détaillée, fonctionnelle et technique des solutions SPARK/SCALA 🔸 Développement de scripts et modules en SPARK/SCALA 🔸 Formalisation et exécution des plans de tests 🔸 Résolution des anomalies rencontrées lors des phases d'intégration fonctionnelle et de recette utilisateur 🔸 Packaging et déploiement des solutions développées en environnements de pré-production et de production 🔸 Optimisation des traitements Big Data 🔸 Mise en œuvre des solutions industrielles de réentrance

Freelance
CDI

Offre d'emploi
Ingénieur Data SPARK/SCALA

DHM IT
Publiée le
Apache Spark
ITIL
Oracle

3 mois
10k-50k €
Île-de-France, France

Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : Conception détaillée, fonctionnelle et technique. Développements SPARK / SCALA Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. Packaging et déploiement en pre-production et production. Optimisation des traitements afin de garantir la qualité de service standards du DWG. Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. Mise en service et accompagnement au déploiement. Suivi des environnements. Le consultant devra travailler en étroite collaboration avec le Chef de Projet, responsable du lot et l'équipe de développement du Programme. Une connaissance d'Oracle est nécessaire Une expérience >5 ans sur des technologies SPARK & SCALA est nécessaire Une connaissance de contexte technologique similaire est un plus

Freelance
CDI

Offre d'emploi
Data engineer scala spark

CELAD
Publiée le
Apache Spark
Scala

2 ans
50k-65k €
Paris, France

Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements. Le consultant devra travailler en étroite collaboration avec le Chef de Projet, responsable du lot et l'équipe de développement du Programme. Une connaissance d'Oracle est nécessaire Une expérience >5 ans sur des technologies SPARK & SCALA est nécessaire Une connaissance de contexte technologique similaire est un plus

CDI

Offre d'emploi
INGENIEUR DE PRODUCTION / CHARGE D’INTEGRATION– AIX EN PROVENCE H/F

Acpqualife
Publiée le
Apache Tomcat
Bitbucket
DAT

48k-53k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Quel poste proposons-nous ? Dans le cadre de notre développement en région PACA, nous recherchons un Ingénieur Chargé d’Applications / Intégrations (H/F) pour intervenir chez un client grand compte basé à 15 min d’Aix-en-Provence. Le collaborateur intégrera le service « Intégration et Exploitation des Applications » dans la Direction de l’Exploitation. Vos missions consisteront notamment à : Conception d’architecture technique en prenant en compte la résilience et redondance pour répondre à la disponibilité des services en production, Clusterisation Architecture technique orientée middleware et rédaction des DAT Déployer des applications en PREPRODUCTION et PRODUCTION au sein d’un périmètre sensible à haut niveau de sécurité. Concevoir et réaliser les changements complexes afin d'assurer la disponibilité et de la continuité de service du SI. Gérer des incidents N2 et ou N3. Assurer le maintien en conditions opérationnelles des applications. Veiller au maintien de la sécurité opérationnelle. Alimenter et faire respecter le référentiel de connaissance et de bonnes pratiques, MAJ du référentiel documentaire. Accessible : 2 jours de télétravail et 3 jours de présentiel – 1er moins intégration en présentiel

Freelance
CDI

Offre d'emploi
Ingénieur Data Spark / SCALA

HN SERVICES
Publiée le
Apache Spark

3 ans
10k-64k €
Île-de-France, France

La Direction des Systèmes d’Information a pour missions de mettre au quotidien à disposition des 25 000 utilisateurs les données et les traitements nécessaires à leur activité, dans le respect des contrats de service; de garantir la sécurité et la pérennité des actifs informatiques du Groupe; d’accompagner le développement commercial du Groupe en France et à l’international ; d’élaborer de nouveaux systèmes d’information, de nouvelles infrastructures techniques et de maintenir les systèmes existants. Sur une architecture Big Data permettant de collecter les données de l’ensemble des Back Office dans un Datalake (cluster Hadoop), le projet consiste à exploiter ces données pour alimenter un Dataware communautaire stockée sur une base Exadata. Cette exploitation est réalisée par la conception de nouveaux traitements Spark/Scala manipulant les données raffinées du DataLake avec des règles métiers décisionnelles. Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements. Le consultant devra travailler en étroite collaboration avec le Chef de Projet, responsable du lot et l'équipe de développement du Programme.

Freelance
CDI

Offre d'emploi
Développeur Java/Angular (H/F)

Créalis Ingénierie
Publiée le
Angular
Apache Tomcat
API REST

6 mois
30k-50k €
Nantes, Pays de la Loire

Au sein Créalis Bordeaux et pour le compte de notre client, vos missions seront essentiellement: Participer aux ateliers de conception technico fonctionnels Estimer vos charges et votre reste à faire Développer les composants répondant aux normes et standards des technologies utilisées Produire le code et utiliser un gestionnaire de configuration Participer activement aux daily et rituels du projet Écrire des tests unitaires Participer aux campagnes de tests Assurer la documentation et la capitalisation Participer à la vie de l'équipe

CDI

Offre d'emploi
Développeur FullStack (H/F)

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Kafka
CI/CD
Google Cloud Platform

36k-50k €
Lille, Hauts-de-France

🔍 Missions pour le Développeur Fullstack : Conception et développement d'applications web fullstack en utilisant Java, Spring pour le backend et React ou Vue.js pour le frontend. Intégration et déploiement continu (CI/CD) en utilisant des outils modernes et des plateformes cloud comme GCP . Collaboration étroite avec les équipes de développement, QA et opérations pour optimiser le code, résoudre les problèmes et améliorer la performance et la sécurité des applications. Participation active à la phase de conception produit , en apportant des idées innovantes et en travaillant sur des prototypes. Gestion et mise en œuvre de Kafka pour le traitement des flux de données en temps réel et Kubernetes pour l'orchestration des conteneurs. Veille technologique continue pour rester à jour sur les nouvelles tendances et meilleures pratiques dans le développement Fullstack.

Freelance

Mission freelance
INGENIEUR DATA SPARK SCALA F/H

GENIOUS
Publiée le
Apache Spark
Big Data
Scala

3 ans
100-610 €
Île-de-France, France

Genious Systèmes recherche pour un de ses clients un Ingénieur Data Spark Scala F/H Contexte Mission: Sur une architecture Big Data permettant de collecter les données de l’ensemble des Back Office dans un Datalake (cluster Hadoop), le projet consiste à exploiter ces données pour alimenter un Dataware communautaire stockée sur une base Exadata. Cette exploitation est réalisée par la conception de nouveaux traitements Spark/Scala manipulant les données raffinées du DataLake avec des règles métiers décisionnelles. Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : Conception détaillée, fonctionnelle et technique. Développements SPARK / SCALA Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. Packaging et déploiement en pre-production et production. Optimisation des traitements afin de garantir la qualité de service standards du DWG. Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. Mise en service et accompagnement au déploiement. Suivi des environnements. Le consultant devra travailler en étroite collaboration avec le Chef de Projet, responsable du lot et l'équipe de développement du Programme.

Freelance

Mission freelance
Business Analyst RPA (Robotic Process Automation)

Enterprise Digital Resources Ltd
Publiée le
AMOA
Apache Kafka
API

3 mois
100-500 €
Hauts-de-France, France

En tant qu'Analyste Métier RPA et Process Mining, vous serez responsable de l'identification, de l'analyse et de l'optimisation des processus métier de l'entreprise, en particulier avec la plateforme UiPath. Vous travaillerez en étroite collaboration avec les équipes métier, les développeurs RPA, les experts en Process Mining et les gestionnaires de projet pour concevoir, développer et déployer des solutions RPA et Process Mining efficaces qui améliorent l'efficacité opérationnelle et la productivité de l'entreprise. Responsabilités : Analyser les processus métier existants pour identifier les opportunités d'automatisation et d'optimisation. Collaborer avec les équipes métier pour comprendre leurs besoins et leurs objectifs, et traduire ces besoins en solutions RPA. Concevoir et documenter les solutions, en incluant la modélisation des processus, la conception des robots, et la création des workflows. Tester et assurer la qualité et la fiabilité des solutions. Fournir un soutien technique aux équipes métier et aux utilisateurs finaux, en répondant aux questions, en résolvant les problèmes. Collaborer avec les développeurs RPA pour intégrer les solutions automatisées avec d'autres systèmes et technologies de l'entreprise. Suivre les performances des solutions RPA déployées, en identifiant les opportunités d'amélioration continue et en proposant des ajustements et des mises à jour au besoin. Assurer une communication transparente et efficace avec toutes les parties prenantes impliquées dans les initiatives d'automatisation RPA.

CDI
Freelance

Offre d'emploi
Développeur Java / Python / Scala /

HIGHTEAM
Publiée le
Apache Spark
API REST
Finance

3 ans
10k-71k €
Île-de-France, France

Nous recherchons pour notre client grand compte un consultant spécialisé dans les systèmes d’information avec de solides connaissances en finance de marché, à l'aise avec les méthodologies Agile. Description : Recueil des besoins et rédaction des spécifications fonctionnelles générales. Priorisation des projets ou des lots d'un projet. Suivi des développements avec la maîtrise d'œuvre. Établissement du cahier de recette et réalisation de la recette. Accompagnement à la mise en production. Formation des utilisateurs et rédaction des procédures et guides utilisateurs. Coordination de projet et reporting.

Freelance
CDI

Offre d'emploi
Testeur Automaticien

HR-TEAM
Publiée le
Apache Kafka
Automatisation
Selenium

36 mois
40 400-44 900 €
Lille, Hauts-de-France

Projet Vous intervenez sur un projet à très forte valeur ajoutée dans le secteur du retail. Poste et missions En qualité d’automaticien, vous participerez : • A la conception des tests automatisés et des jeux de données • A l’implémentation des tests. • La qualification, gestion et suivi des anomalies • A la mise en place des bonnes pratiques internes du Test • A la fiabilité des campagnes de tests implémentées • A la documentation des campagnes implémentées • Au support et accompagnement des équipes dans leur démarche Environnement technique : • JS/Xpath/CSS • SQL (PostgreSQL, MariaDB, ORACLE) • Selenium / Appium • Web service (REST API, SOAP) • Kafka, ESB • JavaScript basic knowledge • JIRA • Git Méthodologie de travail : Agile Télétravail : jusqu’à 2 jours/semaine Vous apportez votre expertise et vos capacités d’analyse à la réalisation de plusieurs projets pour l’évolution de l’entreprise.

Freelance
CDI

Offre d'emploi
Développeur Java/Angular (H/F)

Créalis Ingénierie
Publiée le
Angular
Apache Tomcat
API REST

6 mois
30k-50k €
Bordeaux, Nouvelle-Aquitaine

Au sein Créalis Bordeaux et pour le compte de notre client, vos missions seront essentiellement: Participer aux ateliers de conception technico fonctionnels Estimer vos charges et votre reste à faire Développer les composants répondant aux normes et standards des technologies utilisées Produire le code et utiliser un gestionnaire de configuration Participer activement aux daily et rituels du projet Écrire des tests unitaires Participer aux campagnes de tests Assurer la documentation et la capitalisation Participer à la vie de l'équipe

CDI
Freelance

Offre d'emploi
Data Analyst H/F

CAPEST conseils
Publiée le
Apache Airflow
Python
Snowflake

12 mois
10k-185k €
Paris, France

Afin de renforcer l’équipe DATA, nous recherchons un.e Data Analyst. Le Data Analyst travaille en étroite collaboration avec les équipes métiers et techniques, afin de leur fournir les données nécessaires à une prise de décision éclairée. Vos missions : · Répondre à des questions métiers, de façon ad hoc via des requêtes et extractions ou bien de façon plus pérenne via la création de tableaux de bord · Concevoir, développer, tester et maintenir les pipelines de transformations des données · Construire les transformations qui nous permettront de partager des données de qualité aux différentes directions/filiales · Collaborer avec les métiers afin de concevoir de nouveaux reportings · Collaborer avec l’équipe Data Science afin de les aider à la conception de leurs modules d’intelligence artificielle. · Être force de proposition pour l’amélioration continue des processus existants · Vous connaissez le SQL et vous êtes capable d’écrire des requêtes complexes. · Vous avez une appétence pour l’analyse de données et de Data Visualization · Vous avez un fort esprit analytique · Vous êtes clair et concis et vous savez vulgariser vos connaissances auprès du métier Bonus : · Vous connaissez Snowflake · Vous avez eu une expérience avec Airflow · Vous savez utiliser Git · Vous avez de l’expérience avec des langages de programmation comme Python

Freelance

Mission freelance
Ingénieur Data (Spark / Scala) H/F

HAYS MEDIAS
Publiée le
Apache Spark
Oracle
Scala

3 mois
100-640 €
Puteaux, Île-de-France

La Direction des Systèmes d’Information a pour missions de mettre au quotidien à disposition des 25 000 utilisateurs les données et les traitements nécessaires à leur activité, dans le respect des contrats de service; de garantir la sécurité et la pérennité des actifs informatiques du Groupe; d’accompagner le développement commercial du Groupe en France et à l’international ; d’élaborer de nouveaux systèmes d’information, de nouvelles infrastructures techniques et de maintenir les systèmes existants. Sur une architecture Big Data permettant de collecter les données de l’ensemble des Back Office dans un Datalake (cluster Hadoop), le projet consiste à exploiter ces données pour alimenter un Dataware communautaire stockée sur une base Exadata. Cette exploitation est réalisée par la conception de nouveaux traitements Spark/Scala manipulant les données raffinées du DataLake avec des règles métiers décisionnelles. Au sein de l'équipe projet Business Intelligence & Big Data, l'expert SPARK/SCALA aura les activités suivantes : - Conception détaillée, fonctionnelle et technique. - Développements SPARK / SCALA - Contribution à la formalisation des plans de tests, exécution des tests unitaires et d'un premier niveau de tests d'intégration. - Résolution des anomalies pendant les phases d’intégration fonctionnelle et de recette utilisateur. - Packaging et déploiement en pre-production et production. - Optimisation des traitements afin de garantir la qualité de service standards du DWG. - Mise en œuvre des solutions industrielles et de réentrance permettant une reprise optimum des traitements en cas d’incident en production. - Mise en service et accompagnement au déploiement. - Suivi des environnements.

Freelance
CDI

Offre d'emploi
Développeur Talend

HR-TEAM
Publiée le
Apache Kafka
Java
Snowflake

36 mois
40 400-44 900 €
Lille, Hauts-de-France

Projet Vous intervenez sur un projet à très forte valeur ajoutée dans le secteur bancaire. Poste et missions Vous intégrerez notre squad Data/IA et travaillerez en étroite collaboration avec les équipes BI en accomplissant les activités suivantes : • Conception de solution : pattern d’architecture à instancier sur la plateforme, identification des données sources requises, capacités Socle requises, chiffrage et risques associés • Développement ou suivis des développements des usages • Tests, recette et mise en production des usages snowflake • Enrichissement du processus de gouvernance des données associées à l’usage • Veille et prospective sur les usages, outils data en accord avec la cible décisionnelle définie sur snowflake Méthodologie de travail : Agile Télétravail : 2 jours par semaine Vous apportez votre expertise et vos capacités d’analyse à la réalisation de plusieurs projets pour l’évolution de l’entreprise.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous