Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 75 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Suivant
Freelance

Mission freelance Expert Apache Tomcat

Frank Recruitment Group Services Ltd
Publiée le

1 an
La Défense, Île-de-France
mon client recherche un consultant pour un diganostic sur leurs serveurs et infra. Un consultant expert Apache Tomcat, VMWare capable de faire des tests de montée en charge, des upgrades de VM. Savoir pourquoi des passages de 2 à 4 CPU provoquent des latences et des budgs. Interventions ponctuels pouvant être compatibles avec un part time. Remote friendly
Freelance

Mission freelance Ingénieur de développement Apache Groovy ⚡ Energie

CONCRETIO SERVICES
Publiée le
Groovy
Java
JIRA

1 an
400-450 €
Hauts-de-Seine, France
▸ Concevoir, développer, tester et déployer des plugins JIRA en utilisant Groovy, JavaScript et les APIs JIRA ▸ Collaborer avec les chefs de produit et les autres développeurs pour comprendre les besoins des clients et concevoir des solutions logicielles innovantes ▸ Écrire du code propre, documenté et testable ▸ Assurer la maintenance et la mise à jour des plugins existants ▸ Participer aux revues de code et aux tests d’intégration ▸ Respecter les normes de codage et les meilleures pratiques ▸ Suivre les méthodologies Agile et DevOps
Freelance

Mission freelance Développeur Mobile - Ionic / Apache Cordova

STAR TEC INFORMATIQUE
Publiée le

2 ans
400-500 €
Montreuil, Île-de-France
Au sein de l’équipe mobile pour créer des solutions robustes, évolutives et performantes qui répondent aux besoins des usagers. Vous assurerez principalement les activités suivantes : Concevoir et développer des applications mobiles multiplateformes en utilisant le framework Ionic et Apache Cordova. Collaborer avec le responsable du pôle mobile et l’équipe de développement pour définir les spécifications et les exigences des projets. Participer à la planification du développement. Assurer la résolution des problèmes, la maintenance et l’optimisation des applications existantes. Intégrer des API tierces et des services Web dans les applications. Effectuer des tests unitaires et participer à des tests d’intégration. Rester à jour sur les nouvelles technologies et les meilleures pratiques dans le domaine du développement mobile.
CDI

Offre d'emploi Développeur Mobile - Ionic / Apache Cordova

STAR TEC INFORMATIQUE
Publiée le

44k-52k €
Montreuil, Île-de-France
Au sein de l’équipe mobile pour créer des solutions robustes, évolutives et performantes qui répondent aux besoins des usagers. Vous assurerez principalement les activités suivantes : Concevoir et développer des applications mobiles multiplateformes en utilisant le framework Ionic et Apache Cordova. Collaborer avec le responsable du pôle mobile et l’équipe de développement pour définir les spécifications et les exigences des projets. Participer à la planification du développement. Assurer la résolution des problèmes, la maintenance et l’optimisation des applications existantes. Intégrer des API tierces et des services Web dans les applications. Effectuer des tests unitaires et participer à des tests d’intégration. Rester à jour sur les nouvelles technologies et les meilleures pratiques dans le domaine du développement mobile.
Freelance

Mission freelance Expert développeur Pyhton (AI, Fast API, Apache Solr/OpenSearch, LangChain...)

Kaïbee
Publiée le

1 an
400-650 €
Paris, France
PAS DE SOUS-TRAITANCE // MERCI Pour une mission longue durée nous recherchons un développeur Python afin d’intervenir sur le développement d’une nouvelle plateforme alliant les technologies du Search et de l’IA. Pour mener à bien ce projet, nous recherchons de manière urgente des experts en développement Python (Fast API, Apache Solr/OpenSearch, LangChain...) Concevoir, développer et maintenir des applications Python avancées intégrant des fonctionnalités de recherche performantes. Collaborer avec les équipes de recherche et d’IA pour intégrer des algorithmes avancés dans les solutions de recherche. Optimiser les performances des systèmes de recherche grâce à des techniques de traitement du langage naturel (NLP) et d’apprentissage automatique (ML). Participer à la conception et à l’implémentation de pipelines de traitement de données pour améliorer la qualité des résultats de recherche
Freelance

Mission freelance Expert Middleware : Apache-Tomcat-Redis ANGERS - 2j TT/s

SAS AKERWISE
Publiée le

2 ans
Angers, Pays de la Loire
La mission s’articule autour de la mise en place et du support des solutions middleware OpenSource : Apache, Tomcat, Redis. Objectifs/Descriptif de mission : Le pôle serveur d’application a, entre autres, en charge la gestion des produits Apache, Tomcat et Redis. A ce titre, le pôle est responsable de l’homologation de ces produits, c’est-à-dire : - du packaging des produits, - de la normalisation de l’utilisation des produits, - de l’architecture technique à mettre en œuvre sur les produits - du développement des composants techniques nécessaires à l’exploitation de ces produits, - de l’assistance technique auprès des fabricants, - du support technique de niveau 3 auprès des exploitants, - de la réalisation de cercles techniques et autres actions de communication
Freelance

Mission freelance Administrateur Datavirtualisation

Celexio
Publiée le
Ansible
Apache
Docker

1 an
440-620 €
La Défense, Île-de-France
Voici la description du poste : o Assurer le run du service Apache Dremio en place, via l’analyse, la résolution des incidents, ou des montées de version régulières du produit. o Prendre en charge le support et l’expertise autour du produit Dremio, ainsi que la relation avec l’éditeur et avec les équipes en charge des produits avec lesquels Dremio s’interface. o Informer l’équipe des évolutions, nouvelles possibilités apportées par l’outil Dremio ou les outils connectés à Dremio. o Pour les technologies ou cas d’usage validés, être en mesure de réaliser des MVPs afin de valider et documenter la faisabilité et l’intérêt de ces solutions. Environnement technique du poste : Ansible (Ansible 2.11 et +), Python (Python 3.6 +), Spark 3+ : spark SQL, Spark Streaming compris Serveurs Web et serveurs d’applications : Apache ou NGINX, Tomcat, etc Une maîtrise et une culture devops et Open Source (Jenkins ou outil CI/CD, Linux, Docker, Ansible ) Hadoop : expérience de un an minimum o Fonctionnement de l’architecture de base de la distribution, o Utilisation des technologies hive, Yarn, HDFS, Ranger, Maîtrise des éléments de sécurité suivants : o annuaires LDAP o Kerberos, oauth2, o droits POSIX et Access Control Lists, o privilèges de bases de données Le poste est basé à La Défense avec 2 jours de télétravail, nous recherchons donc un profil francilien :) Quelques tâches prévues à traiter : o Étude de l’utilisation d’Iceberg dremio et applications sur l’existant o Faire des montées de version sur Dremio (21 à 27) o Passer de Yarn à Kubernetes o Mise en haute disponibilité du coordinateur dremio
CDI

Offre d'emploi Ingénieur de données (H/F)

DSI group
Publiée le
Apache Airflow
Azure
Database

40k-50k €
Luxembourg
DSI GROUP recherche pour son client un(e) Ingénieur de données (H/F), au Luxembourg. Vos missions sont les suivantes : Conception, développement et maintenance de l’infrastructure de données pour les applications de science des données Conception, développement et maintenance des pipelines de données pour l’ingestion, la transformation et le chargement des données en provenance de différentes sources Conception de modèles et de schémas de données pour un stockage et une récupération de données optimisés en collaboration avec les data scientists et les analystes Gestion de la validation et du déploiement de divers modèles d’apprentissage automatique Gestion des bases de données relationnelles (MS-SQL) et non relationnelles (Mongo DB) en garantissant les performances, la disponibilité et la sécurité Développement et support des data scientists avec des technologies et des cadres de big data basés sur le cloud Utilisation rentable des services cloud de MS Azure pour le stockage, le calcul et l’analyse des données Collaboration avec les équipes informatiques transversales et les contreparties métier pour fournir des solutions de science des données répondant aux besoins métier Garantie de la sécurité des données dans la manipulation et le stockage des données en mettant en œuvre des contrôles d’accès et d’autres mesures de sécurité Garantie de la qualité des données en mettant en œuvre des vérifications de qualité des données et une gouvernance des données Proposition, conception, documentation et mise en œuvre de l’architecture des applications. 🔎 Compétences et expériences requises : Maîtrise des langages de programmation tels que Python, Java, Scala, etc. Compréhension approfondie des concepts et techniques d’apprentissage automatique, avec une expérience de déploiement et de surveillance de modèles d’apprentissage automatique en production. Connaissance experte des systèmes de base de données tels que MS SQL, MySQL, Oracle, MongoDB, etc. Expérience dans la conception, le développement et la maintenance de pipelines ETL avec des outils tels que Apache NiFi, Apache Airflow, Azure Databricks, etc. Expérience dans les services gérés d’Azure tels qu’Azure Machine Learning, Azure SQL Database, Azure Cosmos DB, etc. Bonne connaissance des technologies de conteneurisation comme Docker, Singularity et Kubernetes
Freelance

Mission freelance Développeur java

COEXYA
Publiée le
Apache Kafka
Java
Powershell

1 an
100-510 €
Lyon, Auvergne-Rhône-Alpes
- Indexer et restituer de nouvelles sources de données via les techno cible de CATS (Kafka, Elastich, API Rest) avec le progiciel SINEQUA - Participer à l'amélioration des outils et à la mise en place de CI/CD, de bonne pratique DevOps - Réaliser des modifications sur l'IHM du moteur de recherche Développer de nouvelles fonctionnalités afin d'améliorer l'usage du moteur aux collaborateurs Kafka, AVRO, Powershell, Windows; IIS Java, JS, JSP, JPA Sprint Boot, Maven, LiquiBase, Quartz Sinequa, ElasticSearch C#
Freelance

Mission freelance Développeur Java React Kafka

CAT-AMANIA
Publiée le
Apache Kafka
Java
React

1 an
450-550 €
Paris, France
Je suis à la recherche pour un de nos clients d'un Développeur Java React Kafka. Dans le cadre du projet de développement des nouvelles offres du Client Ses principales missions seront de :  Participer aux analyses techniques et aux études d’impacts en amont des développements  Concevoir des solutions en respectant les bonnes pratiques de développements  Fournir des chiffrages détaillés des futures réalisations (dans le cadre de la méthode SCRUM)  Réaliser les développements  Effectuer des contrôles croisés afin d’assurer la qualité des développements réalisés par l’équipe  Assurer le support de niveau 2 aux équipes d’homologation lors des phases de recette  Assurer le support lors des mises en production de chacune des évolutions  Assurer le maintien en condition opérationnelle des applications du périmètre (effectuer les analyses sur incident en support des équipes d’exploitation, et réaliser les correctifs le cas échéant).  Développement Back-End en JAVA 11+  Développement Front-end React, HTML5, CSS3…  Les frameworks JAVA commun tels que Hibernate, et la suite Spring  Les modèles d’architectures Microservice (CQRS, Event driven, architecture Hexagonale)  Pratique de la sécurité des APIs (OAuth2)  Connaissance et pratique d’Apache Kafka, Kaftka Stream  Serveur d'application Tomcat et des technologies JEE  Utilisation quotidienne de l'IDE IntelliJ  Utilisation des outils de "CI" (Gitlab CI) et de contrôle de source (Bitbucket / Git)  Infra cloud (GCP, Kubernetes, Helm, ArgoCD).  Environnement UNIX et LINUX (Redhat), Script Shell, Bash, Python, Etc.  Techniques de conception (UML)  Les bases de données et la modélisation (SQL, PostgreSQL)  La méthodologie Agile SCRUM
CDI
Freelance

Offre d'emploi INGENIEUR ETUDES ET DEVELOPPEMENT JAVA / DEVOPS - NANTES (44)

HIGHTEAM GRAND SUD
Publiée le
Angular
AngularJS
Ansible

1 an
10k-55k €
Nantes, Pays de la Loire
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez une équipe qui évolue dans un contexte international. En qualité d'Ingénieur Etudes et Développement Java / Devops F/H, vous serez en charge de : Développer les nouvelles fonctionnalités pour faire évoluer le socle technique de notre client Assurer la maintenance corrective et évolutive en production Apporter votre expertise sur différents projets Le poste est à pourvoir sur Nantes (44). Dans le cadre de vos fonctions, vous pourrez bénéficier de 2 jours de télétravail par semaine.
Freelance

Mission freelance Développeur Big Data - Spark - Python - Hadoop

Celexio
Publiée le
Ansible
Apache Spark
Docker

2 ans
430-470 €
Paris, France
Nous sommes à la recherche d’un développeur Big Data pour l’un de nos clients dans le secteur de l’énergie. Vous interviendrez sur un projet de migration d’infrastructure vers des distributions Hadoop open source (TDP). Vous travaillerez au développement logiciel pour l’ingestion de données. Votre rôle dans cette mission consistera au: - Développement de scripts d’ingestion de données dans le Datalake - Déploiement du code d’installation des machines et automatisation via Ansible - Administration de l’infrastructure BDP (Big Data Platform) des clusters - MCO du cluster Datalake - Déploiement des noeuds configurés des clusters BDP à l’aide d’outils DevOps - Conteneuriser les applications avec Docker et Docker-compose - Maintenir la qualité de code Pour information l’environnement technique est le suivant : Python v3.6, Spark v3, Docker, Ansible, Git, Nexus, Jenkins, Sonar. Stockage Big Data basé sur la Trunk Data Platform : Hive / tez, HDFS, Hue / Hue Notebook, Yarn / Spark 3, Zookeeper, Ranger, Knox / Livy. C’est une mission pour un démarrage ASAP à Paris, en remote partiel (2-3j /semaine), avec une longue visibilité (+2ans).
Freelance
CDI

Offre d'emploi Tech lead Expert Middleware

ARDEMIS PARTNERS
Publiée le
Apache Kafka
Apache Tomcat
API

6 mois
56k-60k €
Paris, France
Pour ce poste, vous aurez en charge : Maintien en Condition Opérationnel – Niveau 2/3 : Assurer le suivi de la performance d’une plate-forme qui est au cœur des échanges de données entre les applications. Assurer le suivi des tickets et demandes de support « ouverts » chez les éditeurs Elaboration et suivi la RoadMAP technique : Suivi des nouvelles version et Patch éditeurs, qualifications des versions et installation Suivi et gestion de la capacité des briques MDW Être en support des intégrateurs des applications dans la résolution des incidents afin de les rendre le plus autonome possible Evolutions des normes et standards Maintenir la documentation à jour (procédures, modes opératoires) Optimisation et Evolutions : Faire évoluer les normes, les bonnes pratiques et les communiquer Automatiser (ansible) les installations des nouvelles briques techniques et les tâches d’administration courantes Être force de proposition Projets : Être acteur dès le démarrage des projets (réflexion à l’architecture, sécurité, etc) Réaliser les actions de BUILD : installation, configuration, paramétrage des couches Middleware Réaliser les tests de performances et non régression au niveau du socle Middleware Apporter l’expertise aux projets Être en support des intégrateurs des applications dans les actions de Build afin de les rendre le plus autonome possible Communication, Reporting et travail en équipe : Synthèse et communication auprès du management et Incidents Manager sur les incidents et anomalies traitées/en cours Suivi des tâches (Incidents, Problem, demandes, Kanban) et reporting clair sur l’avancement/le reste à faire
CDI

Offre d'emploi Consultant JAVA / BIG DATA - Banque/Finance (H/F)

SOFTEAM
Publiée le
Apache Spark
Big Data
Hadoop

55k-80k €
Île-de-France, France
SOFTEAM recherche son(sa) prochain(e) consultant(e) Ingénieur(e) JAVA / BIG DATA (Hadoop, Spark, Scala) pour intervenir chez nos clients Grands Comptes du secteur de la banque/finance (banque de détail, banque d'investissement/CIB, trade finance, asset management, front office, middle office, back office). VOTRE MISSION Chez un client grand compte, vos missions seront : Gestion de bases de données massives. Collecte, nettoyage, prétraitement et analyse des données. Sélectionner ou isoler les informations importantes en fonction du cahier des charges prévu. Concevoir une architecture technique. Mise en place de solutions de stockage de données. Conception et développement de systèmes de traitement de données. Maintenance et surveillance des systèmes. Optimisation des performances. Sécurité des données. S’assurer de la qualité des données. Réaliser des rapports détaillés.
CDI
Freelance

Offre d'emploi Architecte Big DATA/Cloud Azure

Inventiv IT
Publiée le
Apache Hive
Apache Kafka
Apache Spark

3 ans
80k-90k €
Levallois-Perret, Île-de-France
Dans le cadre de son développement, Inventiv IT recrute un Architecte DATA avec une expérience de 8 ans au minimum. Le Poste est basé à Paris. Rythme de Travail Hybride Mise en place architectures de projets Big Data sur le Cloud Azure Cadrage et Chiffrage projets Big Data Définition des solutions d’architecture Big Data dans le cloud Azure répondant aux besoins et exigences client et aux bonnes pratiques et standards. Rédaction des Dossiers d’Architecture Logiciels (DAL) et Validation des Dossiers d’Architecture Technique (DAT) Garantir la cohérence technique et la pérennité du système d’information Participation à des instances de : Design Authority (Urba, Archi, Data Gouv), CoArch avec les Architectes Techniques, CAO (Comité d'Architecture Opérationnel), Validation Architecture du Product Incrément, Réunions de qualification/validation avec le RSSI (PrekaZen, Remédiations), Suivi de chantiers de résilience, suivi FinOps Participation à la définition/amélioration du Socle Big Data : Architectures types, stacks techniques, outils, règles de gouvernance et best practices. Migration des projets dans des nouvelles architectures : HDI vers AKS, Datalake Gen1 ver Gen2, AKS 1.19 vers AKS 1.21 Conception de solutions : monitoring de PaaS et synchronisation des données de Prod et Hprod. Veille et conseil aux équipes de conception Réunions/Design session : Microsoft, Databricks, Datadog, Dataglaxy Participation à la définition des infrastructures big data Conduite de projets d’infrastructures Suivi et amélioration des processus Contexte Agile (Scrum, Kanban, Agilité à l’échelle) Réalisation de POC et POT Accompagnement et conseil Encadrement des équipes fonctionnelles et techniques Évoluez sous méthodologie AGILE/SCRUM Environnement Technique indispensable : Spark , Azure Databricks, Azure Kubernetes Services , Event Hub , Azure DataLake Gen1/Gen2 , Azure Data Factory , PowerBI , PostgreSQL Harbor , Datadog Une certification Azure Solution Architect est un vrai +
CDI

Offre d'emploi Ingénieur Senior Cassandra

BUBBLE GO
Publiée le
Apache
Cassandra
Java

Genève, Suisse
Activités principales - Administrer Apache Cassandra dans le périmètre du système archivage électronique documentaire. o Assurer la stabilité de l’applicatif et garantir la pérennité des données. o Réaliser les actions nécessaires au monté de version en développement, en recette et en production dans un objectif d’exploitabilité optimale, en respect du niveau de service attendu. o Participer à la définition de l’architecture technique. o Installer, configurer, paramétrer dans les différents environnements. o Rédiger/compléter la documentation et la transmettre pour validation. o Effectuer des tests réguliers de restauration des données. Activités spécifiques - Prendre part aux tâches d’administration au travers de périodes de piquet et d’astreinte sur demande. - Participer aux montés de versions de Datacontent (validation et déploiement). - Participer à la définition et la rédaction des procédures de mise en production, d’administration et d’exploitation. - Garantir le transfert de connaissances auprès des collègues du secteur et des autres entités de l’ OCSIN. - Etre force de proposition sur l’évolution des logiciels. - Participer aux phases de conception détaillée avec l’architecte des SIC, afin de rendre des avis techniques de faisabilité et de proposer des solutions alternatives. - Proposer, planifier et suivre les chantiers d’amélioration continue et de stabilisation de la plateforme collaborative documentaire de l’Etat de Genève - Garantir auprès des autres entités OCSIN dans les phases de projet, l’expertise du secteur sur les phases de conception pour qu’elles tiennent compte des besoins et des contraintes du système archivage électronique documentaire.
Suivant

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !