Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 168 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
DEVIENS #AUTEUR Apache Cassandra

Editions ENI
Publiée le
Base de données
Cassandra
Nosql

8 mois
100-300 €
Saint-Herblain, Pays de la Loire

Nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre ouvrage qui portera sur Cassandra. Pourquoi pas moi ? Je suis formateur(trice), consultant(e), développeur(euse)... et Apache Cassandra n'a aucun secret pour moi. J’ai envie de partager mon expertise et mon expérience au plus grand nombre ! Notre équipe éditoriale t’accompagnera à chaque étape de la conception du livre en partageant avec toi leur savoir-faire et leur expérience dans la création de livres en informatique.

Freelance
CDI
CDD

Offre d'emploi
Expert Middleware (WAS / JBoss / Apache Tomcat / IIS)

LOMEGARD
Publiée le
Ansible
Apache Tomcat
Internet Information Services (IIS)

3 ans
10k-60k €
Île-de-France, France

Expert Middleware (WAS / JBoss / Apache Tomcat / IIS) L'expert rejoindra le service qui regroupe les équipes d'ingénieries infrastructures, middlewares et bases de données. Missions: Administration courante WAS (Websphere) Administration courante JBoss / Wildfly Mise en œuvre des infrastructures serveurs Web d'applications (Apache Tomcat et IIS) Administration des outils CI/CD Automatisation (Scripting / Ansible / Rundek) Support de niveau 4 (la production est opérée à Singapour) Développement JAVA (optionnel)

Freelance
CDI

Offre d'emploi
Développeur Sénior - Techlead JAVA BACKEND - Multithreading Calculs distribués - Apache Ignite

Digistrat consulting
Publiée le
Java

36 mois
10k-200k €
Paris, France

Objectif : Au sein de l'équipe IT RISK PnL, vous interviendrez sur une application d'aide à la décision pour le trading. L'application permet de gérer des données historiques sur les clients, les données de marché, les données intraday et des mesures de risques ainsi que visualiser les axes de trading. L'application utilise : - Angular 15 comme front end - Java 11 et Python 2 en back end - Apache ignite pour le calcul distributé - Mongo DB comme base de données - Pour la partie déploiement on utilise Docker / kubernetes et Jenkins Liste des tâches attendues dans le cadre de la mission : Le candidat sera chargé de la partie back end ainsi que de la partie dev ops L'objectif est de développer des nouvelles fonctionnalités demandées par le trading Améliorer techniquement la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions

Freelance
CDI

Offre d'emploi
Développeur Sénior - Techlead JAVA BACKEND - Multithreading Calculs distribués - Apache Ignite

Digistrat consulting
Publiée le
Java

36 mois
10k-200k €
Paris, France

Objectif : Au sein de l'équipe IT RISK PnL, vous interviendrez sur une application d'aide à la décision pour le trading. L'application permet de gérer des données historiques sur les clients, les données de marché, les données intraday et des mesures de risques ainsi que visualiser les axes de trading. L'application utilise : - Angular 15 comme front end - Java 11 et Python 2 en back end - Apache ignite pour le calcul distributé - Mongo DB comme base de données - Pour la partie déploiement on utilise Docker / kubernetes et Jenkins Liste des tâches attendues dans le cadre de la mission : Le candidat sera chargé de la partie back end ainsi que de la partie dev ops L'objectif est de développer des nouvelles fonctionnalités demandées par le trading Améliorer techniquement la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions

Freelance
CDI

Offre d'emploi
Développeur Sénior - Techlead JAVA BACKEND - Multithreading Calculs distribués - Apache Ignite

Digistrat consulting
Publiée le
Java

36 mois
10k-200k €
Paris, France

Objectif : Au sein de l'équipe IT RISK PnL, vous interviendrez sur une application d'aide à la décision pour le trading. L'application permet de gérer des données historiques sur les clients, les données de marché, les données intraday et des mesures de risques ainsi que visualiser les axes de trading. L'application utilise : - Angular 15 comme front end - Java 11 et Python 2 en back end - Apache ignite pour le calcul distributé - Mongo DB comme base de données - Pour la partie déploiement on utilise Docker / kubernetes et Jenkins Liste des tâches attendues dans le cadre de la mission : Le candidat sera chargé de la partie back end ainsi que de la partie dev ops L'objectif est de développer des nouvelles fonctionnalités demandées par le trading Améliorer techniquement la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions

Freelance
CDI

Offre d'emploi
Développeur Sénior - Techlead JAVA BACKEND - Multithreading Calculs distribués - Apache Ignite

Digistrat consulting
Publiée le
Java

36 mois
10k-200k €
Paris, France

Objectif : Au sein de l'équipe IT RISK PnL, vous interviendrez sur une application d'aide à la décision pour le trading. L'application permet de gérer des données historiques sur les clients, les données de marché, les données intraday et des mesures de risques ainsi que visualiser les axes de trading. L'application utilise : - Angular 15 comme front end - Java 11 et Python 2 en back end - Apache ignite pour le calcul distributé - Mongo DB comme base de données - Pour la partie déploiement on utilise Docker / kubernetes et Jenkins Liste des tâches attendues dans le cadre de la mission : Le candidat sera chargé de la partie back end ainsi que de la partie dev ops L'objectif est de développer des nouvelles fonctionnalités demandées par le trading Améliorer techniquement la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions

Freelance
CDI

Offre d'emploi
Développeur Sénior - Techlead JAVA BACKEND - Multithreading Calculs distribués - Apache Ignite

Digistrat consulting
Publiée le
Java

36 mois
10k-200k €
Paris, France

Objectif : Au sein de l'équipe IT RISK PnL, vous interviendrez sur une application d'aide à la décision pour le trading. L'application permet de gérer des données historiques sur les clients, les données de marché, les données intraday et des mesures de risques ainsi que visualiser les axes de trading. L'application utilise : - Angular 15 comme front end - Java 11 et Python 2 en back end - Apache ignite pour le calcul distributé - Mongo DB comme base de données - Pour la partie déploiement on utilise Docker / kubernetes et Jenkins Liste des tâches attendues dans le cadre de la mission : Le candidat sera chargé de la partie back end ainsi que de la partie dev ops L'objectif est de développer des nouvelles fonctionnalités demandées par le trading Améliorer techniquement la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions

Freelance

Mission freelance
INTEGRATEUR APPLICATIF TOMCAT / APACHE EXPERIMENTE

PROPULSE IT
Publiée le

Paris, France

PROPULSE IT accompagne ses clients grands comptes et PME dans la mise en œuvre des projets It et digitaux. PROPULSE IT est un réseau de consultants à forte valeur ajoutée, complètement associé à notre démarche qualité de suivi des besoins et projets de nos clients. A ce jour, le réseau de freelance PROPULSE IT comporte plus de 18000 consultants sur toute la France, et couvre l'ensemble des besoins IT et digitaux. En constituant ce réseau par cooptation de clients ou de consultants, nous avons privilégié la constance dans le savoir-faire technique et le savoir-être, pour devenir un véritable partenaire privilégié de nos clients. Parallèlement, nous avons développé un réseau de partenaires sélectionnées pour leur expertise technique, et l'adhésion aux valeurs de notre entreprise. Aujourd'hui PROPULSE IT est une société en pleine croissance organique, Champion de la Croissance du journal Les Echos 4 années consécutives. Ce développement s'appuie sur la qualité et la pérennité des missions réalisées. La satisfaction client est ainsi liée à l'épanouissement des consultants ! Alors, n'hésitez pas à postuler ! Pour un démarrage sous un mois environ, nous recherchons un(e) intégrateur technique d'application freelance très expérimenté pour intégrer les application web chez notre client, en lien avec la production et les équipes de développement. Très Important : le profil recherché n'est pas un ingénieur de production qui gère des procédures d'intégration applicative mais un consultant habitué à être intercalé entre les équipes de développements et la production et qui prépare les documents d'installation. de plus il doit être expert et parfaitement autonome avec beaucoup d'expérience sur Tomcat / Apache. Pas de Devops dans le périmètre. Astreintes possibles soir et week-end - répartition selon l'équipe Livrables sont : - Dossier d'installation - Composants applicatifs -Configuration applicative Description détaillée - Capable de configurer/installer tomcat manuellement sur windows ou linux - Capable d'analyser les logs tomcat en cas d'erreur - Capable de configurer/installer manuellement un serveur httpd - Capable d'analyser les logs httpd en cas d'erreur - Savoir évoluer dans un environnement linux - Récupération des livrables de développement sur les outils de Gestion de configuration (SVN, GIT) - Installation des packages sur les plateformes de tests - Qualification des packages sur les plateformes de tests selon les normes en vigueur - Vérification de la conformité des applications vis à vis des contraintes de production - Rédaction et validation des documents d'installation et d'exploitation - Rédaction et exécution des plans de tests techniques - Assistance et support technique à la mise en production - Communication avec l'équipe projet - Reporting Compétences techniques : - Middleware : TomCat, Apache - Expert - Impératif - Systèmes : CentOs, RedHat - Expert - Important -Système : Windows - Confirmé - Serait un plus Connaissances linguistiques - Français Courant (Impératif)

Freelance

Mission freelance
Data Scientist - MLOps (F/H)

SMARTPOINT
Publiée le
Apache
Kubernetes

12 mois
400-450 €
Île-de-France, France

Description du poste : En tant que Data Scientist spécialisé en MLOps (Machine Learning Operations), vous serez chargé de concevoir, développer et déployer des modèles d'apprentissage automatique à grande échelle, tout en assurant leur intégration harmonieuse dans les systèmes de production. Vous travaillerez en étroite collaboration avec les équipes d'ingénierie des données, les scientifiques des données et les développeurs logiciels pour automatiser et optimiser le cycle de vie des modèles, de l'entraînement à la production. Responsabilités : Développement de modèles d'apprentissage automatique : Concevoir et mettre en œuvre des modèles d'apprentissage automatique en utilisant des techniques avancées telles que l'apprentissage supervisé, non supervisé et par renforcement. MLOps : Mettre en place des pipelines de déploiement automatisés pour les modèles, en utilisant des outils et des frameworks tels que Kubeflow, MLflow ou TensorFlow Extended (TFX). Automatisation et orchestration : Développer des processus automatisés pour l'entraînement, le déploiement et la surveillance des modèles, en utilisant des outils tels que Apache Airflow ou Kubernetes. Surveillance des performances : Mettre en place des systèmes de surveillance pour suivre les performances des modèles en production, en identifiant les dégradations de performance et en proposant des améliorations. Collaboration interfonctionnelle : Travailler en étroite collaboration avec les équipes d'ingénierie des données, les scientifiques des données et les développeurs logiciels pour intégrer efficacement les modèles dans les applications et les services. Optimisation des ressources : Optimiser l'utilisation des ressources informatiques en mettant en place des stratégies de mise à l'échelle automatique et en utilisant des architectures cloud adaptées. Sécurité et conformité : Assurer la sécurité et la conformité des modèles en mettant en place des pratiques de gouvernance des données et en garantissant la confidentialité des informations.

Freelance

Mission freelance
data engineer python spark anglais - 5 ans d'EXP

Innov and Co
Publiée le
Apache Spark
Kubernetes
PySpark

12 mois
100-600 €
Issy-les-Moulineaux, Île-de-France

Dans un secteur logistique en plein essor, en prise direct avec les problématiques actuelles (smart cities, environnement, géopolitique), et en pleine transformation technologique (véhicules autonomes, digitalisation, mobilité), DPD Group vous offre l’opportunité d’avoir un impact direct sur la gestion de colis du futur. Vous intégrerez l’équipe Analytics et contribuerez principalement au développement de la plateforme DataHub. Actuellement petite équipe autonome de 4 personnes engagées à 100% sur ce projet, l’équipe Analytics est intégrée au sein de l’équipe Data Science & Analytics de la DPSIN. L’objectif de la plateforme interne DataHub est de stocker les données historiques des activités et permettre leur requêtage efficient. Les données sont issues de et exploitées par divers acteurs – Marketing, Sales, OPS, IT, Data Science, … en central ou depuis les Business Units – pour des usages tels que la récupération simple de données historiques, la BI ou le machine learning. L’environnement de travail est international, avec des contacts quotidiens avec des équipes en France et à l’étranger. Les demandes d’utilisations de la plateforme croissent fortement. La plateforme DataHub en quelques faits : § 2023 : Forte croissance des usages de la plateforme (BI, requêtage ad-hoc, requêtages fréquents standardisés et hautes performances d’applications), enrichissement de l’offre de services (Data Viz avec Superset) § 2024 : Monter en charge sur les usages (plus de use cases !), étendre l’offre de services et améliorer l’expérience utilisateurs (Data Viz, Data lineage), optimiser l’usage de notre stack technique (Spark, Airflow...), généraliser l’usage de tables d’Apache Iceberg, poursuivre l’industrialisation des pipelines de traitement de données… o Les cas d’usages aujourd’hui en production : § 9 rapports BI servis § Requêtages fréquents (standardisés et tunés, avec ou sans API) par des applications :: 4 cas d’usages § Requêtage ad-hoc croissant des data scientists et équipes IT (+1000 requêtes / mois) o Volumes de données sous gestion active : § ~10 To de données § +15 flux de données § Flux de donné majeur : +100 millions d’évènements / jour d’évènements sur les colis Environnement technique : § Data Lake basé sur des technologies open source. § Architecture Cloud Kubernetes (Outscale Cloud) § Stockage des données sur du S3 (Outscale OOS) sous forme de fichiers Parquet (simples ou tables Iceberg) ou json § Query engine pour se connecter (S3 et autres DB) et requêter (SQL standard) les données : Dremio § Maintenance de tables Iceberg et requêtage de données avec Apache Spark § Automatisation des opérations et traitements de données en python avec Apache Airflow § Data Viz orientée métier avec Apache Superset § Data Viz orientée Monitoring IT avec Grafana § APIs développées en Python et Java § Gestion de version et CI/CD avec GIT Lab Organisation : § Equipe Produit de 4 personnes § Mode de travail Agile Scrum

Freelance

Mission freelance
INGENIEUR DE PRODUCTION

GROUPE ARTEMYS
Publiée le
Apache
Control-M
Oracle

6 mois
380-450 €
Nantes, Pays de la Loire

De belles missions vous attendent chez notre client sur des environnements riches et challengeants : Vous intégrez un acteur majeur du secteur bancaire, aux valeurs fortes telles que la proximité, la coopération et l’expertise. Vos missions au quotidien : Installer, déployer, administrer, exploiter les applications du domaine confié dans le respect des normes et des règles de sécurité. Assurer le bon fonctionnement des applications du Système d’information et des environnements techniques. - Mettre en œuvre la supervision technique, gérer les incidents et effectuer des maintenances de 2eme niveau. Participer à l’installation des infrastructures ou produits, le paramétrage et la validation des composants de l’infrastructure. Participer aux tests et rédiger les dossiers d’exploitation. Contribuer à la réalisation des actions de capacity planning voire en assurer la responsabilité sur délégation de son responsable. Participer à la gestion de l’évolution du SI (analyse des impacts et besoins, schéma d’ensemble et scénarios d’évolution du SI, plans d’équipement). Contribuer activement à la démarche d’amélioration continue.

CDI
Freelance

Offre d'emploi
Data Analyst H/F

CAPEST conseils
Publiée le
Apache Airflow
Python
Snowflake

12 mois
10k-185k €
Paris, France

Afin de renforcer l’équipe DATA, nous recherchons un.e Data Analyst. Le Data Analyst travaille en étroite collaboration avec les équipes métiers et techniques, afin de leur fournir les données nécessaires à une prise de décision éclairée. Vos missions : · Répondre à des questions métiers, de façon ad hoc via des requêtes et extractions ou bien de façon plus pérenne via la création de tableaux de bord · Concevoir, développer, tester et maintenir les pipelines de transformations des données · Construire les transformations qui nous permettront de partager des données de qualité aux différentes directions/filiales · Collaborer avec les métiers afin de concevoir de nouveaux reportings · Collaborer avec l’équipe Data Science afin de les aider à la conception de leurs modules d’intelligence artificielle. · Être force de proposition pour l’amélioration continue des processus existants · Vous connaissez le SQL et vous êtes capable d’écrire des requêtes complexes. · Vous avez une appétence pour l’analyse de données et de Data Visualization · Vous avez un fort esprit analytique · Vous êtes clair et concis et vous savez vulgariser vos connaissances auprès du métier Bonus : · Vous connaissez Snowflake · Vous avez eu une expérience avec Airflow · Vous savez utiliser Git · Vous avez de l’expérience avec des langages de programmation comme Python

CDI

Offre d'emploi
Développeur Back End Senior

Aepsilon
Publiée le
Apache Kafka
Apache Tomcat
J2EE / Java EE

45k-47k €
Valbonne, Provence-Alpes-Côte d'Azur

Vous offririez bien un peu de challenge à votre vie professionnelle, mais vous n’avez pas encore trouvé LE rôle qui va vous donner cette envie de changement ? Il se peut que l’on ait quelque chose à vous proposer :) En effet, nous vous proposons de rejoindre une entreprise à taille humaine, dynamique et bienveillante. Son domaine d’activité : le voyage. Son objectif : simplifier la réservation des billets d’avion grâce à des solutions innovantes. Venons-en au poste : nous recherchons un Développeur back-end senior . Challenger l’architecture de la solution Prendre part aux décisions concernant les évolutions techniques Gérer la migration du back-end historique vers un nouveau back-end (architecture micro services) Définir les bonnes pratiques de développement pour le back-end Définir, développer et maintenir les composants transverses qui constituent le socle technique back-end Participer à l'élaboration de la documentation nécessaire à l’exploitation et au maintien des applications Assurer une veille sur les technologies back Choisir les technologies les plus judicieuses en fonction de son contexte Liste évidemment non exhaustive ! Suivant la méthodologie Scrum, vous travaillerez en étroite collaboration avec deux développeurs back-end et un développeur front-end, un Product Owner et un CTO.

CDI

Offre d'emploi
Architecte Cybersécurité

Group V.I.I ORIGIN
Publiée le
Apache Hive
Apache Spark
Hadoop

10k-100k €
Île-de-France, France

Nous recherchons un Architecte Cyber Sécurité afin d'intégrer nos équipes, pour effectuer les tâches suivantes : - Accompagnement sécurité des projets métiers et techniques de la phase d’instruction à la mise en production - Pilotage de sujets sécurité techniques et fonctionnels divers avec des correspondants techniques ou métiers suivant le projet: • Pilotage du volet sécurité de projet de déploiement d’infrastructure ou d’application dans le Cloud • Analyse des risques de sécurité liés à l’introduction de nouvelles technologies ou de nouveaux systèmes d’information • Animation de programme de Cyber Sécurité : veille, réalisation études, gestion et maitrise des risques • Définition de la cible à atteindre, réunions de travail avec les équipes techniques, pilotage des actions • Pilotage de projet technique de transformation de SI, ex : mise en place d’un DLP • Contribution aux projets études et de réalisation technique, dossiers d'architecture, etc. (tout document projet) • Accompagnement au projet, toute contribution sécurité dans les livrables de la méthode projet : o Réalisation d’étude technique o Questionnaire sécurité pour un appel d'offres o Analyse de risque sur le volet technique et organisationnel o Paragraphe sécurité dans le dossier d'architecture o Cahier des charges pour la réalisation de tests d'intrusion o Restitution des vulnérabilités pour les audits de code • Pour le pilotage de sujets techniques sécurité, tout document utile à la mise en place / amélioration de l'outil / processus Environnement technique de la prestation : M365, Spark, Hive, Hadoop

Freelance

Mission freelance
Systeme Architecte Kafka Confluent Cloud

EMPIRIC
Publiée le
Apache Kafka
Cloud
Confluence

12 mois
100-1 070 €
Paris, France

Notre client dans le sectuer du Retail recherche un Sycteme Architecte Kafka pour une mission freelance de Longue duree (12 mois) . Dans le cadre de la création de l’équipe streaming basé sur la technologie KAFKA Confluent Cloud. Responsabilités principales Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance... Compétences et qualifications Diplôme en informatique, ingénierie ou domaine connexe. Expérience approfondie avec Apache Kafka et la plateforme Confluent. Expérience démontrée en architecture de solutions de données à grande échelle

Freelance
CDI

Offre d'emploi
Architecte système Kafka Confluent

HIGHTEAM
Publiée le
Apache Kafka

3 ans
10k-70k €
Île-de-France, France

Responsabilités principales • Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. • Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. • Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. • Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. • Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. • Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. • Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. • Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous