Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 166 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Suivant
Freelance
CDI
CDD

Offre d'emploi
Expert Middleware (WAS / JBoss / Apache Tomcat / IIS)

LOMEGARD
Publiée le
Ansible
Apache Tomcat
Internet Information Services (IIS)

3 ans
10k-60k €
Île-de-France, France

Expert Middleware (WAS / JBoss / Apache Tomcat / IIS) L'expert rejoindra le service qui regroupe les équipes d'ingénieries infrastructures, middlewares et bases de données. Missions: Administration courante WAS (Websphere) Administration courante JBoss / Wildfly Mise en œuvre des infrastructures serveurs Web d'applications (Apache Tomcat et IIS) Administration des outils CI/CD Automatisation (Scripting / Ansible / Rundek) Support de niveau 4 (la production est opérée à Singapour) Développement JAVA (optionnel)

Freelance
CDI

Offre d'emploi
Développeur Sénior - Techlead JAVA BACKEND - Multithreading Calculs distribués - Apache Ignite

Digistrat consulting
Publiée le
Java

36 mois
10k-200k €
Paris, France

Objectif : Au sein de l'équipe IT RISK PnL, vous interviendrez sur une application d'aide à la décision pour le trading. L'application permet de gérer des données historiques sur les clients, les données de marché, les données intraday et des mesures de risques ainsi que visualiser les axes de trading. L'application utilise : - Angular 15 comme front end - Java 11 et Python 2 en back end - Apache ignite pour le calcul distributé - Mongo DB comme base de données - Pour la partie déploiement on utilise Docker / kubernetes et Jenkins Liste des tâches attendues dans le cadre de la mission : Le candidat sera chargé de la partie back end ainsi que de la partie dev ops L'objectif est de développer des nouvelles fonctionnalités demandées par le trading Améliorer techniquement la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions

Freelance

Mission freelance
INTEGRATEUR APPLICATIF TOMCAT / APACHE EXPERIMENTE

PROPULSE IT
Publiée le

Paris, France

PROPULSE IT accompagne ses clients grands comptes et PME dans la mise en œuvre des projets It et digitaux. PROPULSE IT est un réseau de consultants à forte valeur ajoutée, complètement associé à notre démarche qualité de suivi des besoins et projets de nos clients. A ce jour, le réseau de freelance PROPULSE IT comporte plus de 18000 consultants sur toute la France, et couvre l'ensemble des besoins IT et digitaux. En constituant ce réseau par cooptation de clients ou de consultants, nous avons privilégié la constance dans le savoir-faire technique et le savoir-être, pour devenir un véritable partenaire privilégié de nos clients. Parallèlement, nous avons développé un réseau de partenaires sélectionnées pour leur expertise technique, et l'adhésion aux valeurs de notre entreprise. Aujourd'hui PROPULSE IT est une société en pleine croissance organique, Champion de la Croissance du journal Les Echos 4 années consécutives. Ce développement s'appuie sur la qualité et la pérennité des missions réalisées. La satisfaction client est ainsi liée à l'épanouissement des consultants ! Alors, n'hésitez pas à postuler ! Pour un démarrage sous un mois environ, nous recherchons un(e) intégrateur technique d'application freelance très expérimenté pour intégrer les application web chez notre client, en lien avec la production et les équipes de développement. Très Important : le profil recherché n'est pas un ingénieur de production qui gère des procédures d'intégration applicative mais un consultant habitué à être intercalé entre les équipes de développements et la production et qui prépare les documents d'installation. de plus il doit être expert et parfaitement autonome avec beaucoup d'expérience sur Tomcat / Apache. Pas de Devops dans le périmètre. Astreintes possibles soir et week-end - répartition selon l'équipe Livrables sont : - Dossier d'installation - Composants applicatifs -Configuration applicative Description détaillée - Capable de configurer/installer tomcat manuellement sur windows ou linux - Capable d'analyser les logs tomcat en cas d'erreur - Capable de configurer/installer manuellement un serveur httpd - Capable d'analyser les logs httpd en cas d'erreur - Savoir évoluer dans un environnement linux - Récupération des livrables de développement sur les outils de Gestion de configuration (SVN, GIT) - Installation des packages sur les plateformes de tests - Qualification des packages sur les plateformes de tests selon les normes en vigueur - Vérification de la conformité des applications vis à vis des contraintes de production - Rédaction et validation des documents d'installation et d'exploitation - Rédaction et exécution des plans de tests techniques - Assistance et support technique à la mise en production - Communication avec l'équipe projet - Reporting Compétences techniques : - Middleware : TomCat, Apache - Expert - Impératif - Systèmes : CentOs, RedHat - Expert - Important -Système : Windows - Confirmé - Serait un plus Connaissances linguistiques - Français Courant (Impératif)

Freelance

Mission freelance
INTEGRATEUR APPLICATIF TOMCAT / APACHE EXPERIMENTE

PROPULSE IT
Publiée le

Paris, France

PROPULSE IT accompagne ses clients grands comptes et PME dans la mise en œuvre des projets It et digitaux. PROPULSE IT est un réseau de consultants à forte valeur ajoutée, complètement associé à notre démarche qualité de suivi des besoins et projets de nos clients. A ce jour, le réseau de freelance PROPULSE IT comporte plus de 18000 consultants sur toute la France, et couvre l'ensemble des besoins IT et digitaux. En constituant ce réseau par cooptation de clients ou de consultants, nous avons privilégié la constance dans le savoir-faire technique et le savoir-être, pour devenir un véritable partenaire privilégié de nos clients. Parallèlement, nous avons développé un réseau de partenaires sélectionnées pour leur expertise technique, et l'adhésion aux valeurs de notre entreprise. Aujourd'hui PROPULSE IT est une société en pleine croissance organique, Champion de la Croissance du journal Les Echos 4 années consécutives. Ce développement s'appuie sur la qualité et la pérennité des missions réalisées. La satisfaction client est ainsi liée à l'épanouissement des consultants ! Alors, n'hésitez pas à postuler ! Pour un démarrage sous un mois environ, nous recherchons un(e) intégrateur technique d'application freelance très expérimenté pour intégrer les application web chez notre client, en lien avec la production et les équipes de développement. Très Important : le profil recherché n'est pas un ingénieur de production qui gère des procédures d'intégration applicative mais un consultant habitué à être intercalé entre les équipes de développements et la production et qui prépare les documents d'installation. de plus il doit être expert et parfaitement autonome avec beaucoup d'expérience sur Tomcat / Apache. Pas de Devops dans le périmètre. Astreintes possibles soir et week-end - répartition selon l'équipe Livrables sont : - Dossier d'installation - Composants applicatifs -Configuration applicative Description détaillée - Capable de configurer/installer tomcat manuellement sur windows ou linux - Capable d'analyser les logs tomcat en cas d'erreur - Capable de configurer/installer manuellement un serveur httpd - Capable d'analyser les logs httpd en cas d'erreur - Savoir évoluer dans un environnement linux - Récupération des livrables de développement sur les outils de Gestion de configuration (SVN, GIT) - Installation des packages sur les plateformes de tests - Qualification des packages sur les plateformes de tests selon les normes en vigueur - Vérification de la conformité des applications vis à vis des contraintes de production - Rédaction et validation des documents d'installation et d'exploitation - Rédaction et exécution des plans de tests techniques - Assistance et support technique à la mise en production - Communication avec l'équipe projet - Reporting Compétences techniques : - Middleware : TomCat, Apache - Expert - Impératif - Systèmes : CentOs, RedHat - Expert - Important -Système : Windows - Confirmé - Serait un plus Connaissances linguistiques - Français Courant (Impératif)

Freelance

Mission freelance
INGENIEUR DE PRODUCTION

GROUPE ARTEMYS
Publiée le
Apache
Control-M
Oracle

6 mois
380-450 €
Nantes, Pays de la Loire

De belles missions vous attendent chez notre client sur des environnements riches et challengeants : Vous intégrez un acteur majeur du secteur bancaire, aux valeurs fortes telles que la proximité, la coopération et l’expertise. Vos missions au quotidien : Installer, déployer, administrer, exploiter les applications du domaine confié dans le respect des normes et des règles de sécurité. Assurer le bon fonctionnement des applications du Système d’information et des environnements techniques. - Mettre en œuvre la supervision technique, gérer les incidents et effectuer des maintenances de 2eme niveau. Participer à l’installation des infrastructures ou produits, le paramétrage et la validation des composants de l’infrastructure. Participer aux tests et rédiger les dossiers d’exploitation. Contribuer à la réalisation des actions de capacity planning voire en assurer la responsabilité sur délégation de son responsable. Participer à la gestion de l’évolution du SI (analyse des impacts et besoins, schéma d’ensemble et scénarios d’évolution du SI, plans d’équipement). Contribuer activement à la démarche d’amélioration continue.

Freelance

Mission freelance
Data Scientist - MLOps (F/H)

SMARTPOINT
Publiée le
Apache
Kubernetes

12 mois
400-450 €
Île-de-France, France

Description du poste : En tant que Data Scientist spécialisé en MLOps (Machine Learning Operations), vous serez chargé de concevoir, développer et déployer des modèles d'apprentissage automatique à grande échelle, tout en assurant leur intégration harmonieuse dans les systèmes de production. Vous travaillerez en étroite collaboration avec les équipes d'ingénierie des données, les scientifiques des données et les développeurs logiciels pour automatiser et optimiser le cycle de vie des modèles, de l'entraînement à la production. Responsabilités : Développement de modèles d'apprentissage automatique : Concevoir et mettre en œuvre des modèles d'apprentissage automatique en utilisant des techniques avancées telles que l'apprentissage supervisé, non supervisé et par renforcement. MLOps : Mettre en place des pipelines de déploiement automatisés pour les modèles, en utilisant des outils et des frameworks tels que Kubeflow, MLflow ou TensorFlow Extended (TFX). Automatisation et orchestration : Développer des processus automatisés pour l'entraînement, le déploiement et la surveillance des modèles, en utilisant des outils tels que Apache Airflow ou Kubernetes. Surveillance des performances : Mettre en place des systèmes de surveillance pour suivre les performances des modèles en production, en identifiant les dégradations de performance et en proposant des améliorations. Collaboration interfonctionnelle : Travailler en étroite collaboration avec les équipes d'ingénierie des données, les scientifiques des données et les développeurs logiciels pour intégrer efficacement les modèles dans les applications et les services. Optimisation des ressources : Optimiser l'utilisation des ressources informatiques en mettant en place des stratégies de mise à l'échelle automatique et en utilisant des architectures cloud adaptées. Sécurité et conformité : Assurer la sécurité et la conformité des modèles en mettant en place des pratiques de gouvernance des données et en garantissant la confidentialité des informations.

Freelance

Mission freelance
INGENIEUR DE PRODUCTION

GROUPE ARTEMYS
Publiée le
Apache
Control-M
Oracle

6 mois
380-450 €
Nantes, Pays de la Loire

De belles missions vous attendent chez notre client sur des environnements riches et challengeants : Vous intégrez un acteur majeur du secteur bancaire, aux valeurs fortes telles que la proximité, la coopération et l’expertise. Vos missions au quotidien : Installer, déployer, administrer, exploiter les applications du domaine confié dans le respect des normes et des règles de sécurité. Assurer le bon fonctionnement des applications du Système d’information et des environnements techniques. - Mettre en œuvre la supervision technique, gérer les incidents et effectuer des maintenances de 2eme niveau. Participer à l’installation des infrastructures ou produits, le paramétrage et la validation des composants de l’infrastructure. Participer aux tests et rédiger les dossiers d’exploitation. Contribuer à la réalisation des actions de capacity planning voire en assurer la responsabilité sur délégation de son responsable. Participer à la gestion de l’évolution du SI (analyse des impacts et besoins, schéma d’ensemble et scénarios d’évolution du SI, plans d’équipement). Contribuer activement à la démarche d’amélioration continue.

Freelance

Mission freelance
Architecte Kafka confluent Cloud

ASENIUM
Publiée le
Apache Kafka

6 mois
610-800 €
Paris, France

Pour l'un de nos clients finaux sur Paris, nous sommes à la recherche d'un Système Architecte Kafka confluent Cloud. Démarrage dès que possible pour long terme. En tant qu'Architecte Kafka sur Confluent, vous serez responsable de la conception et de l'implémentation des architectures de streaming de données à grande échelle en utilisant Apache Kafka et la plateforme Confluent. Vous travaillerez étroitement avec les équipes de développement et d'opérations pour assurer la scalabilité, la sécurité et l'efficacité des solutions de données. Responsabilités principales Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent. Compétences et qualifications Diplôme en informatique, ingénierie ou domaine connexe. Expérience approfondie avec Apache Kafka et la plateforme Confluent. Expérience démontrée en architecture de solutions de données à grande échelle. Maîtrise des langages de programmation tels que Java, Scala ou Python. Connaissance approfondie des pratiques de sécurité des données et des architectures microservices. Excellentes compétences en communication, en présentation et en leadership. Ce rôle implique : L'accompagnement des équipes clientes IT dans la mise en œuvre des solutions liées à Kafka L’encadrement d’équipes techniques sur les projets L’accompagnement de nos équipes sur leur montée en compétences L’écriture des spécifications techniques en amont de la réalisation La validation des chiffrage projets Gestion de back log utilisant la méthode adaptée Le travail en étroite collaboration avec l’équipe IT Métier pour délivrer les projets selon les priorités stratégiques partagée Et, surtout, et créer un cadre de travail harmonieux et valoriser le travail des équipes de développements pour fédérer les meilleurs talents

Freelance

Mission freelance
Ingénieur de production (H/F) – ILE DE FRANCE

Espace Freelance
Publiée le
Apache

3 mois
100-550 €
Île-de-France, France

Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Ingénieur de production (H/F) – ILE DE FRANCE Mission à pourvoir en régie sur l’Ie de France Présence sur site : 3 jours / semaine Compétences obligatoires : ANGLAIS COURANT ; Linux / Redhat ; Apache Tomcat ; Jboss Votre mission : - Accompagnement d’équipes délocalisées pour remédier à l’obsolescence des serveurs, bases de données et briques techniques - Etablissement de plannings de remédiation et suivi - Remontée des alertes et points de blocage REF : EFP/INGPMDQ/ODVB Plus d’offres sur :

Freelance
CDI

Offre d'emploi
Tech Lead Big data H/F

Proxiad
Publiée le
Apache Hive
Hadoop
HDFS (Hadoop Distributed File System)

3 ans
10k-60k €
Île-de-France, France

Le bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Conception et développement Dans ce cadre la prestation consiste à contribuer à/au(x) : - Développement Spark/Scala et HIVE - Traitement d'un gros volume de données - Environnement Hadoop - Environnement Anglophone - Environnement Agile Les livrables attendus sont : - Revue de code et re-factoring - Normes de développements Les expertises attendues pour réaliser cette prestation sont listées ci-après : • Hive

Freelance

Mission freelance
Data Engineer

WHEEL OF WORK
Publiée le
Apache Kafka
Enterprise Service Bus (ESB)
Git

3 ans
100-500 €
Lille, Hauts-de-France

Nous sommes à la recherche d'un(e) Data Ingénieur / Développeur Flux passionné(e) par les technologies de flux de données et le développement de solutions ETL/ESB. Rejoignez-nous pour faire partie d'une équipe dynamique et contribuer à la conception et à l'implémentation de projets data de haute qualité pour nos clients. Description de la mission : En tant que Data Ingénieur / Développeur Flux, vous serez intégré(e) à un plateau agile et vous aurez pour mission la conception et l'implémentation de solutions ETL/ESB pour nos clients. Vous travaillerez sur des projets data transverses, en étroite collaboration avec les équipes métier et business, et vous contribuerez à faire évoluer et à challenger les process de l'entreprise. Responsabilités : Concevoir et développer des programmes et applications ETL/ESB en fonction des spécifications fonctionnelles et des besoins client. Réaliser les procédures de tests techniques, d'intégration et de recette des développements. Analyser les problèmes techniques et fonctionnels et proposer des correctifs et des mises en conformité techniques. Élaborer et rédiger des documentations techniques à destination du service informatique client. Automatiser l'acquisition, la collecte et l'agrégation des données provenant de différentes sources. Gérer les bases de données de stockage et nettoyer, consolider et structurer les données à l'aide d'outils et d'algorithmes. Travailler en étroite collaboration avec les autres membres de l'équipe technique pour assurer la pertinence et la qualité des solutions développées.

Freelance
CDI

Offre d'emploi
Ingénieur système Linux (Redhat) (H/F)

Opstim
Publiée le
Ansible
Apache Kafka
Puppet

1 an
45k-70k €
Île-de-France, France

Ingénieur système Linux (RedHat) (H/F) A PROPOS : Notre client est spécialisé dans l’asset management. L’entreprise est une société mondiale de gestion d’actifs quantitative et systématique appliquant une approche scientifique à la finance pour développer des stratégies d’investissement alternatives pour nos clients. Ils valorisent l’innovation, l’engagement, l’aboutissement et l’intelligence collective en créant un environnement d’experts passionnés et talentueux dans les domaines de la recherche, des technologies et du business pour explorer de nouvelles idées et toujours remettre en question les hypothèses. DESCRIPTION DU POSTE : En tant qu'Ingénieur Système Linux (RedHat), vous rejoindrez l'équipe System Build de l’entreprise dans le but d’intervenir sur l'optimisation, la configuration et le déploiement de serveurs physiques ou virtuels Linux (CentOS/Redhat 9) en fonction des besoins, des équipes métiers. Contexte : Vous devrez maintenir l’architecture, le déploiement, l’évolution et le maintien de leurs différents cluster Kafka mis à disposition des équipes. Vous vous occupez de la mise en place d'un workflow de gestion des topics et des ACLs de ces clusters KAFKA. Vous gérerez la partie monitoring, supervision et documentation de ces architecture. Finalement, vous ferez de l’accompagnement technique/développement des utilisateurs sur ce domaine. VOS MISSIONS : Installation, maintenance et configuration du cluster Apache Kafka pour le traitement de flux de données en temps réel. Automatisation des déploiements à l'aide de Puppet pour assurer la cohérence et l'efficacité des configurations. Kernel Linux Gestion de projets techniques liés à l'infrastructure système et au déploiement de nouvelles technologies. Évolution et maintenance des outils et services existants pour répondre aux besoins croissants de l'entreprise. Gestion et optimisation du stockage, notamment dans des environnements de calcul haute performance (HPC), en collaboration avec les équipes spécialisées. Optimisation fine des cpu Optimisation fine des accès stockage (slurm, lustre) Technologies utilisées : APACHE KAFKA, Linux (CENTOS) – Kernel, PUPPET, ANSIBLE , DOCKER, GIT, JENKINS, NAGIOS, GRAFANA, PYTHON, BASH, VMWARE, VSPHERE, NETAPP, SLURM, LUSTRE, HPC, NFS

Freelance

Mission freelance
Développeur Java Solr Elasticsearch

Kaïbee
Publiée le
Apache Solr
Elasticsearch
Java

1 an
100-590 €
Paris, France

PAS DE SOUS-TRAITANCE // MERCI Pour une mission longue durée nous recherchons un développeur dev back en Java avec des compétences sur micronaut / spring boot/ Apache Solr avec des connaissances sur les moteurs de recherche Responsabilités: Concevoir, développer et déployer des applications robustes en utilisant Java, Micronaut et Spring Boot. Collaborer avec une équipe multidisciplinaire pour concevoir et implémenter des fonctionnalités innovantes. Optimiser les performances des applications et assurer la qualité du code. Intégrer des moteurs de recherche avancés pour améliorer la convivialité et la pertinence des résultats.

Freelance

Mission freelance
Data Engineer (H/F) - Paris

Mindquest
Publiée le
Apache Kafka
Apache Spark
Cassandra

6 mois
700 €
Paris, France

Ingestion des données sources via NIFI dans des tables de travail Cassandra ou en parquet sur AWS S3 Développement des Traitements Spark/Scala en lots des données sources ingérées Traitement au quotidien des nouvelles données clients (ajout nouveaux clients Enrichissement au quotidien des données des clients avec des fichiers de scoring et de segmentation (fournis par un autre projet) Traitement toutes les 8 heures des nouvelles ventes avec notamment la mise à jour des ventes auditées ainsi que l’enrichissement des ventes avec les données des clients Ingestion toutes les 8 heures des données des ventes dans Druid Ajout et mise à jour des nouveaux produits des marques avec leur description, leur taille, leurs stocks …. Traitement en temps réel via Kafka/Spark des données sources fournies par les marques dans les topics dédiés : Enrichissement des données des produits des différentes marques en temps réel avec les informations des stocks, des prix Mise à jour temps réel des données des ventes Mise à jour temps réel des données clients Mise à jour des commandes clients Anonymisation des informations clients (RGPD) Mise à jour des stocks disponibles en magasin Exposition des informations des produits en transit (magasin d’origine, magasin destination) afin que les utilisateurs de Luce puissent estimer leurs dates de livraison Traitement et Stockage des données dans Apache Solr et Cassandra Exposition des données traitées dans une API nodejs à travers Cassandra et Solr Ingestion des données des ventes et commandes sur Apache Druid via NIFI Mise en place de tests automatiques afin d’éviter les régressions suite aux nouvelles évolutions Développement de tests unitaires avant déploiement Garantie de la cohérence des données Planification des heures de lancement des différents traitements afin d’éviter d’avoir des données corrompues Déploiement des différents traitements Spark via Jenkins/Livy dans les environnements dédiés Monitoring des Jobs Spark via Yarn et Spark UI avec un système d’alerting via Slack en cas de problème durant les traitements Mise en place de logs qui seront ensuite déposés dans ElasticSearch afin de faciliter la résolution et la recherche des bugs Optimisation des différents traitements Data (optimisation du code Spark, des traitements NIFI) Migration de tous nos workflows NIFI, traitements de données en lots/ temps réel Spark sur Amazon AWS Migration de l’api ainsi que des tables et collections utilisées dans Cassandra Environnement sur AWS Ordonnancement des tâches via Airflow/Python, gestion des différentes dépendances entre les traitements Mise à jour d’une librairie Airflow pour le lancement de nos Jobs Sparks ainsi que le monitoring (vérification des statuts des traitements). Mise en place des capteurs (sensors) nécessaires pour le suivi des statuts des traitements Mise à jour d’une librairie générique Spark pour les jobs d’ingestion via parquet/csv/json

CDI

Offre d'emploi
Ingénieur de production (H/F)

Synchrone recrutement
Publiée le
Apache Tomcat
Control-M
Linux

10k-59k €
Marseille, Provence-Alpes-Côte d'Azur

Descriptif du poste Nous menons une campagne de recrutement dédiée aux profils d’ Intégrateur d’applications / Ingénieur de production (H/F) afin d’intégrer des projets ambitieux d’intégration applicative en environnement DevOps. L’ Ingénieur de Production (H/F) s’occupe principalement de l’exploitation des applications. Il peut également intervenir sur la partie Build en fonction de l’organisation des différents clients. Celui-ci participe au maintien en conditions opérationnelles des applications. Pour cela il réalise les tâches suivantes : Assurer le bon fonctionnement, la disponibilité et la continuité des services, l’administration et l’exploitation des applications Gestion : incidents, problèmes, configuration, changements (ITIL) Production des indicateurs (optimisation de services, mesure de la Qualité de Service, métriques, etc.) Arrêt / Marche des composants Continuité / Disponibilité des composants applicatifs Supervision des applications Amélioration continue Sur les différents environnements (recette, qualification, pré-production, production) : Déploiement de composants applicatifs Mise en place de nouvelles chaines d'ordonnancement Tests Préparation MEP (répétition, changements…) Rédaction de la documentation Des postes similaires sont à pourvoir sur Aix en Provence (13), Vaison la Romaine (84) et Montpellier (34).

CDI

Offre d'emploi
Big data engineer

Datapy Group
Publiée le
Apache Kafka
Apache Spark
PySpark

32k-80k €
Île-de-France, France

Nous sommes à la recherche d'un Ingénieur Big Data pour palier au besoins de nos clients. Le candidat retenu sera chargé de concevoir, développer et maintenir l'infrastructure Big Data, ainsi que de travailler sur des projets d'analyse de données complexes. Responsabilités : Concevoir, développer et déployer des solutions Big Data évolutives et robustes. Mettre en place des pipelines de données pour l'acquisition, le stockage et le traitement de grands volumes de données. Travailler en étroite collaboration avec les équipes métier pour comprendre leurs besoins en matière d'analyse de données. Optimiser les performances des systèmes et des applications Big Data. Assurer la sécurité et la confidentialité des données tout au long du processus.

Suivant

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous