Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Hive

Votre recherche renvoie 148 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Développeur java H/F

Insitoo Freelances
Publiée le
Apache Kafka
Java
Springboot

2 ans
115-471 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur java H/F à Lille et périphérie. Contexte : Dans le cadre de cette stratégie ambitieuse, nous avons constitué une équipe restreinte pour créer un référentiel de données matières. Ce produit est à destination de nos collaborateurs. L’équipe restreinte est constituée seulement d'un Product Manager. Le développeur sera en proximité d'une équipe de dév mais n'en sera pas directement rattaché. Il travaillera également en collaboration avec des Data Ingénieur. Les missions attendues par le Développeur java H/F : Le développeur va construire une brique back qui s'accostera à d'autres briques digitales via des API ou du Kafka. Elle aura sa propre BDD. L'objectif sera de déduire des données descriptives Produit sur base de rapprochement identifiés par une brique digitale tierce. Ce produit n'existe pas et sera à construire from scratch. Une dimension architecture logicielle sera donc à prendre en compte. Il devra suivre les guidelines de développement. Ce chantier est ambitieux, volontariste et passionnant, nous recherchons donc un développeur Back à l’image de ce challenge. Ce développeur doit avoir une communication claire, une grande capacité de travail et d’organisation.

Freelance
CDI

Offre d'emploi
Ingénieur de production (H/F)

CITECH
Publiée le
Apache
Apache Tomcat

1 an
55k-65k €
Paris, France

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Ingénieur de production (H/F) 🚀 💰 Votre mission est pour un client reconnu dans le secteur bancaire, implanté dans de nombreuses villes en France, il a pour objectif d'accélérer sa transformation digitale afin d'offrir toujours plus de solutions et de services innovants. 💳 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Mettre en œuvre des solutions techniques. 🔸 Réaliser des diagnostics pour identifier les causes de dysfonctionnement, proposer et mettre en œuvre des corrections et des solutions de "back-up". 🔸 Proposer des solutions pour améliorer les performances de son domaine d'activité. 🔸 Assurer, si nécessaire, l'interface des experts des autres domaines et gère les échanges avec les sous-traitants. 🔸 Définir les règles de bonne gestion des systèmes d'exploitation. 🔸 Concevoir si nécessaire les normes et les règles de bonne gestion et vérifier systématiquement leur application (sécurité informatique, qualité?). 🔸 Assurer la mise à niveau, l'assemblage, la cohérence et l'homologation des différents logiciels (progiciels, base de données, développements spécifiques) dans le respect de l'architecture retenue. 🔸 Prendre en charge l'intégration de nouvelles applications ou de progiciels (transactionnel et/ou batch) dans le respect des normes et procédures en vigueur 🔸 Effectuer la réception, la validation et le packaging des composants. 🔸 Installer et met à disposition des composants. 🔸 Réaliser la recette technique et l'homologation des composants / applications. 🔸 Participer à l'amélioration des processus et des outils d'industrialisation et de déploiement. 🔸 Travailler en relation étroite et permanente avec les équipes Etudes, Infrastructures et Sécurité. 🔸 Spécificités pour les tests techniques. 🔸 Prise de connaissance du changement et de son contexte technique. 🔸 Compléter le plan de tests proposé. 🔸 Préparer les infrastructures de tests. 🔸 Valider les documents et les procédures à destination de la production. 🔸 Réaliser les différents tests techniques. 🔸 Analyser les résultats. 🔸 Contribuer au diagnostic en cas de dysfonctionnement. 🔸 Rédiger les rapports détaillés qui aideront à la décision du GO/NOGO pour la mise en production. 🔸 Constituer ou met à jour le patrimoine de tests réutilisable pour les intégrations ultérieures. 🔸 Effectuer le reporting vers le Responsable Intégration. 🔸 Contribuer à l'amélioration continue. 🔸 Industrialiser les tests techniques récurrents (automatisation, outillage).

Freelance
CDI

Offre d'emploi
Développeur Java/Angular (H/F)

CREALIS ingénierie
Publiée le
Angular
Apache Tomcat
API REST

6 mois
30k-50k €
Bordeaux, Nouvelle-Aquitaine

Au sein Créalis Bordeaux et pour le compte de notre client, vos missions seront essentiellement: Participer aux ateliers de conception technico fonctionnels Estimer vos charges et votre reste à faire Développer les composants répondant aux normes et standards des technologies utilisées Produire le code et utiliser un gestionnaire de configuration Participer activement aux daily et rituels du projet Écrire des tests unitaires Participer aux campagnes de tests Assurer la documentation et la capitalisation Participer à la vie de l'équipe

Freelance

Mission freelance
data engineer python spark anglais - 5 ans d'EXP

Innov and Co
Publiée le
Apache Spark
Kubernetes
PySpark

12 mois
100-600 €
Issy-les-Moulineaux, Île-de-France

Dans un secteur logistique en plein essor, en prise direct avec les problématiques actuelles (smart cities, environnement, géopolitique), et en pleine transformation technologique (véhicules autonomes, digitalisation, mobilité), DPD Group vous offre l’opportunité d’avoir un impact direct sur la gestion de colis du futur. Vous intégrerez l’équipe Analytics et contribuerez principalement au développement de la plateforme DataHub. Actuellement petite équipe autonome de 4 personnes engagées à 100% sur ce projet, l’équipe Analytics est intégrée au sein de l’équipe Data Science & Analytics de la DPSIN. L’objectif de la plateforme interne DataHub est de stocker les données historiques des activités et permettre leur requêtage efficient. Les données sont issues de et exploitées par divers acteurs – Marketing, Sales, OPS, IT, Data Science, … en central ou depuis les Business Units – pour des usages tels que la récupération simple de données historiques, la BI ou le machine learning. L’environnement de travail est international, avec des contacts quotidiens avec des équipes en France et à l’étranger. Les demandes d’utilisations de la plateforme croissent fortement. La plateforme DataHub en quelques faits : § 2023 : Forte croissance des usages de la plateforme (BI, requêtage ad-hoc, requêtages fréquents standardisés et hautes performances d’applications), enrichissement de l’offre de services (Data Viz avec Superset) § 2024 : Monter en charge sur les usages (plus de use cases !), étendre l’offre de services et améliorer l’expérience utilisateurs (Data Viz, Data lineage), optimiser l’usage de notre stack technique (Spark, Airflow...), généraliser l’usage de tables d’Apache Iceberg, poursuivre l’industrialisation des pipelines de traitement de données… o Les cas d’usages aujourd’hui en production : § 9 rapports BI servis § Requêtages fréquents (standardisés et tunés, avec ou sans API) par des applications :: 4 cas d’usages § Requêtage ad-hoc croissant des data scientists et équipes IT (+1000 requêtes / mois) o Volumes de données sous gestion active : § ~10 To de données § +15 flux de données § Flux de donné majeur : +100 millions d’évènements / jour d’évènements sur les colis Environnement technique : § Data Lake basé sur des technologies open source. § Architecture Cloud Kubernetes (Outscale Cloud) § Stockage des données sur du S3 (Outscale OOS) sous forme de fichiers Parquet (simples ou tables Iceberg) ou json § Query engine pour se connecter (S3 et autres DB) et requêter (SQL standard) les données : Dremio § Maintenance de tables Iceberg et requêtage de données avec Apache Spark § Automatisation des opérations et traitements de données en python avec Apache Airflow § Data Viz orientée métier avec Apache Superset § Data Viz orientée Monitoring IT avec Grafana § APIs développées en Python et Java § Gestion de version et CI/CD avec GIT Lab Organisation : § Equipe Produit de 4 personnes § Mode de travail Agile Scrum

Freelance

Mission freelance
Developpeur back

Enterprise Digital Resources Ltd
Publiée le
Agile Scrum
Apache Kafka
API

7 mois
200-430 €
Hauts-de-France, France

Le développeur va construire une brique back qui s'accostera à d'autres briques digitales via des API ou du Kafka. Elle aura sa propre BDD. L'objectif sera de déduire des données descriptives Produit sur base de rapprochement identifiés par une brique digitale tierce. Ce produit n'existe pas et sera à construire from scratch. Une dimension architecture logicielle sera donc à prendre en compte. Il devra suivre les guidelines de développement du client. Ce chantier est ambitieux, volontariste et passionnant, nous recherchons donc un développeur Back à l’image de ce challenge.

Freelance

Mission freelance
INGENIEUR DE PRODUCTION

GROUPE ARTEMYS
Publiée le
Apache
Control-M
Oracle

6 mois
380-450 €
Nantes, Pays de la Loire

De belles missions vous attendent chez notre client sur des environnements riches et challengeants : Vous intégrez un acteur majeur du secteur bancaire, aux valeurs fortes telles que la proximité, la coopération et l’expertise. Vos missions au quotidien : Installer, déployer, administrer, exploiter les applications du domaine confié dans le respect des normes et des règles de sécurité. Assurer le bon fonctionnement des applications du Système d’information et des environnements techniques. - Mettre en œuvre la supervision technique, gérer les incidents et effectuer des maintenances de 2eme niveau. Participer à l’installation des infrastructures ou produits, le paramétrage et la validation des composants de l’infrastructure. Participer aux tests et rédiger les dossiers d’exploitation. Contribuer à la réalisation des actions de capacity planning voire en assurer la responsabilité sur délégation de son responsable. Participer à la gestion de l’évolution du SI (analyse des impacts et besoins, schéma d’ensemble et scénarios d’évolution du SI, plans d’équipement). Contribuer activement à la démarche d’amélioration continue.

Freelance

Mission freelance
data scientist python anglais

Innov and Co
Publiée le
Apache Airflow
Dataiku
Jupyter Notebook

12 mois
100-610 €
Montrouge, Île-de-France

Notre client est responsable de la conception, du développement et de la production du système d’information et des infrastructures techniques Il définit les politiques de l’IT et coordonne leur mise en place. Afin de répondre aux exigences réglementaires de lutte anti blanchiment la Compliance mène un programme de déploiement de son dispositif de monitoring. Au sein de GIT, l’IT Compliance intervient sur le Programme AML, notamment à travers de solutions editeurs framework IA et des solutions packagées d’AML intégrant des capacités de machine learning. Mission à Montrouge

Freelance

Mission freelance
Développeur Sénior JS/ API H/F

MEETSHAKE
Publiée le
Apache
API REST
Javascript

1 an
100-500 €
Les Ulis, Île-de-France

Description de la mission : Pour le portail mis à disposition des clients (internes et finaux), en lien avec les métiers concernés (achat/contrat, marketing/commerce, étude, déploiement, support notamment), les activités de cette prestation seront de : • Contribuer à la prise en compte des besoins (évolutions / corrections fonctionnelles et logicielles) dans la roadmap globale de la solution • Réaliser les études techniques de faisabilité et de conception selon les besoins fonctionnels exprimés, les normes et la réglementation en vigueur et en garantissant l’interopérabilité avec les équipements en interface (écosystème PBC) • Assurer le développement des changements et la documentation associée (HLD, LLD, modes opératoires, user stories, cahier de tests, guide utilisateurs, …) • Assurer la validation et la mise en production des évolutions • Assurer le support aux utilisateurs, le maintien en condition opérationnel des solutions • Assurer le niveau de service convenu et la satisfaction des utilisateurs (clients B2B et métiers)

Freelance

Mission freelance
Data Engineer

WHEEL OF WORK
Publiée le
Apache Kafka
Enterprise Service Bus (ESB)
Git

3 ans
100-500 €
Lille, Hauts-de-France

Nous sommes à la recherche d'un(e) Data Ingénieur / Développeur Flux passionné(e) par les technologies de flux de données et le développement de solutions ETL/ESB. Rejoignez-nous pour faire partie d'une équipe dynamique et contribuer à la conception et à l'implémentation de projets data de haute qualité pour nos clients. Description de la mission : En tant que Data Ingénieur / Développeur Flux, vous serez intégré(e) à un plateau agile et vous aurez pour mission la conception et l'implémentation de solutions ETL/ESB pour nos clients. Vous travaillerez sur des projets data transverses, en étroite collaboration avec les équipes métier et business, et vous contribuerez à faire évoluer et à challenger les process de l'entreprise. Responsabilités : Concevoir et développer des programmes et applications ETL/ESB en fonction des spécifications fonctionnelles et des besoins client. Réaliser les procédures de tests techniques, d'intégration et de recette des développements. Analyser les problèmes techniques et fonctionnels et proposer des correctifs et des mises en conformité techniques. Élaborer et rédiger des documentations techniques à destination du service informatique client. Automatiser l'acquisition, la collecte et l'agrégation des données provenant de différentes sources. Gérer les bases de données de stockage et nettoyer, consolider et structurer les données à l'aide d'outils et d'algorithmes. Travailler en étroite collaboration avec les autres membres de l'équipe technique pour assurer la pertinence et la qualité des solutions développées.

Freelance

Mission freelance
Developpeur Full Stack

Enterprise Digital Resources Ltd
Publiée le
Angular
Apache Kafka
CI/CD

7 mois
200-500 €
Hauts-de-France, France

Dans le cadre de son activité, l’équipe E-commerce France souhaite améliorer les expériences de nos clients sur l’ensemble des sujets autour de l’aspect relationnel (chatbot, faq, gestion de la communauté, animation de la fidélité, mise en avant de l’application mobile etc …). La mission consiste donc à venir contribuer en Innersource sur les différents produits de ces parcours, dont la responsabilité reste aux équipes Core. Nous recherchons donc une personne pouvant renforcer un collectif de personnes travaillant sur différents sujets d'Inner source de Produits digitaux pour aider le métier à améliorer les expériences des clients.. Vos responsabilités : - Collaboration avec les différentes parties prenantes métiers côté afin d’identifier les fonctionnalités à implémenter ; - Collaboration avec les équipes “core” en charge des produits qui devront être inner sourcés afin de mettre en place les bonnes pratiques de ce type de collaboration ; - Développement front sur des environnements qui pourront être différents d’un produit à un autre, mais qui respecteront pour autant le Tech Radar (Vue.JS, React.JS principalement) ; - Développement back potentiel dans un environnement NodeJS ; - Étude et spécification fonctionnelle en amont du développement pour intégrer au mieux le développement dans le contexte du produit ; - Participer et intervenir dans des ateliers techniques de conception et architecture ; - Garant de la qualité du code produit, vous interviendrez autant en build qu’en run dans un esprit : you build it, you run it !

Freelance
CDI

Offre d'emploi
Architecte système Kafka Confluent

HIGHTEAM
Publiée le
Apache Kafka

3 ans
10k-70k €
Île-de-France, France

Responsabilités principales • Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. • Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. • Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. • Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. • Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. • Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. • Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. • Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent.

CDI

Offre d'emploi
Ingénieur devOps (spécialisé KAFKA) _ Sophia Antipolis / (H/F)

ENGIT
Publiée le
Apache Kafka
Kubernetes

43k-55k €
Valbonne, Provence-Alpes-Côte d'Azur

engIT recrute un ingénieur devOps (Kafka) pour intégrer les équipes transverses et middleware de notre partenaire leader mondial dans son secteur. Vous participerez à des projets où une infrastructure haute performance capable de supporter des volumes de données massif en temps réel est nécessaire. Principales responsabilités : Faire évoluer et concevoir des infrastructures Cloud (Kubernetes) Azure Utiliser les processus CI/CD Appréhender et concevoir une infrastructure répondant à des problématiques de haute disponibilité et architectures distribuées (Kafka) Monitorer la plateforme (Prometheus) Utiliser les outils d’infrastructure (Terraform, Ansible, etc.)

Freelance

Mission freelance
Architect KAFKA confluent

Cherry Pick
Publiée le
Apache Kafka
Architecture

12 mois
600-650 €
Paris, France

Dans le cadre de la création de l’équipe streaming basé sur la technologie KAFKA Confluent Cloud, nous recrutons un(e) Système Architecte Kafka confluent Cloud. En tant qu'Architecte Kafka sur Confluent, vous serez responsable de la conception et de l'implémentation des architectures de streaming de données à grande échelle en utilisant Apache Kafka et la plateforme Confluent. Vous travaillerez étroitement avec les équipes de développement et d'opérations pour assurer la scalabilité, la sécurité et l'efficacité des solutions de données. Responsabilités principales Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent. Ce rôle implique : L'accompagnement des équipes clientes IT dans la mise en œuvre des solutions liées à Kafka L’encadrement d’équipes techniques sur les projets L’accompagnement de nos équipes sur leur montée en compétences L’écriture des spécifications techniques en amont de la réalisation La validation des chiffrage projets Gestion de back log utilisant la méthode adaptée Le travail en étroite collaboration avec l’équipe IT Métier pour délivrer les projets selon les priorités stratégiques partagée Et, surtout, et créer un cadre de travail harmonieux et valoriser le travail des équipes de développements pour fédérer les meilleurs talents Expérience attendue Expérience dans le développement opérationnel de flux sous KAFKA Expérience significative sur la plateforme Confluent Expérience significative dans un environnement Agile/ Hybrid Expérience de management d’équipes de développeurs et de suivi du delivery Test unitaire/Compliance /Performance Documentation & procédures afin de facilité au support le Monitoring technico fonctionnel des interfaces/Jobs Expérience SAP (ECC & S4/HANA) serait apprécié Coordination avec l’équipe de DEV afin de délivrer un support N3.

Freelance

Mission freelance
Architecte Système Kafka Confluent Cloud

Montash
Publiée le
Apache Kafka
Java
JIRA

6 mois
100-3k €
Paris, France

Responsabilités principales : Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance. Élaborer des stratégies de déploiement de Kafka, incluant la configuration des clusters, le choix des machines, et la définition des paramètres de performance. Assurer l'intégration de Kafka avec diverses sources de données et plateformes de traitement en aval. Diriger les évaluations de sécurité et les audits de conformité pour les infrastructures Kafka. Fournir un soutien technique et une expertise lors de la résolution de problèmes complexes. Développer et maintenir la documentation technique, y compris les architectures de référence et les meilleures pratiques. Mentorat et formation des développeurs et des autres architectes dans l'utilisation optimale de Kafka et Confluent. Outils : KAFKA toolset Programmation et scripting (Java, PL/SQL, SQL, Unix, etc) Job Scheduling / Ordonnanceur (OpCon) Database (SQL Server) Gestion de la demande et service incident (JIRA / SNOW)

Freelance
CDI
CDD

Offre d'emploi
Expert Middleware (WAS / JBoss / Apache Tomcat / IIS)

LOMEGARD
Publiée le
Ansible
Apache Tomcat
Internet Information Services (IIS)

3 ans
10k-60k €
Île-de-France, France

Expert Middleware (WAS / JBoss / Apache Tomcat / IIS) L'expert rejoindra le service qui regroupe les équipes d'ingénieries infrastructures, middlewares et bases de données. Missions: Administration courante WAS (Websphere) Administration courante JBoss / Wildfly Mise en œuvre des infrastructures serveurs Web d'applications (Apache Tomcat et IIS) Administration des outils CI/CD Automatisation (Scripting / Ansible / Rundek) Support de niveau 4 (la production est opérée à Singapour) Développement JAVA (optionnel)

Freelance

Mission freelance
Systeme Architecte Kafka Confluent Cloud

EMPIRIC
Publiée le
Apache Kafka
Cloud
Confluence

12 mois
100-1 070 €
Paris, France

Notre client dans le sectuer du Retail recherche un Sycteme Architecte Kafka pour une mission freelance de Longue duree (12 mois) . Dans le cadre de la création de l’équipe streaming basé sur la technologie KAFKA Confluent Cloud. Responsabilités principales Concevoir des architectures de données résilientes et évolutives en utilisant Apache Kafka et Confluent. Collaborer avec les équipes IT et business pour définir les exigences techniques et les objectifs de performance... Compétences et qualifications Diplôme en informatique, ingénierie ou domaine connexe. Expérience approfondie avec Apache Kafka et la plateforme Confluent. Expérience démontrée en architecture de solutions de données à grande échelle

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous