Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 528 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Expert Technique DATA

SQLI
Publiée le
Big Data

6 mois
500-600 €
Lyon, Auvergne-Rhône-Alpes

Bonjour, Pour le compte de l'un de mes clients dans le secteur de l'énergie, je suis à la rercherche d'un expert technique en DATA. Ses impératifs : Une expérience technique forte en Data Et XP Responsable d'équipe de développement +10personnes. Une culture générale technique sur l’ensemble de la chaîne de création de valeur et de l’environnement de dev jusqu’à la prod. Une connaissance sérieuse des problématiques sécurité, performance et robustesse Stack technique du projet : o Big Data : Spark, Hive, Indexima. o Stockage : Oracle, CEPH S3 (parquet). o Langages : Java, Python, PL/SQL, Shell. o CI/CD : Ansible, Terraform, Jenkins, GIT. o ETL : Informatica. o Dataviz : Tableau Server. o Ordonnanceur : Control-M.

CDI
Freelance

Offre d'emploi
data product owner AND supply chain H/F

5COM Consulting
Publiée le
Big Data
Supply Chain

3 ans
43k-70k €
Nanterre, Île-de-France

Missions : En charge d’identifier les données nécessaires à la construction des KPIs et des produits analytiques et de l'exploration et de la compréhension des modèles de données liées à la supply chain dans les différents pays, le Data Product Owner sera responsable de : Obtention, compréhension et documentation approfondie des modèles de données existants dans chaque pays, en s’appuyant sur les coordinateurs et les Business owner au sein de la direction supply chain groupe Identification des règles de gestion spécifiques, des exceptions par format, pays, secteur de produit, et autres critères pertinents. Delivery : Pour assurer une harmonisation efficace des modèles de données à l'échelle du groupe, le Data Product Owner sera chargé de : Rédaction de spécifications détaillées pour adapter les modèles locaux au modèle harmonisé du groupe. Adaptation du modèle harmonisé en fonction des particularités propres à chaque pays, tout en assurant l'alignement sur les standards du groupe. Écriture et ajustement du modèle pour répondre aux besoins spécifiques des principaux indicateurs de performance (KPI) identifiés. Présentation des spécifications auprès des data engineer de united et animation du backlog sur ce domaine Tester et valider la donnée en sortie de United Data Governance & Communication : En tant que garant de la qualité des données en sortie de l'unité, le Data Product Owner aura pour missions de : Valider la documentation générée auprès des autres Data Product Owners et des parties prenantes impliquées. Documenter et communiquer régulièrement sur l'avancement du projet aux responsables produits et autres parties prenantes pertinentes Mettre en place des processus spécifiques pour gérer l'accès et la confidentialité des données, en impliquant activement les responsables métiers au sein de chaque pays. Participer activement aux ateliers d'harmonisation organisés au niveau du groupe, notamment au sein du data afin de favoriser la cohérence et la convergence des pratiques.

Freelance

Mission freelance
Big Data Tech Lead H/F

NAVIGACOM
Publiée le
Big Data
Cloud

12 mois
100-1 100 €
Yvelines, France

Missions En tant que Tech Lead Data, votre rôle principal sera de diriger avec succès le déploiement de l'architecture Big Data dans l'écosystème informatique cloud. Vous serez le principal interlocuteur entre l'équipe d'architecture et les développeurs et serez responsable de la bonne mise en œuvre des architectures définies dans les délais impartis. Vos tâches seront les suivantes : Concevoir, mettre en œuvre et déployer une architecture dans le cloud pour des projets Big Data : Travailler avec les architectes pour concevoir une architecture de pointe pour les projets Big Data dans un contexte de volumétrie élevée. Implémenter les architectures définies selon le planning et les exigences définis. Excellence technique : Satisfaire aux exigences du Big Data, capacité à travailler dans un contexte de volumétrie élevée. Remettre en question les décisions architecturales clés en fonction d'un contexte spécifique (topologie des données, volume, exigence de temps d'exécution, etc.). Optimiser le traitement et le stockage des données pour l'efficacité. Assurer un dépannage rapide des problèmes avec la surveillance appropriée . Gestion de projet : Superviser plusieurs projets en parallèle , en veillant à ce que les délais soient respectés, les normes maintenues et les objectifs atteints. Collaboration : Agir comme le lien principal entre l'architecture et la mise en œuvre dans le projet. Travailler en étroite collaboration avec d'autres responsables techniques et architectes . Échanger des connaissances et se synchroniser avec d'autres équipes. Gouvernance des données : Garantir le respect des politiques de gouvernance des données liées à l'industrie financière. Documentation : Superviser la création et la maintenance d'une documentation précise des développements, des procédures techniques et des configurations système pour améliorer les connaissances et faciliter les processus d'intégration pour l'équipe.

Freelance
CDI

Offre d'emploi
Développement backend SQL/clickhouse

Digistrat consulting
Publiée le
Apache
Big Data
DevOps

3 ans
40k-60k €
Paris, France

Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un développeur backend SQL/clikhouse. Périmètre fonctionnel : banque d'investissement Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, base de donées distribuée avec un systel de cache in memory, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins. Les principales tâches de la missions sont les suivantes : Le but est d'développer des nouvelles fonctionnalités demandées par le trading, et aussi techniquement améliorer la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions. Le candidat sera chargé de la partie back end ainsi que de la partie devops.

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance

Mission freelance
Géomaticien H/F

GROUPE ARTEMYS
Publiée le
FME
PL/SQL
PostGIS

6 mois
350-400 €
Val-de-Reuil, Normandie

Géomaticien H/F (freelance). Localisation : Val de Reuil (27). Profil : débutant à intermédiaire. Durée de la mission : 6 mois reconductible. Mode de travail : hybride possible. Date de démarrage : Immédiate (bien-entendu, on vous attend si vous avez un préavis). De belles missions vous attendent chez notre client sur des environnements riches et challengeants : · Administrer, maintenir et exploiter les Bases de Données. · Gérer les droits, créer des tables, développer des fonctions, créer des serveurs liés, exploiter des logs, sauvegarder et restaurer des données… · Gérer l’assistance technique vers les bureaux d’études et les géomaticiens (internes ou sous-traitants) ou pour les besoins des KPI (liens ODBC, développement de vues spécifiques). · Créer et maintenir les projets QGIS. · Initier de nouveaux arrivants à l’utilisation des outils de Bases de Données.

Freelance

Mission freelance
Consultant Data et BI expérimenté (Power BI et ETL Talend) H/F

LeHibou
Publiée le
Big Data

6 mois
450-600 €
Saint-Denis, Île-de-France

Notre client dans le secteur Assurance recherche un/une Consultant Data et BI expérimenté (Power BI et ETL Talend) H/F Description de la mission: Le client est un acteur majeur du secteur de l'assurance/assistance. Fondé en 1963 et inventeur du concept d'assistance, le client soutient 300 millions de clients dans le monde entier avec des solutions adaptées à toute situation d'urgence ou de la vie quotidienne, 24/7, dans cinq secteurs d'activité : Automobile, Voyages, Santé, Famille & Domicile, et services de Conciergerie. **Description de la Mission:** En tant que consultant en data pour notre projet d'implémentation de dashboard avec Power BI et ETL Talend, vous serez responsable de comprendre les besoins métier, de traduire ces besoins en solutions de données efficaces, et de mettre en place une architecture de données robuste pour soutenir nos initiatives d'analyse. **Responsabilités:** 1. - Collaborer avec les parties prenantes métier pour comprendre leurs besoins en matière d'analyse et de reporting. - Identifier les indicateurs clés de performance (KPI) et les exigences de reporting pour chaque domaine fonctionnel. - Développer un modèle de données d'entreprise (Enterprise Data Model) qui capture les entités métier et leurs relations. - Concevoir une architecture de données comprenant un datawarehouse et des datamarts pour répondre aux besoins de reporting et d'analyse. 3. **Mise en Œuvre des Outils de Business Intelligence:** - Utiliser Power BI pour créer des dashboards interactifs et des rapports personnalisés répondant aux besoins métier. - Configurer et optimiser les ETL (Extract, Transform, Load) avec Talend pour l'ingestion des données depuis différentes sources. Gestion de Projet et Coordination: - Diriger et coordonner les activités liées à la mise en œuvre de la solution data. - Suivre les jalons du projet, gérer les risques et assurer le respect des délais et des budgets. - Expérience préalable dans la mise en œuvre de solutions BI avec Power BI et ETL avec Talend. - Solides compétences en modélisation de données et conception d'architectures de données. - Capacité à travailler de manière autonome et à gérer efficacement les priorités. - Excellentes compétences en communication et en collaboration avec les équipes métier. - Maîtrise des langages de requête SQL et des principes de gestion de bases de données. - Connaissance des bonnes pratiques en matière de gouvernance des données et de sécurité. Compétences / Qualités indispensables : Power BI, ETL talend, conception architecture de données (data warehouse & datamart), Développement d'un modèle de données (EDM), Maîtrise des langages de requête SQL et des principes de gestion de bases de données, gouvernance de données et sécurité, anglais Informations concernant le télétravail : 2 jours par semaine

Freelance

Mission freelance
Data PO / PMO Confirmé BI & SAP - Déploiement Spend Bridge (chef de projet transverse)

EMGS CONSULTING
Publiée le
BI
Big Data
Microsoft Power BI

1 an
500 €
Paris, France

Nous sommes à la recherche d'un Data PO / PMO - Confirmé pour l'un de nos projets de Déploiement Spend Bridge Contexte de la mission Les Achats font une refonte de l’intégralité de ses Reportings & Analytics afin de profiter des bénéfices du Big Data. Rattaché(e) au Directeur Data & Digital, vous jouerez le rôle de chef de projet transverse. Vous serez responsable de la mise en œuvre de nouveaux produits Reportings & Analytics en fonction des besoins de la fonction Achats et de vos interlocuteurs métiers. En particulier, vous serez référent(e) des analyses Achats basées sur la consolidation des transactions faites dans les ERP (consolidation des documents et chiffres des Achats du Groupe, analyse du coût des facteurs et des effets prix, optimisation des délais de paiement…). vous contribuerez au déploiement du rapport Spend Bridge à travers les Activités et Pays du Groupe. Sur les produits data qui vous seront confiés, vos missions seront les suivantes : Cadrer les besoins fonctionnels en données, en rapports et en analyse de la fonction Achats en échangeant avec vos interlocuteurs dans les entités, les activités et les pays du Groupe, Coordonner les travaux d’alimentation des données en collaboration avec la DSI en s’assurant de l’adéquation entre les choix techniques, les besoins fonctionnels et le planning, Superviser le développement des tableaux de bord en partenariat avec les donneurs d’ordre de la fonction Achats et en collaboration avec les développeurs MicroStrategy et Power BI, Développer une vision produit (feuille de route, évolutions, etc.). Objectifs et livrables Les principaux objectifs sont les suivants : Déploiement des rapports et des processus de Spend Bridge à travers les Activités et Pays du Groupe, Gestion de produit sur les rapports basés sur les données ERP (Purchasing Details, Payment Terms, Spend Bridge)

Freelance

Mission freelance
Support Data Engineer H/F

Agate IT
Publiée le
Big Data
Python
SQL

3 ans
550-700 €
Paris, France

Description du poste : En tant que Data Support analyste, vous serez responsable de fournir un soutien technique et opérationnel pour les systèmes et les processus liés aux données au sein du département de Data Technology. Vous travaillerez en étroite collaboration avec les équipes de développement et de data ingénierie pour résoudre les problèmes liés à la data, assurer la qualité des données et maintenir la disponibilité des systèmes. Responsabilités : 1. Soutien technique : Diagnostiquer et résoudre les problèmes liés aux données, tels que les erreurs de chargement, les incohérences de données et les performances dégradées. Collaborer avec les équipes Data pour résoudre les problèmes techniques et d'intégration liés aux données. 2. Gestion de la qualité des données : Surveiller et analyser la qualité des données, identifier les anomalies et les incohérences, et proposer des solutions pour améliorer la qualité des données. Mettre en place des contrôles de qualité des données pour garantir la précision, la cohérence et l'intégrité des données. Participer à la définition et à la mise en œuvre des normes et des bonnes pratiques de gestion de la qualité des données. 3. Maintenance et support opérationnel : Assurer la disponibilité des systèmes de données en surveillant les performances et en gérant les problèmes de capacité. Collaborer avec les équipes de développement pour effectuer des mises à jour logicielles, des correctifs de bugs et des améliorations des fonctionnalités des systèmes de données. Documenter les procédures opérationnelles et les problèmes rencontrés, ainsi que les solutions mises en œuvre, pour faciliter le support et la résolution de problèmes ultérieurs. Être proactif sur l’amélioration des process et outils. 4. Formation et communication : Collaborer avec les différentes équipes pour communiquer les changements, les mises à jour et les problèmes liés aux données de manière claire et concise. Participer à des réunions et à des projets interfonctionnels pour fournir un aperçu et un soutien relatif aux données.

Freelance
CDI

Offre d'emploi
DataOps Hadoop

KLETA
Publiée le
Big Data
Hadoop

3 ans
10k-86k €
Paris, France

Architecture et Conception : Concevoir, mettre en œuvre et maintenir l'architecture Hadoop en fonction des besoins de l'entreprise. Élaborer des plans d'expansion et d'évolution pour les clusters Hadoop. Collaborer avec les équipes de développement et d'infrastructure pour concevoir des solutions adaptées aux besoins spécifiques du projet. Installation et Configuration : Installer, configurer et déployer les clusters Hadoop en utilisant les meilleures pratiques. Gérer les configurations, les mises à jour et les correctifs des composants Hadoop. Surveillance et Optimisation : Surveiller les performances du cluster Hadoop et identifier les goulots d'étranglement. Optimiser les performances en ajustant la configuration, en mettant à l'échelle le matériel ou en optimisant les requêtes. Mettre en place des outils de surveillance et des alertes pour détecter les problèmes potentiels. Sécurité : Mettre en œuvre et maintenir des stratégies de sécurité robustes pour le cluster Hadoop. Gérer l'accès aux données sensibles et aux ressources du cluster en utilisant des technologies telles que Kerberos, LDAP, etc. Effectuer des audits de sécurité réguliers et remédier aux vulnérabilités identifiées. Gestion des Données : Concevoir et mettre en œuvre des pipelines de données pour l'ingestion, le traitement et la distribution des données. Assurer la qualité des données en mettant en place des processus de nettoyage, de normalisation et de validation des données. Intégrer et gérer différents types de données, y compris les données structurées, semi-structurées et non structurées. Automatisation et Orchestration : Automatiser les tâches courantes telles que la sauvegarde, la récupération, la gestion des ressources, etc. Mettre en place des workflows d'orchestration pour coordonner les tâches complexes entre les différents composants du cluster Hadoop. Développement et Support : Fournir un support technique aux équipes de développement et d'analyse des données. Développer des outils et des scripts personnalisés pour faciliter l'administration et la gestion du cluster Hadoop. Collaborer avec les équipes de développement pour optimiser les applications et les requêtes pour le cluster Hadoop. Formation et Documentation : Former les membres de l'équipe sur l'utilisation et la gestion du cluster Hadoop. Documenter les processus, les configurations et les bonnes pratiques pour faciliter la collaboration et le transfert de connaissances. Veille Technologique : Suivre les tendances et les avancées technologiques dans le domaine du Big Data et de l'analyse de données. Évaluer de nouvelles technologies et proposer des solutions innovantes pour améliorer l'efficacité et les performances du cluster Hadoop.

Freelance

Mission freelance
Tech Lead Big Data - BANQUE

ABSIS CONSEIL
Publiée le
Big Data
Développement

3 ans
600-650 €
Fontenay-sous-Bois, Île-de-France

Nous recherchons pour notre client du secteur bancaire un Tech Lead Big Data. Vous interviendrez dans le cadre d'évolution du socle technique et pour répondre à de nouveaux besoins métiers sur l'exploitation de la Data des paiements. Vous contribuerez aux développement Spark/Scala et HIVE. Une bonne expertise des environnements hadoop est nécessaire ainsi qu'un bon niveau d'anglais (environnement anglophone). Vous êtes en capacité de faire de la revue de code et du re-factoring dans un environnement Agile, de traiter un gros volume de données et d'appliquer les bonnes normes de développements. Maitrise des technologies suivantes sont requises : Hive, PostGreSQL, Python, Scala et Spark Hadoop

Freelance
CDI

Offre d'emploi
Consultant(e) AMOA Big Data / Data - Bordeaux (33)

Accelite
Publiée le
Agile Scrum
Alteryx
AMOA

13 mois
40k-50k €
Bordeaux, Nouvelle-Aquitaine

En tant que Consultant(e) AMOA Big Data / Data , vous accompagnez la modélisation et à la mise en œuvre des solutions décisionnelles (reporting stratégique, opérationnel, etc.) la mise en œuvre des usages concernant les données des services Solidarités et Droit à l’information. Les solutions à mettre en œuvre le seront sous une architecture technique Hadoop/Hive ; les outils de manipulation des données : Tableau et Alteryx. De plus, vous participez à l’enrichissement des dictionnaires de données sur le périmètre concerné ainsi qu’à la modélisation des datamarts décisionnels répondant aux cas d’usages du projet. Les activités seront menées en méthode dite agile . La durée des sprints est de trois semaines. Le nombre de sprints sera de 9. À ce titre, vous aurez pour rôle : -Accompagnement et interface entre Métier et MOE sur les solutions d’architecture data mises en place -Animer les réunions avec les utilisateurs et l’équipe de développement (une réunion par semaine, de 5 à 10 participants par réunion) -Recueillir et restituer les indicateurs -Tâches attendues pendant un sprint : Analyser les user-stories prises en compte dans les sprints et animer les ateliers métiers associés ; Modélisation fonctionnelle des objets pivots et des datamarts ; Préparer et conduire les recettes -Réalisation d’un mode opératoire, façon Tutoriel, pour que les métiers puissent construire des rapports en autonomie. Cela pourra être sous forme de document de type Powerpoint avec un maximum de 30 slides -Réalisation/automatisation de rapports et d’indicateurs sur demande des métiers -Accompagnement des métiers dans l’utilisation de la solution S.I mise en œuvre -Réalisation de documents sur le fonctionnement de l’outil à destination de la MOA. Les documents seront sous format de type Word. Ils devront être exhaustifs en termes de périmètre de fonctionnalités mise en œuvre.

Freelance

Mission freelance
Consultant décisionnel BI

MSI Experts
Publiée le
Big Data

6 mois
400-440 €
Lyon, Auvergne-Rhône-Alpes

Afin de compléter notre équipe d'Experts, nous sommes à la recherche d'un consultant décisionnel BI sénior (>5ans) afin de réaliser une mission chez l'un de nos clients. En tant que tel, vous interviendrez autour de 3 axes : * o Analyser les besoins fonctionnels et techniques pour mettre en place une architecture de données pertinente et performante o Modéliser et enrichir datawarehouses et datamarts o Produire des rapports à destination des métiers et les accompagner ou former dans leur exploitation Vous vous appuierez si nécessaire sur les référents techniques des diverses briques si ces dernières sortent d’un cadre BI classique (cluster Big data noSQL, absence d’ETL pour l’intégration de données…). Les Activités principales : o Analyser les besoins fonctionnels et techniques o Localiser les données de production permettant de répondre au besoin o Documenter / spécifier les livrables o Développer les processus d’intégration de données o Modéliser et enrichir les datawarehouse (entrepôts de données) et les datamarts (magasins de données) o Produire des rapports ou tableaux de bords lisibles et compréhensibles par le métier, et répondant à leur besoin o Tester la qualité et la performance de ses livrables Activité secondaire : o Livrer et déployer ses livrables o Participer aux revues de code o Assurer le suivi et le maintien en conditions opérationnelles de ses livrables en production Stack technique du projet : o Big Data: Spark, Hive, Indexima. o Stockage: Oracle, CEPH S3 (parquet). o Langages: Java, Python, PL/SQL, Shell. o CI/CD: Ansible, Terraform, Jenkins, GIT. o ETL: Informatica. o Dataviz: Tableau Server. o Ordonnanceur: Control-M.

Freelance
CDI

Offre d'emploi
ITQuant / Développeur Senior - Pricing & Analytics (FH)

Taleo Capital
Publiée le
API
Big Data
Java

1 an
58k-70k €
Paris, France

Responsabilités : Au sein du pôle Pricing & Analytics de l'IT Global Markets, vous rejoindrez l’équipe Calculation Engines en tant que ITQuant / Développeur Senior. Vos principales responsabilités seront les suivantes : Participer au développement et à la maintenance des librairies financières Equity (TK EDA) et Fixed Income (ARM), et de leur intégration dans différentes applications du SI. Contribuer à la mise en place de chaines de calcul robustes industrialisées à destination des métiers Front Office et Risques de Global Market, en s'appuyant sur les librairies de pricing. Concevoir et développer des API customisées pour l'accès aux données financières. Travailler sur des projets de développement dans un environnement Agile, en collaborant étroitement avec les équipes Front Office et Risques. Assurer la qualité du code développé en respectant les bonnes pratiques de développement et en réalisant des tests unitaires et d'intégration.

Freelance

Mission freelance
Directeur de programme transformation H/F

NAVIGACOM
Publiée le
Big Data
Data Center
Virtualisation

12 mois
100-850 €
Yvelines, France

Missions Pour l’un de nos clients du secteur bancaire, vous intervenez sur des missions à forte valeur ajoutée en tant que Directeur de programme. Le Directeur de Programme sera chargé d'encadrer les experts du département, de diriger les transformations applicatives, de décider de la conformité aux standards du groupe et de piloter les activités liées aux réseaux datacenter, à l'infrastructure (on-premises, cloud, virtualisation…) et à l’environnement data. Il devra également gérer les équipes au quotidien, définir les migrations, conduire la gestion du changement et réaliser/diriger le programme de transformation. Vos tâches seront les suivantes : Encadrer les experts techniques du département "Grande Clientèle". Diriger les transformations applicatives lorsqu'elles sont nécessaires. Prendre des décisions concernant la conformité aux standards du groupe lors des transformations. Piloter les activités liées aux réseaux datacenter, à l'infrastructure et à la plateforme data. Gérer les équipes au quotidien et assurer le suivi des projets. Définir les migrations vers les nouvelles infrastructures et les nouvelles technologies. Conduire la gestion du changement pour assurer une transition fluide. Réaliser ou diriger le programme de transformation, en assurant le respect des délais et des objectifs. Collaborer étroitement avec les équipes locales et les parties prenantes pour garantir le succès du projet.

Freelance
CDI

Offre d'emploi
Data Engineer / cube OLAP / cach in memory / base de données distribuée

Digistrat consulting
Publiée le
Big Data
Java

3 ans
40k-60k €
Paris, France

💼 Poste : Data Engineer / cube OLAP / cach in memory / base de données distribuée 🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, base de donées distribuée avec un systel de cache in memory, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins.Dans le cadre d'un projet de migration de la solution du in memory cach distribué vers une solution de cube OLAP, notre client recherche un Data Engineer avec une forte expertise dans les applications à faible latence / data driven design / 🤝 Expertises spécifiques : Le candidat sera chargé de la partie back end ainsi que de la partie dev ops. but est d'développer des nouvelles fonctionnalités demandées par le trading, et aussi techniquement améliorer la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions. Big data Java core Multithreading Apprécié Apache ignite ou Active Pivot Apprécié Technologies Devops Apprécié clickHouse Apprécié

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous