Trouvez votre prochaine offre d’emploi ou de mission Big Data

Votre recherche renvoie 168 résultats.
Suivant
Freelance

Mission freelance développement Big Data

Intuition IT Solutions Ltd.
Publiée le

6 mois
350 €
Toulouse, Occitanie
Pour un client du secteur de l’aéronautique, mission de développement Big Data Data engineer sur plateforme BigData (Java spark, sql) et potentiellement dataviz BO et Spotfire Un personne dynamisme capable de travailler en autonomie. Environnement technique : Spark / Hadoop / SQL Teradata =? +++ Java 8+ / Script (shell) / Sap BI4 Designer / Shell Linux / Sap BI4 Webi / Spotfire =? ++ Control-M / Kafka / Bamboo / Maven / Confluence / JIRA / Safe =? + Présence sur site à Toulouse obligatoire
Freelance

Mission freelance Admininistrateur Big Data

SOFTEAM
Publiée le

12 mois
400-560 €
Bordeaux, Nouvelle-Aquitaine
Poste : Admininistrateur Big Data L’expert sera un élément essentiel de l’équipe constituée de 6 collaborateurs : Il assurera notamment : - Une contribution dans les choix d’architecture et des composants - La mise en œuvre selon les règles existantes - La remontée d’alertes le cas échéant (dysfonctionnement, retard, anomalies diverses) - La gestion des incidents et problèmes auprès des éditeurs de solutions - Le reporting des actions réalisées - L’identification des actions devant être menées - La constitution -puis le maintien à jour-: Des documents (méthodologie et bonnes pratiques, nomenclature) Des outils (référentiels) Compténces techniques : Hive HDFS Kafka Knox SolR Zeppelin Zookeeper Autres : Scripting Shell sous Linux Netbackup Splunk Kerberos Dataiku Construction d’environnement Cloudera Cloudera Manager Ambari
Freelance

Mission freelance MOA Big Data

HIGHTEAM
Publiée le

36 mois
Paris, France
 Cadrage des requêtes Big Data de la ligne métier  La spécification des requêtes d’évolution  La mise en oeuvre des composants Big Data spécifiés  La stratégie Big Data  La mise en place d’un modèle d’entreprise pour le métier paiement  L’analyse des Business Requirements fournis par le métier  Spécifications fonctionnelles et spécifications détaillées  Chiffrage des projets et évolution  La mise en place de la stratégie de test  Suivi et assistance pendant la phase d’implémentation et d’intégration  Tests et assistance aux utilisateurs lors de l’homologation  Cérémonies AGILE  Remontée des alertes en cas de risque ou de non respect des échéances Environnement anglophone. Les livrables attendus sont :  Notes et documents de cadrage des évolutions projet  Planning et chiffrage d’implémentation  Cahiers de test  Mise en place du backlog du projet et du PI planning  Méthodologie Agile (Scrum / Kanban)  SQL  Correspondant Bancking et/ou des paiements (SEPA/SWIFT/ISO 20022, ...)  Expertise sur projets Data et déploiement d’un modèle d’entreprise
Freelance

Mission freelance BA Big Data

Hexagone Digitale
Publiée le

12 mois
350 €
Paris, France
- Compétences requises : Hadoop (Big Data) Hive SQL Server Database Talend (Data integration, Big Data) Jenkins JIRA GIT Merise - Localisation : Région parisienne (94) + 3 jrs de TT / semaine - Démarrage : début avril - Durée : mission longue - Compétences requises : Hadoop (Big Data) Hive SQL Server Database Talend (Data integration, Big Data) Jenkins JIRA GIT Merise - Localisation : Région parisienne (94) + 3 jrs de TT / semaine - Démarrage : début avril - Durée : mission longue
Freelance

Mission freelance Dév Java / Big Data

AVALIANCE
Publiée le

48 mois
400-650 €
La Défense, Île-de-France
Nous recherchons pour notre client qui opere dans le secteur bancaire un dev java bigdata finance pour une mission longue a la defense Projet : Refonte du moteur de calcul des risques de contrepartie pour permettre de calculer 2 métriques (CVAR et EAD) Composition de l’équipe : 1 architectes / 2 BA / 1 PO et 4 dév Ils sont en méthode agile avec des sprints de 3 semaines PI Planning tous les 3 mois (4sprints de 3 semaines) Télé travail : 2 jours sur site Techno : Java 8, springboot Hadoop, Hive, Kafka, Spark, Kibana, Elastic Search, Spring Deployment sur Azure Bdd : ils stockent sur Hadoop (et ne travaillent pas avec Hive) + SQL pour stocker de l’historique et utilisent aussi HDFS Infra : cluster AKS (pour l’intégration continue) Module BDD / TDD avec utilisation de Sonar pour la qualité du code et la couverture de code Ils ont Jenkins / Sonar / GIT (pour la gestion de version) Travaille sur Cloud Azure Donc connaissance Ops c’est un atout Problématiques de performance lié aux jointures donc expé avec ce genre de problématiques est un gros plus
Freelance

Mission freelance Consultant Big Data

FREELANCE VISION
Publiée le

12 mois
Bordeaux, Nouvelle-Aquitaine
Dans le cadre des différents sujets que nous avons à adresser au niveau du projet BIG DATA, l’intervenant devra travailler sur : - Développement en data modélisation et data préparation - Expertise technique sur pile middlewares du Big Data (Distribution Cloudera) - Expertise sur DATAIKU - Support à la production Livrables / Résultats attendus - Développements data - Résolution de tickets d’incidents et de problèmes selon les processus internes - Documentations techniques et spécificités sur les éléments mis en oeurvre - Livraison de développement sur le git interne - Prise en charge des jira au sein du sprint planning 3 - ENVIRONNEMENTS TECHNIQUES Les environnements techniques relatifs au projet sont les suivants : - POC, DEV, IMOE, RMOA, KLIF et PRODUCTION
Freelance

Mission freelance DEVELOPPEUR BIG DATA (H/F)

HR-TEAM
Publiée le

10 mois
400-500 €
Lyon, Auvergne-Rhône-Alpes
Contexte : Migration de traitements hadoop HDFS vers Spark Accompagnement a la montée en compétences de l’équipe sur la technologie Spark Activités La mise en place d’architecture Big Data La conception / développement / supervision / optimisation de flux d’alimentation Spark de données à forte volumétrie Les bonnes pratiques à mettre en place vis à vis de la robustesse, de la résilience et des performances La mise en place et le maintien du socle technique La mise en place de logs et de métriques La mise en place de tests Capacité à s’intégrer au sein d’une équipe et à prendre progressivement une position de lead Accompagnement technique des équipes de développement
Freelance

Mission freelance Tech lead Big Data

Symbioz Technology
Publiée le

12 mois
550 €
Paris, France
Connaissances techniques: Bonne maitrise des technologies : Hadoop, Scala, Python, Hive, SolR, HBase, Kerberos, Datalake... Connaissance des librairies : ZIO, MONIX, CATS Gestion de projets : Confluence, Jira, Agile Scrum, Kanban
Freelance

Mission freelance Développeur Big Data - Confirmé/ expérimenté

Symbioz Technology
Publiée le

12 mois
400-550 €
Paris, France
Pour l’un de nos clients Grands Comptes du secteur bancaire, nous sommes à la recherche d’un(e) Développeur (se) Big Data Confirmé. TJM Maximum est 430€ - aucun dépassement n’est possible. 9 ans d’expérience MINIMUM voir plus dans un poste similaire. Parmi vos missions : - Processus de production et de contrôle des nouvelles mesures appliquées, - Optimisation et réalisation des process de calculs des Bases des données - DATA, - La mise en place et le calcul des stresstest - Réalisation des tests unitaires, - Réalisation des tests de non régression, Connaissances Techniques : Java, JS, Spark Scala, SGL, Hadoop, Méthode Agile Scrum.
Freelance

Mission freelance Ingénieur infra Big Data

Ela Technology
Publiée le

24 mois
Île-de-France, France
Nous recherchons un ingénieur de production/système Linux qui aura la main de la partie industrialisation et accompagnera l’équipe BI data sur l’implémentation de données, traitement de donnée. Il interagira au quotidien avec cette équipe Data qui sont en charge de : - Reporting réglementaire - Aspect financier - Aspect de production : fournir des API pour détection de fraude - Mise en place du Backlog - Machine Learning Objectif de la mission - Implémentation des données - Mettre à disposition des données sécurisés à l’équipe Data - Mettre à disposition des données aux développeurs (respect des réglementation de la RGPD/CNIL) - Accompagnement de mise en place de pipeline de traitement de donnée pour délivrer un usecase fonctionnelle en respectant les ensembles de contrainte : Principe de moindre privilège, Principe de linéage de donnée, Les systèmes d’autorisation, système d’authentification, Avoir des notions d’API sur la base du socle d’infra Environnement : Terraform, Puppet, Ansible, Data Lake, Kafka, Sql Périmètre d’intervention production - Scalabilité - Résilience - Sécurité Environnement technique - Système : Linux - Expertise - Stockage de donnée : Data Lake Maîtrise - Outil d’automatisation : scripting/sql Maîtrise, devOps : Ansible/Kubernetes - connaissance - Outil data : Cassandra connaissance, Hadoop connaissance, Kafka connaissance, Database/Airflow connaissance - Réseau : TCP-IP niveau 2 connaissance, réseau appliqué connaissance - Internet : HTTP, SNTP, DNS, Zone, Reverse, etc. connaissance - Sécurité et routage : PKI chiffrement asymétrique - connaissance
Freelance

Mission freelance EXPERT DEVOPS ENVIRONNEMENT BIG DATA

HIGHTEAM
Publiée le

36 mois
Île-de-France, France
A ce titre, Le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire pour le Project Management et le déploiement des fonctions DEVOPS dans son environnement Big Data. Dans ce cadre, la prestation consistera à/aux- :  Pilotage, la mise en place de la Feature Team DEVOPS qui a vocation à supporter l’ensemble des Chapters Big Data de la tribe , à standardiser et homogénéiser les pratiques DEVOPS entre Chapters Data, à prendre en charge leur support L1  Suivi du Backlog de la Feature Team DEVOPS  Support à l’’implémentation sur le périmètre DEVOPS, aux besoins d’assistance technique des différents Utilisateurs et/ou Bénéficiaires  La définition des principes et standards DEVOPS à mettre en oeuvre (CI/CD, automatisation du monitoring...) dans le respect des standards d’architecture du groupe et en tenant compte de l’existant DEVOPS déjà déployé par les Chapters Data,  La mise en place du déploiement des principes et standards DEVOPS dans les Chapters Data de la tribe, à mettre en place et à maintenir la road map de standardisation DEVOPS ,  La mise en place de la Stream OPS avec le transfert du support L1 des Chapters Data vers la FT DEVOPS, en lien avec applications sources et les différents Utilisateurs et/ou Bénéficiaires  Divers chiffrages  Respect des échéances techniques transversales,  Remontées d’alertes et mise en place et déploiement de plans de mitigation. Expertises : - Gestion de projets techniques en environnement bancaire, - DEVOPS (CI/CD, Monitoring, ...), - Java Full Stack (batch & dev Angular) et de Spark Scala - Culture SRE & Craftmanship, - Mode Agile (Scrum), - Environnement anglophone. Les expertises attendues pour réaliser cette prestation sont listées ci-après : - Agile Scrum - Ansible - Docker - Git Hub - Hadoop (Big Data) - Jenkins - JIRA - Kubernetes - Maven - PL/SQL - Python - Shell - Sonar - ELK ElastikSearch
Freelance

Mission freelance MAITRISE D’OUVRAGE IT BIG DATA

HIGHTEAM
Publiée le

36 mois
Paris, France
MISSION:  La gestion du portefeuille de crédit  Calcul de la liquidité réglementaire  Monitoring du capital réglementaire consommé  La gestion du défaut et du provisionnement des opérations douteuses A ce titre, le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire en termes d’Assistance maîtrise d’ouvrage SI. Dans ce cadre, la prestation consiste à contribuer à/au(x) :  Cadrage des requêtes Big Data de la ligne métier  La spécification des requêtes d’évolution  La mise en œuvre des composants Big Data spécifiés  La stratégie Big Data de GTPS  La mise en place d’un modèle d’entreprise pour le métier paiement  L’analyse des Business Requirements fournis par le métier  Spécifications fonctionnelles et spécifications détaillées  Chiffrage des projets et évolution  La mise en place de la stratégie de test  Suivi et assistance pendant la phase d’implémentation et d’intégration  Tests et assistance aux utilisateurs lors de l’homologation  Cérémonies AGILE  Remontée des alertes en cas de risque ou de non respect des échéances Environnement anglophone. Les livrables attendus sont :  Notes et documents de cadrage des évolutions projet  Planning et chiffrage d’implémentation  Cahiers de test  Mise en place du backlog du projet et du PI planning  Méthodologie Agile (Scrum / Kanban)  SQL  Correspondant Bancking et/ou des paiements (SEPA/SWIFT/ISO 20022, ...)  Expertise sur projets Data et déploiement d’un modèle d’entreprise Les expertises attendues pour réaliser cette prestation sont listées ci-après :  JIRA  PL SQL
Freelance

Mission freelance Développeur Big Data - H/F

Espace Freelance
Publiée le

36 mois
Lyon, Auvergne-Rhône-Alpes
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Développeur Big Data - H/F Vos missions : - Participation à des ateliers avec des experts métiers pour collecter le besoin et comprendre les données - Assurer la conception et le développement de traitements de données - Assurer la réalisation d’études statistiques Développer des outils de visualisation de données pour faciliter les analyses Documenter les traitements en vue d’une industrialisation Le profil recherché : - Vous avez une expérience d’au moins 7 ans sur des contextes similaires - Vous maitrisez Python et R
CDI

Offre d'emploi Ingénieur infra Big Data

Ela Technology
Publiée le

Nancy, Grand Est
Nous recherchons un ingénieur de production/système Linux qui aura la main de la partie industrialisation et accompagnera l’équipe BI data sur l’implémentation de données, traitement de donnée. Il interagira au quotidien avec cette équipe Data qui sont en charge de : - Reporting réglementaire - Aspect financier - Aspect de production : fournir des API pour détection de fraude - Mise en place du Backlog - Machine Learning Objectif de la mission - Implémentation des données - Mettre à disposition des données sécurisés à l’équipe Data - Mettre à disposition des données aux développeurs (respect des réglementation de la RGPD/CNIL) - Accompagnement de mise en place de pipeline de traitement de donnée pour délivrer un usecase fonctionnelle en respectant les ensembles de contrainte : Principe de moindre privilège, Principe de linéage de donnée, Les systèmes d’autorisation, système d’authentification, Avoir des notions d’API sur la base du socle d’infra Environnement : Terraform, Puppet, Ansible, Data Lake, Kafka, Sql Périmètre d’intervention production - Scalabilité - Résilience - Sécurité Environnement technique - Système : Linux - Expertise - Stockage de donnée : Data Lake Maîtrise - Outil d’automatisation : scripting/sql Maîtrise, devOps : Ansible/Kubernetes - connaissance - Outil data : Cassandra connaissance, Hadoop connaissance, Kafka connaissance, Database/Airflow connaissance - Réseau : TCP-IP niveau 2 connaissance, réseau appliqué connaissance - Internet : HTTP, SNTP, DNS, Zone, Reverse, etc. connaissance - Sécurité et routage : PKI chiffrement asymétrique - connaissance
CDI

Offre d'emploi TECH LEAD BIG DATA (NANTES)

IT CONSULTANTS
Publiée le

Nantes, Pays de la Loire
Postuler SUR NOTRE SITE pour que nous vous contactions plus rapidement https://www.itconsultants.fr/missions/tech-lead-big-data-nantes-miss0152401197 La création de profil ne prendra que 3 minutes --- Recherchons pour un client sur Nantes un profil de Tech lead Big Data avec idéalement 5 ans d’expérience dont 3 sur une même stack technique que précisé ci-dessous Intervention SUR PLACE, pas de full remote possible Compétences requises : JAVA SPARK (expert) KAFKA, Kubernetes, Delta, minIO (niveau avancé) Mission longue, 2 ans minimum
Freelance

Mission freelance TECH LEAD BIG DATA (NANTES)

IT CONSULTANTS
Publiée le

24 mois
Nantes, Pays de la Loire
Postuler SUR NOTRE SITE pour que nous vous contactions plus rapidement https://www.itconsultants.fr/missions/tech-lead-big-data-nantes-miss0152401197 La création de profil ne prendra que 3 minutes --- Recherchons pour un client sur Nantes un profil de Tech lead Big Data avec idéalement 5 ans d’expérience dont 3 sur une même stack technique que précisé ci-dessous Intervention SUR PLACE, pas de full remote possible Compétences requises : JAVA SPARK (expert) KAFKA, Kubernetes, Delta, minIO (niveau avancé) Mission longue, 2 ans minimum
Suivant

Nouveauté ! Bénéficiez dès maintenant de plus de 350 deals dénichés pour vous (logiciels, outils et bien d'autres).