Trouvez votre prochaine offre d’emploi ou de mission Big Data
Votre recherche renvoie 168 résultats.

Mission freelance développement Big Data
Intuition IT Solutions Ltd.
Publiée le
6 mois
350 €
Toulouse, Occitanie
Pour un client du secteur de l’aéronautique, mission de développement Big Data
Data engineer sur plateforme BigData (Java spark, sql) et potentiellement dataviz BO et Spotfire
Un personne dynamisme capable de travailler en autonomie.
Environnement technique :
Spark / Hadoop / SQL Teradata =? +++
Java 8+ / Script (shell) / Sap BI4 Designer / Shell Linux / Sap BI4 Webi / Spotfire =? ++
Control-M / Kafka / Bamboo / Maven / Confluence / JIRA / Safe =? +
Présence sur site à Toulouse obligatoire

Mission freelance Admininistrateur Big Data
SOFTEAM
Publiée le
12 mois
400-560 €
Bordeaux, Nouvelle-Aquitaine
Poste : Admininistrateur Big Data
L’expert sera un élément essentiel de l’équipe constituée de 6 collaborateurs :
Il assurera notamment :
- Une contribution dans les choix d’architecture et des composants
- La mise en œuvre selon les règles existantes
- La remontée d’alertes le cas échéant (dysfonctionnement, retard, anomalies diverses)
- La gestion des incidents et problèmes auprès des éditeurs de solutions
- Le reporting des actions réalisées
- L’identification des actions devant être menées
- La constitution -puis le maintien à jour-:
Des documents (méthodologie et bonnes pratiques, nomenclature)
Des outils (référentiels)
Compténces techniques :
Hive
HDFS
Kafka
Knox
SolR
Zeppelin
Zookeeper
Autres :
Scripting Shell sous Linux
Netbackup
Splunk
Kerberos
Dataiku
Construction d’environnement Cloudera
Cloudera Manager
Ambari
Mission freelance MOA Big Data
HIGHTEAM
Publiée le
36 mois
Paris, France
Cadrage des requêtes Big Data de la ligne métier
La spécification des requêtes d’évolution
La mise en oeuvre des composants Big Data spécifiés
La stratégie Big Data
La mise en place d’un modèle d’entreprise pour le métier paiement
L’analyse des Business Requirements fournis par le métier
Spécifications fonctionnelles et spécifications détaillées
Chiffrage des projets et évolution
La mise en place de la stratégie de test
Suivi et assistance pendant la phase d’implémentation et d’intégration
Tests et assistance aux utilisateurs lors de l’homologation
Cérémonies AGILE
Remontée des alertes en cas de risque ou de non respect des échéances
Environnement anglophone.
Les livrables attendus sont :
Notes et documents de cadrage des évolutions projet
Planning et chiffrage d’implémentation
Cahiers de test
Mise en place du backlog du projet et du PI planning
Méthodologie Agile (Scrum / Kanban)
SQL
Correspondant Bancking et/ou des paiements (SEPA/SWIFT/ISO 20022, ...)
Expertise sur projets Data et déploiement d’un modèle d’entreprise
Mission freelance BA Big Data
Hexagone Digitale
Publiée le
12 mois
350 €
Paris, France
- Compétences requises :
Hadoop (Big Data)
Hive SQL Server Database Talend (Data integration, Big Data)
Jenkins JIRA GIT
Merise
- Localisation : Région parisienne (94) + 3 jrs de TT / semaine
- Démarrage : début avril
- Durée : mission longue
- Compétences requises :
Hadoop (Big Data)
Hive SQL Server Database Talend (Data integration, Big Data)
Jenkins JIRA GIT
Merise
- Localisation : Région parisienne (94) + 3 jrs de TT / semaine
- Démarrage : début avril
- Durée : mission longue
Mission freelance Dév Java / Big Data
AVALIANCE
Publiée le
48 mois
400-650 €
La Défense, Île-de-France
Nous recherchons pour notre client qui opere dans le secteur bancaire un dev java bigdata finance pour une mission longue a la defense
Projet : Refonte du moteur de calcul des risques de contrepartie pour permettre de calculer 2 métriques (CVAR et EAD)
Composition de l’équipe : 1 architectes / 2 BA / 1 PO et 4 dév
Ils sont en méthode agile avec des sprints de 3 semaines
PI Planning tous les 3 mois (4sprints de 3 semaines)
Télé travail : 2 jours sur site
Techno :
Java 8, springboot
Hadoop, Hive, Kafka, Spark, Kibana, Elastic Search, Spring
Deployment sur Azure
Bdd : ils stockent sur Hadoop (et ne travaillent pas avec Hive) + SQL pour stocker de l’historique et utilisent aussi HDFS
Infra : cluster AKS (pour l’intégration continue)
Module BDD / TDD avec utilisation de Sonar pour la qualité du code et la couverture de code
Ils ont Jenkins / Sonar / GIT (pour la gestion de version)
Travaille sur Cloud Azure
Donc connaissance Ops c’est un atout
Problématiques de performance lié aux jointures donc expé avec ce genre de problématiques est un gros plus

Mission freelance Consultant Big Data
FREELANCE VISION
Publiée le
12 mois
Bordeaux, Nouvelle-Aquitaine
Dans le cadre des différents sujets que nous avons à adresser au niveau du projet BIG DATA, l’intervenant devra travailler sur :
- Développement en data modélisation et data préparation
- Expertise technique sur pile middlewares du Big Data (Distribution Cloudera)
- Expertise sur DATAIKU
- Support à la production
Livrables / Résultats attendus
- Développements data
- Résolution de tickets d’incidents et de problèmes selon les processus internes
- Documentations techniques et spécificités sur les éléments mis en oeurvre
- Livraison de développement sur le git interne
- Prise en charge des jira au sein du sprint planning
3 - ENVIRONNEMENTS TECHNIQUES
Les environnements techniques relatifs au projet sont les suivants :
- POC, DEV, IMOE, RMOA, KLIF et PRODUCTION

Mission freelance DEVELOPPEUR BIG DATA (H/F)
HR-TEAM
Publiée le
10 mois
400-500 €
Lyon, Auvergne-Rhône-Alpes
Contexte :
Migration de traitements hadoop HDFS vers Spark
Accompagnement a la montée en compétences de l’équipe sur la technologie Spark
Activités
La mise en place d’architecture Big Data
La conception / développement / supervision / optimisation de flux d’alimentation Spark de données à forte volumétrie
Les bonnes pratiques à mettre en place vis à vis de la robustesse, de la résilience et des performances
La mise en place et le maintien du socle technique
La mise en place de logs et de métriques
La mise en place de tests
Capacité à s’intégrer au sein d’une équipe et à prendre progressivement une position de lead
Accompagnement technique des équipes de développement

Mission freelance Tech lead Big Data
Symbioz Technology
Publiée le
12 mois
550 €
Paris, France
Connaissances techniques:
Bonne maitrise des technologies : Hadoop, Scala, Python, Hive, SolR, HBase, Kerberos, Datalake...
Connaissance des librairies : ZIO, MONIX, CATS
Gestion de projets : Confluence, Jira, Agile Scrum, Kanban

Mission freelance Développeur Big Data - Confirmé/ expérimenté
Symbioz Technology
Publiée le
12 mois
400-550 €
Paris, France
Pour l’un de nos clients Grands Comptes du secteur bancaire, nous sommes à la recherche d’un(e) Développeur (se) Big Data Confirmé.
TJM Maximum est 430€ - aucun dépassement n’est possible.
9 ans d’expérience MINIMUM voir plus dans un poste similaire.
Parmi vos missions :
- Processus de production et de contrôle des nouvelles mesures appliquées,
- Optimisation et réalisation des process de calculs des Bases des données - DATA,
- La mise en place et le calcul des stresstest
- Réalisation des tests unitaires,
- Réalisation des tests de non régression,
Connaissances Techniques :
Java, JS, Spark Scala, SGL, Hadoop, Méthode Agile Scrum.
Mission freelance Ingénieur infra Big Data
Ela Technology
Publiée le
24 mois
Île-de-France, France
Nous recherchons un ingénieur de production/système Linux qui aura la main de la partie industrialisation et accompagnera l’équipe BI data sur l’implémentation de données, traitement de donnée.
Il interagira au quotidien avec cette équipe Data qui sont en charge de :
- Reporting réglementaire
- Aspect financier
- Aspect de production : fournir des API pour détection de fraude
- Mise en place du Backlog
- Machine Learning
Objectif de la mission
- Implémentation des données
- Mettre à disposition des données sécurisés à l’équipe Data
- Mettre à disposition des données aux développeurs (respect des réglementation de la RGPD/CNIL)
- Accompagnement de mise en place de pipeline de traitement de donnée pour délivrer un usecase fonctionnelle en respectant les ensembles de contrainte :
Principe de moindre privilège,
Principe de linéage de donnée,
Les systèmes d’autorisation, système d’authentification,
Avoir des notions d’API sur la base du socle d’infra
Environnement : Terraform, Puppet, Ansible, Data Lake, Kafka, Sql
Périmètre d’intervention production
- Scalabilité
- Résilience
- Sécurité
Environnement technique
- Système : Linux - Expertise
- Stockage de donnée : Data Lake Maîtrise
- Outil d’automatisation : scripting/sql Maîtrise, devOps : Ansible/Kubernetes - connaissance
- Outil data : Cassandra connaissance, Hadoop connaissance, Kafka connaissance, Database/Airflow connaissance
- Réseau : TCP-IP niveau 2 connaissance, réseau appliqué connaissance
- Internet : HTTP, SNTP, DNS, Zone, Reverse, etc. connaissance
- Sécurité et routage : PKI chiffrement asymétrique - connaissance
Mission freelance EXPERT DEVOPS ENVIRONNEMENT BIG DATA
HIGHTEAM
Publiée le
36 mois
Île-de-France, France
A ce titre, Le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire pour le Project Management et le déploiement des fonctions DEVOPS dans son environnement Big Data.
Dans ce cadre, la prestation consistera à/aux- :
Pilotage, la mise en place de la Feature Team DEVOPS qui a vocation à supporter l’ensemble des Chapters Big Data de la tribe , à standardiser et homogénéiser les pratiques DEVOPS entre Chapters Data, à prendre en charge leur support L1
Suivi du Backlog de la Feature Team DEVOPS
Support à l’’implémentation sur le périmètre DEVOPS, aux besoins d’assistance technique des différents Utilisateurs et/ou Bénéficiaires
La définition des principes et standards DEVOPS à mettre en oeuvre (CI/CD, automatisation du monitoring...) dans le respect des standards d’architecture du groupe et en tenant compte de l’existant DEVOPS déjà déployé par les Chapters Data,
La mise en place du déploiement des principes et standards DEVOPS dans les Chapters Data de la tribe, à mettre en place et à maintenir la road map de standardisation DEVOPS ,
La mise en place de la Stream OPS avec le transfert du support L1 des Chapters Data vers la FT DEVOPS, en lien avec applications sources et les différents Utilisateurs et/ou Bénéficiaires
Divers chiffrages
Respect des échéances techniques transversales,
Remontées d’alertes et mise en place et déploiement de plans de mitigation.
Expertises :
- Gestion de projets techniques en environnement bancaire,
- DEVOPS (CI/CD, Monitoring, ...),
- Java Full Stack (batch & dev Angular) et de Spark Scala
- Culture SRE & Craftmanship,
- Mode Agile (Scrum),
- Environnement anglophone.
Les expertises attendues pour réaliser cette prestation sont listées ci-après :
- Agile Scrum
- Ansible
- Docker
- Git Hub
- Hadoop (Big Data)
- Jenkins
- JIRA
- Kubernetes
- Maven
- PL/SQL
- Python
- Shell
- Sonar
- ELK ElastikSearch
Mission freelance MAITRISE D’OUVRAGE IT BIG DATA
HIGHTEAM
Publiée le
36 mois
Paris, France
MISSION:
La gestion du portefeuille de crédit
Calcul de la liquidité réglementaire
Monitoring du capital réglementaire consommé
La gestion du défaut et du provisionnement des opérations douteuses
A ce titre, le Bénéficiaire souhaite bénéficier de l’expertise du Prestataire en termes d’Assistance
maîtrise d’ouvrage SI.
Dans ce cadre, la prestation consiste à contribuer à/au(x) :
Cadrage des requêtes Big Data de la ligne métier
La spécification des requêtes d’évolution
La mise en œuvre des composants Big Data spécifiés
La stratégie Big Data de GTPS
La mise en place d’un modèle d’entreprise pour le métier paiement
L’analyse des Business Requirements fournis par le métier
Spécifications fonctionnelles et spécifications détaillées
Chiffrage des projets et évolution
La mise en place de la stratégie de test
Suivi et assistance pendant la phase d’implémentation et d’intégration
Tests et assistance aux utilisateurs lors de l’homologation
Cérémonies AGILE
Remontée des alertes en cas de risque ou de non respect des échéances
Environnement anglophone.
Les livrables attendus sont :
Notes et documents de cadrage des évolutions projet
Planning et chiffrage d’implémentation
Cahiers de test
Mise en place du backlog du projet et du PI planning
Méthodologie Agile (Scrum / Kanban)
SQL
Correspondant Bancking et/ou des paiements (SEPA/SWIFT/ISO 20022, ...)
Expertise sur projets Data et déploiement d’un modèle d’entreprise
Les expertises attendues pour réaliser cette prestation sont listées ci-après :
JIRA
PL SQL

Mission freelance Développeur Big Data - H/F
Espace Freelance
Publiée le
36 mois
Lyon, Auvergne-Rhône-Alpes
Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : un Développeur Big Data - H/F
Vos missions :
- Participation à des ateliers avec des experts métiers pour collecter le besoin et comprendre les données
- Assurer la conception et le développement de traitements de données
- Assurer la réalisation d’études statistiques
Développer des outils de visualisation de données pour faciliter les analyses
Documenter les traitements en vue d’une industrialisation
Le profil recherché :
- Vous avez une expérience d’au moins 7 ans sur des contextes similaires
- Vous maitrisez Python et R
Offre d'emploi Ingénieur infra Big Data
Ela Technology
Publiée le
Nancy, Grand Est
Nous recherchons un ingénieur de production/système Linux qui aura la main de la partie industrialisation et accompagnera l’équipe BI data sur l’implémentation de données, traitement de donnée.
Il interagira au quotidien avec cette équipe Data qui sont en charge de :
- Reporting réglementaire
- Aspect financier
- Aspect de production : fournir des API pour détection de fraude
- Mise en place du Backlog
- Machine Learning
Objectif de la mission
- Implémentation des données
- Mettre à disposition des données sécurisés à l’équipe Data
- Mettre à disposition des données aux développeurs (respect des réglementation de la RGPD/CNIL)
- Accompagnement de mise en place de pipeline de traitement de donnée pour délivrer un usecase fonctionnelle en respectant les ensembles de contrainte :
Principe de moindre privilège,
Principe de linéage de donnée,
Les systèmes d’autorisation, système d’authentification,
Avoir des notions d’API sur la base du socle d’infra
Environnement : Terraform, Puppet, Ansible, Data Lake, Kafka, Sql
Périmètre d’intervention production
- Scalabilité
- Résilience
- Sécurité
Environnement technique
- Système : Linux - Expertise
- Stockage de donnée : Data Lake Maîtrise
- Outil d’automatisation : scripting/sql Maîtrise, devOps : Ansible/Kubernetes - connaissance
- Outil data : Cassandra connaissance, Hadoop connaissance, Kafka connaissance, Database/Airflow connaissance
- Réseau : TCP-IP niveau 2 connaissance, réseau appliqué connaissance
- Internet : HTTP, SNTP, DNS, Zone, Reverse, etc. connaissance
- Sécurité et routage : PKI chiffrement asymétrique - connaissance

Offre d'emploi TECH LEAD BIG DATA (NANTES)
IT CONSULTANTS
Publiée le
Nantes, Pays de la Loire
Postuler SUR NOTRE SITE pour que nous vous contactions plus rapidement https://www.itconsultants.fr/missions/tech-lead-big-data-nantes-miss0152401197
La création de profil ne prendra que 3 minutes
---
Recherchons pour un client sur Nantes un profil de Tech lead Big Data avec idéalement 5 ans d’expérience dont 3 sur une même stack technique que précisé ci-dessous
Intervention SUR PLACE, pas de full remote possible
Compétences requises :
JAVA SPARK (expert)
KAFKA, Kubernetes, Delta, minIO (niveau avancé)
Mission longue, 2 ans minimum

Mission freelance TECH LEAD BIG DATA (NANTES)
IT CONSULTANTS
Publiée le
24 mois
Nantes, Pays de la Loire
Postuler SUR NOTRE SITE pour que nous vous contactions plus rapidement https://www.itconsultants.fr/missions/tech-lead-big-data-nantes-miss0152401197
La création de profil ne prendra que 3 minutes
---
Recherchons pour un client sur Nantes un profil de Tech lead Big Data avec idéalement 5 ans d’expérience dont 3 sur une même stack technique que précisé ci-dessous
Intervention SUR PLACE, pas de full remote possible
Compétences requises :
JAVA SPARK (expert)
KAFKA, Kubernetes, Delta, minIO (niveau avancé)
Mission longue, 2 ans minimum
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes
Paris
Marseille
Lyon
Toulouse
Nice
Nantes
Montpellier
Strasbourg
Bordeaux
Lille
Rennes
Reims
Saint-Étienne
Le Havre
Toulon
Grenoble
Dijon
Angers
Nîmes
Villeurbanne
Saint-Denis
Le Mans
Aix-en-Provence
Clermont-Ferrand
Brest
Tours
Amiens
Limoges
Annecy
Perpignan
Boulogne-Billancourt
Besançon
Metz
Orléans
Rouen
Argenteuil
Mulhouse
Montreuil
Caen
Nancy
Saint-Paul
Tourcoing
Roubaix
Nanterre
Avignon
Vitry-sur-Seine
Poitiers
Créteil
Dunkerque
Versailles
Asnières-sur-Seine
Aubervilliers
Colombes