Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Votre recherche renvoie 56 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI

Offre d'emploi
Business Analyst - BI/Big DATA

ENGIT
Publiée le
AMOA
Architecture
Business Object

3 mois
10k-50k €
Paris, France

Business Analyst Compréhension des enjeux métiers (finance, controling, commercial) dans un environnement complexe Analyse fonctionnelle afin de comprendre les problématiques et besoins des clients internes Animation des workshops pour converger vers une solution quand il y a divergences des participants Formalisation des besoins et identification des solutions fonctionnelles Définition des priorités Suivi des développement en méthode Agile Test et validation Participation au réflexions d'architectures et des évolutions de notre écosystème La mission nécessite plus ponctuellement un rôle de gestion de projet : Chef de projets Identification des gains/risques et arbitrages projets en conséquences Animation des comités (suivi projet, Copil, Codir), des workshops Définition et suivi du planning, organisation et suivi des capacités de développement Reporting et alertes (sous/sur conso budgétaire, dérapage planning) Livrables attendus : Documents de cadrage projet (et fiches de suivi de projet pour les différents comités) Cahier des charges fonctionnel Rédaction des tickets dans le cadre de la méthode agile Scrum Plan de tests et recette

CDI

Offre d'emploi
Consultant Infra - Big Data H/F

INFODIS
Publiée le

Paris, France

En tant que Consultant Infra - Big Data, vos missions seront : Administrer et superviser l'infrastructure technique Big Data (écosystème CDP et ELK) Installer, paramétrer et configurer les composants et les ressources de la plateforme Assurer la documentation et la transmission des procédures aux équipes d'exploitation Assurer la qualité et la conformité des opérations dans le respect des règles de l'art et des procédures mises en oeuvre Réaliser et maintenir l'inventaire des différents composants de son périmètre Maintenir les outils et procédures nécessaires à l'exploitation et la surveillance des traitements (scripts, modules de supervision, etc.) Traiter le niveau 3 des incidents, de problèmes, des demandes et des changements sur le périmètre socle Contrôler et optimiser les environnements (capacité, disponibilité, sécurité, etc.) Compétences Techniques principales : Socle Infrastructure et Système : Linux CentOS/Rocky, Kerberos, Terraform, Ansible Socle Middleware : Cluster Cloudera CDP, Cluster ELK, Freeipa Bases de données SQL/NoSQL : PostgreSQL, HBASE, Hive Hyperviseur : VMWare Réseau : Fortinet, Haproxy Détail du poste : Type de contrat : CDI, 39h Localisation : Basé à Paris 2e Déplacements à prévoir : Non Télétravail : Oui (en fonction du profil et de l'autonomie sur le poste) Salaire : 35k-40KEUR, selon profil et expériences Dans la continuité de sa politique RH en faveur de l'égalité professionnelle, la politique d'embauche de la société Infodis vise à améliorer la représentation des personnes en situation de handicap sur l'ensemble des offres proposées. Pourquoi nous rejoindre (nos avantages) ? Prime de Participation Carte Ticket Restaurant Swile (8,40 Euros par jour travaillés pris en charge à 70%) Participation aux transports (50%) Prime de vacances Mutuelle Comité d'entreprise Prime de cooptation Notre process de recrutement : Entretien téléphonique avec un recruteur de l'équipe ? Entretien (par visio en général) avec un référent technique pour explication du contexte et périmètre de la mission + vérifier l'adéquation technique Entretien client (si besoin) Embauche et Intégration du collaborateur ?

Freelance
CDI

Offre d'emploi
Expert Big Data & GCP

KLETA
Publiée le
Ansible
Apache Kafka
Apache Spark

2 ans
10k-88k €
Paris, France

Au sein d'une équipe d'expertise sur le volet Ops & Architecture vous intégrez la team en tant qu'architecte Cloud GCP & DevOps Big Data. Vos missions sur ce volet : Administration de la plateforme Hadoop présente Développer et continuer la migration vers GCP sur certaines applications Excellente maîtrise de Kubernetes attendues Connaissance complète de l'environnement Big Data et de la culture DevOps (Hadoop, Kafka, Elastic, Ansible, Kubernetes...) Endosser le rôle de référent technique sur le sujet Big Data

Freelance

Mission freelance
Data Engineer AWS - Python - Big Data

Gentis Recruitment SAS
Publiée le

2 ans
Paris, France

L’objectif est de développer une plateforme appelée Supply data lake basée sur des technologies Big Data robustes et évolutives. Cette plateforme sera capable de traiter un volume substantiel de données dans les différents pays où Engie opère. Son objectif principal est de capturer divers indicateurs dans un référentiel centralisé, permettant l’accès à des vues standardisées et transversales de ces indicateurs. L’un des principaux objectifs de 2024 est de construire une première version d’un outil de P&L quotidien pour l’entité B2B France. En plus de ses responsabilités techniques, le développeur s’assurera de la conformité avec les directives du Groupe concernant l’utilisation et l’architecture du cadre interne. Il collaborera également avec les autres parties prenantes du projet afin de promouvoir ces directives et de proposer des fonctionnalités communes pour la plateforme. L’équipe est principalement située à Paris, mais des déplacements occasionnels à Lyon et à Bruxelles sont à prévoir. Le rôle du développeur senior dans ce projet consistera à concevoir et à mettre en œuvre les composants suivants de la plateforme : - L’acquisition des données - Traitement et normalisation des données. - Distribuer les données aux différentes parties prenantes. - Construire et améliorer le cadre commun, y compris la surveillance, CI/CD, les tests, la performance, la résilience, les pratiques de développement et la qualité du code... Les principales activités sont les suivantes : - Recueillir, comprendre, remettre en question et affiner les exigences et les opportunités commerciales. - Concevoir des solutions en suivant les lignes directrices de l’architecture. - Diriger les activités de développement et apporter une contribution en tant que senior/expert. Les activités de développement impliquent l’élaboration et la maintenance d’un code efficace, réutilisable et fiable qui respecte des normes élevées en matière de qualité des logiciels, de conception et de principes d’essai, tout en fournissant des solutions dans les délais et dans les limites du budget. - Soutenir l’amélioration continue des services et des applications en identifiant les goulets d’étranglement et les bogues et en proposant des solutions. - Fournir aux utilisateurs des services prêts pour la production, en s’efforçant d’atteindre le niveau de satisfaction le plus élevé. - Soutenir la phase de production, notamment en fournissant des outils de surveillance et d’alerte afin de minimiser l’impact de l’assistance pendant la phase de développement. - Rédiger et mettre à jour la documentation technique en anglais et la mettre à la disposition de l’équipe et des partenaires. - Assurer une communication efficace et opportune avec toutes les équipes concernées. XP min 5 ans python, api technologies big data AWS 3 ans XP min

Freelance
CDI
CDD

Offre d'emploi
DÉVELOPPEUR JAVA / BIG DATA H/F

SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

3 ans
50k €
Paris, France

La prestation consiste à contribuer à/au(x) : Maintien de l'environnement legacy et contribution au projet de migration de l'application vers le Big Data. - Mise en place de la One Plateforme (On premise + Cloude public) - Challenge des choix architecturaux - Audit du codes existants et solutions de factorisation du code - contribution à la validation des futurs développement - Développements, tests unitaires et homologation technique sur des composants applicatifs dans les plannings et délais demandés. La mission doit être effectuée dans le cadre des normes du projet. - Assistance sur les développements produits jusqu'à la mise en production. - Support de production

Freelance

Mission freelance
TECHLEAD BIG DATA POUR LES SOLUTIONS DE PAIEMENTS

AXIWELL
Publiée le
Méthode Agile
PostgreSQL

6 mois
100-680 €
Paris, France

Le centre de solution PAIEMENTS est en charge des applications monétiques ( porteur et commercants) et paiements ( virement, chèques... ) Pour répondre à de nouveaux besoins métiers sur l'exploitation de la DATA des paiements, nous faisons évoluer notre équipe BIG DATA. Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique. Le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - Développement Spark/Scala et HIVE - Une bonne expertise des environnements hadoop Les livrables attendus sont : - Revue de code et re-factoring - Projet agile (Scrum) - Traitement d'un gros volume de données - L'application des normes de développements

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance
CDI

Offre d'emploi
Développement backend SQL/clickhouse

Digistrat consulting
Publiée le
Apache
Big Data
DevOps

3 ans
40k-60k €
Paris, France

Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un développeur backend SQL/clikhouse. Périmètre fonctionnel : banque d'investissement Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, base de donées distribuée avec un systel de cache in memory, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins. Les principales tâches de la missions sont les suivantes : Le but est d'développer des nouvelles fonctionnalités demandées par le trading, et aussi techniquement améliorer la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions. Le candidat sera chargé de la partie back end ainsi que de la partie devops.

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance
CDI

Offre d'emploi
Cloud DevOps Sénior

skiils
Publiée le
Ansible
Bash
Big Data

20 mois
55k-120k €
Paris, France

Le département Data IA (DaIA) est en charge de mettre à disposition des métiers un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA et donner accès aux meilleures solutions d’IA Générative. Pour cela, nous recherchons un DevOps qualifié pour nous aider à la mise en place, la gestion et l'amélioration continue de nos pipelines d'intégration continue/déploiement continu (CI/CD) ainsi que de l'infrastructure cloud Responsabilités : • Industrialiser les pipelines CI/CD pour automatiser les déploiements logiciels. • Gérer et maintenir l'infrastructure cloud en assurant la disponibilité, la sécurité et la performance. • Collaborer avec les équipes de développement pour intégrer les bonnes pratiques DevOps dans le cycle de développement logiciel. • Mettre en place et maintenir les outils de surveillance, de journalisation et de gestion des erreurs. • Identifier les goulots d'étranglement dans les processus de développement et proposer des solutions d'amélioration continue. • Assurer une veille technologique constante pour rester à jour sur les tendances et les meilleures pratiques en matière de DevOps.

Freelance
CDI

Offre d'emploi
Développement backend SQL/clickhouse

Digistrat consulting
Publiée le
Apache
Big Data
DevOps

3 ans
40k-60k €
Paris, France

Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un développeur backend SQL/clikhouse. Périmètre fonctionnel : banque d'investissement Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, base de donées distribuée avec un systel de cache in memory, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins. Les principales tâches de la missions sont les suivantes : Le but est d'développer des nouvelles fonctionnalités demandées par le trading, et aussi techniquement améliorer la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions. Le candidat sera chargé de la partie back end ainsi que de la partie devops.

Freelance

Mission freelance
Data Architect

Phaidon London- Glocomms
Publiée le
Amazon S3
Architecture
AWS Cloud

7 mois
600-750 €
Paris, France

Role: Data Architect Lieu: Paris Durée: 7 mois (jusqu'à la fin de l'année avec possibilité de prolongation) Date de début: Immediate Hybrid Remote TJM: €600-750/jour Role: Définir des architectures de plateformes de données pour répondre aux cas d'utilisation identifiés par les entreprises ; Gérer des projets d'architecture de données impliquant des environnements cloud, sur site ou hybrides ; Produire des fichiers d'architecture. Collaborer avec l'équipe chargée des données pour veiller à ce que l'infrastructure de données existante soit maintenue et améliorée.

Freelance
CDI

Offre d'emploi
Chef de projet MOE Data & PMO

CELAD
Publiée le
Big Data

1 an
10k-64k €
Paris, France

En étroite collaboration avec le Chef de Service, les architectes fonctionnels, les ingénieurs Data, la MOA et les métiers, la mission est garante de la bonne réalisation de certains projets transverses. Elle se compose à part égale d'un volet 'Chef de projet' et d'un volet 'PMO'. Volet Chef de Projet - Piloter et assurer la mise en œuvre des évolutions/projets dont vous aurez la charge dans le respect de la qualité, coûts et délais définis avec les intervenants, des process et normes G2S - Produire le reporting des évolutions/projets dont vous aurez la charge Volet PMO - Effectuer un reporting régulier et rigoureux vers son responsable en veillant à la qualité des informations de pilotage - Définir et mettre en place un plan de communication autour des différents projets et instances - Mettre en oeuvre et piloter le planning des travaux de l'équipe et des contributions auprès des autres équipes - Travailler les différents templates projets, la roadmap fonctionnelle, l'optimisation des interactions avec les autres services - Coordonner les différents prestataires

CDI

Offre d'emploi
Head of Data

Phaidon London- Glocomms
Publiée le
Big Data
Data management

80k-135k €
Paris, France

Représentant un client Fintech établi basé à Paris, je suis à la recherche d'un Head of Data pour définir la nouvelle stratégie de données et la vision pour utiliser pleinement les actifs de données existants tout en assurant la sécurité et la conformité. Le client est une société de services financiers de premier plan qui a intégré les technologies modernes dans le monde de la banque. Il sert des millions d'utilisateurs et de clients en France et en Europe depuis plus de 10 ans. Fonction : Responsable des données Lieu de travail : Paris Date de début : ASAP (Flexible) Vos responsabilités : Développer une vision et une stratégie globales en matière de données pour atteindre les objectifs stratégiques. Définir, développer et mettre en œuvre des politiques et une stratégie de gouvernance des données - en s'alignant sur les objectifs de l'entreprise et en établissant des normes pour le stockage, la sécurité et la confidentialité des données. Diriger et encadrer une équipe d'ingénieurs en science des données, en ingénierie des données et en analyse. superviser la conception et la mise en œuvre de solutions fondées sur les données Développer et maintenir une infrastructure de données évolutive

CDI
Freelance

Offre d'emploi
Architect senior

OMICRONE
Publiée le
Architecture
AWS Cloud
Azure

1 an
10k-44k €
Paris, France

Je suis à la recherche de profil Architect senior très Data pour deux projets chez mes clients. Missions : Concevoir, implémenter et configurer les plateformes Big Data et toute autre composante de stockage ou d'alimentation d'une architecture data, permettant de traiter des volumes importants de données dans les meilleures conditions, Participer à la construction de nouveaux connecteurs et pipelines via l'extraction de données par batch sur l'une ou plusieurs de ces technologies (Azure Data Factory, Pyspark) et le stockage de données dans notre Data Lake et notre Data Warehouse, pour répondre aux besoins du métier (data science et data analyses notamment), Mener des études d'opportunité et préconisation d'architecture cibles, et rédiger la documentation relative aux architectures développées, Définir les choix techniques en cohérence avec le schéma directeur du SI Clarins, Industrialiser, tester et déployer les solutions mises à disposition, Garantir le maintien dans les conditions opérationnelles des outils data, dont les migrations et les montées de version, Assurer la gestion/optimisation du stockage, des performances, Sécuriser des traitements de données et le stockage, * Participer à la veille technologique.

Freelance
CDI

Offre d'emploi
Data Analyst / Business analyst Datat junior à confirmé

Digistrat consulting
Publiée le
Data analysis

36 mois
10k-200k €
Paris, France

💡 Contexte /Objectifs : Ll s'agira de contribuer à divers projets de la filière Finance, en renforcement des personnes actuellement en charge de piloter ces sujets dans l'équipe. • Déclaration de nouveaux indicateurs environnementaux, sociaux et de gouvernance (ESG). Pour l'IT Finance il s'agit plus particulièrement d'apporter au métier Finance des solutions pour construire un Datamart Transactionnel ESG en s'arrimant aux Golden Sources du Datalake. • Maintenance évolutive sur les modules Datalake Coût du Risque, Intragroupe ou Effets Ifrs9. La personne aura en charge: De récupérer les besoins auprès des métiers et de les valider De rédiger les spécifications fonctionnelles en cohérence avec le modèle de données du datalake et des golden sources disponibles. De participer aux tests conjointement avec l’IT et d’accompagner le métier dans ses recettes. De participer aux comités de suivi du projet (CSO, revue des Jiras du Sprint, etc…) 🤝 Expertises spécifiques : Expériences business analyst sur des projets en environnement bancaire autour de la data et problématiques associées (détermination des golden sources, appropriation des modèles de données) : exigé Connaissance des outils de BI comme EasyMorph, PowerBi, Tableau, requêtage SQL: exigé Maitrise de l'anglais écrit (reporting en anglais) et parlé : exigé Compétences génériques recherchées travail en équipe / capacité d'analyse / réactivité / force de proposition / organisation et rigueur : exigé Connaissances des architectures Systèmes d'Information bancaires : souhaité Connaissance de la méthode agile Scrum : souhaité (expérience sur un projet serait un plus) Connaissances fonctionnelles des produits de marché & de financement: serait un plus. Connaissance de la comptabilité bancaire : serait un plus

56 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous