Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Business Analyst - BI/Big DATA
Business Analyst Compréhension des enjeux métiers (finance, controling, commercial) dans un environnement complexe Analyse fonctionnelle afin de comprendre les problématiques et besoins des clients internes Animation des workshops pour converger vers une solution quand il y a divergences des participants Formalisation des besoins et identification des solutions fonctionnelles Définition des priorités Suivi des développement en méthode Agile Test et validation Participation au réflexions d'architectures et des évolutions de notre écosystème La mission nécessite plus ponctuellement un rôle de gestion de projet : Chef de projets Identification des gains/risques et arbitrages projets en conséquences Animation des comités (suivi projet, Copil, Codir), des workshops Définition et suivi du planning, organisation et suivi des capacités de développement Reporting et alertes (sous/sur conso budgétaire, dérapage planning) Livrables attendus : Documents de cadrage projet (et fiches de suivi de projet pour les différents comités) Cahier des charges fonctionnel Rédaction des tickets dans le cadre de la méthode agile Scrum Plan de tests et recette
Offre d'emploi
Consultant Infra - Big Data H/F
En tant que Consultant Infra - Big Data, vos missions seront : Administrer et superviser l'infrastructure technique Big Data (écosystème CDP et ELK) Installer, paramétrer et configurer les composants et les ressources de la plateforme Assurer la documentation et la transmission des procédures aux équipes d'exploitation Assurer la qualité et la conformité des opérations dans le respect des règles de l'art et des procédures mises en oeuvre Réaliser et maintenir l'inventaire des différents composants de son périmètre Maintenir les outils et procédures nécessaires à l'exploitation et la surveillance des traitements (scripts, modules de supervision, etc.) Traiter le niveau 3 des incidents, de problèmes, des demandes et des changements sur le périmètre socle Contrôler et optimiser les environnements (capacité, disponibilité, sécurité, etc.) Compétences Techniques principales : Socle Infrastructure et Système : Linux CentOS/Rocky, Kerberos, Terraform, Ansible Socle Middleware : Cluster Cloudera CDP, Cluster ELK, Freeipa Bases de données SQL/NoSQL : PostgreSQL, HBASE, Hive Hyperviseur : VMWare Réseau : Fortinet, Haproxy Détail du poste : Type de contrat : CDI, 39h Localisation : Basé à Paris 2e Déplacements à prévoir : Non Télétravail : Oui (en fonction du profil et de l'autonomie sur le poste) Salaire : 35k-40KEUR, selon profil et expériences Dans la continuité de sa politique RH en faveur de l'égalité professionnelle, la politique d'embauche de la société Infodis vise à améliorer la représentation des personnes en situation de handicap sur l'ensemble des offres proposées. Pourquoi nous rejoindre (nos avantages) ? Prime de Participation Carte Ticket Restaurant Swile (8,40 Euros par jour travaillés pris en charge à 70%) Participation aux transports (50%) Prime de vacances Mutuelle Comité d'entreprise Prime de cooptation Notre process de recrutement : Entretien téléphonique avec un recruteur de l'équipe ? Entretien (par visio en général) avec un référent technique pour explication du contexte et périmètre de la mission + vérifier l'adéquation technique Entretien client (si besoin) Embauche et Intégration du collaborateur ?
Offre d'emploi
Expert Big Data & GCP
Au sein d'une équipe d'expertise sur le volet Ops & Architecture vous intégrez la team en tant qu'architecte Cloud GCP & DevOps Big Data. Vos missions sur ce volet : Administration de la plateforme Hadoop présente Développer et continuer la migration vers GCP sur certaines applications Excellente maîtrise de Kubernetes attendues Connaissance complète de l'environnement Big Data et de la culture DevOps (Hadoop, Kafka, Elastic, Ansible, Kubernetes...) Endosser le rôle de référent technique sur le sujet Big Data
Mission freelance
Data Engineer AWS - Python - Big Data
L’objectif est de développer une plateforme appelée Supply data lake basée sur des technologies Big Data robustes et évolutives. Cette plateforme sera capable de traiter un volume substantiel de données dans les différents pays où Engie opère. Son objectif principal est de capturer divers indicateurs dans un référentiel centralisé, permettant l’accès à des vues standardisées et transversales de ces indicateurs. L’un des principaux objectifs de 2024 est de construire une première version d’un outil de P&L quotidien pour l’entité B2B France. En plus de ses responsabilités techniques, le développeur s’assurera de la conformité avec les directives du Groupe concernant l’utilisation et l’architecture du cadre interne. Il collaborera également avec les autres parties prenantes du projet afin de promouvoir ces directives et de proposer des fonctionnalités communes pour la plateforme. L’équipe est principalement située à Paris, mais des déplacements occasionnels à Lyon et à Bruxelles sont à prévoir. Le rôle du développeur senior dans ce projet consistera à concevoir et à mettre en œuvre les composants suivants de la plateforme : - L’acquisition des données - Traitement et normalisation des données. - Distribuer les données aux différentes parties prenantes. - Construire et améliorer le cadre commun, y compris la surveillance, CI/CD, les tests, la performance, la résilience, les pratiques de développement et la qualité du code... Les principales activités sont les suivantes : - Recueillir, comprendre, remettre en question et affiner les exigences et les opportunités commerciales. - Concevoir des solutions en suivant les lignes directrices de l’architecture. - Diriger les activités de développement et apporter une contribution en tant que senior/expert. Les activités de développement impliquent l’élaboration et la maintenance d’un code efficace, réutilisable et fiable qui respecte des normes élevées en matière de qualité des logiciels, de conception et de principes d’essai, tout en fournissant des solutions dans les délais et dans les limites du budget. - Soutenir l’amélioration continue des services et des applications en identifiant les goulets d’étranglement et les bogues et en proposant des solutions. - Fournir aux utilisateurs des services prêts pour la production, en s’efforçant d’atteindre le niveau de satisfaction le plus élevé. - Soutenir la phase de production, notamment en fournissant des outils de surveillance et d’alerte afin de minimiser l’impact de l’assistance pendant la phase de développement. - Rédiger et mettre à jour la documentation technique en anglais et la mettre à la disposition de l’équipe et des partenaires. - Assurer une communication efficace et opportune avec toutes les équipes concernées. XP min 5 ans python, api technologies big data AWS 3 ans XP min
Offre d'emploi
DÉVELOPPEUR JAVA / BIG DATA H/F
La prestation consiste à contribuer à/au(x) : Maintien de l'environnement legacy et contribution au projet de migration de l'application vers le Big Data. - Mise en place de la One Plateforme (On premise + Cloude public) - Challenge des choix architecturaux - Audit du codes existants et solutions de factorisation du code - contribution à la validation des futurs développement - Développements, tests unitaires et homologation technique sur des composants applicatifs dans les plannings et délais demandés. La mission doit être effectuée dans le cadre des normes du projet. - Assistance sur les développements produits jusqu'à la mise en production. - Support de production
Mission freelance
TECHLEAD BIG DATA POUR LES SOLUTIONS DE PAIEMENTS
Le centre de solution PAIEMENTS est en charge des applications monétiques ( porteur et commercants) et paiements ( virement, chèques... ) Pour répondre à de nouveaux besoins métiers sur l'exploitation de la DATA des paiements, nous faisons évoluer notre équipe BIG DATA. Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique. Le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Data Engineering. Dans ce cadre la prestation consiste à contribuer à/au(x) : - Développement Spark/Scala et HIVE - Une bonne expertise des environnements hadoop Les livrables attendus sont : - Revue de code et re-factoring - Projet agile (Scrum) - Traitement d'un gros volume de données - L'application des normes de développements
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Offre d'emploi
Développement backend SQL/clickhouse
Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un développeur backend SQL/clikhouse. Périmètre fonctionnel : banque d'investissement Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, base de donées distribuée avec un systel de cache in memory, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins. Les principales tâches de la missions sont les suivantes : Le but est d'développer des nouvelles fonctionnalités demandées par le trading, et aussi techniquement améliorer la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions. Le candidat sera chargé de la partie back end ainsi que de la partie devops.
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Offre d'emploi
Cloud DevOps Sénior
Le département Data IA (DaIA) est en charge de mettre à disposition des métiers un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA et donner accès aux meilleures solutions d’IA Générative. Pour cela, nous recherchons un DevOps qualifié pour nous aider à la mise en place, la gestion et l'amélioration continue de nos pipelines d'intégration continue/déploiement continu (CI/CD) ainsi que de l'infrastructure cloud Responsabilités : • Industrialiser les pipelines CI/CD pour automatiser les déploiements logiciels. • Gérer et maintenir l'infrastructure cloud en assurant la disponibilité, la sécurité et la performance. • Collaborer avec les équipes de développement pour intégrer les bonnes pratiques DevOps dans le cycle de développement logiciel. • Mettre en place et maintenir les outils de surveillance, de journalisation et de gestion des erreurs. • Identifier les goulots d'étranglement dans les processus de développement et proposer des solutions d'amélioration continue. • Assurer une veille technologique constante pour rester à jour sur les tendances et les meilleures pratiques en matière de DevOps.
Offre d'emploi
Développement backend SQL/clickhouse
Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un développeur backend SQL/clikhouse. Périmètre fonctionnel : banque d'investissement Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, base de donées distribuée avec un systel de cache in memory, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins. Les principales tâches de la missions sont les suivantes : Le but est d'développer des nouvelles fonctionnalités demandées par le trading, et aussi techniquement améliorer la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions. Le candidat sera chargé de la partie back end ainsi que de la partie devops.
Mission freelance
Data Architect
Role: Data Architect Lieu: Paris Durée: 7 mois (jusqu'à la fin de l'année avec possibilité de prolongation) Date de début: Immediate Hybrid Remote TJM: €600-750/jour Role: Définir des architectures de plateformes de données pour répondre aux cas d'utilisation identifiés par les entreprises ; Gérer des projets d'architecture de données impliquant des environnements cloud, sur site ou hybrides ; Produire des fichiers d'architecture. Collaborer avec l'équipe chargée des données pour veiller à ce que l'infrastructure de données existante soit maintenue et améliorée.
Offre d'emploi
Chef de projet MOE Data & PMO
En étroite collaboration avec le Chef de Service, les architectes fonctionnels, les ingénieurs Data, la MOA et les métiers, la mission est garante de la bonne réalisation de certains projets transverses. Elle se compose à part égale d'un volet 'Chef de projet' et d'un volet 'PMO'. Volet Chef de Projet - Piloter et assurer la mise en œuvre des évolutions/projets dont vous aurez la charge dans le respect de la qualité, coûts et délais définis avec les intervenants, des process et normes G2S - Produire le reporting des évolutions/projets dont vous aurez la charge Volet PMO - Effectuer un reporting régulier et rigoureux vers son responsable en veillant à la qualité des informations de pilotage - Définir et mettre en place un plan de communication autour des différents projets et instances - Mettre en oeuvre et piloter le planning des travaux de l'équipe et des contributions auprès des autres équipes - Travailler les différents templates projets, la roadmap fonctionnelle, l'optimisation des interactions avec les autres services - Coordonner les différents prestataires
Offre d'emploi
Head of Data
Représentant un client Fintech établi basé à Paris, je suis à la recherche d'un Head of Data pour définir la nouvelle stratégie de données et la vision pour utiliser pleinement les actifs de données existants tout en assurant la sécurité et la conformité. Le client est une société de services financiers de premier plan qui a intégré les technologies modernes dans le monde de la banque. Il sert des millions d'utilisateurs et de clients en France et en Europe depuis plus de 10 ans. Fonction : Responsable des données Lieu de travail : Paris Date de début : ASAP (Flexible) Vos responsabilités : Développer une vision et une stratégie globales en matière de données pour atteindre les objectifs stratégiques. Définir, développer et mettre en œuvre des politiques et une stratégie de gouvernance des données - en s'alignant sur les objectifs de l'entreprise et en établissant des normes pour le stockage, la sécurité et la confidentialité des données. Diriger et encadrer une équipe d'ingénieurs en science des données, en ingénierie des données et en analyse. superviser la conception et la mise en œuvre de solutions fondées sur les données Développer et maintenir une infrastructure de données évolutive
Offre d'emploi
Architect senior
Je suis à la recherche de profil Architect senior très Data pour deux projets chez mes clients. Missions : Concevoir, implémenter et configurer les plateformes Big Data et toute autre composante de stockage ou d'alimentation d'une architecture data, permettant de traiter des volumes importants de données dans les meilleures conditions, Participer à la construction de nouveaux connecteurs et pipelines via l'extraction de données par batch sur l'une ou plusieurs de ces technologies (Azure Data Factory, Pyspark) et le stockage de données dans notre Data Lake et notre Data Warehouse, pour répondre aux besoins du métier (data science et data analyses notamment), Mener des études d'opportunité et préconisation d'architecture cibles, et rédiger la documentation relative aux architectures développées, Définir les choix techniques en cohérence avec le schéma directeur du SI Clarins, Industrialiser, tester et déployer les solutions mises à disposition, Garantir le maintien dans les conditions opérationnelles des outils data, dont les migrations et les montées de version, Assurer la gestion/optimisation du stockage, des performances, Sécuriser des traitements de données et le stockage, * Participer à la veille technologique.
Offre d'emploi
Data Analyst / Business analyst Datat junior à confirmé
💡 Contexte /Objectifs : Ll s'agira de contribuer à divers projets de la filière Finance, en renforcement des personnes actuellement en charge de piloter ces sujets dans l'équipe. • Déclaration de nouveaux indicateurs environnementaux, sociaux et de gouvernance (ESG). Pour l'IT Finance il s'agit plus particulièrement d'apporter au métier Finance des solutions pour construire un Datamart Transactionnel ESG en s'arrimant aux Golden Sources du Datalake. • Maintenance évolutive sur les modules Datalake Coût du Risque, Intragroupe ou Effets Ifrs9. La personne aura en charge: De récupérer les besoins auprès des métiers et de les valider De rédiger les spécifications fonctionnelles en cohérence avec le modèle de données du datalake et des golden sources disponibles. De participer aux tests conjointement avec l’IT et d’accompagner le métier dans ses recettes. De participer aux comités de suivi du projet (CSO, revue des Jiras du Sprint, etc…) 🤝 Expertises spécifiques : Expériences business analyst sur des projets en environnement bancaire autour de la data et problématiques associées (détermination des golden sources, appropriation des modèles de données) : exigé Connaissance des outils de BI comme EasyMorph, PowerBi, Tableau, requêtage SQL: exigé Maitrise de l'anglais écrit (reporting en anglais) et parlé : exigé Compétences génériques recherchées travail en équipe / capacité d'analyse / réactivité / force de proposition / organisation et rigueur : exigé Connaissances des architectures Systèmes d'Information bancaires : souhaité Connaissance de la méthode agile Scrum : souhaité (expérience sur un projet serait un plus) Connaissances fonctionnelles des produits de marché & de financement: serait un plus. Connaissance de la comptabilité bancaire : serait un plus
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes