Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Votre recherche renvoie 62 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance
Tech Lead Datastage

NEXORIS
Publiée le
Data science

12 mois
400-480 €
Paris, France

Un grand groupe bancaire basé en France cherche à renforcer son équipe métier par l'intégration d'un ingénieur Data (H/F) spécialisé dans la technologie Datastage ayant évolué dans le secteur bancaire et risque de crédit. Détails de la mission : - Mettre en place la collecte et mettre celle-ci à disposition des données au sein de l’entreprise. - Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent. Activités: - Mettre à disposition de la donnée aux équipes utilisatrices - Mettre en production de modèles statistiques - Suivre le projet de développement - Développer le job spark - Traiter et ingérer plusieurs formats des données - Développer des scripts - Développer et Implémenter les collectes de données, les jobs de traitement et Mapping de données - Développer des moyens de restitution via génération de fichier et ou API & Dashboarding - Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers - Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) - Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP - Participer à la conception, mise en place et administration de solutions Big Data - Participer à l’installation, administration et configuration des Hadoop clusters. Mettre en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka - Normaliser et agréger les données afin de produire les rapports sous forme de Business View

Freelance
CDI

Offre d'emploi
Product Owner Data/IA

skiils
Publiée le
Big Data
Data science
Intelligence artificielle

12 mois
47k-90k €
Paris, France

La prestation proposée consiste à être Product Owner au sein de l'équipe dédiée aux rédactions, et plus particulièrement au sein d'un squad composé également de data scientist, data engineer, ingénieurs développements pour les outils métiers existant, ... Gestion projet : Construction et suivi de l’exécution des plannings (tâches, charges, ressources, avancement) Pilotage de la qualité des livrables Rapports réguliers d’avancement Animation des comités et rituels projets Besoin prestations : Analyse des processus métiers, découpage en cas d'usage, rédaction des user stories Alimentation du backlog produit Identification des gains apportés par les projets et fonctionnalités Participation à la rédaction des spécifications techniques et fonctionnelles détaillées des développements à réaliser. Développement / Validation / Déploiement : Coordonner les équipes techniques de développements jusqu'au delivery Coordonner le déploiement, mise en production et éventuel accompagnement utilisateurs

Freelance
CDI

Offre d'emploi
Bigdata Engineer Cloud

Digistrat consulting
Publiée le
Apache Kafka
Big Data

3 ans
40k-60k €
Paris, France

💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket

Freelance
CDI

Offre d'emploi
Développement backend SQL/clickhouse

Digistrat consulting
Publiée le
Apache
Big Data
DevOps

3 ans
40k-60k €
Paris, France

Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un développeur backend SQL/clikhouse. Périmètre fonctionnel : banque d'investissement Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, base de donées distribuée avec un systel de cache in memory, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins. Les principales tâches de la missions sont les suivantes : Le but est d'développer des nouvelles fonctionnalités demandées par le trading, et aussi techniquement améliorer la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions. Le candidat sera chargé de la partie back end ainsi que de la partie devops.

Freelance

Mission freelance
Senior Data SAP report SAP SuccessFactors H/F

Sqorus
Publiée le
Crystal Reports
Data visualisation
SAP

3 mois
280-580 €
Paris, France

En tant que Lead SAP BI HR Analytics , vous interviendrez sur l’ensemble de la conception et de la définition d’architectures Data. Dans le cadre d'un projet avec un de nos clients, acteur incontournable du tourisme, vous serez en charge du rôle de Lead Data pour assurer le développement et la livraison d'une trentaine (30) de rapports BI à destination de la Direction des Ressources Humaines. Ces rapports auront pour sources SAP SF depuis les modules Employee Central / PMGM / Onboarding et Compensation. Dans le cadre de cette mission, vos responsabilités seront les suivantes : Conseil : Accompagnement du bon déroulement des développements des rapports sous Report dans SAP SuccessFactors. Garant du suivi de projet auprès du client En charge de la vulgarisation et de l'accompagnement aussi bien technique que fonctionnel Technique et Delivery : Collecte, intégration et gestion de données provenant de diverses sources, en utilisant des technologies d'intégration de données. Conception de modèles de données adaptés et développements de rapports et tableaux de bords Rédaction de documentation fonctionnelle et/ou technique Responsable de la garantie et de la qualité du Delivery et des livrables Organisation et pilotage projet (COPIL, COSUI, COPROJ) Accompagnement à la recette Formation d’utilisateurs finaux et équipes projets

Freelance

Mission freelance
Expert Power BI (H/F)

LeHibou
Publiée le
Data visualisation
Microsoft Office
Microsoft Power BI

6 mois
490-650 €
Paris, France

Notre client dans le secteur Énergie et ressources naturelles recherche un Expert Power BI H/F Descriptif de la mission: Notre client grand compte recherche un expert Power BI. L'objectif de ce projet est de développer un outil digital transverse pour capitaliser et partager les connaissances au sein de la communauté afin de faciliter l'activité de benchmark et d'aide aux décisions d'investissement. Le candidat aura pour mission de structurer et consolider une plateforme multidisciplinaire sous Power Bi sous la supervision de l'équipe d'étude de développements. Le service demandé couvrira les parties suivantes : 1. AMOA : ➢ Finalisation de l’expression de besoins, la rédaction des exigences et l’analyse de l’existant en termes de sourcing et d’outils similaires 2. MOE : ➢ Proposition d’architecture technologique qui tient compte de l’environnement technologique ➢ Mise en œuvre et développement de la solution retenue 3. Encadrement d’une ressource stagiaire (profil Data Analyst)

Freelance
CDI

Offre d'emploi
Lead Tech Collibra

CONCRETIO SERVICES
Publiée le
Data management
Data visualisation
Master Data Management (MDM)

1 an
60k-100k €
Paris, France

Gestion à long terme de la plateforme Collibra, agissant en tant que référent technique au sein de l'équipe. Responsabilités : Gestion Technique : Assurer la maintenance, l'optimisation et l'évolutivité de la plateforme Collibra. Superviser les mises à jour logicielles et les configurations système. Identifier et résoudre les problèmes techniques de manière proactive. Évaluer les besoins en infrastructure et proposer des solutions évolutives. Leadership Technique : Encadrer et guider l'équipe technique dans l'utilisation efficace de Collibra. Définir les normes et bonnes pratiques de développement et d'intégration. Faciliter la collaboration entre les membres de l'équipe pour optimiser les processus de travail. Fournir un soutien technique et une expertise lors de la résolution des problèmes complexes. Gestion de Projet : Planifier et coordonner les déploiements de Collibra en collaboration avec les équipes métier. Suivre les indicateurs de performance et assurer le respect des délais et des budgets. Communiquer de manière transparente avec les parties prenantes sur l'avancement des projets. Formation et Support : Concevoir et dispenser des sessions de formation sur l'utilisation optimale de Collibra. Offrir un support technique avancé aux utilisateurs et résoudre les problèmes signalés. Documenter les processus et les configurations pour assurer une meilleure compréhension et une utilisation efficace de la plateforme.

Freelance

Mission freelance
PO Data (Dataiku) H/F

LeHibou
Publiée le
Data management
Dataiku

6 mois
460-680 €
Paris, France

Notre client grand compte recherche un PO Data. Définition de la mission et des livrables : Prise en charge des besoins dans le cadre du projet Elaboration des expressions de besoin détaillées, participation aux travaux fonctionnels Rédiger les US (User Stories) Analyse des données avec du Dataiku Accompagnement de la mise en production Animer et participer aux cérémonies agiles Réalisation des supports d’ateliers et des comptes rendus dont il a la charge Users stories dans JIRA à destination de la MOE Datalake Définition de la stratégie de Recette Procédures et cahiers de recette

Freelance

Mission freelance
Data Project Manager IPaas / API Management ▸ Transport

CONCRETIO SERVICES
Publiée le
API
Business Intelligence
Data management

6 mois
600-700 €
Paris, France

🚀 QUELLES SERONT VOS RESPONSABILITÉS ? En tant que Project Manager responsable de la mise en œuvre de la nouvelle plateforme IPaaS / APIM : Piloter le projet de mise en œuvre de la plateforme d'intégration en collaboration avec le partenaire intégrateur externe. Finaliser la cartographie et organiser la migration des flux legacy (VBA, PHP, etc.). Développer le framework d'intégration en cohérence avec les directives d'architecture. Contribuer à l'élaboration d'une vision et d'une roadmap de mise en œuvre de la brique MDM avec l'architecte fonctionnel. Définir une offre de service de raccordement simplifié au SI à travers des API métier. Activités d'intégration / APIM : Établir le backlog des demandes d'intégration, évaluer la charge, prioriser et planifier. Participer à l'élaboration des spécifications fonctionnelles et techniques. Mettre en œuvre des API métier en collaboration avec les équipes Solutions et Architecture. Superviser les activités de run.

CDI

Offre d'emploi
- Data Quality Analyst -

INGENIANCE
Publiée le
BI
Data analysis
SQL

50k-65k €
Paris, France

Nous recherchons un data quality analyst pour une mission chez un de nos clients grand compte. Contexte : Au sein de la DSI du groupe, la direction Data s’appuie sur les meilleures expertises et technologies pour accompagner les équipes opérationnelles au quotidien en leur mettant à disposition outils, insights et KPI Elle intervient sur tous les domaines opérationnels de notre client, notamment les produits, le CRM, les ventes, le merchandinsing, le demand planning, la logistique, les opérations et la finance dans une logique de collaboration, de résolution des problèmes et d’amélioration de la performance. Description de la mission En tant que Data Quality, vos responsabilités seront les suivantes : • Assister les Product Owners dans la mise en place du dispositif de qualité des données défini par les Data Owners (définition des exigences qualité, des contrôles, des KPIs et seuils d’alerte) • Animer le processus de gestion des incidents de qualité de données en faisant le lien entre les utilisateurs opérationnels et les équipes Data & IT • Aider les équipes opérationnelles à qualifier les incidents (impacts sur les usages, chiffrage, sévérité) • Analyser les root causes des incidents grâce à l’exploration des données des différentes bases • Proposer et instruire des plans de remédiations (identifier les solutions de contournement si besoin) • Prioriser les sujets en fonction de leur importance / urgence et de la difficulté à les développer • Collaborer avec les équipes de développement (Data Enginer, Dataviz Enginer) pour les analyses et la mise en place de solutions de correction • Collaborer avec les Data Owners afin de s’assurer de la cohérence et pertinence des solutions proposées • Proposer des outils / process / KPI afin de contribuer à l’amélioration continue de la qualité des données • Assister le Product Owner Master Data dans la conception de tableau de bord de pilotage de la qualité des données Environnement Technique : • ETL : Matillion (Cloud) • Dataviz : QlikSense • Cloud Data Platform : Snowflake sur Microsoft Azure • Langages : SQL , Python • Méthodologie Kanban orientée produit ou agile Informations Localisation : Paris, des déplacements sur le terrain sont à prévoir Date : Dès que possible

Freelance

Mission freelance
Azure Data Expert

Focus Cloud Group
Publiée le
Azure
Data Warehouse

3 mois
150-3k €
Paris, France

Data & Microsoft Fabric Specialist, freelance, full remote Opportunité attrayante pour un(e) Expert(e) Data avec une expérience sur la toute dernière solution analytique Microsoft Fabric afin de rejoindre acteur agile qui ne cesse d’innover en data basé à Londres. Vous prendrez part à un POC que vous développerez pour un important projet de migration de données. Vous aurez l’opportunité de collaborer sur l’un des tous premiers projets Microsoft Fabric en Europe et d’ajouter ce projet disruptif à votre portfolio tout en étant reconnu dans la communauté en tant que pionnier ! Si vous êtes un(e) spécialiste de la donnée avec un background en ingénierie et architecture avec une première expérience sur Fabric, si vous affectionnez les projets de grande ampleur de bout en bout et si vous souhaitez de rejoindre une équipe internationale de passionnés de la data alors cette mission est faite pour vous !

Freelance

Mission freelance
Consultant fonctionnel Collibra

KUBE Partners S.L. / Pixie Services
Publiée le
Data management

3 mois
100-700 €
Paris, France

Le consultant fonctionnel Collibra jouera un rôle clé dans la mise en œuvre, la personnalisation et l'optimisation de l'outil Collibra pour répondre aux besoins spécifiques de gestion des données de notre entreprise. Il sera le point de liaison entre les équipes IT et les métiers pour garantir que la solution est efficacement intégrée et utilisée pour maximiser sa valeur. Travailler en étroite collaboration avec les équipes métier pour identifier et analyser leurs besoins en gestion des données. Définir les exigences fonctionnelles et rédiger les spécifications détaillées pour la configuration et l'amélioration de Collibra. Formation et support : Former les utilisateurs métier à l'utilisation de Collibra. Fournir un support continu et résoudre les problèmes fonctionnels liés à l'outil. Amélioration continue : Suivre les performances de l'outil et identifier les opportunités d'amélioration. Mettre à jour régulièrement l'outil avec les nouvelles versions et fonctionnalités disponibles.

Freelance

Mission freelance
Data PO / PMO Confirmé BI & SAP - Déploiement Spend Bridge (chef de projet transverse)

EMGS CONSULTING
Publiée le
BI
Big Data
Microsoft Power BI

1 an
500 €
Paris, France

Nous sommes à la recherche d'un Data PO / PMO - Confirmé pour l'un de nos projets de Déploiement Spend Bridge Contexte de la mission Les Achats font une refonte de l’intégralité de ses Reportings & Analytics afin de profiter des bénéfices du Big Data. Rattaché(e) au Directeur Data & Digital, vous jouerez le rôle de chef de projet transverse. Vous serez responsable de la mise en œuvre de nouveaux produits Reportings & Analytics en fonction des besoins de la fonction Achats et de vos interlocuteurs métiers. En particulier, vous serez référent(e) des analyses Achats basées sur la consolidation des transactions faites dans les ERP (consolidation des documents et chiffres des Achats du Groupe, analyse du coût des facteurs et des effets prix, optimisation des délais de paiement…). vous contribuerez au déploiement du rapport Spend Bridge à travers les Activités et Pays du Groupe. Sur les produits data qui vous seront confiés, vos missions seront les suivantes : Cadrer les besoins fonctionnels en données, en rapports et en analyse de la fonction Achats en échangeant avec vos interlocuteurs dans les entités, les activités et les pays du Groupe, Coordonner les travaux d’alimentation des données en collaboration avec la DSI en s’assurant de l’adéquation entre les choix techniques, les besoins fonctionnels et le planning, Superviser le développement des tableaux de bord en partenariat avec les donneurs d’ordre de la fonction Achats et en collaboration avec les développeurs MicroStrategy et Power BI, Développer une vision produit (feuille de route, évolutions, etc.). Objectifs et livrables Les principaux objectifs sont les suivants : Déploiement des rapports et des processus de Spend Bridge à travers les Activités et Pays du Groupe, Gestion de produit sur les rapports basés sur les données ERP (Purchasing Details, Payment Terms, Spend Bridge)

Freelance
CDI

Offre d'emploi
Data Scientist

1G-LINK CONSULTING
Publiée le
Data science
Google Cloud Platform
SQL

12 mois
10k-50k €
Paris, France

La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein du pôle Data Intelligence, l’équipe Data Science qui compte aujourd’hui 3 Data Scientists, et deux Data Analyst recherche un Data Scientist. Objectifs de la prestation : L’équipe Data Science exploite les données & met en place le pilotage, la connaissance utilisateurs et la data science. La prestation consistera à participer à : - L’exploitation du socle de data pour mettre en place le pilotage des actions, en construisant des dashboards - L’analyse des profils et comportements des utilisateurs, en mettant en place les analyses des profils de vidéonautes, écortiquant les comportements selon les canaux d’acquisition, les contenus consommés, en analysant l’impact de la pression pub sur nos utilisateurs, - La mise en place de la data science : - Prédiction des audiences, - Enrichissement du catalogue via l’IAG - Prédiction de l’inactivité, des appétences, … - Segmentations

Freelance

Mission freelance
Business Analyst - Market & Trading Data (FH)

Taleo Capital
Publiée le
Data analysis
Data management
Microsoft Power BI

1 an
550-690 €
Paris, France

Contexte : Au sein de l'équipe Market & Trading Data de la DSI Global Markets, le Business Analyst aura pour mission d'intervenir sur les projets liés au Datalake PreTrade & Execution sur les plateformes de trading électroniques (Forex, Fixed Income, Equities et Commodities). L'objectif est d'enrichir ce datalake avec l'ensemble des ordres et exécutions des plateformes électroniques utilisées par Global Markets, puis de valoriser les données de ce datalake. La mission a une durée prévue d'un an renouvelable et est située à Paris 13è. Principales missions : Interaction avec les plateformes électroniques et recueil des besoins utilisateurs (traders, vendeurs, compliance, …) Rédaction de spécifications fonctionnelles Tests Suivi des projets et sujets autour du Datalake Support fonctionnel

Freelance
CDI

Offre d'emploi
DataOps Hadoop

KLETA
Publiée le
Big Data
Hadoop

3 ans
10k-86k €
Paris, France

Architecture et Conception : Concevoir, mettre en œuvre et maintenir l'architecture Hadoop en fonction des besoins de l'entreprise. Élaborer des plans d'expansion et d'évolution pour les clusters Hadoop. Collaborer avec les équipes de développement et d'infrastructure pour concevoir des solutions adaptées aux besoins spécifiques du projet. Installation et Configuration : Installer, configurer et déployer les clusters Hadoop en utilisant les meilleures pratiques. Gérer les configurations, les mises à jour et les correctifs des composants Hadoop. Surveillance et Optimisation : Surveiller les performances du cluster Hadoop et identifier les goulots d'étranglement. Optimiser les performances en ajustant la configuration, en mettant à l'échelle le matériel ou en optimisant les requêtes. Mettre en place des outils de surveillance et des alertes pour détecter les problèmes potentiels. Sécurité : Mettre en œuvre et maintenir des stratégies de sécurité robustes pour le cluster Hadoop. Gérer l'accès aux données sensibles et aux ressources du cluster en utilisant des technologies telles que Kerberos, LDAP, etc. Effectuer des audits de sécurité réguliers et remédier aux vulnérabilités identifiées. Gestion des Données : Concevoir et mettre en œuvre des pipelines de données pour l'ingestion, le traitement et la distribution des données. Assurer la qualité des données en mettant en place des processus de nettoyage, de normalisation et de validation des données. Intégrer et gérer différents types de données, y compris les données structurées, semi-structurées et non structurées. Automatisation et Orchestration : Automatiser les tâches courantes telles que la sauvegarde, la récupération, la gestion des ressources, etc. Mettre en place des workflows d'orchestration pour coordonner les tâches complexes entre les différents composants du cluster Hadoop. Développement et Support : Fournir un support technique aux équipes de développement et d'analyse des données. Développer des outils et des scripts personnalisés pour faciliter l'administration et la gestion du cluster Hadoop. Collaborer avec les équipes de développement pour optimiser les applications et les requêtes pour le cluster Hadoop. Formation et Documentation : Former les membres de l'équipe sur l'utilisation et la gestion du cluster Hadoop. Documenter les processus, les configurations et les bonnes pratiques pour faciliter la collaboration et le transfert de connaissances. Veille Technologique : Suivre les tendances et les avancées technologiques dans le domaine du Big Data et de l'analyse de données. Évaluer de nouvelles technologies et proposer des solutions innovantes pour améliorer l'efficacité et les performances du cluster Hadoop.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous