Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 427 résultats.
CDI

Offre d'emploi
Data Architect

Inventiv IT
Publiée le
Architecture
AWS Cloud
Azure

65k-80k €
Paris, France

Au sein de la Data Fabric d'INVENTIV IT, nous recherchons un Data Architect pouvant nous accompagner sur nos différents projets clients, notamment dans la mise en place et l'évolution de Data Market Place et Platform Data complexe. Ce poste requiert une expérience technique et architecturale solide, ainsi qu'une solide expérience pratique des technologies cloud, du développement de microservices et de l'architecture événementielle. Vous aurez à collaborer étroitement avec les équipes informatiques INVENTIV IT et de nos clients (à l'international) ,les partenaires commerciaux, les partenaires métiers, les partenaires externes et l'ensemble des membres de l'équipe d'intégration. Dans le cadre de nos projets une excellente compréhension et communication en Français/Anglais est indispensable - Engagement sur les sujets - Capacité à effectuer une restitution documentaire dans le cadre d'un audit, d'une preuve de concept (POC) ou en matière de normes et d'architecture Nos environnements techniques : AWS/AZURE, Databricks, Snowflake, DBT, Big Data, BI, intégration continu, DataSecOps ... Notre offre : Fixe + Variables + avantages Exemple d'objectif et de livrables attendus : Design and propose solutions on Data using Azure Cloud technologies within our framework Design and propose solutions on Snowflake Apply the “Data as a Service” strategy in accordance with architectural best practices Design and develop APIs / Micro services to enrich our solutions framework Support the Event Driven Architecture strategy based on Azure Event Hub and Azure IoT Hub Contribute to our catalog of services for self-service enrichment Contribute to modernization and technology awareness within Data Capture team and across Data & Analytics organization Be the referent in the team for all cloud subjects Conduct workshops and facilitate requirement gathering Support Data Engineers to Cloud related topics Support Security team for related topics Contribute to Data Capture roadmap and evolution Challenge and support external vendors Au plaisir d'échanger et de collaborer ensemble

Freelance

Mission freelance
Data Engineer Palantir

Orcan Intelligence
Publiée le
PySpark
Python

3 mois
400-600 €
Paris, France

Orcan Intelligence recherche pour l'un de ses clients un Data Engineer senior. Le Data Engineer senior devra construire, livrer, maintenir et documenter des pipelines de données dans le périmètre des fondations Risque. Livrables attendus : Pipelines de données pour les fondations Risque, livrés dans les délais. Code documenté et testé unitairement. Mises en œuvre des contrôles de qualité et de santé ( health checks ). Expérience et compétences requises :

Freelance

Mission freelance
Senior Developer Master Data Management -

Intuition IT Solutions Ltd.
Publiée le
Master Data Management (MDM)
Spring
Springboot

6 mois
500-570 €
Paris, France

- Développeur senior sur un projet de gestion des données de référence - Concevoir, développer et tester - Fournir une expertise technique sur la technologie Java - Soutenir toute l'équipe TA et BA pour fournir les meilleures solutions en matière de conception et de résolution de problèmes - Ressources pour les mentors juniors - Respect des normes de codage, examens constructifs et génération d'utilitaires communs dans la mesure du possible - Assurer la coordination avec les autres groupes responsables de la livraison du produit de travail assigné - Fournir des mises à jour sur l'état d'avancement du produit de travail selon les échéanciers convenus. - Fournir des estimations pour les nouveaux projets initiés - Expérience dans les activités de gestion des incidents, des changements, des versions, de la configuration et des problèmes - S'assurer que les livraisons respectent les délais et les efforts convenus - Intérêt pour la compréhension des notions fonctionnelles derrière les domaines techniques

CDI

Offre d'emploi
Expert Data Gouvernance

Inventiv IT
Publiée le
AWS Cloud
Azure
Collibra

65k-80k €
Paris, France

Rejoignez INVENTIV IT pour conseiller nos clients et travailler sur nos projets Data au sein de la Data Fabric . En tant qu' Expert Data Governance, vous piloterez des programmes stratégiques visant à garantir la confiance, la qualité et la conformité des données alimentant les Platform Data et les Data Market Place . Votre expertise couvrira les volets stratégiques et opérationnels, du design du modèle opérationnel au déploiement des outils de gouvernance. 🎯 Vos Missions Principales1. Pilotage de Programmes de Gouvernance & Qualité Stratégie & Déploiement : Définir et piloter la mise en œuvre de la Politique de Gouvernance et de Qualité des données . Modèle Opérationnel : Concevoir et déployer le Modèle Opérationnel (rôles, responsabilités, processus) de la Data Governance , incluant la gestion des incidents de Qualité des Données. Réglementation : Anticiper et mettre en œuvre les exigences de conformité (ex. : BCBS 239 , Al Act ) et de Data Privacy . 2. Expertise MDM, Catalogue et Outillage Master Data Management (MDM) : Déployer le dispositif de gestion des Master Data et accompagner la modélisation des données de référence. Data Catalog : Déployer et piloter les travaux d'évolution du Data Catalog (expertise Collibra et/ou Data Galaxy ) pour la documentation et la classification des données confidentielles. Qualité de Données : Cadrer et déployer des solutions d'outillage de Qualité des Données (ex. : Attacama , Dataiku ). 3. Contexte Avancé (Cloud, Data Market Place & IA) Architecture & Plateforme Data : Contribuer à la définition du Target Operating Model de la Plateforme Data en tenant compte des grandes orientations technologiques (Cloud vs On-Premise ). Contexte Cloud/Big Data : Utiliser votre connaissance des environnements AWS, AZURE, Snowflake et Databricks pour adapter les dispositifs de Gouvernance et de Qualité à ces plateformes modernes. IA/Gen AI : Mettre à profit votre expérience en Gouvernance des IA et Product Ownership Gen AI pour sécuriser l'exploitation des données dans des cas d'usage avancés. 4. Leadership et Acculturation Collaboration Métiers : Collaborer étroitement avec les fonctions Business & Produits (Finance , RH , Marketing , Sales ) pour l'adoption des modèles et la collecte des cas d'usage Data & IA. Acculturation : Conduire des sessions de formation et animer les comités de pilotage (COPIL, COMEX ). 🛠️ Compétences et Outils Indispensables Expertise Métier : Data Gouvernance , Master Data Management , Data Quality , Data & AI Strategy . Outils de Gouvernance : Expertise Collibra , Data Galaxy . Outils d'Intégration/Qualité : Expérience Informatica , Dataiku , Attacama . Méthodes : Agile at Scale , Design Thinking , Change Management Expérience dans un contexte Databricks, Snowflake, AWS & Azure fortement recommandé Exemple de mission : Définition de la Politique de Gouvernance des données et de Qualité des données Cartographie complète du patrimoine de données et Design du l’Enterprise Data Model Design et Déploiement du Dispositif de Gestion des Master Data Design et Déploiement du Dispositif de Mise en qualité des données Design et Déploiement du Dispositif de Documentation des Données Pilotage des travaux de Déploiement et D’évolutions du Data Catalog (Collibra) Cadrage, Spécification et Déploiement d'un Outil Data Quality (Attaccama) Accompagnement des cas d'usage analytiques et des projets métiers dans la collecte, et la mise en qualité des données consommées

Freelance

Mission freelance
Data Scientist IA Gen, RAG, pipeline ingestion et eval

NEXORIS
Publiée le
Dash
IA Générative
Large Language Model (LLM)

1 an
540-700 €
Paris, France

Accompagner les travaux d’industrialisation et de structuration des produits d’intelligence artificielle générative, en lien avec différents cas d’usage internes. La mission inclut notamment la mise en place, l’optimisation et la supervision des chaînes de traitement de données, la conception et l’amélioration des systèmes de RAG (Retrieval-Augmented Generation), ainsi que la définition et le déploiement de pipelines d’évaluation pour mesurer la performance, la fiabilité et la qualité des modèles génératifs.

Offre premium
Freelance
CDD
CDI

Offre d'emploi
Architecte data / IA (F/H)

Taleo Capital
Publiée le
Dataiku
ETL (Extract-transform-load)
Google Cloud Platform (GCP)

6 mois
Paris, France

Taleo Consulting est un groupe de conseil en management présent à Luxembourg, Paris, Bruxelles, Amsterdam, Genève, Barcelone, Singapour et Lisbonne. Nos valeurs sont : Famille, Fun et Excellence et font partie intégrante de l’ADN de Taleo. Nous comptons aujourd'hui plus de 500 employés à travers nos 8 bureaux internationaux ! Notre expertise financière permet d’apporter à nos clients les meilleures pratiques, des solutions sur mesure et innovantes. Nous intervenons auprès des banques, des assets managers et des assurances. Votre rôle Nous recherchons un(e) Architecte Data & IA (FH) pour accompagner l’un de nos clients, acteur majeur du secteur assurantiel. Le poste est à pourvoir ASAP pour une durée de 6 mois dans le cadre d’un contrat CDD / Freelance chez TALEO , et est situé à Paris . Suite à cela, un recrutement interne en CDI chez notre client est privilégié. Contexte Vous intégrez un environnement dynamique traitant de la Data, de l'IA et adressant l'ensemble des métiers de l'entreprise. Vous travaillerez dans un écosystème Data comportant, entre autres, les meilleurs outils Data modernes du marché. Vous serez au cœur de projets de transformation, qui ont démarré fin 2023 et vont s'opérer sur les années à venir dans le cadre d'un plan stratégique très ambitieux. Responsabilités : Vous exercerez les missions d'Architecte Data : · Prendre en charge les dossiers d'architecture des projets en garantissant la cohérence avec la stratégie, le cadre d'architecture et la Roadmap du Patrimoine Data. · Accompagner les Product Owners/Managers et les équipes métiers dans l'évolution du Patrimoine Data. · Identifier les évolutions d'architecture induites par les nouveaux usages métiers. · Alimenter et porter les décisions d'architecture en Instance Architecture Data, ou dans les instances ad-hoc de la DSI groupe. · Alimenter la Roadmap Data dans sa dimension architecture. · Apporter une expertise technique et fonctionnelle sur les sujets IA / MLOps dans le contexte des transformations liées à la migration cloud (GCP) du Patrimoine Data. · Apporter une expertise d'intégration des outils Data et de leur gouvernance dans l'écosystème Data groupe. · Référencer et tenir à jour les patterns d'architecture Data. · Promouvoir le cadre d'architecture Data auprès du Data Office, des Architectes de la DSI et des équipes métiers. · Être en veille sur les tendances et les nouveautés technologiques des solutions Data. · Vous êtes un(e) interlocuteur(trice) privilégié(e) des métiers et par votre rôle, participez à l'éclairage des décisions stratégiques du Groupe pour l'amélioration de sa performance grâce, entre autres, à une meilleure exploitation, fiabilisation et un cheminement de qualité de la Data.

Freelance

Mission freelance
Product Owner Data (F/H)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Méthode Agile

12 mois
500-620 €
Paris, France

Contexte Le prestataire interviendra dans un environnement hybride, combinant : • des composants legacy à maintenir et à fiabiliser, essentiels au pilotage opérationnel actuel, • et des chantiers de refonte et de modernisation à conduire dans une logique produit et Data Mesh. La mission se déroule dans un contexte de modernisation de la stack data (architecture Lakehouse) et de montée en maturité des pratiques produit au sein des équipes Data. Description Le prestataire assurera le rôle de Product Owner Data, en pilotant une équipe pluridisciplinaire (Produit, Tech, Data). Sa mission consistera à : • Conduire la refonte et la valorisation des données Ventes, depuis le cadrage des besoins métiers jusqu’à la livraison des Data Products, • Piloter la roadmap des produits data dans une logique produit et Data Mesh, garantissant gouvernance, qualité et exploitabilité, • Maintenir l’existant (legacy), en assurant la continuité de service et la fiabilité des indicateurs clés, • Collaborer avec le Product Manager et les autres PO Data pour aligner la vision, prioriser les besoins et assurer la cohérence transverse, • Animer les échanges avec les parties prenantes métiers, en mettant l’accent sur la valeur d’usage, les indicateurs de succès et la qualité des livrables. • Le prestataire participera également à la communauté de pratique Produit & Data, afin de partager les bonnes pratiques et contribuer à la montée en maturité collective. Livrables • Roadmap produit claire et priorisée (vision, jalons, backlog) • Cadrages et spécifications fonctionnelles des Data Products (règles de gestion, contrats d’interface, indicateurs de succès) • Plan de maintien et d’amélioration continue du legacy (cartographie, fiabilisation, suivi qualité, documentation) • Pilotage et suivi des développements (agilité, cérémonies, reporting d’avancement) • Documentation consolidée (catalogue, dictionnaire, fiches produit, processus de gouvernance) • Reporting régulier sur l’avancement, les risques et les arbitrages à opérer

Freelance

Mission freelance
Ingénieur Cloud Azure

Groupe Aptenia
Publiée le
Azure
Big Data
CI/CD

3 mois
Paris, France

Construire et déployer des infrastructures Cloud Public (principalement sur Microsoft Azure) pour les projets Data. Industrialiser les architectures cibles et configurer les équipements via des chaînes CI/CD automatisées. Assurer la fiabilité et la sécurité des plateformes , en mettant en place la supervision, la haute disponibilité et les bonnes pratiques de sécurité Cloud. Collaborer avec les équipes développement, sécurité et projets pour accompagner la transformation Data dans un environnement Agile.

Freelance

Mission freelance
Développeur Back Data

Cherry Pick
Publiée le
Shell
SQL

12 mois
550-600 €
Paris, France

Les livrables sont Analyser des incidents pour en comprendre la cause afin de déterminer la solution à appliquer Avoir une bonne capacité d'analyse afin de pouvoir comprendre des sujets métiers divers et variés Comprendre l'implémentation technique et les implémenter si nécessaire Description détaillée OS : Avoir une bonne connaissance d'Unix Z/OS : Avoir des connaissances du Mainframe de façon à pouvoir : Analyser/modifier des JCL et pouvoir Modifier/charger des fichiers MVS Connaitre l'ordonnanceur OPC Shell : Pouvoir analyser/modifier des scripts shell réalisant des opérations complexes : Chargement des fichiers dump/plat/MVS données en BDD Export de données de la BDD vers des dump et/ou fichiers plats Récupération des fichiers depuis FTP/SFTP Envoi des fichiers vers FTP/SFTP SQL : Avoir un niveau expert pour comprendre et mettre en oeuvre des requêtes SQL complexes BDD : Oracle Aussi, une connaissance de la suite BI d'Oracle Discover sera un plus Transverse : Avoir une bonne capacité d'analyse afin de pouvoir comprendre des sujets métiers divers et variés et en comprendre l'implémentation technique et les implémenter si nécessaire La personne sera principalement amenée à travailler en mode RUN : Analyse des incidents pour en comprendre la cause afin de déterminer la solution à appliquer Des évolutions de scripts SQL/Shell existants sont demandées de temps en temps par le métier Le périmètre fonctionnel couvre quasiment tout l'éventail du retail : de la logistique jusqu'à la sortie de caisse Données : logistiques, référentiel, commandes, ventes, achats, promotion.. pour des magasins alimentaires et non alimentaires (équipement de la maison) en passant par des données financières de types factures, impayés. Compétences techniques : Shell - Expert - Impératif SQL - Expert - Impératif OS - Confirmé - Important Z/OS - Confirmé - Important

Freelance
CDI

Offre d'emploi
Data Engineer – Azure / Snowflake / dbt

UCASE CONSULTING
Publiée le
Azure
DBT
Snowflake

2 ans
Paris, France

Contexte & Objectif de la mission Dans le cadre du renforcement d’une équipe Data de l'un de nos clients du secteur Finance, nous recherchons un Data Engineer confirmé pour contribuer à la conception, au déploiement et à l’industrialisation des plateformes de données sur Azure et Snowflake. Vous interviendrez sur la mise en place de pipelines de données performants, l’automatisation des traitements, et l’implémentation des bonnes pratiques CI/CD, dans un environnement à fort enjeu de qualité et de performance. Rôles & Responsabilités Concevoir, développer et optimiser des pipelines de données dans un environnement Snowflake / Snowpark. Développer et orchestrer des flux via Azure Data Factory et dbt (Python). Intégrer et exploiter des API pour l’ingestion et la diffusion de données. Participer au déploiement et à la gestion de l’infrastructure via Terraform. Mettre en œuvre les pratiques CI/CD sous Azure DevOps. Automatiser les tâches récurrentes (PowerShell, Azure CLI). Contribuer à la modélisation et à l’architecture data (3NF, étoile, data warehouse). Participer à la gouvernance, la qualité et la sécurité des données (RGPD, Data Privacy). Documenter les développements et collaborer avec les équipes techniques et métiers. Environnement technique Azure – Snowflake – dbt (Python/Snowpark) – Azure Data Factory – PowerShell – Azure CLI – Terraform – Azure DevOps – PowerDesigner – Git

Freelance

Mission freelance
Tech Lead DATA AZURE / OpenAI

TAHYS RECRUITMENT SOLUTIONS
Publiée le
Azure

6 mois
Paris, France

Full remote Durée : 6 mois renouvelable Niveau : Senior / +10 ans d’expérience Le rôle : Piloter la conception et la direction technique d’une solution interne stratégique, data-driven et IA Concevoir l’architecture logicielle et encadrer les choix techniques dans Azure Superviser la mise en œuvre CI/CD et le déploiement des environnements Collaborer avec les équipes Data, AI, et Software pour garantir la cohérence technique Assurer l’intégration avec les environnements SAP et Salesforce Profil recherché : Excellente maîtrise de Microsoft Azure (Data Factory, Synapse, Functions, DevOps...) Expertise en architecture logicielle, Data Engineering et Machine Learning Solides compétences en conception de bases de données SQL / NoSQL Expérience confirmée en intégration d’écosystèmes complexes Leadership technique et capacité à fédérer des équipes pluridisciplinaires

Freelance

Mission freelance
Ingénieur Data engineering

KEONI CONSULTING
Publiée le
Kubernetes

18 mois
100-500 €
Paris, France

CONTEXTE : Le département Data IA (DaIA) est en charge de mettre à disposition des métiers un socle technologique transverse permettant de mettre en production et industrialiser les cas d’usage Data et IA en développant notamment une plateforme d’enrichissement des métadonnées des contenus (IA & GenAI) Pour cela, nous recherchons une prestation de Data engineering pour nous aider MISSIONS à concevoir, construire et gérer notre infrastructure AWS : Développement de la plateforme de microservices AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les media • Assurer la qualité, la fiabilité et l'accessibilité des données. • Développer les pipelines de traitement de données avec orientation media • Collaborer avec les équipes de data science pour comprendre les besoins en données et mettre en place les solutions appropriées. • Recueillir les besoins avec des métiers ou clients. • Assurer la maintenance et l'optimisation des systèmes de données existants. Livrables attendus : Des analyses, développements et documentations de qualité. Expertises demandées pour la réalisation de la prestation : • Minimum de 4 ans d’expériences significative dans le type d’expertise demandé • Être dans une communication de grande qualité et savoir discuter dans des situations tendues. • Avoir une expérience efficace et rigoureuse de la gestion de produits. • Avoir une capacité à travailler de manière autonome et à gérer efficacement plusieurs tâches simultanément. • Être force proposition et savoir remonter les alertes aux responsables projet ou technique. • Expérience en ingénierie de données, en particulier avec les technologies de big data : EXPERT • Connaisse de l’ingénierie de traitement de la donnée non structurée : CONFIRME • Connaissance en architecture micro-service et l’utilisation d’API externe : CONFIRME • Connaissance des langages de programmation et de Génie Logiciel (Python) : • Programmation Orientée Objet : MAITRISE • Connaissance et utilisation des Design Patterns standard : MAITRISE • Frameworks/Librairies de tests : MAITRISE • Observabilité applicative : CONFIRME • Mesures de performances : CONFIRME • Expérience avec les bases de données SQL et Graph : CONFIRME • Connaissance des technologies de conteneurisation : o Utilisation de la CLI Docker : MAITRISE o Création et optimisation des images : MAITRISE o Utilisation de docker-compose : CONFIRME o Utilisation de la CLI Kubernetes : MAITRISE o Création et utilisation des déploiements Kubernetes : CONFIRME o Résolution de problèmes sur environnement Kubernetes : CONFIRME o Utilisation de Helm pour le déploiement de workload sur Kubernetes : CONFIRME • Compétence des technologies de CI/CD et Infra as Code : o Expérience du process GitFlow : MAITRISE o Utilisation des commits sémantiques/feature branches : MAITRISE o Mise en place de pipelines/jobs : CONFIRME o Mise en place de process GitOps : CONFIRME o Utilisation des concepts, modules et templates Teraform : MAITRISE o Utilisation de Ansible : CONNAISSANCE o Capacité à travailler en équipe et à communiquer efficacement (Agile, JIRA) : MAITRISE

Freelance
CDI

Offre d'emploi
Consultant(e) AMOA Recette Décisionnel

Accelite
Publiée le
AMOA
Big Data
Business Intelligence

6 mois
40k-50k €
400-450 €
Paris, France

Contexte du projet : Dans le cadre du maintien en conditions opérationnelles et de l’évolution d’applications décisionnelles stratégiques , nous recherchons pour notre client bancaire, un Consultant expert en Recette & AMOA Décisionnel (H/F). Vous accompagnez les équipes métiers et techniques dans les activités de recette , de conception fonctionnelle et de support à la production applicative , au sein d’un environnement data et BI à fort enjeu. Le projet s’inscrit dans une démarche de transformation et d’industrialisation des processus décisionnels, en lien avec les équipes MOA, MOE, Data Platform et Métiers . Activité de Recette : Élaborer et rédiger le plan de tests (cas de tests, scénarios, jeux de données) Exécuter les différents types de tests : recette fonctionnelle, d’intégration et de non-régression Analyser les résultats : conformité, détection et qualification des anomalies Déclarer et suivre les anomalies dans les outils Banque de France Produire les rapports de tests exécutés et bilans de recette Activité de Conception fonctionnelle : Collecter et analyser le besoin métier et rédiger les cas d’usage Réaliser les modélisations fonctionnelles (diagrammes d’activités, de séquence, architecture fonctionnelle) Rédiger les spécifications fonctionnelles générales et détaillées , ainsi que les règles de gestion et exigences non fonctionnelles Consigner les livrables dans JIRA / Confluence Activité de Support à la Production : Analyser les incidents de production (fonctionnels et métiers) Assurer le suivi et la vérification des correctifs Contribuer au pilotage et à la communication autour des incidents

Freelance
CDI

Offre d'emploi
Data Scientist - IA Generative

VISIAN
Publiée le
Dash
Deep Learning
IA Générative

1 an
40k-58k €
380-570 €
Paris, France

Le consultant interviendra en tant que Data Scientist pour accompagner les travaux de consolidation et d'industrialisation de nouveaux services pour les directions métier. Le terrain de jeux sera les technologies IA Gen, les RAG et les chaines d'ingestions de corpus documentaires hétérogènes. Le DS sera en responsabilité de la conception (en collaboration avec les interlocuteurs métiers, Data et DSI) et le développement de solutions répondant aux besoins métier. Il réalisera les études de faisabilité, de risque et de performance nécessaire pour la maturation du Use Case à travers le cycle de vie (incubation, industrialisation, run). Livrables : Pipeline d'acquisition, préparation et traitement de données (structurées et non structurées) Pipeline d'entrainement, test et validation, Composants d'inférence Automatisation de pipeline et workflow Mécanismes et process de monitoring de la performance API Prototypes et démonstrateurs Plan d'experiences et de tests Documentation technique et fonctionnelle Rapport de veille technologique et technique

Freelance
CDI

Offre d'emploi
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans

Digistrat consulting
Publiée le
Apache Spark
Hadoop
Python

3 ans
38k-43k €
300-400 €
Paris, France

🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données

Freelance

Mission freelance
Expertise Data Assurance (DSN)

CAT-AMANIA
Publiée le
CoreData

6 jours
400-600 €
Paris, France

Vous interviendrez dans les chantiers de transformation afin d'accompagner les travaux sur l'usage des données pouvant provenir des DSN. A ce titre, vos missions consisteront à contribuer: Concevoir un modèle de données Socle des données et de l'implémenter dans le DataWarehouse Recueil des usages de Données DSN Réalisation de l’analyse fonctionnelle et technique Proposition de modélisation fonctionnelle des données, ayant un sens métier Proposition d’Architecture fonctionnelle et technique pour l’implémentation Développement du socle Déploiement du socle auprès des métiers et utilisateurs de ces données Partage de la connaissance du fonctionnement de la DSN, du modèle réalisé et de l’implémentation Pilotage du chantier pour tenir un engagement fort d’implémentation Animation et coordination des ateliers et travaux entre les parties prenantes Organisation et validation des phases de tests et de recette. Suivi des actions, des risques et des décisions pour garantir le bon déroulement des projets

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

427 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous