Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 304 résultats.
Freelance
CDI

Offre d'emploi
Azure Data Factory Expert

Management Square
Publiée le
Azure Data Factory
Azure Synapse
Data Lake

1 an
58k-64k €
550-620 €
Paris, France

1. CONTEXTE DE LA MISSION Au sein de la Direction Informatique, nous cherchons à renforcer le département Data & Analytics avec un expert Azure Data Factory – spécialisé dans la conception et le développement de projets d'intégration de données hybrides dans le Cloud. L’équipe Data & Analytics gère le DataHub qui centralise les données des différents référentiels et applications Front to Back (PMS, OMS, IBOR, ABOR, CBOR) et alimente l'ensemble des métiers pour des besoins de reporting réglementaires ou clients, des analyses via des outils analytiques type Power BI ou Power Query ou des développements internes via APIs ou requêtes SQL. L’entreprise termine actuellement un projet stratégique de refonte de l'infrastructure Data qui repose désormais sur la technologie Data Lake Azure Cloud et s'engage dans un chantier de migration des outils FtoB vers une plateforme intégrée d'un éditeur de renommée mondiale. 2. DESCRIPTION DE LA MISSION Vous intervenez dans l’équipe Data & Analytics pour poursuivre la transformation de l'entreprise en tant qu' expert Azure Data Factory (Injection, stockage, traitement, analyse) via les différents modules ( ADF, Synapse, Data Lake Gen 2, blob storage, SQL database, Analysis Service ). Une expertise dans l'automatisation des tests et l'usage de l'IA pour l'analyse des données sera un plus. En tant qu'expert, vous serez force de proposition pour challenger l'existant et faire évoluer le Datahub maison pour intégrer les données à partir du Datahub de la solution cible. À cette occasion, vous devrez à la fois répondre aux exigences du métier, qui souhaite limiter l'impact de la migration, et aux contraintes et opportunités apportées par la nouvelle solution tout en préservant la qualité de la donnée, le time to market et la facilité d'intégration (SQL, API, CUBE…). Vous serez en mesure de collaborer avec les membres de l'équipe IT ou Business Analyst, dans un environnement Agile , aussi bien au sein de l’équipe que « at scale » avec les autres équipes impliquées dans le projet de transformation.

Freelance

Mission freelance
Tech Manager PMS Data

Cherry Pick
Publiée le
AWS Cloud
Snowflake

12 mois
Paris, France

Cherry Pick est à la recherche d'un Tech Manager PMS Data pour l'un de ses clients. Missions : - encadrer 2 de ces 3 équipes (suivi individuel et avec les ESN, participation aux rituels, etc.) - créer un binôme fort avec son homologue ‘Produit’ (Product/Project Manager déjà présent) - piloter les chantiers de Delivery Produit, mais aussi d’améliorations (process, orga, outils) - animer les relations avec les parties prenantes (Métiers, équipes IT, Centre de Services Off-Shore) - informer et alerter les (deux) Tribes Leads DATA ‘DHS’ - participer aux activités et évènement transverses de la Tribe, du pôle ENGINEERING ou DATA. Au cours des prochains mois, ses responsabilités le/la mèneront à atteindre les objectifs suivants (non- exhaustifs) : o Réduction des fichiers PMS manquants, et du délai de rattrapage (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Augmentation de la couverture (et qualité) des revenus hôtels déjà collectés, et réduction du délai d’activation (et de correction) du « mapping » financier ‘hôtel’ (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Déploiement de « connecteurs » pour accroitre le parc d’hôtels connectés, et répondre aux nouveaux usages métiers, tout en réduisant notre dépendance aux méthodes et acteurs ‘Legacy’. o Revue de la stratégie, de l’architecture et des capacités de la future « Hotel Data Platform » (HDP) o Co-Priorisation du backlog des équipes, planification puis suivi des roadmaps trimestrielles o Diffusion des bonnes pratiques à l’ensemble des membres de l’équipe (autonomie, efficacité) o Documentation à jour du patrimoine Data&Tech afin de faciliter l’intégration des nouveaux arrivants

Freelance

Mission freelance
Delivery Lead Java/ColdFusion

KEONI CONSULTING
Publiée le
Azure Data Factory
Java
Méthode Agile

18 mois
100-400 €
Paris, France

CONTEXTE : Expérience : 10 ans et plus Métiers Fonctions : Stratégie & transformation digitale, Architecte Solution Spécialités technologiques : Infrastructure, e-Commerce Au sein d’un écosystème digital complexe en pleine transformation, dans le e-commerce, le client souhaite sécuriser le delivery sur sa plateforme e-commerce ColdFusion qui héberge 20 sites web et back-office de réservation. MISSIONS DESCRIPTIF DE MISSION : Au sein de la Digital Factory du client (~10 collaborateurs), le delivery lead java/ColdFusion aura les responsabilités suivantes : Attendus - Analyse technique des besoins fonctionnels o Rédaction des documents d’architecture technique (avec l’architecte solution) o Challenge des solutions techniques proposées par les développeurs o Rédaction des spécifications techniques (avec le lead technique) - Suivi de l’équipe o Validation des chiffrages (Projets & TMA) et tenue de l’engagement o Garantie du planning de livraison (IT / Métier)​ o Suivi de la capacité de l'équipe (alerte sous/sur staffing, anticipation projets) - Suivi de la qualité du delivery o Revue de code​ o Mise en place plan de tests de non-régressions​ o Suivi Performances / Sécurité​ o Recueil & analyse des retours, observations, remarques métiers post MEP o S'assurer de la prise en compte des retours et propose des axes d'améliorations​ - Veille techno Responsable Infrastructure​ - Infra ColdFusion (Applications & Sites) - Suivi de l’agence de gestion d’hébergement Comitologie - Porter la relation avec le chef de projet fonctionnel - Porter la relation avec les équipes connexes à la Digital Factory (notamment sécurité et data) et identifier / gérer les impacts - Identifier/mitiger ou escalader les risques (coût, délai, qualité) inhérents au delivery de la plateforme ColdFusion Process - Observer et challenger les process en place pour améliorer le delivery - Documenter les principes de delivery - Accompagner l’équipe dans la mise en œuvre de ces processus. Expertise souhaitée Hard skills - Maîtrise obligatoire de ColdFusion (Windows, IIS) - Maitrise e-commerce, CMS, DAM et réservation - Connaissance des techniques de gestion de projet (Agile, Waterfall…) - Anglais exigé (écrit/oral) pour la rédaction de documents et la participation à des réunions avec des interlocuteurs internationaux (Inde, Cambodge, USA). Soft skills - Excellent relationnel et sens de l’écoute - Capacité à communiquer clairement et efficacement - Esprit d’équipe et collaboration - Orientation client et sens du service - Résolution de problèmes et prise d’initiative

CDI
Freelance

Offre d'emploi
Fiche de Poste – Consultant Risque Crédit (Confirmé / Senior)

TEKTEO
Publiée le
Big Data
Microsoft Excel
Microsoft Power BI

3 ans
45k-60k €
450-600 €
Paris, France

Nous recherchons un Consultant Risque Crédit expérimenté pour accompagner un établissement financier de premier plan. La mission s’inscrit dans le cadre du projet « Surveillance » et porte sur les activités de surveillance individuelle et de portefeuille, ainsi que sur la mise en œuvre opérationnelle des normes en coordination avec les équipes IT et métiers. Le consultant interviendra sur des sujets stratégiques et opérationnels, avec un fort enjeu d’industrialisation des processus et des outils liés au risque de crédit .

Freelance

Mission freelance
Data Engineer Java/Spark – POC & Industrialisation Data

CAT-AMANIA
Publiée le
Apache Spark
Java
Python

6 mois
400-520 €
Paris, France

Nous recherchons un Data Engineer Senior (Java/Spark) pour accompagner un acteur majeur du secteur mutualiste dans la transformation et l’industrialisation de ses environnements data, en lien étroit avec les équipes métiers et techniques. Vous aurez pour mission : Accompagnement technique et fonctionnel : Intervenir en tant qu’expert Data pour soutenir les équipes sur des problématiques de performance, d’optimisation et d’expérimentation de cas d’usage à forte volumétrie. POC et industrialisation : Participer à la conception et à la réalisation d’un POC visant à rapprocher les environnements cloud et on-premise, avec une cible finale on-premise. L’existant cloud servira de base pour des projets d’envergure. Animation et méthodologie : Co-animer le codir mensuel avec la direction métier Data/IA, accompagner la direction dans l’exploration des données et la priorisation du backlog, et apporter une expertise méthodo pour le démarrage des cas d’usage. Collaboration transverse : Travailler en étroite collaboration avec les Tech Leads et référents architecture Data pour garantir la cohérence technique et fonctionnelle des solutions proposées. Développement et optimisation : Apporter un soutien actif au développement Python/Java, résoudre les problématiques de performance et contribuer à l’expérimentation de cas d’usage sur des volumes de données importants.

Freelance

Mission freelance
CP Senior DATA & Agile

SQLI
Publiée le
CoreData

6 mois
500-600 €
Paris, France

Bonjour, Pour le compte de l'un de mes clients dans le secteur de l'agroalimentaire est actuellement à la recherche d’un Chef de Projet Senior DATA & Agile pour reprendre en main plusieurs projets menés avec les équipes internes Data et les métiers. Le contexte : Les projets en cours rencontrent des difficultés dues à une organisation qui freine leur avancement. Un échec a notamment été constaté dans la mise en place de l’agilité, avec une animation insuffisante des équipes Data et des interlocuteurs métiers. L’objectif : Remettre de l’ordre, relancer les projets sur de bonnes bases, et instaurer une dynamique Agile efficace.

CDI
Freelance

Offre d'emploi
TECH LEAD BIG DATA

UCASE CONSULTING
Publiée le
Apache Kafka
Apache Spark
Azure

3 ans
35k-67k €
480-980 €
Paris, France

Bonjour, Pour le compte de notre client nous recherchons un TECH LEAD BIG DATA Le domaine d’intervention du Tech Lead Data Engineering comprend les études, l’architecture du SI Big Data, le choix des solutions et outils, le pilotage technique du Build et du Run. Comme référent technique Big Data, vous assurez le lead technique de l’équipe de développeurs, avec en responsabilité, la conception et la mise en œuvre des solutions Big Data, ainsi que le pilotage technique de projets. Sous la responsabilité du responsable du SI Big Data, vous piloterez techniquement les activités de Data Engineering : - étude et prise en compte des besoins de traitement de la data, - gestion des priorités et de la cohérence des besoins, - choix des outils et solutions - conception et mise en œuvre des architectures de données évolutives et performantes, sécurisées et résilientes - direction et encadrement technique d’une équipe de data ingénieurs composée d’intervenants externes : suivi, support, adoption des bonnes pratiques de développement sécurisé - suivi de la qualité, de la sécurité des données et des traitements, de la performance opérationnelle des traitements - participation et support au delivery nécessitant l’expertise technique et data - veille technologique pour rester à l’état de l’art en matière de traitement massif des données, et d’utilisation de l’IA pour l’automatisation, la prédiction, la génération de data et de code. - support des équipes Data Science et R&D sur le cycle de déploiement/optimisation et industrialisation des solutions d’IA - conception et mise en place d'API pour l'intégration des solutions Big Data avec d'autres systèmes, - développement et intégration de modèles d'IA générative pour des applications spécifiques, - assurer la maintenance et l'évolution des API et des modèles d'IA générative.

CDI

Offre d'emploi
Data Engineer (h/f)

emagine Consulting SARL
Publiée le

45k-49k €
75017, Paris, Île-de-France

Résumé : Ce poste de Data Engineer a pour but principal d'analyser les besoins métiers afin de créer des indicateurs clés de performance (KPI) et de les visualiser à l'aide de Power BI. Responsabilités : Vous serez chargé de traduire les besoins métiers en solutions techniques et de garantir la qualité des données. Les principales responsabilités comprennent : Traduire les besoins métiers Rédiger les spécifications techniques à partir des besoins d'affaires Récupérer les données via des tickets Transformer les données sur Talend Faciliter et mettre en place les KPI Créer des dashboards complexes et appliquer des filtres sur Power BI Comprendre les cubes Azure Must Haves : Les compétences et qualifications suivantes sont obligatoires : Expérience avec Power BI Compétences en Talend Connaissance des cubes Azure Expérience en rédaction de spécifications techniques Nice to Have : Les compétences complémentaires qui seront un plus : Expérience en data engineering dans le domaine d'activité spécifique Connaissance des méthodologies Agile Compétence en data visualization Autres Détails : * Lieu : 75 * Prestation : temps plein hybride (3 jours sur site, 2 jours télétravail, modulables) * Démarrage : ASAP * Durée : 03 à 36 mois

Freelance

Mission freelance
Chef de Projet Data - BI

VISIAN
Publiée le
BI
Gestion de projet
Microsoft Power BI

1 an
350-590 €
Paris, France

Objectifs et livrables : En étroite collaboration avec le Chef de Service, les architectes fonctionnels, les ingénieurs Data, la MOA et les métiers, la mission est garante de la bonne réalisation de certains projets transverses. Mission : Piloter et assurer la mise en œuvre des évolutions/projets dont vous aurez la charge dans le respect de la qualité, coûts et délais définis avec les intervenants, des process et normes Travailler sur les différents templates projets, la roadmap fonctionnelle, l'optimisation des interactions avec les autres services Mettre en place un plan de communication autour des différents projets et instances Mettre en oeuvre et piloter le planning des travaux de l'équipe et des contributions Coordonner les différents prestataires Effectuer un reporting régulier et rigoureux vers son responsable

Freelance
CDI

Offre d'emploi
Senior Cloud Data Engineer

adbi
Publiée le
Apache Airflow
AWS Cloud
Docker

12 mois
Paris, France

Les équipes Data Systems de notre client recherchent un Senior Cloud Data Engineer passionné, basé à Paris, pour accompagner la forte croissance de leurs activités. En rejoignant l'équipe : Vous intégrerez une équipe autonome, impliquée dans un programme de transformation autour de projets de Data Engineering. Vous apporterez votre expertise sur la stratégie data, serez impliqué dans l’architecture et l’implémentation, et aurez l’opportunité d’expérimenter de nouvelles technologies. Vous jouerez un rôle clé en guidant les bonnes pratiques, en garantissant la fiabilité, la maintenabilité et la scalabilité des solutions que nous proposons à nos clients. Vos missions Concevoir, développer et déployer des solutions data sur le cloud (principalement AWS, mais aussi Azure ou GCP). Construire et maintenir des pipelines de données performants, sécurisés et automatisés. Travailler sur des architectures modernes type Lakehouse (Hudi, Iceberg, Delta) et appliquer des optimisations (Compaction, Z-Order, etc.). Orchestrer des pipelines avec Airflow et exploiter des environnements Hadoop / Spark. Développer en Python, SQL, Docker, avec mise en place de CI/CD et principes DevOps. Garantir la performance, la disponibilité et la sécurité des applications. Accompagner les membres moins expérimentés de l’équipe et partager les bonnes pratiques. Participer à des projets innovants et contribuer à l’évolution de notre offre Cloud Data Engineering. Profil recherché 5 ans minimum d’expérience pratique dans la construction de pipelines de données sur le cloud (AWS de préférence, Azure ou GCP acceptés). 3 ans minimum en architecture, conception, développement et support de solutions data. Connaissance des bases de données, ETL, BI, Big Data, Machine Learning et Advanced Analytics. Maîtrise des environnements Hadoop, Spark, Airflow. Expérience des architectures Lakehouse. Solides compétences en Python, SQL, CI/CD, automatisation et gestion de conteneurs (Docker). Connaissances de base en services cloud (réseau, sécurité, stockage, IAM). Bonne compréhension des méthodologies Agile et DevOps. Esprit ouvert, curieux et orienté apprentissage continu. Bon relationnel et capacité à collaborer avec des équipes pluridisciplinaires. Excellente communication écrite et orale en français et en anglais. Expérience souhaitée : infrastructures Linux, applications conteneurisées. Ce que nous offrons Participation à des projets data innovants et stratégiques. Un environnement stimulant, multiculturel et orienté partage de connaissances.

Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

PROPULSE IT
Publiée le
BI

24 mois
250-500 €
Paris, France

INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS

Freelance

Mission freelance
Architecte de Solutions en IA Générative

Orcan Intelligence
Publiée le
Data science

4 mois
600-750 €
Paris, France

Contrainte forte du projet : Le livrable est une étude comparative des solutions technologiques pour Agents GenAI. Description détaillée : Contexte et objectifs de la mission : Dans le cadre de sa stratégie d’innovation digitale, le client souhaite accélérer le déploiement d’agents d’IA générative pour différents cas d’usage métiers. Afin d’assurer une intégration efficace, pérenne et sécurisée, il est indispensable d’identifier, d’évaluer et de préconiser les technologies socles les plus adaptées au contexte du groupe. Cette mission vise donc à réaliser une étude de choix comparant les différents outils et frameworks disponibles pour : Le développement d’agents IA avancés (framework dédié, SDK, bibliothèques, etc.). La mise à disposition de solutions low-code/no-code pour le prototypage ou le déploiement rapide d’agents simples. L’indexation, la gestion et la sécurisation des données nécessaires au fonctionnement des agents, notamment via des bases vectorielles (vector DB). L’assurance d’un environnement répondant aux exigences de sécurité (sécurité des accès, confidentialité des données, conformité réglementaire), de scalabilité (montée en charge et performance) et d’observabilité (monitoring, traçabilité, gestion des incidents). Périmètre de l’étude : L’étude doit impérativement couvrir les volets suivants : Recensement des besoins métiers et techniques auprès des équipes du client impliquées dans l’IA générative. Cartographie de l’existant et identification des contraintes d’intégration avec le SI du client. Benchmark des frameworks de développement pour agents AI (exemples : Semantic Kernel, LangChain, LlamaIndex, etc.). Comparaison des solutions low-code/no-code pour la création d’agents (exemples : Microsoft Copilot Studio, Pipedream, etc.). Analyse des solutions d’indexation de données textuelles et multimodales (notamment bases vectorielles comme Azure AI Search, Databricks, Pinecone, Weaviate, Qdrant, etc.). Étude des dispositifs existants ou à mettre en place pour la sécurité, la conformité, la scalabilité et l’observabilité des technologies retenues. Préconisations argumentées sur l’architecture cible et le schéma directeur de déploiement. Livrables attendus : Document de synthèse présentant l’état de l’art des solutions évaluées. Analyse comparative (forces/faiblesses, coûts, niveau de maturité, etc.). Proposition d’architecture cible et recommandations d’implémentation. Tableau de sélection des technologies et justification des choix proposés. Schéma de gouvernance technique et principes d’intégration. Critères de réussite : Adéquation des préconisations avec les besoins métiers du client. Respect des exigences de sécurité et de conformité du groupe. Capacité de la solution cible à évoluer et à s’intégrer dans l’écosystème SI du client. Niveau de documentation et de transférabilité des livrables. Ce descriptif de mission constitue le cadre de référence pour l’étude à mener, afin de garantir le choix de technologies innovantes, robustes et alignées avec les ambitions stratégiques du client en matière d’IA générative.

Freelance

Mission freelance
Développeur AWS (Data Lake / Python / Terraform)

Cherry Pick
Publiée le
AWS Cloud
C#
Data Lake

1 an
430-500 €
Paris, France

Nous recherchons un Développeur AWS confirmé pour renforcer sa squad Data Platform . L’objectif est de concevoir, développer et administrer un Data Lake AWS à grande échelle, en créant des microservices robustes et sécurisés, tout en automatisant les déploiements et la gestion de l’infrastructure via Terraform. Missions principales Concevoir et développer des microservices en Python pour l’administration du Data Lake (gestion des accès aux dossiers, gouvernance des données, automatisation des flux). Créer et maintenir des solutions de Data Lake sur AWS S3 . Définir et mettre en œuvre l’ Infrastructure as Code via Terraform . Participer aux activités de RUN & Build : monitoring, support, optimisation des performances. Contribuer à l’ automatisation et à l’amélioration continue de la plateforme (SRE, observabilité, sécurité, FinOps). Collaborer avec les parties prenantes (Data Engineers, Data Architects, Data Officers) dans un contexte Agile . Documenter les développements, process et bonnes pratiques. Compétences techniques attendues Excellente maîtrise du développement Python (microservices, APIs). Solide expérience sur AWS S3 et les concepts Data Lake. Expertise en Terraform (IaC) . Bonne compréhension des mécanismes d’ alimentation ETL . Expérience en observabilité et monitoring (Grafana, App Insights ou équivalents). Pratique des méthodologies Agile . Plus (nice-to-have) : expérience avec Databricks .

Freelance
CDI

Offre d'emploi
BUSINESS DATA ANALYSTE

UCASE CONSULTING
Publiée le
Databricks
MySQL

6 mois
40k-45k €
400-550 €
Paris, France

Je recherche pour un de mes clients un consultant Business Data Analyste : Missions : a. Participer aux réunions de cadrage et de suivi avec le chef de projet et les équipes internes. b. Participer aux tests et à la recette fonctionnelle (vérification des données, complétude, cohérence par rapport à l’existant). c. Contribuer à la mise à jour des documentations internes (Operating model, procédures si besoin). d. Suivre l’avancement des actions liées à son périmètre et remonter les points de blocage éventuels. Assurer une bonne coordination des actions. Contribution aux projets de migration en cours : e. Participer aux ateliers de convergence avec les équipes internes dans le cadre des projets en cours. f. Contribuer aux nettoyages de données pour faciliter les transferts, avec un objectif de gain d’efficacité et de réduction des coûts. g. Assurer la coordination avec les équipes Front Office pour éviter les divergences. h. Réaliser des extractions de données et collaborer avec les équipes IT / Data pour préparer les étapes suivantes (automatisation) en fonction des besoins. i. Assurer la remontée des informations et des éventuels points de blocage. Livrables attendus : Documentation des processus et procédures opérationnelles. Documentation des changements. Checklists de recette fonctionnelle. Fiches de suivi des anomalies / points ouverts. Comptes rendus de réunion (PowerPoint, Word, PDF). Vérification de la non régression des données en production après livraison des évolutions. Handover réalisé à l’équipe Data Management Operations pour assurer le bon fonctionnement en mode BAU et suivi. Travail en proximité avec les autres équipes (Regulatory Reporting, IT, Data Management, etc.) pour garantir la transparence de la communication et le respect du calendrier des livrables. Durée et modalités : Mission longue à démarrer dès que possible. Langues : Français et Anglais. Compétences techniques : Connaissance de l’environnement réglementaire de la gestion d’actifs en France, en Europe et au Royaume-Uni. Une connaissance de la réglementation bancaire et assurance est un plus. Bonne compréhension des enjeux de qualité de données. Maîtrise des outils Pack Office, VBA, SQL, Python, Neoxam Data Hub, Tableau Desktop, Databricks est un plus. Forte capacité à documenter précisément les processus, contrôles et anomalies. Expérience : Expérience dans un rôle de Business/Data Analyst, idéalement dans l’Asset Management ou en cabinet de conseil. Expérience en support fonctionnel dans un environnement Front, Middle ou Back Office. Compétences personnelles : Orientation résultat et client. Esprit structuré, rigueur, autonomie, et orientation process. Bonne communication et capacité à maintenir des relations étroites avec les parties prenantes. Capacité d’analyse et de résolution de problèmes. Travail en équipe et sens du service. Esprit d’initiative, réactivité et gestion de plusieurs tâches en parallèle.

Freelance
CDD

Offre d'emploi
Data Analyst

SysCatalyst
Publiée le
Data analysis
JIRA
Microsoft Power BI

1 an
40k-45k €
450-470 €
Paris, France

Offre de mission freelance – Data Analyst confirmé Nous recherchons un Data Analyst confirmé pour intervenir dans le secteur bancaire. La mission se déroulera au sein de l’ IT Data & Business Intelligence , sur les métiers Global Trade (Trade & Cash) . L’équipe est actuellement en charge de développer un datalake (Global Trade Lake) pour répondre aux besoins des métiers Trade et Cash. Rôle & responsabilités En tant que Data Analyst , le consultant interviendra sur les activités suivantes : Participer à la migration des données de l’infocentre vers le datalake. Modéliser les données à ingérer pour un usage analytique et pour l’alimentation de dashboards Power BI. Rédiger les spécifications fonctionnelles concernant les ingestions de données et les besoins métiers en dashboard. Réaliser les tests des flux de données et des visualisations. Contribuer, si formé, à la conception et la mise en place de dashboards Power BI , en intégrant les aspects User Experience . Suivre la qualité de la production et contribuer à son amélioration continue. Créer et maintenir des relations de confiance avec les équipes métiers . 🔧 Expertises requises Le candidat devra justifier d’une solide expérience dans des environnements similaires, avec les compétences suivantes : Formalisation des spécifications fonctionnelles et des cas de tests. Expérience en modélisation de données . Maîtrise du SQL (requêtes complexes, optimisation). Pratique des méthodes Agiles (Scrum) . Connaissance de Power BI (un plus si maîtrise de la conception avancée et UX). Informations pratiques Type de contrat : Freelance (portage possible) Localisation : Région parisienne (hybride possible selon contexte) Durée de mission :12 mois renouvelables Démarrage : ASAP

CDI
Freelance

Offre d'emploi
Data Engineer Sénior (Secteur Finance)

INGENIANCE
Publiée le
CI/CD
Microsoft Power BI
Microsoft SQL Server

3 ans
57k-67k €
550-650 €
Paris, France

Nous recherchons actuellement un data engineer sénior ayant une expérience dans le secteur de la finance (équipe global market ou compliance par exemple). Aspects contractuels de la missions : - Démarrage de la mission ASAP - Les locaux se situent dans le 13eme arrondissement de Paris - La mission sera de longue durée (3 ans). - Client dans le secteur bancaire. - Télétravail prévu 2 jours par semaine, présence demandée 3 jours par semaine - L'anglais fait partie de la mission : Communication avec des membres de l'équipe à Porto - Des astreintes seront mises en place pour la maintenance évolutive, avec 3 ou 4 nuits par mois, réparties sur tous les membres de l'équipe selon un planning determiné un mois en avance. Les week-ends tombent tous les 1 mois et demi pour tous les membres de l'équipe. L’équipe : - Adresse des sujets des différents métiers comme Global Market (rentabilité commerciale et performance des équipes de vente), trading (pour la demande de prix ur les plateforme éléctroniques), compliance (fournir des alertes en post trade pour les informations clients). - L'équipe travaille sur de l'on premise sur des datas centers (raisons de coûts et de sécurité). La mission consiste à mettre en place, gérer et modifier les pipelines de livraison. La partie maintenance évolutive reste une part importante de la mission, et comprends également une partie support niveau 2.

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

304 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous