Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 426 résultats.
Freelance
CDI

Offre d'emploi
consultant sénior gouvernance de donnée et qualité de donnée

DATAMED RESEARCH
Publiée le
Collibra
Microsoft Power BI
MySQL

24 mois
50k-65k €
400-650 €
Paris, France
Contexte Dans le cadre de la transformation Data de notre client secteur assurance, nous recherchons un Consultant Senior spécialisé en gouvernance et qualité des données pour accompagner la structuration et la fiabilisation des actifs data. Missions principales Définir et déployer un framework de gouvernance des données (politiques, rôles, processus) Mettre en place et piloter les dispositifs de qualité des données (règles, indicateurs, contrôles) Animer les instances de gouvernance (Data Owners, Data Stewards…) Recueillir et challenger les besoins métiers liés à la data Assurer la cartographie et la documentation des données (data catalog, lineage…) Contribuer à la mise en conformité réglementaire (ex : RGPD, BCBS 239…) Accompagner le changement et diffuser une culture data au sein des équipes
Freelance
CDI

Offre d'emploi
ML Engineer, Dataiku AWS H/F

LOMEGARD
Publiée le
Apache Spark
AWS Cloud
Dataiku

1 an
50k-65k €
500-560 €
Paris, France
Nous recherchons un ML Engineer pour accompagner le déploiement de modèles de machine learning robustes, performants et évolutifs en production. Vous intervenez dans une équipe dont le rôle stratégique est de valoriser la data. Au sein d’un environnement Data structuré, vous interviendrez sur des projets transverses mêlant data science, data engineering et MLOps. Vos principales responsabilités seront les suivantes : Optimiser la collecte et la préparation des données : data processing, feature engineering, industrialisation des pipelines. Améliorer l’exposition des modèles en production : API, endpoints, performance et scalabilité. Collaborer avec les data engineers pour intégrer les modèles dans la Data Platform. Travailler avec les data scientists afin de déployer les meilleures versions des modèles. Mettre en place des pratiques MLOps : qualité des données, suivi du data drift, monitoring, réentraînement. Assurer le suivi du cycle de vie des modèles en production. Documenter les processus, modèles et systèmes déployés.
Freelance

Mission freelance
un Senior Agile Java Developer – Cloud Migration (AWS / OVH)

Keypeople Consulting
Publiée le
API REST
AWS Cloud
Bash

6 mois
400-550 €
Paris, France
Dans le cadre d’un programme stratégique de migration vers le cloud , nous recherchons un Développeur Java Senior pour accompagner la modernisation d’applications critiques vers des environnements AWS et OVH Cloud . Vous interviendrez au sein d’une feature team Agile sur des projets de transformation visant à migrer des applications existantes vers des architectures cloud-native et microservices . Vos missions · Participer à la migration d’applications Java/Spring vers le cloud (AWS / OVH) · Refactoriser et adapter les applications vers des architectures microservices · Concevoir et développer des services backend Java avec l’écosystème Spring · Contribuer à la mise en place et à l’amélioration des pipelines CI/CD · Automatiser les déploiements via Infrastructure as Code (Terraform / Ansible) · Garantir la performance, la résilience et la sécurité des applications · Collaborer étroitement avec les équipes DevOps, Cloud, Architecture et Sécurité · Participer aux cérémonies Agile (Scrum, refinement, rétrospectives) 🛠 Compétences recherchées · Java / Spring Boot / Spring Data / Spring Security · API REST et architectures microservices · Linux & scripting (Bash / ksh) · CI/CD (GitLab) · Infrastructure as Code : Terraform / Ansible · AWS (obligatoire) – compute, networking, IAM, monitoring · Connaissance DevSecOps et bonnes pratiques de sécurité ⭐ Un plus · Expérience avec OVH Cloud · Expérience dans les projets de migration vers le cloud · Connaissance des environnements financiers ou fortement réglementés 📍 Profil recherché · Senior plus de 10 ans d’expérience) · Forte expérience Java backend + Cloud · À l’aise dans les environnements Agile et DevOps
Freelance

Mission freelance
Architecte technique / Expert réseau sécurité Datacenter

PROPULSE IT
Publiée le

24 mois
400-800 €
Paris, France
PROPULSE IT Recherche pour un de ses clients grands comptes : Un Architecte technique / Expert réseau sécurité Datacenter L'objectif est d'assister le client dans la conception, mise en œuvre et industrialisation Infra réseau et sécurité au sein des datacenters. L'intervenant doit obligatoirement avoir des compétences avancées en : ▪ Conception d'architecture réseau complexe en datacenter ▪ Déploiement de projet d'envergure en réseau et sécurité ▪ Etudes de faisabilité technique et financière (DAT et Chiffrage des propositions) ▪ Support N2 et N3 sur des infras critiques en production ▪ Maitrise technique avancée les technologies Cisco Nexus/VXLAN, firewall Fortinet, Checkpoint et Palo Alto, F5 LTM et APM, Proxy ZScaler Mission : Etude et analyse des opportunités d'évolution des infras Réseau & Sécurité Mise en œuvre de projets d'infras réseau & sécurité Support technique sur les technologies réseau & sécurité
Freelance

Mission freelance
DÉVELOPPEUR TALEND

Signe +
Publiée le
ETL (Extract-transform-load)

12 mois
500 €
Paris, France
Contexte du poste Dans le cadre de l’évolution et de l’optimisation du système d’information data, nous recherchons un Développeur Talend afin de concevoir, développer et maintenir les flux d’intégration de données (ETL/ELT). Le consultant interviendra au sein d’une équipe Data/BI dans un environnement agile. Missions principales Concevoir et développer des flux ETL/ELT sous Talend Assurer l’intégration de données issues de sources hétérogènes (API, fichiers, bases de données) Modéliser et alimenter des Data Warehouse / Data Marts Optimiser les traitements et les performances des flux existants Mettre en place des règles de Data Quality et de contrôle des données Gérer les déploiements et versions via Git / CI-CD Participer à la mise en production et au suivi des traitements Documenter les flux et assurer la maintenabilité des solutions Collaborer avec les équipes BI, Data Engineering et métiers Compétences techniques requises Maîtrise de Talend (DI / Cloud / ESB selon contexte) Bonne maîtrise du SQL (Oracle, PostgreSQL, SQL Server…) Expérience en modélisation de données (DWH, DataMart, ODS) Connaissance des API REST / JSON / XML Git (versioning) et notions CI/CD Connaissance d’un cloud (AWS, Azure ou GCP) appréciée Connaissance d’outils BI (Power BI, Tableau) est un plus Compétences appréciées (bonus) Snowflake / BigQuery / Databricks Kafka / streaming de données ELK (ElasticSearch, Logstash, Kibana) Java (routines Talend) Méthodologie Agile / Scrum Industrialisation de plateformes data
Freelance

Mission freelance
Expert Palantir (H/F)

Freelance.com
Publiée le
Python

3 mois
400-700 €
Paris, France
Dans le cadre d’une mission longue au sein d’une grande organisation internationale, nous recherchons un Expert Palantir Foundry afin de contribuer au développement d’applications orientées data. Le consultant interviendra sur la conception, le développement et l’industrialisation de solutions basées sur Palantir Foundry, notamment : Création et maintenance de pipelines de données Modélisation et gestion des datasets et ontologies Développement de composants Workshop / interfaces utilisateurs Intégration de systèmes et flux de données Participation aux projets de transformation data et digitalisation Collaboration étroite avec les équipes IT, Data et Métiers Rôle de référent technique sur la plateforme Palantir Foundry Le poste nécessite une forte capacité à évoluer dans des environnements complexes et internationaux, avec une approche orientée qualité, industrialisation et innovation.
CDI
Freelance

Offre d'emploi
Archi DevOps/FinOps pour EDF

Signe +
Publiée le

24 mois
55k-60k €
393-600 €
Paris, France
Mission : Data Architecte DEVOPS/FINOPS transverse avec une expertise GCP ++. Votre rôle sera de concevoir et de mettre en œuvre des architectures de données cloud robustes et performantes. Définir les standards architecture et les règles d'urbanisation Data, IA, DevOPs, MLOPS, IT & Cloud. Mettre en place la gouvernance des modèles et encadrer l'usage des LLM Gérer les risques éthiques et réglementaires. Rédiger, maintenir et diffuser les bonnes pratiques Data, OnPremise, Cloud et DevOPS. Définir et intégrer les principes FinOPS dès la conception des architectures. Préconiser les suivis de la performance Data IA et pour superviser les pipelines. Optimiser les coûts GPU & Cloud et aussi mettre en place un plan FinOps IA. Participer à la définition de modèles de refacturation. Expertise Requise: Solide maîtrise de GCP (BigQuery, Composer, Airflow, DataProc, DataFlow). Expérience avec Terraform, Git, Jenkin. Expérience en environnements hybrides (on-premise). Solide expérience en DevOPS, MLOPS (Git, GitLab, Gitlab-CI, GitOps, Helm, ML Pipelines etc.). Expérience significative sur les outils DevOPS, Orchestration, Conteneurisation (Terraform, Ansible, Docker, Kubernetes etc.). Solide maitrise de FinOps, Optimisation, Supervisions (ELK, Grafana, Prometheuse, Google Monitoring etc.) 2-3j/semaine sur site Compétences techniques requises : Google Cloud Platform data architecture MLOps Google Cloud BigQuery DevOps Composer Apache Airflow
Freelance

Mission freelance
Marketing Cloud Next (Sr.) Engineer (h/f)

emagine Consulting SARL
Publiée le
Salesforce

1 an
Paris, France
COMPÉTENCES TECHNIQUES • Plateforme Marketing Cloud Next — configuration de l’org, Journey Builder, Automation Studio, messagerie transactionnelle, envois multicanaux (email, push, SMS, in-app) • Personnalisation email à grande échelle — blocs de contenu dynamiques, logique de personnalisation AMPscript/SSJS, rendu piloté par Data Extensions, personnalisation en temps réel via l’activation des segments Data 360 • Marketing agentique sur tout le funnel — conçoit et met en place des points d’entrée de parcours déclenchés par des agents ; intègre les signaux Agentforce (risque de churn, intention d’upsell) dans la logique des campagnes MC Next pour des communications autonomes et contextuelles • Mesure & ROI marketing — configure les événements de tracking MC Next (ouvertures, clics, conversions) alimentant Data 360 ; construit des structures de données prêtes pour l’attribution, exploitables dans les tableaux de bord ROI Tableau Next • Boucle Data 360 + Tableau Next — ferme la boucle de mesure : Data 360 fournit des signaux d’audience et comportementaux en temps réel à MC Next ; Tableau Next restitue les performances de campagne et les revenus influencés par les agents aux équipes marketing • Parcours d’onboarding & de réengagement — architecture de campagnes pour les parcours de récupération, logique de suppression, gestion du re-consentement, cadre de tests A/B • Délivrabilité & conformité — gestion de la réputation d’expéditeur, gestion du consentement et des désinscriptions, configuration conforme au RGPD, suivi des taux de rebond et de plaintes
Freelance
CDI

Offre d'emploi
Offre de mission d'un Recetteur et Analyst QOD sur Paris

EterniTech
Publiée le
Google Cloud Platform (GCP)
Microsoft SQL Server
QA

3 mois
Paris, France
Je cherche pour un de mes clients un Recetteur et Analyst QOD sur Paris Contexte de la mission : Dans le cadre du programme de transformation de la Data B2B (Polaris), Le client construit son nouvel espace de données sur la plateforme Groupe AIDA (Google Cloud Platform/BigQuery). La stratégie adoptée est une approche "Greenfield" en méthode scrum : reconstruction des produits de données (et non migration "Lift & Shift") depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI) en utilisant un framework interne : l'ELT HYDRA (s'appuyant sur DBT comme back-end) La prestation s'intègre au sein de la "Core Team", l'équipe transverse chargée de bâtir le socle technique et les données de référence (RCU=Référentiel Client Unique et les clés associées) qui serviront ensuite aux Squads Métiers pour bâtir leurs produits data Afin de sécuriser les livrables de chaque Sprint et de pallier le manque de maturité data des systèmes amont, nous créons un poste dédié à la Recette Data et à la Qualité des Données (QoD). Objectifs/Descriptif de mission : Le consultant agira comme le "Bouclier Qualité de la Donnée" de la Core Team et des Squad métier. En support direct des Product Owners et du Scrum Master, la prestation consistera à : 1) Recetter les livrables produits data : Valider que les tables générées dans BigQuery respectent les règles de gestion définies par les PO lors des Sprints. 2) Traquer la dette Data (Data Profiling) : Écrire des requêtes SQL complexes pour profiler les données sources et cibles (détection de doublons, calcul des taux de valeurs nulles, incohérences de formats, ruptures d'intégrité référentielle). 3) Automatiser les contrôles QoD : Traduire ces règles de gestion en scripts/assertions SQL qui seront intégrés dans notre framework d'orchestration ELT (Hydra) pour un contrôle continu (à chaud et à froid). 4) Alerter et documenter : Remonter factuellement les anomalies de données imputables aux systèmes sources B2B (CRM, Facturation) pour forcer les arbitrages métiers. Livrables attendus Activités / Lots Résultats attendus / Livrables associés Planning / Date de livrables Data Profiling & Audit Amont : Exploration en SQL avancé des données brutes issues du legacy B2B. L'objectif est d'identifier les anomalies avant la modélisation Requêtes SQL d'audit (Data Profiling) Cartographie des anomalies sources (Identification de la "Dette Data" amont) Recommandations techniques au PO pour adapter les règles de gestion du RCU. En amont et au début de chaque Sprint Ingénierie des tests et implémentation QoD (Framework Hydra) : Traduction des règles de gestion métier et des critères d'acceptation du Product Owner en tests techniques automatisés dans le Framework HYDRA. Scripts SQL de tests de QoD "à chaud" et "à froid" (assertions : unicité, non-nullité, bornes de valeurs, check croisés) Intégration des règles de Qualité (QoD) dans le code ELT (Hydra) Documentation des règles de contrôle dans le Data Catalog (AIDA / ODG). Continu (Pendant le Sprint) Recette Backend & Validation des livrables Core Team Test et validation des tables physiques générées par les Data Engineers à la fin de chaque itération. Cahier de recette technique (Cas de tests documentés dans Jira). Requêtes SQL de validation finale (UAT Backend) Bilan de recette (Go / No-Go technique) autorisant l'exposition de la table aux Squads Métiers. À la fin de chaque Sprint (toutes les 3 sem.) Monitoring de la Dette Data & Exposition (Cockpit QoD): Mise en place d'un suivi de la santé des données. Vues SQL (Cockpit QoD) sur HYDRA monitorant la santé des données par domaine (Parc, Facturation, Client). Création et suivi des tickets d'anomalies (Jira) assignés aux fournisseurs de données (IT B2B) Continu / Sprint Review Compétences requises Compétences et expériences obligatoires : SQL Avancé (Niveau Expert) : Capacité à manipuler des millions de lignes, maîtriser les jointures complexes, les expressions régulières (Regex) et les fonctions analytiques pour traquer les anomalies. Mindset "QA / Testeur" appliqué à la Data : Esprit critique, rigueur extrême, capacité à imaginer les "cas aux limites" (Edge cases) pour faire crasher les modèles. Compréhension Fonctionnelle B2B : Capacité à comprendre une règle métier (ex: le cycle de vie d'un contrat) pour la traduire en test technique. Agilité & Environnement Backend : Habitude de travailler en Sprints courts avec des livraisons fréquentes sur des socles de données Cloud (Architecture dénormalisée, tables Pivots). Compétences souhaitées Connaissance du secteur Télécom : Compréhension des produits et services Telecom (fixe/mobile). Google Cloud Platform (GCP) : Pratique courante de BigQuery (requêtage orienté colonnes, champs imbriqués) et le FINOPS associé Frameworks ELT : Connaissance des transformations "in-database" 100% SQL (type dbt, Dataform) pour une prise en main rapide de notre framework interne (Hydra). Savoir-être : Esprit "Crash-Test" & Rigueur : Posture de traqueur d'anomalies. Ne pas se contenter du cas nominal, chercher systématiquement les cas aux limites (Edge cases). Fermeté & Posture de "Bouclier" : Courage de remonter la dette Data aux systèmes sources (IT B2B) sans chercher à corriger manuellement une donnée corrompue en amont. Esprit de synthèse : Capacité à vulgariser les problèmes techniques de qualité (QoD) pour forcer les arbitrages des Product Owners Métiers. Pragmatisme : Livrer de la valeur incrémentale. Expérience : > 7 ans Localisation : 16 Rue du Général Alain de Boissieu A Exclure : Ce que nous ne cherchons PAS : PAS de Testeurs QA "Logiciel/Web" : Nous ne voulons pas de testeurs d'interfaces graphiques (IHM). ). Le travail se passe à 100% dans la base de données. PAS de profils BI / Dataviz : La recette ne se fait pas visuellement sur Power BI ou Tableau. Elle se fait par le code (SQL). PAS de Scrum Masters ou PMO : Le rôle est opérationnel ("Hands-on"
Freelance
CDI

Offre d'emploi
Product Owner IA

DATAMED RESEARCH
Publiée le
Agent IA
Natural Language Processing (NLP)
OCR (Optical Character Recognition)

24 mois
Paris, France
Contexte Intervention au sein d’une équipe Data / IA en forte croissance, avec des enjeux autour de la valorisation des données, de l’industrialisation des cas d’usage IA et de l’alignement avec les besoins métiers. Missions principales Recueillir, analyser et prioriser les besoins métiers liés aux cas d’usage IA Construire et piloter la roadmap produit IA Rédiger les user stories et gérer le backlog produit Collaborer étroitement avec les équipes Data Scientists, Data Engineers et métiers Suivre le développement des modèles IA (ML, NLP, etc.) et leur mise en production Garantir la valeur business des solutions développées Mettre en place des KPIs de suivi de performance des modèles Assurer la communication avec les parties prenantes (métiers, IT, direction)
CDI

Offre d'emploi
Product Owner IA - Paris H/F

Webnet
Publiée le
Gestion de projet
Intelligence artificielle
Python

48k-55k €
Paris, France
Dans le cadre du développement de solutions basées sur l’intelligence artificielle chez nos client grands compte, nous recherchons un Product Owner IA capable de piloter la conception et la mise en production de produits intégrant des technologies d’IA et de data. Vous travaillerez au cœur d’équipes pluridisciplinaires composées de développeurs, data scientists, designers et experts métier. Vous aurez pour missions : Définir et piloter la vision produit autour des solutions d’intelligence artificielle Recueillir et prioriser les besoins métiers et utilisateurs Rédiger et maintenir le product backlog et les user stories Travailler en étroite collaboration avec les équipes Data / IA / Engineering Prioriser les fonctionnalités en fonction de la valeur business et de la faisabilité technique Suivre les cycles de développement en méthodologie agile (Scrum / Kanban) Participer à la définition des KPIs produit et à l’analyse de la performance Assurer la communication avec les parties prenantes internes et externes
Offre premium
Freelance
CDI

Offre d'emploi
Consultant Pre Trade Pricing Tools C#.NET H/F

ADONYS
Publiée le
ASP.NET
C#

1 an
40k-45k €
400-550 €
Paris, France
Dans le cadre d'une régie longue durée, nous sommes à la recherche d'un Consultant Pre Trade Pricing Tools C#.NET H/F 🎯 Contexte de la mission Vous travaillerez sur un outil permettant au Front de l’aider à gérer son risque de contrepartie, Vos missions: Participation au projet afin de répondre aux besoins de refonte des outils de pricing avec l’équipe des analystes quantitatifs en mettant en oeuvre une architecture micro-services, Mise en oeuvre de l’API market data permettant de récupérer différentes données de marché (interet rate, forex, zero coupon, equity et commodity) en se basant sur la bibliothèque ARM via summit, Mise en oeuvre de l’API legal data permettant de récupérer les données réglementaires de contreparties (CSA & master agreement), Maintenance corrective des composants de calcul MtmForward et mise à jour de l’API d’initial margin LCH., Support de la production quotidienne afin de détecter les éventuelles anomalies, suivi et analyse avec le desk de trading. Participation à l’amélioration de la couverture des tests unitaires des composants de calcul, Préparation, demande et suivi de livraison et la mise en production Environnement technique : C#.NET, .Net Core API 6, LINQ, data warehouse Apache Hive, Git, Jenkins, XlDeploy, Bitbucket, base de données NoSql Couchbase Entreprise Edition 6.6.0, Log4net, JSON, Design, Visual studio 2019/2022, SQL, SQL Server, Sybase, Oracle, SQLDbx, SSAS, Swagger, Nswag, IIS7, Windows 10, Windows Server 2012. Environnement fonctionnel : produits dérivés Equity, Commodity, forex et Fixed Income.
Freelance

Mission freelance
CDP Infrastructure (NF)

SKILL EXPERT
Publiée le
Master Data Management (MDM)

1 an
400 €
Paris, France
Descriptif de la mission : En tant que cheffe de projet IT, piloter plusieurs projets techniques et applicatifs, depuis la phase d’étude jusqu’au déploiement en production, dans un contexte ministériel complexe et multisite. La mission couvre la gestion complète du cycle de vie projet, l’animation des parties prenantes, et le pilotage des équipes techniques internes et externes Contexte et expression de besoin client : - Gestion de projet des postes iMac OS de la DICOM avec l'infrastructure MLDM , gestion des patch de sécurité et de l'antivirus des poste iMAC OS. - Gestion de la migration de l'outil de chiffrement Cryhod vers Bitlocker - Mise en place de l'outil de sécurisation des poste de travail WDAC sur les postes Windows 11 - Mise en place des mot de passe BIOS sur tous les postes du ministère de la justice - Compte rendu d'activité Hebdo et recap mensuel
Freelance

Mission freelance
Développeur Azure Databricks (Pré-embauche)

SQLI
Publiée le
Databricks

6 mois
400-600 €
Paris, France
Bonjour, Pour le compte de l'un de mes clients parisiens, je suis à la recherche d'un développeur AAzure Databricks en pré-embauche. La mission : En tant que Développeur / Data Engineer Azure Databricks, vous intervenez au cœur de la Data Factory Entegra pour concevoir, développer et industrialiser les pipelines de données critiques du groupe. Vous travaillez en étroite collaboration avec : Le Head of Data, le Tech Lead Data, les équipes métiers et IT locales (France, UK, IT, ES, NL…), & les équipes partenaires. Responsabilités principales : Concevoir et développer des pipelines de données robustes et scalables sur Azure Databricks (PySpark, Delta Lake) Mettre en œuvre les chaînes d’ingestion, transformation et exposition des données (Bronze / Silver / Gold) Participer à l’industrialisation des traitements data (qualité, monitoring, performance, reprise sur incident) Contribuer à la structuration du socle Data Factory et aux bonnes pratiques de développement Documenter les développements et garantir la qualité du code et la maintenabilité. Travailler avec les équipes régionales pour : Comprendre les besoins fonctionnels, Accompagner la montée en compétences, Assurer le transfert de connaissances, Intervenir dans un contexte international, avec une forte dimension métier et “customer facing”.
Freelance

Mission freelance
Architecte Réseau et Sécurité Datacenter

PROPULSE IT
Publiée le

24 mois
450-900 €
Paris, France
PROPULSE IT recherche un Architecte Réseau et sécurité Datacenter. Le client souhaite renforcer son équipe par un architecte réseau et sécurité Datacenter, afin de l'assister dans la conception, mise en oeuvre et industrialisation réseau au sein des datacenters. - Etude et analyse des opportunités d'évolution des infras Réseau & Sécurité - Mise en œuvre de projets d'infras réseau & sécurité - Support technique sur les technologies réseau & sécurité Les compétences techniques attendues sont les suivantes : - Expertise réseaux LAN : Cisco Fabric Path/VxLAN, - Expérience Système : Redhat linux 8, Windwos 2019 - Expériences en études et déploiement de réseaux Telecom Les compétences fonctionnelles attendues sont les suivantes : - Conception des architectures et expertise - Rédaction/ Enrichissement de base de connaissances - Reporting de l'activité projet au management
Freelance

Mission freelance
Business Analyst SI – Technico-Fonctionnel

TEOLIA CONSULTING
Publiée le
Business Analyst
Cypress
Node.js

12 mois
370-500 €
Paris, France
Dans le cadre du renforcement d’une équipe en charge d’un produit digital à forte volumétrie de données, notre client recherche un Business Analyst technico-fonctionnel . Vous interviendrez au sein d’une équipe Agile composée de profils MOA et MOE, sur un périmètre mêlant gestion de données, interfaces externes et amélioration continue du produit . La mission implique également une collaboration étroite avec une équipe Big Data en charge de l’alimentation des données issues de flux externes. Missions Recueillir, analyser et formaliser les besoins métiers Rédiger et affiner les User Stories Participer aux cérémonies Agile (daily, sprint, review, etc.) Contribuer à la définition fonctionnelle des évolutions Réaliser les recettes fonctionnelles et TNR Mettre en œuvre des tests automatisés (Cypress / Typescript) et manuels Assurer le suivi des mises en production et du RUN Produire du reporting auprès du PO / PM Interagir avec les équipes techniques (MOE, Data) Réaliser des requêtes SQL pour analyse et validation des données Environnement technique : Méthodologie : Agile Outils : Jira, Confluence Tests : Cypress, Typescript, Gherkin Data : SQL (Hue / Impala, DBeaver, Squirrel) IDE : VSCodium / NodeJS Environnement SI complexe et multi-applicatif

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

426 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous