Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris
Ce qu’il faut savoir sur Big Data
Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.
Mission freelance
ARCHITECTE DATA / BI
Bonjour, Pour le compte de notre client, nous recherchons un Architecte Data / BI. 🎯 But du projet Mettre en place une donnée fiable, robuste et gouvernée , permettant de soutenir la croissance client et de disposer d’une BI performante, maintenable et alignée avec les enjeux métiers . L’objectif global est de : Réaliser un état des lieux complet de l’environnement Data (technique, organisationnel et fonctionnel), Identifier les points de faiblesse et les opportunités d’amélioration , Définir une vision cible à 3–5 ans (schéma directeur Data), Recommander les bonnes pratiques et les outils adaptés , en tenant compte à la fois de l’écosystème Microsoft (Power BI, SQL Server, Azure) et Open Source , Aligner la stratégie Data sur la croissance business et les besoins des métiers (Marketing, Facturation, Supply, Procurement). 🔍 État actuel et contexte technique Architecture et sources : 3 principales sources de données : Open Bravo (ERP / gestion opérationnelle) Magento (e-commerce) SAP BI Design (reporting financier) Environ 30 tables , avec 500 000 lignes / an chacune (volumétrie modérée mais non négligeable). Pas de datamart complet et enrichi , architecture fragmentée. Stack BI : Power BI pour le reporting, mais performances dégradées et pas de mise à jour temps réel sur certains indicateurs clés (notamment CA e-commerce ). Problématiques techniques : Flux SQL complexes et peu optimisés , générant des lenteurs et un risque d’erreur. Manque de gouvernance de la donnée (règles de gestion hétérogènes, absence de traçabilité claire du cycle de vie des données). Pas d’unicité de la donnée → incohérences possibles entre sources. Dépendance forte aux sources brutes , sans couche d’intégration stable (Data Warehouse/Data Lake structuré manquant). ⚠️ Points critiques identifiés Manque de vision globale de l’écosystème Data : absence de cartographie claire des flux, processus, et responsabilités. Architecture sous-optimale : pas de modèle de données central (datamart/warehouse) consolidant les flux multi-sources. Performance Power BI insuffisante : SQL non optimisés, données non préparées, calculs coûteux. Gouvernance et qualité de données à structurer : pas de cadre formalisé de validation, de définition des KPIs ni de dictionnaire de données. Dépendance aux équipes techniques pour chaque évolution de reporting. Pas de benchmark / comparaison sectorielle pour ajuster la stratégie Data à la croissance du groupe. Rapport d’audit Data (état des lieux complet, points critiques, volumétrie, architecture actuelle) Schéma directeur Data cible à 3–5 ans Recommandations techniques (Microsoft & Open Source) Feuille de route priorisée (actions court, moyen, long terme) Benchmark sectoriel (KPI, modèles de gouvernance, architecture comparée)
Mission freelance
Consultant(e) Data Privacy & Compliance
Métier : Pilotage de projet ou de programme Fonction : Consultant Spécialités technologiques : Conduite du changement RGPD Cybersécurité Gestion des projets Migration de données Type de facturation : Assistance Technique (facturation au taux journalier) Compétences : Technologies et Outils : Amazon Méthodes / Normes : Adapter Soft skills : Autonomie, Rigueur Langues : Anglais Secteurs d'activités : Assurance Description de la prestation : Le consultant intervient pour renforcer la gouvernance et la conformité des données personnelles dans un environnement international. Il soutient l’équipe Data Privacy dans la mise en œuvre des politiques de protection des données, la gestion des projets de conformité et la coordination transversale entre entités. Principaux axes d’intervention : Gouvernance et conformité : Adapter et déployer les politiques internes selon la réglementation (RGPD, etc.) Maintenir le registre de traitement et assurer la conformité documentaire Contribuer aux contrôles permanents et suivre les audits internes Participer aux comités de gouvernance et faire le reporting Accompagnement des projets et support aux équipes : Apporter un appui opérationnel sur projets liés aux données personnelles (nouveaux produits, migrations, IA, cloud) Réaliser ou contribuer aux Data Privacy Impact Assessments (DPIA) et évaluations de conformité Soutenir la due diligence et évaluation fournisseurs (Microsoft, Amazon, Cyber) Participer à la distribution des produits Data Privacy Faire interface avec les équipes gestion des incidents et demandes d’accès Transformation et conduite du changement : Accompagner la montée en maturité sur Data Privacy Contribuer au déploiement de la plateforme OneTrust (migration, paramétrage, intégration) Promouvoir bonnes pratiques et optimiser les processus
Offre d'emploi
Project Manager - Data & AI
Compétences techniques : Expertise on Generative AI, machine learning, and related technologies. Expertise in PMP, PRINCE2, or similar is preferred. Proficiency in project management tools and methodologies. Familiarity with the insurance industry or related sectors (claims, underwriting, health) is advantageous. Compétences autres : Proven expertise in project management within AI, data science, or technology-driven environments. Expertise managing cross-functional teams and multiple workstreams. Stakeholder management and organizational expertise Strategic and problem-solving expertise . English environment Innovative environment Site : Paris, 2 jours/ semaine sur site Prix d'achat max : 780 €HT Date de démarrage : asap Durée mission : 14 mois (fin 31/12/2026) Profil : Project Manager – Data& AI Anglais obligatoire
Mission freelance
Data Platform Engineer - Terraform
Bonjour, Nou recherchons pour l'un de nos clients intégrateurs un ingénieur plateforme de données. Description du poste : En tant qu'ingénieur plateforme de données, vous êtes spécialisé dans la conception, le développement et la maintenance de l'infrastructure sous-jacente qui prend en charge les pipelines de données et les applications basées sur les données d'une organisation. Vos responsabilités sont hautement techniques et consistent à créer un écosystème de données robuste, évolutif et fiable.
Mission freelance
Data Analyst / Data Engineer
Mission / Freelance / 4/5ème / France / Paris / Data Analyst / Data Engineer / Marketing / GCP / Looker Boulogne-Billancourt (2j sur site / 3j remote) Démarrage : ASAP Mission estimée sur +/- 4 mois ; renouvellements mensuels Rythme : 4/5e (pas de travail le vendredi) ou temps plein Contexte Nous accompagnons un client qui recherche actuellement un freelance Data Analyst / Data Engineer pour rejoindre son équipe en charge des campagnes marketing. L’objectif : mesurer la performance des campagnes marketing, suivre les leads générés jusqu’aux ventes, et piloter la donnée de bout en bout. Vos missions Rattaché(e) à l’équipe Data & Marketing, vous interviendrez sur : La construction et l’optimisation de dashboards (Looker, Power BI ou équivalent) Le développement de scripts Python pour le traitement et la préparation de la donnée La mise en place et l’orchestration de pipelines de données (GCP / Azure) L’analyse de performance des campagnes et la production d’insights exploitables La visualisation et la communication des résultats aux équipes marketing Profil recherché Vous justifiez d’au moins 2 ans d’expérience professionnelle sur un rôle de Data Analyst ou Data Engineer Vous avez déjà travaillé dans un contexte marketing / performance / acquisition Vous maîtrisez : Looker (ou Power BI / Data Studio) Python pour le traitement de données Un cloud provider : GCP (idéalement) ou Azure Vous êtes rigoureux(se), analytique, et à l’aise pour manipuler des volumes de données variés Si cette opportunité vous intéresse, je vous laisse y postuler ou me contacter directement (Christopher Delannoy)
Offre d'emploi
Data Analyst / Analytics Engineer (Futur Lead Data)
Sublimez l’usage de la donnée au sein de la plateforme Sincro Solutions Sincro Solutions est un éditeur de logiciels SaaS qui propose un écosystème interconnecté couvrant l’ensemble des besoins des acteurs de la prestation intellectuelle. Nos solutions VMS , ERP et SRM accompagnent la gestion des talents de bout en bout : de l’analyse de CV à la facturation, en passant par la comptabilité d’entreprise et la gestion de projet. Rejoindre Sincro Solutions , c’est participer à un projet unique, intégré et 100 % agile , dans un contexte de forte croissance. Vous évoluerez dans un environnement stimulant, qui réunit les technologies, langages, infrastructures, outils et méthodes les plus performants du marché . Missions principales Rôle et positionnement En tant que Data Analyst / Analytics Engineer , vous rejoignez le pôle Produit et intégrez l’équipe technique en charge de la construction de nouvelles fonctionnalités et de l’optimisation des performances des outils mis à disposition de nos clients internes et externes. Rattaché·e à l’ Engineering Manager , vous interviendrez principalement sur le Cloud Microsoft Azure . Ce poste représente une opportunité unique de créer la fonction Data chez Sincro Solutions et d’en devenir, à terme, le Lead Data . Analytics Engineering En tant qu’Analytics Engineer, vous jouerez un rôle clé dans le développement et la gestion du Data Lake / Data Warehouse utilisé par nos produits et nos clients. Vos responsabilités incluent notamment : Assurer la qualité des données : garantir des données propres, sécurisées et anonymisées dès leur entrée dans le système, en collaboration avec les équipes Data Engineers, ML Ops et Développement. Développer et maintenir des pipelines de transformation : concevoir et maintenir des flux de données en SQL et Python , sur BigQuery ou équivalents. Vous transformerez les données générées par nos clients et les enrichirez avec des sources tierces. Améliorer et documenter les flux de données : faire évoluer les pipelines selon les besoins métiers et techniques, tout en assurant une documentation claire et à jour sur la traçabilité des données. Data Analysis Vous soutenez l’équipe Data & Performance dans l’analyse et l’exploitation des données afin de favoriser la prise de décision stratégique et la compréhension des indicateurs clés . Vos missions principales : Création et maintenance de dashboards Power BI Explorer le Sincro Data Warehouse et concevoir des KPIs pertinents . Développer et maintenir des dashboards Power BI à destination des équipes métier et des clients. Conseiller les Product Owners et les utilisateurs sur les meilleures pratiques de data visualisation . Analyse et interprétation des données Produire des reportings et analyses pour soutenir la stratégie d’entreprise. Identifier et comprendre les dynamiques métiers : recrutement, pipeline commercial, sourcing de talents, contractualisation, facturation, comptabilité, etc. Profil recherché Expérience et formation Minimum 4 ans d’expérience en data analyse ou analytics engineering. Formation Bac +5 (école d’ingénieurs, master Big Data, mathématiques/statistiques ou équivalent). Bonne compréhension des enjeux de gestion d’entreprise . Une expérience en DataOps est un réel atout. Qualités personnelles Organisé·e, rigoureux·se, curieux·se et autonome. Excellente communication écrite et orale, esprit d’équipe et aisance relationnelle. Bon niveau d’anglais (oral et écrit). Goût pour l’apprentissage et l’autoformation, notamment sur des aspects techniques. Compétences techniques Domaine Compétences attendues BI / Data Visualisation Maîtrise indispensable de Power BI SQL Solide expérience en manipulation de données ( BigQuery, MySQL, Fabric , etc.) ETL / Data Transformation Expérience avec Azure Data Factory , dbt , Dataiku ou équivalents Comptabilité & Finance d’entreprise Connaissances en analyse de données dans ces domaines appréciées Langages Bonne maîtrise de SQL , notions de Python appréciées Machine Learning Connaissances de base bienvenues Ce que nous vous offrons Une place centrale dans la construction de la culture Data chez Sincro Solutions. Un projet stimulant , à fort impact, dans un environnement technique exigeant et bienveillant. Une autonomie réelle dans l’organisation de votre travail et vos choix techniques. Des collaborateurs engagés et une équipe attachée à la qualité, à la coopération et à la montée en compétence continue.
Offre d'emploi
Tech Lead Data
Mission Freelance – Tech Lead Data Client : secteur Minéraux / Industrie Localisation : Paris 16ᵉ Télétravail : 1 à 2 jours par semaine Équipe : environ 10 collaborateurs Durée : 6 mois minimum Contexte et enjeux Le client engage une transformation data ambitieuse avec la mise en place d’une Data Factory moderne et scalable basée sur Microsoft Fabric . Le dispositif repose sur trois volets complémentaires : Program Management – pilotage global et coordination. Tech Enablers – construction des fondations techniques de la plateforme. Data Use Cases – livraison de cas d’usage métiers à fort impact (supply chain, finance, production, etc.). L’objectif est double : livrer rapidement 2 à 3 cas d’usage prioritaires et structurer une organisation agile et durable , intégrée à l’écosystème Azure. Rôle : Tech Lead Data En tant que référent technique , vous jouerez un rôle clé dans la conception, la structuration et la mise en œuvre de la Data Factory. Vous serez le garant de la cohérence technique et du bon niveau d’exécution des équipes. Missions principales : Piloter la mise en œuvre technique des cas d’usage et assurer leur intégration dans la plateforme cible. Encadrer et accompagner une équipe de 2 Data Engineers et 1 Analytical Engineer. Définir les standards d’architecture, bonnes pratiques et guidelines techniques. Garantir la qualité du code, des pipelines et des livrables. Participer activement aux décisions d’architecture et aux revues techniques. Contribuer à la mise en place d’une gouvernance agile structurée (PI Planning, rituels d’équipe). Environnement technique Cloud & Data Platform : Microsoft Fabric, Azure Traitement & Intégration : Spark, Data Factory, Synapse Langages : Python, SQL, Scala CI/CD & Infrastructure as Code : Git, Terraform Méthodologie : Agile SAFe / Scrum Profil recherché Expérience confirmée en tant que Tech Lead ou Architecte Data (5+ ans) , idéalement dans un environnement Microsoft. Maîtrise des architectures cloud Azure et des pipelines de données (ETL/ELT). Leadership technique, sens du collectif et goût du mentoring. Bonne compréhension des enjeux d’intégration et de gouvernance data. Anglais courant, environnement international. Atouts de la mission Projet stratégique et structurant : construction d’une Data Factory from scratch. Rôle clé dans la définition de l’architecture et des standards techniques. Environnement de travail moderne et exigeant, favorisant l’excellence technique.
Mission freelance
Ingénieur de production - Data / GCP
Notre client, un grand groupe bancaire, souhiate intégrer un profil d"ingénieur de production au sein de sa plateforme Data & Analytics Cloud , qui centralise les usages de reporting, data science et data management pour l’ensemble du groupe. Au sein du service Power BI Cloud et Data Platform , vous intégrerez l’équipe en charge de l’exploitation et de la fiabilité des environnements de production supportant plusieurs milliers d’utilisateurs et applications Missions : En tant qu’ Ingénieur de Production , vous participerez à la supervision, au maintien en conditions opérationnelles et à l’automatisation des services data et BI du groupe. Vos activités clés : Assurer l’ exploitation courante de la plateforme Power BI Cloud et des environnements Data (GCP). Gérer les déploiements applicatifs et les changements via XL Deploy . Participer à la mise en place d’infrastructures automatisées (Infrastructure as Code – Terraform ). Superviser les traitements de données et les flux d’ingestion sur BigQuery . Contribuer à la gestion des accès utilisateurs et à la sécurisation des environnements . Participer au diagnostic et à la résolution d’incidents en lien avec les équipes projet et data. Collaborer aux activités Build et à la mise en production de nouveaux services en mode Agile / DevOps . Être force de proposition pour l’amélioration continue , l’ industrialisation et la fiabilité des process d’exploitation Stack technique : Power BI Cloud (SaaS, administration et gouvernance) GCP : BigQuery, IAM, monitoring, déploiement de services Data Terraform (IaC) XL Deploy , intégration et automatisation des déploiements Scripting : Bash / Python / PowerShell Supervision et observabilité (outils du marché ou internes)
Mission freelance
Architecte d'Entreprise Data
Réaliser des études de transformation cible du SI de bon niveau managérial et dans une démarche d'architecture d'Entreprise Assurer une cohérence dans la définition de la solution en respect du cadre et des référentiels et en tenant compte des exigences non fonctionnelles Instruire avec le métier, les experts techniques, architectes les scénarios d'architecture, les estimations de couts "T-Shirt Sizing" et les différentes trajectoires pour parvenir à la cible Faire valider la solution cible auprès de la direction DSIN Accompagner les Directions SI et Métiers dans le processus de construction de leur stratégie de transformation SI (Schéma Directeur SI) et Feuille de route associée. Alimenter, documenter et cartographier les référentiels et principes d'architecture
Mission freelance
Data platform engineer (snowflake Terraform)
Hanson Regan is looking for a Data platform engineer (snowflake Terraform) for a 6 month mission based in Remote As data platform engineer, you're specialized focused on the design, development, and maintenance of the underlying infrastructure that supports an organization's data pipelines and data-driven applications. Their responsibilities are highly technical and revolve around creating a robust, scalable, and reliable data ecosystem. •Skills required: -Strong hands-on experience with Snowflake platform internals and best practices -Proven experience designing and implementing -Terraform modules for Snowflake and cloud resources -Familiarity with Git-based CI/CD workflows and automated infrastructure testing -Experience with secrets management solutions (HashiCorp Vault, AWS Secrets Manager, Azure Key Vault, GCP Secret Manager) -Deep knowledge of terraform -Comfort with devops / jira apps En raison des exigences du client, les freelances doivent pouvoir travailler via leur propre société française (SASU, EURL, etc.), car nous ne pouvons malheureusement pas accepter les solutions de portage pour cette mission. Merci de nous contacter au plus vite si vous êtes intéressé
Mission freelance
Ingénieur Production Data
Le Data Office a pour mission de consolider, manager et valoriser le patrimoine de données, qui est un capital stratégique pour mon client, via le développement de produits et services data transverses à l’entreprise et au service du business. Au sein du Data Office, la mission de l’équipe Core Data est de développer et maintenir une plateforme centralisée, sécurisée, fiable et performante au service des usages data de l’ensemble des directions métier de mon client. Elle est notamment responsable d’un datalake opérationnel sur le cloud AWS et d’un patrimoine applicatif de jobs de transformation et production de données (Scala Spark). Elle assure également la maintenance de la plateforme Dataiku. Dans le cadre de son activité, mon client recherche un(e) Ingénieur de Production Data, qui sera amené(e) à intervenir à l’intersection des enjeux Infra DevOps sur AWS et Big Data, et collaborera en étroite synergie avec l’architecte cloud, le tech lead et les data engineers.
Offre d'emploi
Data Analyst Power BI
Contexte & Objectif de la mission Dans le cadre du renforcement du pôle Data de notre client du secteur assurance, nous recherchons un Consultant Power BI confirmé pour contribuer à l’évolution et la maintenance de la plateforme décisionnelle. Vous interviendrez au sein du domaine Data, en collaboration avec les équipes métiers et techniques, afin de concevoir des tableaux de bord performants, fiabiliser les traitements et améliorer la visibilité des indicateurs stratégiques. Rôles & Responsabilités Prendre en main l’écosystème décisionnel et les environnements Data existants. Concevoir, maintenir et documenter des rapports et tableaux de bord Power BI adaptés aux besoins métiers. Garantir la qualité, la performance et la fiabilité des visualisations et modèles de données. Participer à la modélisation et à l’optimisation des datasets Power BI. Collaborer avec les équipes Data pour assurer la cohérence des flux et des sources. Produire la documentation technique et fonctionnelle des rapports et traitements existants. Suivre les anomalies, demandes d’évolutions et assurer leur résolution. Être force de proposition et autonome dans la prise en main du périmètre confié. Environnement technique Power BI Desktop – Power BI Service – DAX – Power Query – SQL
Mission freelance
Product Owner Technique – Data Platform
Mission principale : Nous recherchons un Product Owner (PO) technique pour accompagner le développement et le RUN de notre Data Platform . Vous serez en charge de qualifier les besoins, de participer aux rituels agiles et d’assurer la liaison entre les équipes Build et le RUN de la plateforme, en mode Agile. Responsabilités : Qualifier les besoins techniques et fonctionnels des différentes équipes Data. Participer aux rituels Agile : daily, sprint planning, backlog refinement, PI planning (sur 3 mois). Transformer les besoins identifiés en user stories et tickets Jira exploitables par les squads. Accompagner la construction et l’évolution de la Data Platform (environnements GCP, flux de données, pipelines). Assurer le suivi du RUN de la plateforme et identifier les priorités techniques et fonctionnelles. Travailler en coordination avec 4 à 5 squads organisées en trains pour les PI planning et sprints. Être un interlocuteur technique capable de dialoguer avec les équipes Dev, Data et Ops. Profil recherché : Expérience confirmée en Product Ownership , idéalement dans un contexte technique ou data. Compréhension des environnements cloud (GCP) et des flux de données. Capacité à transformer des besoins complexes en user stories / tickets techniques . Connaissance des méthodes Agile / SAFe et pratique des rituels (sprint planning, PI planning, daily, etc.). Esprit technique : ne pas avoir peur de discuter architecture, flux de données, pipeline, outils de production. Bon relationnel et capacité à collaborer avec plusieurs équipes simultanément. Une connaissance de la data (ETL, ingestion, stockage, pipelines) est un plus. Soft Skills : Organisation et rigueur dans le suivi des priorités. Capacité à synthétiser les besoins et à communiquer clairement. Curiosité technique et ouverture à l’innovation. Force de proposition pour améliorer les process et la plateforme.
Offre d'emploi
BUSINESS ANALYST SQL- Assurance Vie
Objectif : constitution et contrôle des déclaratifs réglementaires (FICOVIE en priorité, puis FATCA, IER, ECKERT, AGIRA/RNIPP). Missions principales Analyser les besoins & rédiger spécifications fonctionnelles détaillées. Concevoir des solutions, modéliser des traitements, définir des jeux de données. Élaborer stratégie & plan de tests, exécuter et suivre la recette. Support aux Data Engineers (Build & MCO). Contrôle qualité des déclaratifs avant dépôts (notamment FICOVIE). Suivi de production et résolution des anomalies. Pilotage : avancement, chiffrages, communication, respect des normes. Compétences clés Obligatoires : Assurance Vie / Prévoyance (5–8 ans exp.). Déclaratifs réglementaires (FICOVIE impératif). SQL confirmé. Data (qualité, mapping, transformations). Souhaitées : Connaissances Big Data. Pratiques Agiles / SAFe, Jira. Pilotage / lead fonctionnel. Anglais lu/écrit.
Mission freelance
Product Owner Data
Nous recherchons un un(e) Product Owner Data passionné(e) par les enjeux techniques et la gouvernance de la donnée, pour rejoindre un environnement data stimulant et exigeant à Paris , à partir de début 2026 . 🎯 Votre rôle : Piloter et animer une équipe de Data Engineers confirmés intervenant sur de nombreux flux et tables de données. Définir, prioriser et suivre les roadmaps produit data en étroite collaboration avec les équipes métiers et techniques. Garantir la qualité, la fiabilité et la performance des solutions livrées. Contribuer à la vision produit Data , en lien avec la stratégie globale de l’entreprise. Promouvoir les bonnes pratiques Agile (Scrum) au sein de l’équipe.
Mission freelance
Data Migration Lead (SAP S/4HANA Greenfield)
Contexte : Nous recherchons un Data Architect / Data Migration Lead pour rejoindre l’équipe Data & AI d’un acteur majeur de l’industrie des boissons, reconnu pour la qualité de ses produits et sa présence internationale. Missions principales : Piloter et coordonner le stream Data Migration dans le cadre d’un projet SAP S/4HANA Greenfield. Définir la stratégie de migration de données et assurer son alignement avec les autres streams du programme. Planifier, suivre et assurer le reporting des activités de migration. Coordonner les différentes parties prenantes (équipes techniques, fonctionnelles, métiers) sur les phases d’extraction, transformation et chargement des données. Superviser la conception et le développement des programmes de migration. Organiser et suivre les mocks de migration (planning, exécution, reporting). Compétences recherchées : Expertise en migration de données SAP (S/4HANA, Greenfield) . Solides connaissances en Data Architecture, Data Access, Data Taxonomy . Expérience en pilotage transverse avec équipes techniques et métiers. Très bon niveau d’anglais. Modalités : Mission longue durée (21 mois). Localisation : Paris, avec 2 jours de télétravail par semaine. 📩 Si vous êtes intéressé(e), merci de me contacter en partageant votre CV actualisé et vos disponibilités. 📍 Lieu : Paris (2 jours de télétravail par semaine) 🗓 Durée : 25/09/2025 – 30/06/2027 🌐 Langue : Anglais (obligatoire)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Big Data
Data scientist
Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.
Explorez les offres d'emploi ou de mission freelance pour Data scientist .
Découvrir les offresDéveloppeur·euse data (décisionnel / BI / Big Data / Data engineer)
Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.
Explorez les offres d'emploi ou de mission freelance pour Développeur·euse data (décisionnel / BI / Big Data / Data engineer) .
Découvrir les offresConsultant·e en architecture
Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.
Explorez les offres d'emploi ou de mission freelance pour Consultant·e en architecture .
Découvrir les offresData analyst
Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.
Explorez les offres d'emploi ou de mission freelance pour Data analyst .
Découvrir les offres