Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Paris

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 301 résultats.
Freelance

Mission freelance
Chef de Projet Technique Cloud & Data

Groupe Aptenia
Publiée le
Azure
CI/CD
Databricks

6 mois
350-650 €
Paris, France

Le client déploie un programme stratégique Global Data Platform afin de centraliser, sécuriser et automatiser la gestion de ses données. Le consultant interviendra au sein de la Software Squad pour concevoir, développer et maintenir les solutions logicielles supportant la plateforme. Participer à la conception et au développement des composants logiciels de la Data Platform. Développer et maintenir des applications web et API permettant la gestion des services et des données. Contribuer à la mise en œuvre des bonnes pratiques CI/CD et Cloud Azure . Collaborer avec les équipes Data, Réseau, Sécurité et Produit dans un environnement Agile international . Garantir la qualité, la performance et la sécurité des solutions livrées.

CDI
Freelance

Offre d'emploi
Data Engineer GCP

INGENIANCE
Publiée le
Azure DevOps
BigQuery
DBT

3 ans
60k-70k €
550-650 €
Paris, France

Nous recherchons un Data Engineer expérimenté pour rejoindre l'équipe Enterprise Management et Finance de notre client dans le secteur du luxe, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur d'une plateforme de données, responsable de l'ingestion et de la normalisation des données. Le rôle du data engineer sera de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Responsabilités : • Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management • Assurer la qualité et la conformité des données • Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues

Freelance
CDI

Offre d'emploi
Dev / Data Engineer orienté DevOps

VISIAN
Publiée le
Apache Spark
Control-M
Hadoop

1 an
45k-55k €
400-560 €
Paris, France

L'objectif de la mission est de renforcer une équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein d'une Squad : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets La mission principale de la prestation aura pour but de : traiter nos obsolescences de Framework (ex : springboot , spark2 ) moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : migration depuis tfs vers jenkins création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python )

Freelance

Mission freelance
DATA ENGINEER Cloud GCP

KEONI CONSULTING
Publiée le
BigQuery

18 mois
110-600 €
Paris, France

CONTEXTE : En pleine expansion, nous souhaitons renforcer l’équipe Data par de nouvelles expertises en data engineering et aider ainsi à la mise en place de solutions Big Data dans un environnement Cloud GCP. Cette équipe est composée d’un product owner et de data engineers. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données en batch, Apache Beam pour les traitements en streaming et Airflow pour l’orchestration. La stack inclut aussi les services BigQuery, Dataproc et PubSub de la Google Cloud Platform et Terraform pour la gestion de l’infrastructure. MISSIONS : Au sein de l’équipe Data et au cœur de la plateforme data, la prestation se déroulera en collaboration avec les experts métier de la donnée, les product owners, les data scientists ou encore les data managers. Cette plateforme repose sur une architecture Lakehouse construite sur la Google Cloud Plateform. En travaillant avec les autres Data Engineers de l’équipe, la prestation consistera à participer à : • La collecte et l’ingestion de différentes sources de données non homogènes • La mise en place de pipelines de traitement de données • Le développement des modèles de données • L’extraction et l’exposition des données du Lakehouse vers d’autres services • L’industrialisation des projets sur la GCP • La mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • La participation aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • La participation active aux différentes phases de grooming, cadrage et planification des tâches avec l’équipe

Freelance
CDI

Offre d'emploi
Business Analyst Data

Management Square
Publiée le
API
Azure DevOps
Data Lake

1 an
45k-48k €
420-460 €
Paris, France

1. Contexte de la mission Au sein de la Direction Informatique, nous cherchons à renforcer le département Data & Analytics avec un Business Analyst spécialisé dans la modélisation et l'analyse des données. L’équipe Data & Analytics gère le DataHub qui centralise les données des différents référentiels et applications et alimente l'ensemble des métiers pour des besoins de reporting réglementaires ou clients, des analyses via des outils analytiques type Power BI ou Power Query , ou des développements internes via APIs ou SQL . Un projet stratégique de refonte de l'infrastructure Data a été mené, reposant désormais sur la technologie Data Lake Azure Cloud . L’entreprise s’engage dans un chantier de migration des outils FtoB vers la plateforme intégrée d’un éditeur de renommée mondiale disposant de son propre modèle de données. 2. Description de la mission Vous intervenez dans l’équipe Data & Analytics pour poursuivre la transformation de l'entreprise en tant qu’ expert Data management au sein d’une équipe de 10 personnes. En tant qu’expert, vous serez force de proposition pour définir le modèle cible qui devra préserver le modèle historique afin de limiter les impacts métiers, sans renoncer aux bénéfices du modèle proposé par l’éditeur de la solution cible, consolidé sur l’expertise d’un très grand nombre d’asset managers. Les options retenues devront répondre : aux contraintes court terme (facilité d'intégration, délais, coûts, …) et long terme (évolutivité, coût de maintenance, risque de désynchronisation des modèles, …). Vous collaborerez avec les membres de l'équipe (Dev et Business Analyst) dans un environnement Agile , et à l’échelle, avec les autres équipes impliquées dans le projet de transformation.

Freelance

Mission freelance
Business Analyst Sénior Data H/F

Insitoo Freelances
Publiée le
Modélisation

2 ans
550-700 €
Paris, France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Business Analyst Sénior Data H/F à Paris, France. Les missions attendues par le Business Analyst Sénior Data H/F : L’équipe fonctionne en mode Agile Scrum, et utilise la méthodologie BDD (Behavior Driven Developpement) pour la rédaction des spécifications, et ainsi faciliter les échanges et le suivi avec les équipes de développements. En tant que Business Analyst sénior, Le consultant interviendra sur 2 périmètres de l’écosystème Applicatif du groupe  Axe 1 : Participation aux développements du Référentiel Applications du Groupe BPCE Le consultant aura la charge de l’analyse des nouveaux besoins émis par le CIO Office, des échanges avec les métiers, de la rédaction des spécifications, ainsi que du suivi des évolutions en lien avec les équipes techniques.  Axe 2 : Participation au projet de centralisation des Actifs IT du groupe La mission consistera également, dans un second temps, au développement de la nouvelle plateforme de gestion des actifs IT au sein du groupe.

Freelance
CDI

Offre d'emploi
DATA ANALYST Power BI / DataIku H/F

PROXIEL
Publiée le
Data analysis
Dataiku
PowerBI

1 an
50k-60k €
450-550 €
Paris, France

Nous recherchons pour notre client situé sur Paris un DATA ANALYST Power BI / DataIku H/F. Missions : · Collecte et préparation des données · Modélisation des données via Dataiku · Création de tableaux de bord et rapports avec Power BI · Optimisation des flux de données : automatiser et fiabiliser les pipelines dans Dataiku. · Collaboration avec les équipes métiers : comprendre leurs besoins et traduire les questions business en analyses. Profil : Vous êtes de formation supérieure Bac +5 en informatique. Vous possédez une expérience de minimum 5 ans. Avantages : Mutuelle – Prévoyance – Carte tickets restaurants.

Freelance

Mission freelance
Data Engineer Intégrateur

VISIAN
Publiée le
Apache Kafka
Dataiku
Javascript

2 ans
400-650 €
Paris, France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d’un Data Engineer afin d’accompagner la transformation des systèmes d’information et l’évolution des architectures data. Vos missions principales consisteront à : Maîtriser et mettre en œuvre l’ensemble des techniques et technologies composant une Data Platform. Accompagner les projets de collecte, transformation, stockage et mise à disposition de données issues de sources variées. Concevoir et déployer des outils et processus d’automatisation (CI/CD) pour les pipelines d’ingestion de données, qu’ils soient en batch ou en temps réel. Développer et maintenir des mécanismes de contrôle qualité garantissant l’intégrité et la fiabilité des données. Participer à la conception des solutions techniques et fonctionnelles en lien avec les équipes opérationnelles. Gérer le cycle de vie complet des données (flux, traitement, stockage). Automatiser les installations des socles techniques et assurer un support technique et fonctionnel, incluant l’analyse et la résolution des incidents. Contribuer à la rédaction de la documentation fonctionnelle, technique et d’exploitation en respectant les normes existantes. Environnement technique : Bases de données SQL/NoSQL Kafka Dataiku Python / SQL / Java Suite Elastic Zabbix Dynatrace Si vous êtes actuellement à l’écoute du marché, je vous invite à m’envoyer votre candidature. Bien à vous

CDI

Offre d'emploi
Data Scientist Produit

Twenty One Talents
Publiée le

50k-80k €
Paris, France

Vos missions incluront : Définir et suivre les KPIs pour améliorer la performance des produits phares. Concevoir et exécuter des tests A/B, analyser les résultats et proposer des actions concrètes pour améliorer les indicateurs. Analyser à grande échelle des données non structurées (voix et texte) pour en extraire des insights pertinents. Collaborer avec les équipes Tech, Customer Support et Sales pour aligner les améliorations produit avec les besoins des utilisateurs. Apporter de la méthode dans l’optimisation produit.

Freelance

Mission freelance
Data Analyst expert BI ETL

KEONI CONSULTING
Publiée le
Back-end
Google Dashboard
Reporting

18 mois
100-400 €
Paris, France

CONTEXTE Experience : 8 ans et plus Métiers Fonctions : Data Management, Data Analyst Spécialités technologiques : BI,ETL MISSIONS Le Data Analyst aura pour mission de structurer les fondations méthodologiques et techniques nécessaires à la diffusion d’indicateurs fiables et exploitables pour le département « Recherche Candidature et Rapprochement ». Il aura pour mission de centraliser les données issues de multiples sources, d’en assurer la transformation, puis d’industrialiser leur traitement au travers de pipelines performants, pour les visualiser dans Power BI, Qlik Sense, etc. Le Data Analyst aura potentiellement la charge de plusieurs domaines de données au sein du département RCR. En lien étroit avec l’architecte/expert data et les métiers, il sera responsable de la chaîne complète de traitement et de valorisation des données, depuis la compréhension du besoin jusqu’à la mise en production et la maintenance des applications décisionnelles. Il jouera un rôle clé dans cette dynamique, en prenant en charge la structuration des flux, l’optimisation des performances. Il devra allier expertise technique et compréhension des enjeux métiers pour garantir la qualité, la cohérence et la disponibilité des données. Appuyé par les standards et les outils mis à disposition par les équipes data transverses, il travaillera en forte autonomie sur les projets qui lui seront confiés. Expertise souhaitée - Recueil et formalisation des besoins métier - Animer des ateliers avec les utilisateurs métiers pour comprendre leurs enjeux et besoins en reporting, datavisualisation et indicateurs. - Rédiger des spécifications fonctionnelles et techniques (cahiers des charges, dictionnaires de données, définitions d’indicateurs). - Identifier et challenger les sources de données disponibles. - Prototypage et maquettes - Concevoir des maquettes d’écrans (wireframes, prototypes Power BI ou Qlik Sense) pour validation métier. - Proposer des choix de visualisation pertinents en fonction des usages (tableaux de bord stratégiques, opérationnels, analytiques). - Conception et modélisation des données - Définir et mettre en oeuvre la modélisation back-end : datamarts, hubs data, modèles dimensionnels (étoile,flocon) ou data vault. - Écrire et optimiser les requêtes SQL ou pipelines (via Dataiku ou autres outils ETL/ELT) pour alimenter les modèles. - Mettre en place des pré-calculs ou agrégations pour optimiser les performances. - Développement des applications décisionnelles - Développer les dashboards et rapports dans Power BI et/ou Qlik Sense en respectant les standards UX/UI et les bonnes pratiques data. - Paramétrer la sécurité des données : ségrégation de données (row-level security), restrictions d.accès en conformité avec la politique RGPD. - Garantir la performance et la fiabilité des restitutions. - Tests et recette - Concevoir et exécuter les tests unitaires et d’intégration. - Préparer et accompagner la recette métier. - Corriger les anomalies détectées. - Maintenance évolutive et corrective - Faire évoluer les applications existantes selon les nouveaux besoins ou changements réglementaires. - Surveiller la qualité des données et les performances. - Rédiger et maintenir la documentation technique et fonctionnelle. - Collaboration et amélioration continue - Travailler en étroite collaboration avec l’architecte data, les autres data analysts et l.équipe métier. - Participer aux rituels d’équipe.

Freelance

Mission freelance
Data Engineer AWS

RED Commerce - The Global SAP Solutions Provider
Publiée le
AWS Cloud
Data Lake
Dataiku

3 mois
Paris, France

Kajenthi@RED Global – Recherche Data Engineer AWS – IDF – Freelance – 3 mois + Dans le cadre du déploiement d’un environnement de Data Augmentée (AWS, Dataiku, Starburst, Datasync), alimenté depuis un Data Lake on-premise , RED Global recherche un Ingénieur Data pour accompagner la mise en production d’un nouveau produit sur AWS . Missions : Résolution des problèmes techniques résiduels sur les environnements. Mise en œuvre de services Data et IA (Bedrock, RAG, etc.). Contribution à un front de génération de comptes-rendus en mode speech-to-speech . Compétences requises : Minimum 3 ans d’expérience sur AWS en environnement Data. Bonne maîtrise des services Data AWS . Connaissance de Starburst et Dataiku appréciée. Environnement technique : AWS, Dataiku, Starburst, Datasync, Bedrock, RAG, Data Lake on-premise. Si vous souhaitez recevoir de plus amples informations sur la mission ou si vous pouvez recommander un collègue ou un ami, n’hésitez pas à me contacter via mail avec votre CV à jour :

Freelance
CDI

Offre d'emploi
Architecte SI / Data & IA

VISIAN
Publiée le
Architecture
J2EE / Java EE
Java

2 ans
49k-63k €
400-580 €
Paris, France

Contexte : Dans le cadre de la transformation d'un groupe en assurance, et notamment dans l'entité technique, plusieurs projets majeurs sont en cours : Nouveau Référentiel Client pour se doter d’une seul point de vérité sur les clients individu et entreprise, sur tout leur cycle de vie (de prospect à ancien client) Programme CRM, Plateforme Data /IA, Refonte / Evolution de nos espaces digitaux, etc. La direction de l’architecture au sein de la direction technique est constituée de 3 départements : Stratégie SI et gouvernance d'architecture Architecture SI Architecture Technique Nature de la prestation : Un apport en architecture de solution et en architecture fonctionnel est demandé : définition de solution fonctionnelle et applicative, avec comme livrable la rédaction de dossiers d’architectures ainsi que de slidewares pour communiquer sur le travail produit. Un rôle de conseil est aussi attendu par ailleurs sur des sujets ponctuels ou questions que l'on se pose. Concrètement : Contribuer à la définition de l'architecture applicative de la solution, en cible et en trajectoire Rédiger les documents d’architecture applicative selon la méthode du groupe Contribuer à l'analyse des demandes d’évolutions applicatives émises par les filières / lots du programme au regard des impacts sur la solution globale et sa trajectoire de déploiement Contribuer aux dossiers d’arbitrage permettant de statuer sur la prise en compte des évolutions Contribuer à la préparation des Comités Solution (comité d'arbitrage du périmètre de la solution) Contribuer à la définition des interfaces, des solutions et des règles d’interfaçage du nouveau SI de gestion et de son écosystème, en cible et par état stable Conseiller / valider les choix techniques Contribuer à l'identification, l'instruction et le suivi des adhérences entre les programmes et les projets de transformation du SI (d’un point de vue solution) Accompagner les projets, de la phase de cadrage à la mise en production des applications Contribuer à assurer la cohérence, tout au long de la vie du projet, entre les livrables majeurs des programme et les autres projets connexes en adhérence forte (spécifications, développements, stratégie de recette, stratégie de migration, conduite du changement) Contribuer à la modélisation de la cartographie du nouveau SI gestion sous HOPEX - vision cible et trajectoire Livrables : Dossier d’architecture cible et états stables Dossiers d’analyse d’impacts et de valeur des demandes d’évolution et Dossiers d’arbitrage Dossiers d’analyse des adhérences entre les programmes et les projets de transformation du SI Dossiers d’analyses fonctionnelles et/ou applicatives sur des thèmes transverses critiques Cartographies sous HOPEX de la couche applicative/donnée Comptes rendus hebdomadaire

Freelance

Mission freelance
Data Engineer Kafka, KStreams, K8S, Spark

KEONI CONSULTING
Publiée le
DevOps
Java

18 mois
100-400 €
Paris, France

MISSION Au sein de la Data Platform, le renfort devra intervenir en tant qu'expert sur les sujets Kafka, KStreams, K8S, Spark de la squad Data Value (connaissance client, collecte des événements digitaux...). Développer en Java des traitements de transformation et de production de données ; Designer des chaines optimisées CI/CD en collaboration avec les équipes. Assurer et garantir la production d'un code de qualité : robuste, maintenable et évolutif Participer à l'amélioration continue et à la revue de code Expertise souhaitée Expertise technique confirmé : - Kafka - Kstreams - K8s - streaming de données

Freelance
CDI

Offre d'emploi
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans

Digistrat consulting
Publiée le
Apache Spark
Hadoop
Python

3 ans
38k-43k €
300-400 €
Paris, France

🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données

CDD
Freelance

Offre d'emploi
Data Scientist (FH)

Taleo Capital
Publiée le
Data science
Data visualisation
Microsoft Power BI

4 mois
75k-80k €
600-650 €
Paris, France

Taleo Consulting est un groupe de conseil en management présent à Luxembourg, Paris, Bruxelles, Amsterdam, Genève, Barcelone, Singapour et Lisbonne. Nos valeurs sont : Famille, Fun et Excellence et font partie intégrante de l’ADN de Taleo. Nous comptons aujourd'hui plus de 500 employés à travers nos 8 bureaux internationaux ! Notre expertise financière permet d’apporter à nos clients les meilleures pratiques, des solutions sur mesure et innovantes. Nous intervenons auprès des banques, des assets managers et des assurances. Votre rôle Nous recherchons un(e) Data Scientist pour accompagner l’un de nos clients, acteur majeur du secteur bancaire. Le poste est à pourvoir dès le 15 septembre 2025 jusqu’au 31 décembre 2025 , et est situé à Paris . Ce poste est ouvert dans le cadre d’un contrat CDD ou Freelance. Contexte Dans le cadre du renforcement de ses capacités d’analyse et de restitution des résultats de stress tests au sein de STFS (Stress Testing & Financial Simulations), notre client recherche un profil data scientist spécialisé en Data Visualisation, avec une expertise confirmée sur Power BI, et codage Python. Les entités Finance Groupe, RISK et ALM Treasury ont mis en place une équipe commune en charge du stress testing, de la planification financière et de la synthèse pour le Groupe. Cette équipe, nommée STFS (Stress Testing and Financial Simulations), a pour objectif de coordonner le renforcement des capacités de stress testing (S/T) et de planification, afin de mieux répondre aux besoins des Métiers, des Entités Juridiques et du Groupe, tout en satisfaisant aux exigences des superviseurs dans ces domaines, et ce de manière efficiente. A cet effet, STFS a construit une plateforme centralisée, flexible et industrialisée, accessible aux Métiers et Entités (B/E) du groupe pour répondre à leurs besoins locaux et contribuer aux exercices Groupe. STFS propose un service intégré de stress testing aux B/E pour les aider à tirer parti du cadre commun pour leurs besoins spécifiques. STFS est également responsable de l’exécution de tous les exercices de stress testing à l’échelle du Groupe, qu’ils soient réglementaires ou internes. Prestations demandées : Objectifs mission : · Définir le design de nouveaux dashboards de Stress Tests en collectant les besoins des différentes équipes STFS et en considérant différents objectifs tels que contrôle, analyse, validation et insertion opérationnelle auprès des entités · Concevoir et automatiser ces nouveaux dashboards dans Power BI · Faciliter l’appropriation des outils par les équipes STFS via une implémentation claire et modulaire Compétences attendus : · Minimum 12 ans d’expérience, secteur bancaire privilégié · Maîtrise avancée de Power BI · Expérience significative dans la construction de dashboards financiers complexes · Connaissance des enjeux réglementaires (risque de crédit, CRR3) et stress tests bancaires · Capacité à collaborer avec des équipes pluridisciplinaires (modélisation, finance, risques) · Autonomie, rigueur, sens de la synthèse · Pack office : PPT, EXCEL (maitrise) · Des dashboards dynamiques (Power BI) répondant aux besoins identifiés en amont par les différents consommateurs, automatisés, modulaires et documentés · Un guide d’utilisation et de maintenance · Des supports de restitution pour les parties prenantes

Freelance

Mission freelance
Data Scientist Marketing - (h/f)

emagine Consulting SARL
Publiée le

1 mois
300-500 €
75000, Paris, Île-de-France

Résumé Démarrage : Immédiat Durée : 12 mois + Lieu : 94 et télétravail Le poste de Data Scientist Marketing est conçu pour gérer et optimiser les campagnes de marketing digital, en utilisant des analyses de données pour influencer les décisions stratégiques au sein de l'organisation. Responsabilités : Mise en place et gestion des campagnes SMS & RCS, incluant l'estimation des potentiels. Recommandations sur les cibles en fonction des briefs des annonceurs. Mise en œuvre des campagnes digitales sur des interfaces dédiées. Gestion des visuels et scénarios pour les campagnes RCS, incluant chats, messages, images, vidéos, carrousels. Reporting des campagnes avec bilans et KPI, et propositions d'amélioration. Contribuer au suivi de l’activité de remplacement des spots publicitaires TV ciblés à l'aide des données opérateurs. Supervision des statistiques des outils de diffusion et création de segments d’utilisateurs. Must Haves : 4/5 ans d’expérience opérationnelle en marketing digital. Expérience avec des adservers. Compétences en analyse de données, notamment EXCEL et LOOKER STUDIO. Nice to Haves : Bonnes capacités de communication. Capacité à travailler en équipe.

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

301 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous