Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 974 résultats.
Freelance
CDI
CDD

Offre d'emploi
Lead Data Engineed Snowflake

IT CONSULTANTS
Publiée le
Méthode Agile
Snowflake

12 mois
Levallois-Perret, Île-de-France

Cherchons un profil expert Snowflake pour participer activement à la structuration de l'offre de notre client, à l'élaboration des architectures avant-vente et à la montée en compétence de leurs équipes. Lead Data Engineer passionné par Snowflake et DBT vous travaillerez chez des clients leaders dans leurs secteurs afin de moderniser leur infrastructure de données. Vous travaillerez sur des projets stimulants, de l'implémentation initiale de Snowflake à l'optimisation de pipelines complexes avec dbt, en passant par l'intégration d'écosystèmes data avancés. Votre rôle sera crucial pour le succès de ces transformations. Missions principales : * Développer nos assets technologiques et nos accélérateurs pour des déploiements plus rapides et efficaces. * Participer activement aux phases d'avant-vente, en concevant des architectures innovantes et en présentant nos solutions aux clients. * Accompagner nos clients dans la conception, le développement et le déploiement d'architectures data modernes basées sur Snowflake et dbt. * Mettre en place et optimiser des pipelines de données robustes et performants avec dbt. * Conseiller nos clients sur les meilleures pratiques de la Modern Data Stack et les accompagner dans la migration et l'intégration de leurs données. * Encadrer et faire monter en compétences une équipe de data engineers sur les technologies Snowflake et dbt. Compétences attendues : - Une expérience significative en tant que Lead Data Engineer ou Architecte Data, avec une expertise approfondie de Snowflake et dbt (certifications bienvenues). - Une excellente compréhension des concepts de la Modern Data Stack et de ses meilleures pratiques (Snowflake Openflow, Fivetran, dbt, Airbyte…). - Une expérience dans un projet de migration de plateforme Data vers une Modern Data Stack est un vrai plus Maîtrise des langages SQL et Python. - Une expérience réussie en Streamlit et/ou Generative AI est un atout sérieux. - Capacité à travailler en équipe, à communiquer efficacement et à vous adapter aux environnements clients avec une forte orientation conseil.

CDI
Freelance

Offre d'emploi
Lead Data Engineer Azure – Data Gouvernance & Plateformes Modernes

5COM Consulting
Publiée le
Azure
Databricks

3 ans
La Défense, Île-de-France

Dans le cadre d’un renfort stratégique, notre client recherche un Lead Data Engineer Azure pour intervenir sur des projets de transformation autour de la data, dans un environnement technique et fonctionnel exigeant. Le poste implique un rôle central dans la mise en place de plateformes data modernes et de pratiques de gouvernance des données. Missions : Définir et piloter l’ architecture data autour de concepts modernes : data mesh, data catalog , gouvernance des données. Participer à la mise en place de plateformes de data modeling et de catalogues de données dans un cadre de data gouvernance . Concevoir et implémenter des solutions techniques avec des outils tels que Databricks , Snowflake , Azure Synapse , etc. Collaborer étroitement avec les équipes métier pour comprendre les besoins fonctionnels et produire une documentation technico-fonctionnelle claire. Accompagner les équipes projet sur les bonnes pratiques d’ingénierie data , assurer une vision transverse et contribuer à l’ acculturation data au sein de l’organisation.

Freelance

Mission freelance
Data Scientist

FINDING SAS
Publiée le
Large Language Model (LLM)
RAG

1 an
430-470 €
Lille, Hauts-de-France

Nous cherchons un(e) Data Scientist H/F pour un de nos clients situé en région Hauts de France Contexte de la mission Référent·e technique de l’équipe sur les sujets IA générative (LLM, RAG, agents, chatbots) et traitement de données non structurées (PDF, images). Ton rôle : Concevoir, industrialiser et fiabiliser des solutions IA en production, tout en instaurant des standards d’ingénierie logicielle (tests, CI/CD, MLOps/LLMOps, sécurité). Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM , RAG , agents et chatbots . Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de développement : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (RGPD) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative.

Freelance
CDI

Offre d'emploi
Data Manager (H/F)

CITECH
Publiée le
UML

6 mois
50k-65k €
400-470 €
Paris, France

CITECH recrute ! 👌 ✨ Vous souhaitez mettre vos talents au service d’un groupe de renom dans le secteur hôtelier ? Nous avons LA mission qu’il vous faut ! Nous recherchons un(e) Data Manager (H/F) pour rejoindre une équipe dynamique et internationale. 👈 Vous serez en charge de définir les politiques de gestion des données, de modéliser et de garantir l'architecture fonctionnelle de la plateforme de données utilisée pour satisfaire les besoins métier. 🙌🔽 Vos principales missions seront les suivantes : 🔽🙌 🔸 Soutenir le cadrage, la conception et la livraison des produits de données ‒ Clarifie les exigences ‒ Trouve les lacunes en matière de données et évalue la faisabilité ‒ Collabore avec les Product Owners et les Data Engineers ‒ Co-conçoit les solutions de données ‒ Valide les choix de modélisation des données ‒ Assure la cohérence avec les normes ‒ Garantit l'évolutivité et la maintenabilité 🔸 Co-définit et partage/éduque les normes de gestion des données ‒ Collabore avec les parties prenantes de la gouvernance, de l'architecture et des produits ‒ Définit les conventions de nommage ‒ Définit les exigences de documentation ‒ Établit les règles de modélisation et assure la conformité ‒ Organise des formations, des ateliers et des sessions de support ‒ Fournit des conseils pratiques et répond aux questions 🔸 Gère le portefeuille et les actifs de données au niveau de la tribu ‒ Assure la qualité et l'exhaustivité des métadonnées ‒ Décrit les tables, les champs et les processus ‒ Met à jour la lignée et le glossaire métier ‒ Vérifie l'application cohérente des normes ‒ Crée et partage les rapports sur le portefeuille de données ‒ Met en évidence les lacunes, les risques et les opportunités

Freelance

Mission freelance
Data Scientist

Coriom Conseil
Publiée le
CI/CD
Docker
IAM

12 mois
450-580 €
Lille, Hauts-de-France

Objectif global :Développer des solutions IA GCP / Software engineering / Python Compétences techniques Machine learning - Expert - Impératif IA generative - Expert - Impératif MLOps/LLMOps - Confirmé - Important Chatbot - Confirmé - Important Connaissances linguistiques: Anglais Courant (Impératif) Description détaillée Référent·e technique de l’équipe sur les sujets IA générative (LLM, RAG, agents, chatbots) et traitement de données non structurées (PDF, images). Ton rôle : concevoir, industrialiser et fiabiliser des solutions IA en production, tout en instaurant des standards d’ingénierie logicielle (tests, CI/CD, MLOps/LLMOps, sécurité). Responsabilités principales Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Chatbots Traitement de données non structurées PDF & documents : parsing, OCR, extraction de tables et de structures. Images : prétraitement, détection/segmentation, compréhension multimodale (image+texte).

Freelance

Mission freelance
DATA ANALYST SENIOR LOOKER

PROPULSE IT
Publiée le

24 mois
300-600 €
Paris, France

Polyvalent.e, vous travaillerez sur des problématiques d'analyse de données, de traitements d'informations pour l'ensemble des directions métiers Vous participerez à la mise en place de solutions innovantes et pérennes en utilisant vos compétences en Data. En charge d'exploiter et d'analyser les données du groupe afin de suivre les performances business, de parfaire la connaissance de nos données et de contribuer aux actions métier. Missions principales : Vos principales missions seront : · Développer des indicateurs de pilotage à destination de différentes directions du groupe, · En lien avec le métier, analyser les données et spécifier aux développeurs les données et règles de gestion à appliquer · Mettre en place des reportings (Cockpit, Scorecard ...) via nos solutions de data visualisation, · Accompagner les projets transverses afin d'anticiper les impacts et enjeux à venir, · Accompagner les projets d'architecture Data/ couche sémantique sur Look ML · Réaliser des analyses et restituer les enseignements via des dashboards et supports clairs, · Être force de proposition pour déployer des suivis d'indicateurs pertinents, · Participer au développement de la culture Data du groupe

Freelance
CDI

Offre d'emploi
Dev Python Data (anglophone)

AVALIANCE
Publiée le
Modélisation
Python
SQL

2 ans
40k-60k €
400-500 €
Rueil-Malmaison, Île-de-France

Nous recherchons pour notre client dans le secteur du textile un developpeur python data pour une mission longue a Ruel Malmaison Vos taches : • Participer à la mise en oeuvre de jobs d’intégration de données: création, revue de pair, déploiement • Accompagner l’équipe data engineering au respect des patterns de développement du marché et des pratiques de création de jobs de la Digital Data Platform • Optimiser les performances des jobs (performance SQL, performance Python, Job Scheduling) • Optimiser les performances opérationnelles et financières de la plateforme existante • Optimiser la performance opérationnelle des équipes (automatisation, extension et optimisation du moteur de Jobs) • Participer à la valorisation de la donnée collectée auprès des métiers (publicité, data science, filiation de donnée, self-service de la donnée…) • Compétences : >> Requises • Modélisation objet (MCD,MPD,UML…) • Architecture logicielle N-tiers, micro-batches et NRT • Développement Python + pandas + pytest + pyodbc + reques ts • SQL avancé (de préférence SQL Server) • Authentification déléguée: Oauth, SAML • Application Lifecycle Management + Unit testing • Anglais courant, écrit et parlé (conversations quotidiennes permanentes avec des équipiers non-francophones) >> Souhaitées • Administration Snowflake • Administration Linux • Administration Windows • Développement pyarrow , duckdb, pyiceberg • Sécurité: cryptographie basique (chiffrement symétrique, hashage en python ; gestion de certificats et clés privées avec openssl) ; gestion des secrets en vault

CDI

Offre d'emploi
Lead data (H/F)

Amiltone
Publiée le

40k-45k €
Lille, Hauts-de-France

Le poste Vos missions ? En tant que Lead Data vous serez en charge des missions suivantes: - Accompagner et faire monter en compétence les membres de l'équipe Data - Définir la vision et la roadmap data de l'entreprsie - Compréhension du besoin client et être capable de le traduire aux équipes métier - Veiller à la cohérence et la qualité des données utilisées - Suivi de l'évolution des outils data - Développer des algorythmes et des modèles Machine Learning - Mettre en production des solutions data en collaboration avec les équipes IT et DevOps La stack Technique : - MongoDB, PostgreSQL - Talend - Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) - Scala, R, - Docker, Jenkins - Gitlab/Github

Freelance
CDI

Offre d'emploi
Data Engineer

OBJECTWARE MANAGEMENT GROUP
Publiée le
AWS Cloud
Python

210 jours
60k-91k €
560-610 €
Paris, France

Nous recherchons un(e) Data Engineer Senior / Expert pour renforcer notre équipe et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste requiert un profil expérimenté, capable d’allier expertise technique, bonnes pratiques de développement logiciel et accompagnement des équipes. Concevoir, développer et optimiser des pipelines de données robustes, performants et scalables. Encadrer et apporter une expertise technique sur les choix d’architecture et de stack. Déployer et orchestrer des traitements distribués (PySpark, Glue). Concevoir et exposer des APIs de données. Industrialiser et automatiser les environnements via Terraform et des pipelines CI/CD. Garantir la fiabilité, la performance et la sécurité des flux et services de données en production. Collaborer avec les équipes Produit, Data et Développement pour intégrer les besoins métiers dans les solutions. Partager les bonnes pratiques et contribuer à la montée en compétences de l’équipe.

Freelance
CDI

Offre d'emploi
Data scientist

Management Square
Publiée le
Docker
Google Cloud Platform (GCP)

1 an
45k-50k €
400-450 €
Lille, Hauts-de-France

Nous sommes à la recherche d'un(e) : Data Scientist - Concevoir et déployer des architectures robustes autour des LLM, RAG, agents et chatbots. - Construire des pipelines de traitement de documents complexes (PDF, OCR, images, multimodal). - Industrialiser et monitorer les chatbots (latence, coût, taux de réponse, satisfaction utilisateur). - Mettre en place et faire respecter les bonnes pratiques de dev : code propre, tests, revues, CI/CD. - Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. - Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. - Accompagner et mentorer l’équipe sur les méthodes, outils et patterns d’IA générative.

CDI

Offre d'emploi
INGENIEUR CLOUD DATA AZURE DEVOPS (H/F)

GROUPE ALLIANCE
Publiée le
Azure Data Factory
Azure DevOps Server
Databricks

50k-55k €
Paris, Île-de-France

ACCROCHE SI TU ADORES TRAITER DES TERRITOIRES DE DONNÉES XXL, CETTE ANNONCE EST POUR TOI... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à la gestion de données massives et distribuées Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur du retail, tu participeras à la mise en place de projets data et big data, à déployer les projets dans le cloud, à apporter des solutions autour de la sécurité et des API Web, à construire et à industrilaiser des architectures cloud : Les pipelines Big Data, tu concevras et développeras Les traitements batch et temps réel, tu industrialiseras La qualité et la fiabilité des données, tu sécuriseras L’architecture des flux de données, tu mettras en œuvre Les performances et la scalabilité, tu optimiseras Les solutions cloud ou on-premise, tu intégreras Ton équipe projet, tu accompagneras Aux instances data et techniques, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de 4 à 10 ans minimum en ingénierie Big Data Expert(e) en BigData Az DataLake, Az EventHub, Databricks, ADF, Microsoft Cloud Azure, Infrastructure as a code (ARM, YAML), Intégration/déploiement continu (Git, Az DevOps) Habile avec AZURE AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !

Freelance

Mission freelance
DATA ENGINEER Scala/Spark

KEONI CONSULTING
Publiée le
autonomie
Rundeck

18 mois
100-500 €
Paris, France

CONTEXTE L'entité a donc également un but humain en assurant la réussite des développeurs en reconversion. La mission consiste à renforcer une équipe de Data Engineers pour réaliser des projets Scala/Spark pour le compte de l’un de nos clients. MISSIONS Vous assurerez le pilotage de plusieurs projets basés majoritairement sur les technologies Python sur le périmètre de la filiale Energie. Le pilotage concerne l’ensemble des projets de cette filiale confiés à D2D. Les engagements de l’entité D2D envers la filiale sont assurés grâce à un plateau projet composé de 2 à 4 développeurs, un ops et un architecte. Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Sur la base des 3 mois de prestation, il y aurait donc 6 sprints. Livrables n°X : Sprint n°X Lot 1 : développement des US et tests associés ; Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d'exploitation ; Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; Lot 4 : Mise en place du monitoring ; Profil(s) le(s) plus à même de remplir la prestation (compétences requises et souhaitées) : Le profil recherché pour la mission est celui d’un chef de projet SI/Data. Une expérience significative est requise pour ce poste. Il bénéficiera d’un accompagnement du responsable de domaine / directeur de mission sur le périmètre et du responsable de l’équipe Chefs de Projets Data pour les aspects outillage et méthodologie. Ce soutien sera plus important au début de la mission, notamment pour la prise en main des outils indispensables mais peu répandus comme TimePerformance. Qualités requises - Excellent relationnel - Capacité rédactionnelle - Capacité d’adaptation et de travail en équipe - Rigueur et esprit de synthèse - Esprit d’initiative - Autonomie

CDI
Freelance

Offre d'emploi
Data Engineer Sénior (Secteur Finance)

INGENIANCE
Publiée le
CI/CD
Microsoft Power BI
Microsoft SQL Server

3 ans
57k-67k €
550-650 €
Paris, France

Nous recherchons actuellement un data engineer sénior ayant une expérience dans le secteur de la finance (équipe global market ou compliance par exemple). Aspects contractuels de la missions : - Démarrage de la mission ASAP - Les locaux se situent dans le 13eme arrondissement de Paris - La mission sera de longue durée (3 ans). - Client dans le secteur bancaire. - Télétravail prévu 2 jours par semaine, présence demandée 3 jours par semaine - L'anglais fait partie de la mission : Communication avec des membres de l'équipe à Porto - Des astreintes seront mises en place pour la maintenance évolutive, avec 3 ou 4 nuits par mois, réparties sur tous les membres de l'équipe selon un planning determiné un mois en avance. Les week-ends tombent tous les 1 mois et demi pour tous les membres de l'équipe. L’équipe : - Adresse des sujets des différents métiers comme Global Market (rentabilité commerciale et performance des équipes de vente), trading (pour la demande de prix ur les plateforme éléctroniques), compliance (fournir des alertes en post trade pour les informations clients). - L'équipe travaille sur de l'on premise sur des datas centers (raisons de coûts et de sécurité). La mission consiste à mettre en place, gérer et modifier les pipelines de livraison. La partie maintenance évolutive reste une part importante de la mission, et comprends également une partie support niveau 2.

Freelance

Mission freelance
Data Analyst expert

Codezys
Publiée le
SQL

12 mois
Seine-Saint-Denis, France

Métiers : Data Management, Data Analyst Spécialités technologiques : BI, ETL Type de facturation : Assistance Technique (facturation avec un taux journalier) Compétences : Technologies et Outils : SQL, Qlik Sense, Power BI Soft skills : Autonomie Secteurs d'activités : Administration Publique Description de la prestation : Le Data Analyst sera chargé de structurer les bases méthodologiques et techniques pour produire des indicateurs fiables pour le département « Recherche Candidature et Rapprochement » (RCR). Sa mission inclut : Centraliser les données de multiples sources et assurer leur transformation. Industrialiser leur traitement via des pipelines performants. Visualiser les données avec Power BI, Qlik Sense, etc. Gérer plusieurs domaines de données en lien avec l’architecte/expert data et les métiers. Assumer la chaîne complète de traitement et valorisation des données, de la compréhension des besoins à la mise en production et maintenance des applications décisionnelles. Structurer les flux, optimiser les performances, garantir la qualité, la cohérence et la disponibilité des données. Le poste requiert une forte autonomie et une capacité à travailler en lien étroit avec les équipes data et les métiers pour assurer la qualité des livrables.

CDI

Offre d'emploi
Ingénieur.e DataOps & Azure

Atlanse
Publiée le
Azure
Big Data
Databricks

55k-70k €
Châtillon, Île-de-France

Au sein de la Direction Digital & Data, vous intégrerez le Data Lab en charge de l’ensemble des projets BI et Data du Groupe. En tant qu'ingénieur.e DataOps & Azure, vous jouerez un rôle clé dans le déploiement et l’industrialisation des projets data à l’échelle du Groupe. Votre rôle Conception & Déploiement Cloud · Construire et configurer les infrastructures Cloud Public (principalement sur Azure) · Dimensionner les plateformes en fonction des performances attendues · Participer aux phases de validation technique lors des mises en production ou des évolutions · Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation Industrialisation & Automatisation · Mettre en place et améliorer les chaînes CI/CD · Industrialiser les architectures cibles et automatiser la configuration des environnements Supervision & Maintenance · Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures · Maintenir en condition opérationnelle les infrastructures virtualisées en diagnostiquant les pannes et les dysfonctionnements · Veiller à la sauvegarde des données, à la sécurité des accès (mise en place des systèmes de gestion des droits des utilisateurs) et à la fiabilité des solutions déployées Sécurisation des environnements · Organiser des ateliers, suivre et rendre compte de l'avancement des sujets liés aux résultats d'audit · Proposer des solutions adaptées en matière de sécurité Cloud Azure, notamment sur la mise en place d'applications Web et d'API

CDI

Offre d'emploi
Architecte Data H/F

JEMS
Publiée le

75k-90k €
Levallois-Perret, Île-de-France

Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : 0m5vzimlvd

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

974 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous