Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 959 résultats.
Freelance

Mission freelance
Data Manager - DP Data & IA (Bordeaux)

SQLI
Publiée le
Data management

6 mois
600-800 €
Paris, France

Bonjour, Pour le compte de l'un de mes clients parisiens, je suis à la recherche d'un Data Manager (DP Data & IA). Contexte & Objectifs : Dans le cadre de la transformation digitale client, le Data Manager aura pour mission de piloter les projets Data stratégiques, d’assurer leur gouvernance, et de structurer les initiatives IA émergentes. Il sera le point d’entrée des métiers pour les projets Data, et garant de leur bon déroulement. Missions principales : Gouvernance & Pilotage Cadrer les projets Data avec les métiers & l’IT Définir les business cases et les modèles de gouvernance Prioriser et planifier les demandes Data Constituer les équipes projet avec le Directeur Data Piloter les équipes projet Data et les activités de support Assurer le suivi budgétaire et le respect des objectifs Expertise Data & IA : Superviser la mise en œuvre de solutions BI, Data Lake, Datawarehouse Participer à l’industrialisation de modèles IA (IA Gen, Machine Learning, Data Science) Garantir la qualité des données et la conformité des traitements Contribuer à l’acculturation des équipes métiers à la Data et à l’IA Communication & Coordination : Préparer les comités de pilotage Assurer la coordination entre les équipes techniques, métiers et partenaires Rendre compte de l’avancement, des risques et des blocages

CDI

Offre d'emploi
Développeur Fullstack Confirmé (Java / Hibernate / React) – Secteur GED (H/F) -Nantes

RIDCHA DATA
Publiée le
Hibernate
Java
Kubernetes

Nantes, Pays de la Loire

🔎 Contexte Notre client final, acteur majeur dans la gestion documentaire et les workflows métiers, recherche un Développeur Fullstack confirmé pour renforcer son équipe projet. La mission consiste à développer de nouveaux modules fonctionnels et techniques, moderniser l’architecture existante (conteneurisation, optimisation des performances) et assurer la maintenance évolutive de l’application. Missions principales Développement & intégration Développer de nouveaux modules applicatifs en Java / Spring / Hibernate Intégrer des solutions informatiques existantes et participer aux phases de recette Rédiger la documentation technique et concevoir des scénarios de tests Maintenance & optimisation Assurer la maintenance corrective et évolutive des applications existantes Réaliser des revues de code et garantir la qualité logicielle Participer à la modernisation de l’architecture via Docker / Kubernetes Collaboration & support Participer à l’analyse détaillée des besoins fonctionnels et techniques Assister les utilisateurs dans la résolution de problèmes Piloter ou coordonner les prestataires techniques impliqués dans le projet 📦 Livrables attendus Modules fonctionnels conformes aux spécifications Documentation technique détaillée Jeux de tests (unitaires, intégration, fonctionnels) Participation aux ateliers de recette et validation des livrables 🛠️ Compétences recherchées Backend : Java confirmé, Spring Boot / Spring MVC, Hibernate (impératif) Base de données : SQL confirmé (PostgreSQL, MySQL) Frontend : ReactJS (junior – souhaitable) Architecture & DevOps : Docker, Kubernetes (souhaité) Langue : Français courant (impératif)

Freelance

Mission freelance
Chef de projet Data/Lead data scientist

DEVATSCALE
Publiée le
Data governance
Data management
Data quality

3 mois
550-600 €
Paris, France

Hello, Voici le descriptif du poste de chef de projet Data/lead data scientist si tu es en recherche actuellement: Acculturation & cadrage : sensibiliser les métiers à la valeur de la data, animer des ateliers, faire des présentations PPT trés abouties Cartographie & gouvernance de la donnée : mettre en place des instances, processus et outils de gestion des données. POC & prototypes IA : piloter l’incubation de preuves de concept, encadrer les phases de test et d’expérimentation. Gestion de projet & delivery : suivre la roadmap, coordonner les équipes techniques et métiers, assurer le reporting et le respect des délais/livrables.

Freelance

Mission freelance
Data Scientist Machine Learning / Deep Learning et IA Générative -Aix eb Provence

WorldWide People
Publiée le
Data science
Machine Learning

6 mois
350-400 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Data Scientist Expérience souhaitée : 3 ans minimum 2 à 3 jours sur site Compétences requises Expérience confirmée en Machine Learning / Deep Learning et IA Générative. Bonne maîtrise de Python, SQL, Pandas, Scikit-learn, Numpy, Jupyter Notebook, Streamlit. Maîtrise des frameworks : TensorFlow, PyTorch. Connaissance du cycle de vie complet des modèles IA (conception, mise en prod, suivi). Curiosité, autonomie, capacité à faire de la veille technologique. Esprit d'équipe et envie de partager vos connaissances. Missions Analyser les problématiques métiers et démontrer la valeur ajoutée d’approches ML/DL ou IA Générative. Concevoir et mettre en production des modèles d’apprentissage automatique. Traiter de grandes quantités de données pour créer des jeux d'entraînement. Appliquer les bonnes pratiques de MLOps et assurer l’explicabilité des modèles. Présenter les résultats de façon claire aux parties prenantes et suivre la performance des modèles dans le temps. Réaliser du prompt engineering pour les modèles d’IA Générative. Effectuer des benchmarks pour évaluer les modèles IA Gen. Optimiser les modèles (paramétrage, ajustements).

Freelance
CDI

Offre d'emploi
Expert Power Platform – (Secteur Finance) (H/F) Île-de-France, France

RIDCHA DATA
Publiée le
ALM
Microsoft Power BI
Power Apps

1 an
Île-de-France, France

Contexte du poste Notre client, un acteur majeur du secteur de la finance, recherche un Expert / Administrateur Power Platform pour renforcer son équipe et accompagner l'administration et le développement des solutions low-code / no-code. 🔧 Missions principales Administrer et sécuriser la Power Platform : gestion des environnements, des droits d’accès, et mise en œuvre des politiques de prévention des pertes de données (DLP) Déployer, configurer et adapter la gouvernance via le Kit Centre d’Excellence (CoE) et outils complémentaires Assurer la maintenance et l’évolution des outils de gouvernance (montées de version, adaptations réglementaires) Animer et faire respecter le cadre de référence Citizen Dev / Pro Dev en vigueur

Freelance
CDI

Offre d'emploi
Business Analyst Data

VISIAN
Publiée le
Agile Scrum
Big Data
ETL (Extract-transform-load)

1 an
Paris, France

Rattaché(e) à la Direction Digital, Data & IS, la Data Factory œuvre pour rendre les données accessibles, les valoriser à travers des produits data métiers à base d’IA et d’Advanced Analytics, et transformer le client en un groupe orientée data (« Data-driven ») où tous les collaborateurs connaissent les enjeux de la data. La création des produits Data s’appuie sur une « plateforme Data» centrale, cloud-native, sécurisée et performante avec les technologies les plus avancées. Le client a établi un partenariat stratégique de cinq années avec Google Cloud, lui donnant accès à des technologies innovantes et des liens privilégiés avec ses experts, et permettant de disposer d’une puissance de calcul augmentée, d’accélérer l’analyse et de développer l’innovation sur de nombreux défis business et technologiques.

Freelance
CDI

Offre d'emploi
Développeur Java / Spring / Groovy (H/F) Sophia Antipolis (06)

RIDCHA DATA
Publiée le
Docker
Groovy
Hibernate

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur

Contexte du projet : Nous recherchons un Développeur confirmé pour rejoindre une équipe travaillant sur une solution de Gestion Électronique de Documents (GED) intégrant des workflows métiers. Le projet consiste à ajouter de nouvelles fonctionnalités, optimiser les performances et moderniser l’architecture de l’application existante via la conteneurisation, tout en utilisant un environnement Groovy/Grails basé sur Java Spring pour le backend et React pour le frontend. Missions : Le Développeur sera en charge de la réalisation et de l’évolution de l’application en respectant les spécifications fonctionnelles et techniques définies. Plus précisément, vos missions seront les suivantes : Analyse des besoins : Participer à l’analyse détaillée des besoins fonctionnels et techniques du projet. Développement : Implémenter les solutions techniques en utilisant Java, Spring, Groovy et Hibernate, en suivant les bonnes pratiques de développement. Modernisation de l'architecture : Contribuer à l'optimisation des performances et à la refonte de l’architecture via des pratiques modernes comme la conteneurisation. Rédaction de la documentation : Créer et maintenir la documentation technique et fonctionnelle associée à l’application. Qualité du code : Assurer la qualité technique et fonctionnelle des systèmes développés. Suivi et coordination : Piloter les prestataires externes impliqués dans le projet et suivre les avancements. Compétences techniques requises : Java (Confirmé) – Expertise dans le développement backend en Java. Spring (Confirmé) – Maîtrise de Spring Framework (Spring Boot, Spring MVC, etc.). Groovy (Junior) – Connaissance ou appétence pour le développement en Groovy. Hibernate (Confirmé) – Compétences solides en ORM (Object Relational Mapping) avec Hibernate. React (Frontend) – Notions ou expérience dans l'intégration avec une IHM React. Conteneurisation (Docker/Kubernetes) – Bonne compréhension des concepts de conteneurisation et de mise en production d'applications Lieu de travail : Sophia Antipolis (3 jours par semaine sur site, 2 jours télétravail possibles selon les besoins)

Freelance

Mission freelance
ALSL - Tech Manager Data

Pickmeup
Publiée le
Apache Airflow
AWS Cloud
Big Data

6 mois
550-620 €
Paris, France

Nous cherchons un Tech Manager Data qui saura allier leadership technique et pilotage stratégique autour d’un sujet clé : l’exploitation des données issues des Property Management Systems. Ces données sont le cœur du fonctionnement : réservations, facturation, occupation, services. Ton rôle ? Les transformer en un actif stratégique fiable, pour booster la performance et la distribution des services. En tant que Tech Manager Data , tu seras : Le leader technique et managérial de deux équipes (internes & partenaires externes). Le chef d’orchestre des projets data PMS : collecte, intégration, fiabilisation et monitoring. Le binôme stratégique du Product Manager Data pour construire la roadmap et prioriser la valeur. Le garant de la fiabilité et de la performance des produits data : monitoring, alerting, optimisation FinOps/DevOps. L’ interface clé entre les équipes métiers, IT et les éditeurs PMS.

Freelance

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o

WorldWide People
Publiée le
Data Lake

6 mois
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance
CDI

Offre d'emploi
Développeur Full Stack Confirmé (Java Quarkus / Vue.js) (H/F) Sophia Antipolis (06)

RIDCHA DATA
Publiée le
Apache Maven
CI/CD
Git

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur

🎯 Contexte du projet Dans le cadre du développement d’un outil de gestion de crise dans le domaine médical, nous recherchons un Concepteur-Développeur Full Stack confirmé pour rejoindre une équipe Agile Scrum de 5 à 10 personnes. La solution logicielle, organisée en briques techniques indépendantes, aura pour objectif d’apporter des réponses adaptées aux besoins d’un système en situation de crise : communication, gestion des patients, services bureautiques, consultation, GED, etc. Une bonne communication et une forte capacité d’adaptation seront essentielles dans cet environnement collaboratif et évolutif. 🔧 Compétences techniques requises Compétences impératives : Java (Quarkus, Hibernate-Panache, Rest, OpenApi-Swagger) – Confirmé JavaScript (Vue.js / Vuetify / TypeScript) – Confirmé Compétences importantes : Docker / Containers – Junior Bases de données relationnelles (Postgres – Minio) Git, Maven, Nexus Tests unitaires (Mockito / Junit) Compétences appréciées (plus) : OpenId Connect Pratiques DevOps et CI/CD Outils collaboratifs (Jira, Confluence)

Freelance
CDI

Offre d'emploi
Data Product Manager

Craftman data
Publiée le
BI
Méthode Agile
Organisation

1 an
La Défense, Île-de-France

Contexte de la mission As a member of the Data As a Service Customer team, you will lead Assessments / Study and participate post assessment to the project's execution phase. Profile: Senior Expected skills: Really good communication in French & English Data exploration, analysis and modeling (Conceptual and Physical modelling) Strong knowledge of Data Platforms, BI and related tools (Snowflake, Power BI) Strong knowledge of the ERP S4/Hana Sufficient knowledge of CRM (Salesforce) systems; manufacturing system knowledge is a plus Strong focus on method application, rigourous work and efficient organization Customer centric (conducting customer interviews, short and conscise response time) Objectifs et livrables Deliveries & objectives Organize the study & gather the requirements from all stakeholders Understand business ambition, stakes & goals Organize & lead workshops with business Collect all business inputs required for the study Document functional architecture Do data modeling / design Business Layers (Silver layer) Organize Data As a Service contributors (Technical Architect, Data & BI Engineers) Document solution value Prepare build / run budget & planning Formalize the final “Go to project” proposals Compétences demandéesCompétences Niveau de compétence Cloud Data Platform Confirmé Communication Expert Data Modeling Expert Data Analysis Expert SQL Expert SAP S4/Hana Expert English Confirmé Business Intelligence Confirmé

Offre premium
Freelance
CDI

Offre d'emploi
Profil Data - Python

AVALIANCE
Publiée le
Python
SQL

3 ans
40k-57k €
380-480 €
Rueil-Malmaison, Île-de-France

• Objectif de la mission • Au sein de la DSI Europe, division BI & Data, seconder l’architecte leader dans l’enrichissement, le maintien et l’évolution de la Digital Data Platform • Contenu • Participer à la mise en oeuvre de jobs d’intégration de données: création, revue de pair, déploiement • Accompagner l’équipe data engineering au respect des patterns de développement du marché et des pratiques de création de jobs de la Digital Data Platform • Optimiser les performances des jobs (performance SQL, performance Python, Job Scheduling) • Optimiser les performances opérationnelles et financières de la plateforme existante • Optimiser la performance opérationnelle des équipes (automatisation, extension et optimisation du moteur de Jobs) • Participer à la valorisation de la donnée collectée auprès des métiers (publicité, data science, filiation de donnée, self-service de la donnée…)

CDI
Freelance

Offre d'emploi
Tech Lead Data Engineering Big Data

Craftman data
Publiée le
Hadoop
HDFS (Hadoop Distributed File System)
Scala

1 an
75002, Paris, Île-de-France

Le domaine d’intervention du Tech Lead Data Engineering comprend les études, l’architecture du SI Big Data, le choix des solutions et outils, le pilotage technique du Build et du Run. Comme référent technique Big Data, vous assurez le lead technique de l’équipe de développeurs, avec en responsabilité, la conception et la mise en œuvre des solutions XXXX Big Data, ainsi que le pilotage technique de projets. Sous la responsabilité du responsable du SI Big Data, vous piloterez techniquement les activités de Data Engineering : · étude et prise en compte des besoins de traitement de la data, · gestion des priorités et de la cohérence des besoins, · choix des outils et solutions · conception et mise en œuvre des architectures de données évolutives et performantes, sécurisées et résilientes · direction et encadrement technique d’une équipe de data ingénieurs composée d’intervenants externes : suivi, support, adoption des bonnes pratiques de développement sécurisé · suivi de la qualité, de la sécurité des données et des traitements, de la performance opérationnelle des traitements · participation et support au delivery nécessitant l’expertise technique et data · veille technologique pour rester à l’état de l’art en matière de traitement massif des données, et d’utilisation de l’IA pour l’automatisation, la prédiction, la génération de data et de code. · support des équipes Data Science et R&D sur le cycle de déploiement/optimisation et industrialisation des solutions d’IA · conception et mise en place d'API pour l'intégration des solutions Big Data avec d'autres systèmes, · développement et intégration de modèles d'IA générative pour des applications spécifiques, · assurer la maintenance et l'évolution des API et des modèles d'IA générative. FORMATION / EXPERIENCE : Bac+5 avec une expérience avérée en tant que Tech Lead Data Engineering COMPETENCES REQUISES / QUALITES REQUISES Savoir Faire : Maîtrise des technologies du Big Data telles que Hadoop, Spark, Hive/Impala, Kafka Excellentes compétences en programmation, maitrisant des langages tels que : Python, Scala ou Java, Capacité à résoudre des problématiques complexes avec un esprit de synthèse et une pensée analytique Bonne expérience dans la conception et la mise en œuvre de pipelines de données fiables et scalables, en utilisant des frameworks tels que Spark, Oozie, Airflow … Bonnes compétences en mathématiques et statistiques Connaissances monétiques Savoir Être : Aptitudes à la communication, tant écrite qu'orale, formalisation et partage des concepts techniques complexes de manière claire et concise Esprit critique et capacité d’analyse pour remettre en question et améliorer les solutions existantes. Travail en équipe, réactivité et esprit d’initiative INFORMATIONS COMPLEMENTAIRES : Anglais Début de mission : ASAP Durée de la mission : minimum 1 an

Freelance
CDI

Offre d'emploi
Data Engineer

QosmiQ Networks
Publiée le
Big Data
ETL (Extract-transform-load)
Google Cloud Platform (GCP)

1 an
60k-75k €
500-600 €
Paris, France

La Direction Data du Groupe a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, developper la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes inte mes des outils de pilotage et d'aide à la décision. En pleine expansion, nous souhaitons renforcer l'équipe Data par de nouvelles expertises en data engineerng et aider ainsi à la mise en place de solutions Big Data dans un envionnement Cloud GCP. Cette équipe est composée d'un product owner et de data engineers. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données en batch, Apache Beam pour les traitements en streaming et Airflow pour l'orchestration. La stack inclut aussi les services BigQuery, Dataproc et PubSub de la Google Cloud Platfomm et Terraform pour la gestion de l'infrastructure. Prestations attendues: Au sein de l'equipe Data et au cœur de la plateforme data, la prestation se déroulera en collaboration avec les experts métier de la donnée, les product owners, les data scientists ou encore les data managers. Cette plateforme repose sur une architecture Lakehouse construite sur la Google Cloud Plateform. En travaillant avec les autres Data Engineers de l'équipe, la prestation consistera à participer à : La collecte et l'ingestion de différentes sources de donnéesnon homogènes. La mise en place de pipelines de traitement de données. Le développement des modèles de données. L'extraction et l'exposition des donnees du Lakehouse vers d'au tres services. L'industrialisation des projets sur la GCP. La mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de donnees. La participation aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l'intégrité des données. La participation active aux différentes phases de grooming, cadrage et planification des tâches avec l'équipe

Freelance

Mission freelance
Support - Business et Data Functional Analyst

Clémence Consulting
Publiée le
Business Analysis
Data management
Rédaction des spécifications fonctionnelles

12 mois
Paris, France

Au sein d'une équipe en charge des référentiels (Banque Finance) sur des outils de gestion de produits, portefeuilles et de leur cycle de vie. Assurer la continuité et la fiabilité : traitement des incidents, habilitations, listes de valeurs... Prendre en charge la traduction fonctionnelle vers technico-fonctionnelle pour les évolutions du modèle de données. Documenter de manière claire et exploitable (process, specs, modes opératoires).actii Proposer et challenger des évolutions en lien avec les besoins métiers et les contraintes techniques. Parmi les activités: Suivi et documentation des incidents (via outil de ticketing). Gestion des habilitations et incidents (en lien avec autre équipe). Mise à jour des listes statiques (selon arbre de décision). Suivi des mass-updates (création + modification). Documentation & qualité Rédiger des spécifications technico-fonctionnelles exploitables par les devs. Produire des modes opératoires clairs, illustrés et autoporteurs. Maintenir à jour la documentation Évolutions & projets Participer à la définition des évolutions du modèle. Être force de proposition technique/fonctionnelle (ex : clés fonctionnelles, fusion d’entités, élargissement du modèle de données). Contribuer aux ateliers de cadrage et aux tests.

Freelance

Mission freelance
Techlead DENODO BI H/F

Insitoo Freelances
Publiée le
Azure Data Factory

2 ans
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Techlead DENODO BI H/F à Aix-en-Provence, France. Nous souhaitons renforcer l'équipe actuelle d'une compétence sur l'outil DENODO Les missions attendues par le Techlead DENODO BI H/F : Dans ce contexte, il s’agit de : - Suivre et intervenir dans le cadre de la montée de version DENODO V9 (depuis le Version actuelle V8) - Suivre et intervenir dans le cadre de l'administration de l'outil et de l'offre de service (Monitoring, gestion du RUN, habilitations, Roles) - Accompagner nos clients Caisse d'Epargne dans l'utilisation et le developpement de couches métiers ou composants DENODO. Principaux livrables : • dossier architecture DENODO V9 (accompagnement par un architecte BPCE SI), • documentation Conduite du changement Evolution version V8 vers version V9 • programme de developpements couhes métiers DENODO Cette mission est pilotée dans le cadre du developpement de l'offre de service Datavirtualisation

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

959 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Île de Clipperton, France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous