Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 1 460 résultats.
Freelance

Mission freelance
Ingénieur Data à Niort (3 jours sur site)

NEO SOFT SERVICES
Publiée le
Agile Scrum
Dataiku
Modèle Conceptuel des Données (MCD)

24 mois
400-550 €
Niort, Nouvelle-Aquitaine
Présentation de l’organisation Au sein d’une organisation spécialisée dans les services financiers et l’assurance vie, la Direction des Systèmes d’Information Métier est en charge du maintien en conditions opérationnelles et de l’évolution stratégique du système d’information dédié aux activités d’épargne et de finance. Enjeux stratégiques La valorisation de la donnée constitue un axe majeur de la stratégie de transformation pour les années à venir. Dans ce cadre, l’organisation recherche un Ingénieur Data expérimenté (niveau III) afin de rejoindre l’équipe de développement Data. Le consultant intégrera une équipe Data récemment constituée, avec pour objectif de construire, maintenir et optimiser les plateformes et pipelines de données , afin de garantir la fiabilité, la qualité et l’accessibilité des données pour l’ensemble des métiers de l’entreprise. Missions principales Le consultant Data sera rattaché au chef de projet de l’équipe et interviendra comme contributeur technique clé dans le cycle de vie de la donnée . Il participera activement à la mise en œuvre du modèle Data de l’organisation. Les principales missions seront les suivantes : Conception de pipelines de données (ETL / ELT) Concevoir, développer et optimiser des flux de données robustes et performants. Alimenter les entrepôts de données et les DataMarts. Modélisation des données Participer à la conception et à la mise en œuvre de modèles de données (MCD, modélisation dimensionnelle). Adapter ces modèles aux besoins métiers du secteur financier et de l’assurance. Industrialisation des processus Data Industrialiser les processus de préparation, de transformation et de gouvernance de la donnée. Utiliser des outils spécialisés de data science et de data engineering pour automatiser les flux. Visualisation et reporting Assurer l’intégration des données dans les outils de Business Intelligence pour leur exploitation par les équipes métiers. Maintenance et optimisation Garantir la performance et la qualité des flux de données. Maintenir l’infrastructure data en conditions opérationnelles. Compétences techniques recherchées Profil technique disposant d’une forte appétence pour les outils d’industrialisation et de traitement de la donnée . Compétences clés Niveau de prestation : Niveau III exigé Maîtrise avancée du langage SQL Expérience dans la conception et l’implémentation de processus ETL / ELT Expertise en modélisation de données (MCD, dimensionnelle) Capacité à challenger les solutions techniques , estimer les charges et piloter les phases de qualification Connaissance des outils de Business Intelligence (ex : Tableau ou équivalent) Compétences appréciées Maîtrise d’un outil de data science / data préparation (ex : Dataiku ou équivalent) Expérience sur des outils historiques de reporting ou d’analyse de données Connaissance du secteur assurance / finance Organisation de la mission Présence sur site : minimum 3 jours par semaine Télétravail possible le reste du temps Mission nécessitant une bonne autonomie et une capacité d’intégration dans une équipe Data
Freelance

Mission freelance
Consultant SAP FI/CO + Data Migration

ALLEGIS GROUP
Publiée le
SAP FICO

1 an
400-550 €
Clamart, Île-de-France
Dans le cadre d’un projet SAP Finance en cours, notre client recherche un Consultant SAP FI/CO confirmé , capable d’intervenir à la fois sur la conception fonctionnelle , l’accompagnement des métiers et les travaux de migration de données . Le consultant interviendra en renfort sur un périmètre critique pour la bascule de fin d’année . Responsabilités principales Participation aux ateliers avec les équipes Finance & Controlling Analyse des besoins et rédaction de la documentation fonctionnelle (spécifications, process…) Contribution aux activités de Data Migration : mapping, validation, reprise, contrôle de cohérence Accompagnement des utilisateurs, support UAT, correction des anomalies Collaboration étroite avec les équipes techniques (ABAP, Data, Basis) Suivi d’avancement et reporting auprès du chef de projet
Freelance

Mission freelance
Tech Lead Data GCP Expert F/H

SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker

12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
CDI

Offre d'emploi
DATA ENGINEER GCP

Peppermint Company
Publiée le
Apache Spark
Google Cloud Platform (GCP)
Hadoop

Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte Dans le cadre d’un projet stratégique de transformation data, nous recherchons un Data Engineer orienté développement , capable d’intervenir sur une migration d’envergure d’Azure vers GCP . 🛠️ Missions principales Participation active à la migration des pipelines data d’Azure vers GCP Développement et optimisation de traitements data Conception d’architectures data robustes et scalables Collaboration avec les équipes data et métiers Contribution aux bonnes pratiques data engineering 🔧 Stack technique Google Cloud Platform (GCP) – niveau confirmé requis Apache Spark / Scala Hadoop ecosystem Forte orientation développement (profil Data Engineer "DEV")
Freelance

Mission freelance
Data Manager (Power BI)

STHREE SAS pour COMPUTER FUTURES
Publiée le
Microsoft Power BI

6 mois
Paris, France
L’entreprise recherche un expert pour piloter et renforcer la gouvernance BI & Analytics ainsi que la feuille de route du programme, qui vise à harmoniser et professionnaliser les pratiques data à l’échelle de l’organisation. La mission consiste à : Superviser le programme (rationalisation des périmètres, standardisation, amélioration du delivery, opérationnalisation du modèle de fonctionnement). Assurer la gouvernance BI & Analytics au quotidien. Faire du dashboarding (Power BI) Garantir la bonne application des standards Data : Data Governance, Data Quality, Data by Design, et la documentation associée. Contribuer au processus Data by Design avec le DPO, les Data Architects et les équipes projet. Accompagner les Business Data Owners et Data Stewards dans la gestion et la qualité des données, notamment sur certains domaines critiques comme le domaine RH. Livrables attendus : supports de pilotage (COPIL), roadmaps, suivi financier, gestion des risques, documents de gouvernance, inventaires, documentation standardisée, modèles de données et data dictionaries.
Freelance

Mission freelance
Data Engineer Sénior (Hadoop / Python)

Les Filles et les Garçons de la Tech
Publiée le
Apache Spark
Hadoop
Python

12 mois
150-650 €
Lyon, Auvergne-Rhône-Alpes
Au sein du pôle Big Data d'un grand groupe, l'objectif principal de ce poste est de réaliser et de maintenir les développements nécessaires à l'alimentation du Datalake sur une plateforme Cloudera Hadoop, de mettre en place des extractions de données et d'accompagner les utilisateurs. Rattaché(e) au responsable Big Data, vous évoluerez dans un contexte de production à fortes attentes où la tenue des délais de livraison et le pilotage opérationnel sont primordiaux. Vos principales missions seront les suivantes : Développement et intégration : Prendre en charge les évolutions des données à intégrer et reprendre les développements existants pour l'alimentation du Datalake. Vous développerez également des extractions avec un niveau d'expertise en SQL et créerez des scripts Shell avancés pour l'automatisation. Expertise technique et mentorat : Spécifier techniquement les tâches, fournir des requêtes de référence, effectuer des revues de code et accompagner les collaborateurs juniors, stagiaires ou alternants. Support et accompagnement : Assurer le support de niveau 2, faire appliquer les bonnes pratiques et consignes aux utilisateurs, et rédiger la documentation requise (guides, description de processus). Optimisation et maintenance : Garantir la maintenabilité, les performances et l'exploitabilité de la plateforme en respectant l'utilisation des modèles référencés par la Gouvernance de la Donnée. Vous optimiserez les traitements de la plateforme et ceux des utilisateurs, et mènerez des investigations (reverse engineering) dans une architecture héritée complexe
Freelance

Mission freelance
Data Engineer Informatica Talend Power B.I SQL (F/H)

CELAD
Publiée le
Big Data
Informatica
Microsoft Power BI

12 mois
400-460 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Data Engineer – Plateforme Epargne Financière pour intervenir chez un de nos clients du secteur bancaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Sécuriser la gestion de l’actualisation de l’offre Epargne Financière en lien avec les équipes partenaires distributeurs et producteurs. - Faire évoluer la solution en respectant les standards à jour : implémentation de changements à valeur ajoutée pour le business et traitement de la dette technique. - Contribuer à la gestion du RUN et renforcer la robustesse de la solution. - Renforcer la supervision et la qualité des données.
Freelance

Mission freelance
Administrateur Plateforme Data (Cloudera & Open Source)

VISIAN
Publiée le
Administration linux
Bash
Cloudera

1 an
400-470 €
Île-de-France, France
Contexte Dans le cadre du développement d’une plateforme Data & IA au sein d’un grand groupe du secteur financier , nous recherchons un Data Platform Engineer / Administrateur Data pour assurer l’administration, l’évolution et la fiabilité des infrastructures Data. Vous interviendrez sur des environnements Big Data basés sur l’écosystème Cloudera et Open Source , au sein d’équipes techniques et métiers. Missions Administration et exploitation des plateformes Data Administrer et maintenir les plateformes Big Data en condition opérationnelle Superviser les systèmes et assurer la maintenance corrective et évolutive Intervenir sur la résolution d’incidents complexes sur les plateformes Data Conception et gestion des flux de données Identifier les besoins métiers en matière de collecte et stockage de données Développer des solutions d’ingestion de données (API, pipelines) Concevoir des architectures de stockage robustes (Data Lake / Big Data) Automatiser les traitements via batchs et pipelines de données Valorisation et gouvernance des données Industrialiser les processus de transformation et de nettoyage des données Gérer des bases de données hétérogènes et multi-sources Garantir la conformité et la gouvernance des données Industrialisation Data Science / IA Industrialiser le déploiement de modèles statistiques et machine learning Mettre en place des mécanismes de validation et monitoring des modèles Assurer le suivi opérationnel des modèles intégrés aux applications Contribution aux projets Data Définir les spécifications techniques Assurer le reporting d’avancement auprès du pilotage projet Apporter un support technique aux équipes métiers et applicatives Le poste peut inclure des astreintes par rotation et une participation à la continuité de service des plateformes Data .
Freelance
CDI
CDD

Offre d'emploi
Data Engineer – Pipelines de données (SQL / ETL / AWS) – H/F

SMARTPOINT
Publiée le
API
AWS Cloud

1 an
50k-60k €
400-500 €
Île-de-France, France
Dans le cadre du renforcement de nos équipes data, nous recherchons un Data Engineer (H/F) pour intervenir sur la conception, le développement et la maintenance de pipelines de données ainsi que sur l’exploitation et l’amélioration des solutions techniques associées. Vous contribuerez au bon fonctionnement des plateformes data en assurant le développement de pipelines ETL/ELT, la manipulation de données et le maintien en conditions opérationnelles des systèmes . Vous évoluerez dans un environnement technique moderne reposant sur des architectures API/Webservices, des solutions cloud AWS et des pratiques DevOps .
Freelance

Mission freelance
DATA ENGINEER / TECH LEAD

Codezys
Publiée le
Conception
Informatica
Power BI Desktop

12 mois
450-550 €
Toulouse, Occitanie
Contexte de la mission Nous recherchons un(e) chef de projet technique / ingénieur data expérimenté(e), possédant des compétences avérées en SQL, ETL et outils de reporting. La mission concerne le domaine du datawarehouse de cargaison, spécialisé dans le chargement et la transformation de données pour les filiales AF&KL. La personne sélectionnée devra accompagner l’équipe dans la gestion des projets en cours ainsi que dans le développement de nouvelles fonctionnalités, en apportant son expertise pour les corrections et améliorations futures. Le poste s’inscrit au sein d’une équipe composée de huit membres, et la présence à Toulouse est obligatoire. Objectifs et livrables Contribuer à la maintenance et à l’évolution du datawarehouse cargo, en garantissant la qualité et la performance des données. Participer à la conception, au développement et à la mise en œuvre des nouvelles fonctionnalités et corrections. Collaborer étroitement avec l’équipe pour assurer la cohérence et l’efficacité des processus de chargement et de transformation des données. Fournir une documentation claire et précise des livrables réalisés. Conditions particulières Localisation : obligatoire à Toulouse. Veuillez fournir la matrice jointe détaillant les niveaux de compétence pour chaque profil proposé. Nous demandons uniquement la soumission de candidats correspondant strictement aux compétences requises, notamment pour les niveaux 3/4 ou 4/4 dans les compétences clés mentionnées.
Freelance

Mission freelance
Chef de Projet/ Data - Success factor (obligatoire) - Full Remote

WorldWide People
Publiée le
SAP SuccessFactors

9 mois
400 €
France
Chef de Projet/ Data - Success factor (obligatoire) EXP : +5 ans Compétences (1 à 3) : ☒ Gestion de projet 2 ☒ Conception de test 2 ☒ analyse de données 3 ☒ rédaction de contrat d’interface 2 ☒ définition de stratégie de recette 2 ☒ Coordination d’acteur 2 ☒ excel 3 ☒ Administration fonctionnelle de Success factor module EC 3 ☐ Outil de requêtage de base de données 3 ☐ Supervision des traitements batch 2 Missions : Stabilisation des interfaces EC => · Analyse et correction des erreurs. · Suivi quotidien des flux (API, IC, middleware). · Mise en qualité des échanges de données. Optimisation des flux SF ↔ middleware => · Audit des interfaces existantes. · Simplification et amélioration des mappings / règles. Accompagnement à l’implémentation de nouvelles interfaces => · Rédaction des specs techniques. · Coordination IT / middleware. · Tests et support post go-live.
CDI

Offre d'emploi
Data scientist (H/F)

IA Soft
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)

6 mois
40k-45k €
400-550 €
Fontenay-sous-Bois, Île-de-France
Dans le cadre de notre développement, nous recherchons un(e) Data Scientist en CDI pour renforcer notre équipe data. Vous participerez à la valorisation des données de l’entreprise afin d’aider à la prise de décision, d’optimiser les performances et de développer des modèles prédictifs à forte valeur ajoutée. Missions principales : Collecter, nettoyer et structurer des données provenant de différentes sources Réaliser des analyses statistiques et exploratoires pour identifier des tendances, corrélations et opportunités Développer, entraîner et évaluer des modèles de machine learning et d’intelligence artificielle Mettre en production et suivre les performances des modèles développés Collaborer avec les équipes métier, produit, IT et BI pour comprendre les besoins et proposer des solutions adaptées Concevoir des tableaux de bord, rapports et visualisations pour restituer les résultats Assurer une veille technologique sur les outils, méthodes et innovations en data science Participer à l’amélioration continue des processus de traitement et de gouvernance des données
Freelance

Mission freelance
250824/Expert Talend, Talend Data management, Anglais Courant

WorldWide People
Publiée le
Talend

6 mois
Vélizy-Villacoublay, Île-de-France
Expert Talend, ETL, Talend Data management, Anglais Courant L’équipe Data Foundations souhaite bénéficier de l’assistance technique d’un expert technique Talend, disposant d’une solide expérience Data, afin d’accompagner les projets d’intégration de données. Goals and deliverables Le consultant interviendra notamment sur les activités suivantes : Application des bonnes pratiques et standards Talend Data Management, de la phase de développement jusqu’au déploiement, en collaboration avec le ETL Tech Lead Support aux projets lors des phases d’implémentation : qualification des données, transformation et intégration Mise en œuvre et respect de l’architecture cible, de la stratégie Data et des patterns ETL, en collaboration avec les experts techniques Analyse des besoins métiers et techniques, incluant l’évaluation de la faisabilité technique et de la charge associée Développement des jobs Talend, déploiement, réalisation des tests d’acceptation et rédaction de la documentation Réalisation d’audits de jobs ETL Définition des pré‑requis techniques et des templates Rédaction des spécifications techniques Expected skills Skills Skill level ETL Expert TALEND Expert Talend Data management Expert Languages Language level Anglais Bilingual
Freelance

Mission freelance
POT9076 - Un Chef de Projet/ Data - Success factor à IDF

Almatek
Publiée le
API

6 mois
Île-de-France, France
Almatek recherche pour l'un de ses clients ,Un Chef de Projet/ Data - Success factor à IDF Compétences (1 à 3) : • Gestion de projet 2 • Conception de test 2 • analyse de données 3 • rédaction de contrat d’interface 2 définition de stratégie de recette 2 • Coordination d’acteur 2 • excel 3 • Administration fonctionnelle de Success factor module EC 3 • Outil de requêtage de base de données 3 • Supervision des traitements batch 2 Missions : Stabilisation des interfaces EC => • Analyse et correction des erreurs. • Suivi quotidien des flux (API, IC, middleware). • Mise en qualité des échanges de données. Optimisation des flux SF ? middleware => • Audit des interfaces existantes. • Simplification et amélioration des mappings / règles. Accompagnement à l’implémentation de nouvelles interfaces => • Rédaction des specs techniques. • Coordination IT / middleware. • Tests et support post go-live.
CDI

Offre d'emploi
CDI – Data Engineer Databricks (AWS) – 3 à 7 ans d’expérience

Hexateam
Publiée le
Amazon S3
Apache Airflow
AWS Glue

La Défense, Île-de-France
Contexte Dans le cadre de notre croissance, nous recrutons un Data Engineer pour intervenir sur des environnements Databricks sur AWS, avec des enjeux d’ingestion, de transformation et de fiabilité des données. Missions Développement et ingestion de données • Concevoir et développer des pipelines de données en Python et Spark sur Databricks • Mettre en place des flux entre sources externes (ex : Oracle) et un Data Lake (S3 / Delta Lake) • Optimiser les traitements et les performances Orchestration et qualité des données • Orchestrer les workflows avec AWS Airflow • Mettre en place des contrôles qualité et des mécanismes de validation • Développer des outils de monitoring et de gestion des anomalies Maintien en condition opérationnelle • Assurer la disponibilité et la performance des pipelines • Diagnostiquer et corriger les incidents • Participer à l’amélioration continue des traitements Contribution • Participer aux ateliers techniques et aux échanges avec les équipes • Documenter les pipelines, architectures et processus • Contribuer aux bonnes pratiques Data et Big Data
Freelance
CDI

Offre d'emploi
Data Analyst Microsoft H/F

OBJECTWARE
Publiée le
Data Warehouse
DAX
Microsoft Fabric

1 an
40k-55k €
400-490 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Data Analyst qualifié et orienté métier pour rejoindre notre équipe Data Fabric. Dans ce rôle, vous serez chargé de traduire les besoins métiers internes en spécifications fonctionnelles structurées, modèles analytiques, tableaux de bord pertinents et analyses exploitables, afin de soutenir la prise de décision basée sur la donnée au sein de l'organisation. Responsabilités principales Analyse des besoins métiers et compréhension des données Identifier et analyser les besoins des clients internes et les traduire en cas d'usage analytiques clairs et spécifications de reporting. Collaborer avec les parties prenantes métier pour comprendre les processus, KPI et flux de prise de décision, ainsi que la logique métier derrière les indicateurs demandés. Développer et maintenir une bonne compréhension des modèles de données de la plateforme, des domaines de données de référence (ex. Client, RH, Finance) et des produits de données préparés (curated). Accompagner les responsables de domaines de données et les demandeurs de projets dans la planification des modèles de données et des transformations, en s'assurant de la clarté des définitions avant l'implémentation technique. Valider les définitions des indicateurs et les règles métiers afin de garantir leur cohérence entre les différents domaines et rapports. Développement analytique et visualisation Concevoir, développer et maintenir des tableaux de bord et rapports analytiques avec Power BI. Créer des modèles sémantiques et des mesures alignés avec les définitions métiers et les standards de gouvernance établis. Garantir que les tableaux de bord soient intuitifs, fiables et optimisés en performance. Améliorer en continu les visualisations et structures de reporting en fonction des retours des parties prenantes. Collaboration avec la plateforme Data Travailler étroitement avec les Data Engineers pour s'assurer que les transformations de données répondent à la logique métier et aux besoins de reporting. Fournir des retours sur la qualité des données, l'utilisabilité des modèles et les éventuelles lacunes dans les produits de données. Promouvoir des définitions cohérentes des KPI et de bonnes pratiques de documentation. Accompagner l'onboarding des nouveaux utilisateurs de la plateforme en leur fournissant des orientations sur les datasets disponibles et les capacités de reporting. Contribuer aux pratiques de gouvernance des données en documentant les définitions des indicateurs, la propriété des rapports et les règles d'utilisation.

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1460 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous