Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data à Lille

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 51 résultats.
Freelance

Mission freelance
Data Architect - 6 mois renouvelable - Lille

Holborn
Publiée le
API
Architecture

6 mois
Lille, Hauts-de-France

Data Architect - 6 mois renouvelable - Lille Notre important client recherche un Architecte Data pour une mission de 6 mois renouvelable sur Lille. Travail à distance occasionnel. Vos missions: Conception de modèles conceptuels de données par contexte métier. Identification des évènements métier par contexte métier. Définition et formalisation des Business Terms, Business Attributes et Business Event dans Collibra. Définition des Indicateurs Clés de Performance par contexte métier. Définition des règles de qualité des Business Terms Analyse de la conformité des API avec la data architecture. Analyse de la conformité des Data Set avec la data architecture. Les livrables sont : Modèles conceptuels de données par contexte métier Glossaire métier Analyse de la conformité des API et Dataset Compétences techniques : Modelisation data - Confirmé collibra - Confirmé Api Management Lifecycle - Confirmé Expertise métier Offre - Confirmé Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.

Freelance
CDI

Offre d'emploi
Data Analyst - 12 mois - Lille

Holborn
Publiée le
Data analysis
PowerBI
SQL

12 mois
40k-45k €
400-550 €
Lille, Hauts-de-France

Data Analyst - 12 mois - Lille Un de nos importants clients recherche un Data Analyst pour une mission de 12 mois sur Lille. 📊 Data Analyst – Performance & Supply Chain (H/F) 📍 Localisation : Lille – Présentiel uniquement 📅 Démarrage : Dès que possible 🕒 Type de mission : CDI / Freelance – Temps plein 🔍 Domaine : Contrôle de gestion / Analyse opérationnelle / Supply Chain Donnez du sens à la donnée : appuyez la performance opérationnelle par la data Vous aimez creuser, synthétiser, visualiser et faire parler les données ? Rejoignez une direction Performance dynamique, au service de l'animation opérationnelle en magasin et de la supply chain, pour transformer les données en leviers d'action concrets. 🎯 Votre mission Au sein d’un pôle data métier rattaché au contrôle de gestion (17 personnes), vous participerez à des projets data transverses à fort impact business. Vos responsabilités clés : Réaliser des études exploratoires et analyses statistiques en lien avec les enjeux métiers (suivi des remises, opérations commerciales, pilotage supply…) Concevoir des dashboards Power BI lisibles, ergonomiques et orientés décisionnel Être force de proposition sur des solutions data innovantes et adaptées aux problématiques du terrain Participer à la valorisation de la donnée au sein de l’organisation : fiabilisation, restitution synthétique, amélioration continue Collaborer avec des interlocuteurs techniques et métier en adaptant votre discours Contribuer activement à la démarche analytique du pôle data 🛠️ Compétences attendues Compétence Niveau requis SQL Confirmé – impératif Power BI Confirmé – impératif Esprit analytique / structuration de résultats Confirmé – impératif Python Junior – serait un plus Français Courant – impératif 👤 Profil recherché Vous avez déjà mené des analyses data orientées métier (finance, retail, supply…) Vous êtes rigoureux(se), structuré(e), à l’aise en autonomie, tout en appréciant le travail d’équipe Vous savez vulgariser les résultats d’analyse et avez un excellent sens de la synthèse Vous êtes curieux(se), proactif(ve) et orienté(e) solution et impact 🎯 Pourquoi cette mission est faite pour vous Vous rejoignez un pôle data métier reconnu et stratégique Vous travaillez sur des problématiques concrètes à fort enjeu opérationnel Vous développez vos compétences dans un environnement stimulant et collaboratif Vous donnez du sens à vos analyses en les mettant directement au service du terrain Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.

Freelance
CDI

Offre d'emploi
Data analyst confirmé marketing client

ANDEMA
Publiée le
PowerBI
SQL

12 mois
40k-45k €
350-400 €
Lille, Hauts-de-France

Contexte de la mission : Dans le cadre du renforcement de notre département IT Data, nous recherchons un(e) Data Analyst Confirmé(e) pour accompagner les équipes Marketing, CRM et Digital dans l'exploitation et l'analyse des données clients. L'objectif : améliorer la connaissance client, affiner la segmentation, et optimiser les actions marketing grâce à une analyse fine des comportements et parcours clients. Activités et responsabilités de la mission - Analyser les données clients pour identifier des comportements, profils et tendances de consommation. - Construire et maintenir des segmentation clients pertinentes (RFM, appétence, valeur client, cycle de vie.). - Réaliser des analyses ad hoc pour répondre aux besoins des équipes Marketing, CRM, Digital, Produit. - Mettre en place des tableaux de bord Power BI pour suivre les KPIs liés à l'acquisition, l'activation, la fidélisation, et la rétention client. - Collaborer avec les équipes Data Engineering pour la préparation et modélisation des données dans l'environnement Snowflake. - Identifier des opportunités business via des analyses prédictives ou des insights data-driven. - Contribuer à la qualité et cohérence des données clients, en lien avec les équipes IT et Data Governance. Résultats attendus - Mise en place de profils clients exploitables par les équipes métier. - Amélioration de la performance des campagnes marketing grâce à une segmentation plus fine. - Accroissement de la connaissance client et des insights comportementaux. - Mise en place de tableaux de bord dynamiques et accessibles, facilitant la prise de décision. Démarrage : rapide Localisation : métropolie lilloise (1j de télétravail par semaine non négociable)

Freelance

Mission freelance
Data Engineer GCP/Big Query (H/F)

Come Together
Publiée le
Google Cloud Platform (GCP)

3 mois
440-460 €
Lille, Hauts-de-France

Nous sommes à la recherche d'un profil Data Engineer pour participer aux opérations de build sur les environnements Big Data basées sur Google Cloud au sein de la Direction Data pour notre client acteur majeur de la grande distribution. Sa mission sera de concevoir et développer les nouveaux flux de données en étroite collaboration avec l'équipe actuelle de Data Engineer, Data Scientist et les équipes métiers. Ses principales missions seront les suivantes : - Analyser les besoins des métiers et les traduire en spécifications techniques (en contribuant également à l'élaboration des contrats d'interface et à la modélisation physique) - Développer des pipelines de données au sein de son périmètre - Veiller à la qualité et l'efficience des développements de l'équipe - Contribuer à la construction de la plateforme data et des services en remontant les besoins non couverts par le framework - Travailler en étroite collaboration avec l'équipe actuelle de Data Engineers, Data Scientists et les équipes métiers.

Freelance

Mission freelance
Ingénieur Ops Data & IA Lyon ou Lille/co

WorldWide People
Publiée le
Kubernetes
Python

12 mois
400-450 €
Lille, Hauts-de-France

Ingénieur Ops Data & IA Lyon ou Lille Participer à la gestion et à l'optimisation de notre infrastructure, en mettant l'accent sur les applications Data et d'intelligence artificielle · Gérer et optimiser les applications conteneurisées sur Kubernetes. · Automatiser les processus de déploiement et de gestion de l'infrastructure à l'aide de GitLab, Jenkins, Terraform et Ansible. · Travailler avec les plateformes cloud Azure et AWS pour déployer et gérer les services. · Collaborer avec les équipes de données et d'IA pour soutenir le développement et le déploiement de modèles d'IA. · Surveiller et améliorer les performances et la sécurité des systèmes. · Documenter les processus et les architectures. Compétences et qualifications requises · Expérience avérée dans la gestion d'applications Kubernetes . · Maîtrise des outils d'automatisation et de CI/CD : GitLab, Jenkins, Terraform, Ansible. · Expérience significative avec les plateformes cloud Azure et AWS. · Connaissance approfondie du monde de la data, des différents métiers, outils et de son écosystème. · Expérience en tant que Data Engineer appréciée. · Compréhension de l'écosystème de l'IA et expérience dans le déploiement de modèles d'IA, d'agent, d'applications RAG · Maîtrise de python · Capacité à travailler en équipe et à collaborer avec divers départements. · Excellentes compétences en résolution de problèmes et en communication

Freelance

Mission freelance
Ingénieur Ops Data & IA Kubernetes GitLab, Jenkins, Terraform, Ansible Azure AWS Lyon ou Lille/co

WorldWide People
Publiée le
Kubernetes
Python

12 mois
400-450 €
Lille, Hauts-de-France

Ingénieur Ops Data & IA Kubernetes GitLab, Jenkins, Terraform, Ansible Azure AWS Lyon ou Lille Participer à la gestion et à l'optimisation de notre infrastructure, en mettant l'accent sur les applications Data et d'intelligence artificielle · Gérer et optimiser les applications conteneurisées sur Kubernetes. · Automatiser les processus de déploiement et de gestion de l'infrastructure à l'aide de GitLab, Jenkins, Terraform et Ansible. · Travailler avec les plateformes cloud Azure et AWS pour déployer et gérer les services. · Collaborer avec les équipes de données et d'IA pour soutenir le développement et le déploiement de modèles d'IA. · Surveiller et améliorer les performances et la sécurité des systèmes. · Documenter les processus et les architectures. Compétences et qualifications requises · Expérience avérée dans la gestion d'applications Kubernetes . · Maîtrise des outils d'automatisation et de CI/CD : GitLab, Jenkins, Terraform, Ansible. · Expérience significative avec les plateformes cloud Azure et AWS. · Connaissance approfondie du monde de la data, des différents métiers, outils et de son écosystème. · Expérience en tant que Data Engineer appréciée. · Compréhension de l'écosystème de l'IA et expérience dans le déploiement de modèles d'IA, d'agent, d'applications RAG · Maîtrise de python · Capacité à travailler en équipe et à collaborer avec divers départements. · Excellentes compétences en résolution de problèmes et en communication

Freelance
CDI

Offre d'emploi
Product Manager e-commerce (H/F)

CITECH
Publiée le
Data analysis
E-commerce

6 mois
45k-55k €
350-380 €
Lille, Hauts-de-France

CITECH recrute ! 👌 ✨ Si vous souhaitez mettre vos compétences data au service d’un projet innovant dans l’univers du sport, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Product Manager e-commerce (H/F) 👉 Notre client est un acteur majeur de la distribution d’articles de sport. 👈 Vous intégrerez une équipe en immersion au sein des équipes produits digitaux impliquées dans la transformation des parcours pour les clients professionnels. Vous collaborerez étroitement avec les Product Managers, UX, développeurs, équipes métier, data et performance. Vous serez responsable de la mise en œuvre de la stratégie digitale e-commerce au sein d’une plateforme dédiée aux clients et au commerce, en contribuant à l’amélioration continue de l’expérience des professionnels. 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Contribuer à la définition et à la priorisation de la stratégie digitale e-commerce pour les clients professionnels. 🔸 Participer à la gestion de la demande et à la gouvernance du portefeuille projets. 🔸 Piloter les projets et la vie des produits avec les parties prenantes. 🔸 Animer l’amélioration continue via les backlogs, la collecte de feedbacks et le traitement des incidents récurrents. 🔸 Aligner les produits/fonctionnalités avec les enjeux utilisateurs et business. 🔸 Suivre les KPIs produits/fonctionnalités et chercher à améliorer la qualité du service. 🔸 Coordonner les échanges entre parties prenantes et équipes de développement dans le respect des standards digitaux du groupe. 🔸 Assurer la cohérence et l’interconnexion des produits digitaux au sein de l’écosystème global de l’entreprise, en garantissant une expérience fluide pour les clients professionnels et les collaborateurs.

Freelance

Mission freelance
Cybersecurity Architect / Cloud Security Architect

KUBE Partners S.L. / Pixie Services
Publiée le
AWS Cloud
Cybersécurité
Gestion des risques

1 an
400-650 €
Lille, Hauts-de-France

Nouvelle mission Freelance longue – Cybersecurity Architect / Cloud Security Architect – Accompagner des équipes pour intégrer la cybersécurité dès le design des projets (data, IA, infra, apps). Créer des guidelines, faire des revues d’architecture, partager les bonnes pratiques. Tech / Outils : AWS / GCP, IaC, Kubernetes / Containers / Serverless, CI/CD, GitOps, API Management, Data Platform, IoT, VPN, WAF, Proxy, Load Balancing, Auth (SAML, OAuth2, OIDC) Profil : Solide expérience cybersécurité, maîtrise Cloud + un langage (Python, Java, JS), anglais courant, esprit d’équipe, orienté solution et client. Certifications sécurité un plus (AWS, GCP, SANS, Offsec) Conditions : Freelance – portage possible – mission longue – Lille ou Paris avec 2-3 jours sur Lille + Télétravail flexible

Freelance

Mission freelance
Analytics Engineer Senior

CAT-AMANIA
Publiée le
Amazon S3
Databricks
DBT

1 an
100-450 €
Lille, Hauts-de-France

Nous changeons d’ ERP comptable + achats indirects + notes de frais pour les remplacer par une solution unique SaaS Workday. L’Analytics Engineer : Sera responsable de la transformation des données des outils legacy pour leur mise à disposition auprès de l’intégrateur chargé de déployer la solution Workday. Analyse et compréhension des systèmes sources / données existantes : Collaborer étroitement avec les PM, BI Engineers, les métiers et les Data Owners afin d’identifier les besoins, exigences et contraintes liées aux données, ainsi que les datasets à transformer et les pipelines de transformation à créer. Documenter les sources, les données et les règles de transformation existantes. Conception et développement de transformation de données sécurisés : Concevoir et développer des pipelines de données robustes et évolutifs pour transformer, garantir la qualité/intégrité de la donnée et charger la donnée des systèmes sources à destination de notre intégrateur partenaire. Mettre en œuvre des règles de transformation complexes pour adapter les données aux standards / templates définis par l’intégrateur. Mise à disposition des données et contrôles qualités : S'assurer que les données transformées sont conformes aux spécifications de l'intégrateur, respectent les formats, les structures et les règles de validation. Avec le Data Quality manager, mettre en place des mécanismes de contrôle pour garantir la conformité des données. Effectuer/Collaborer sur les tests unitaires, d’intégration, UAT

Freelance

Mission freelance
Tech Lead Back-End Java / Kafka

WHEEL OF WORK
Publiée le
Apache Kafka
BigQuery
Github

4 mois
450-510 €
Lille, Hauts-de-France

Contexte Nous recherchons un Tech Lead Back-End pour accompagner une équipe Data dans le développement et l’évolution d’une plateforme interne de gestion de la qualité des données. Cette solution permet de définir, automatiser et monitorer des règles de Data Quality sur des datasets BigQuery, avec des notifications et des visualisations associées. Missions principales En tant que Tech Lead, vos responsabilités seront de : Concevoir et implémenter de nouvelles fonctionnalités autour des règles et métriques de qualité des données. Faire évoluer l’architecture modulaire du back-end (Java/Spring Boot). Améliorer la scalabilité et la fiabilité de la plateforme (Kafka, Kafka Streams, GCP). Réaliser des revues de code, assurer du mentorat et veiller à la qualité du code. Maintenir et monitorer l’application en production. Environnement technique Back-end : Java 21, Spring Boot 3, Kafka, Kafka Streams, Firestore, PostgreSQL Cloud : Google Cloud Platform (App Engine, GKE) CI/CD : GitHub Actions Front-end : Vue.js (Svelte apprécié)

Freelance

Mission freelance
Dev Back end PHP Symfony -LILLE

Mobiskill (WEFY Group)
Publiée le
PHP
Symfony

9 mois
340-460 €
Lille, Hauts-de-France

📍 Localisation : Lille (3 jours sur site / 2 jours télétravail) 📅 Démarrage : ASAP – Mission de 9 mois (renouvelable) 💶 TJM : Selon profil 🎯 Contexte & Mission Le projet consiste à faire évoluer une application monolithique vers un environnement basé sur des microservices découplés et asynchrones, construits sur une architecture event-driven avec Apache Kafka comme backbone d’échange. Dans ce cadre, nous recherchons un·e Développeur·se Back-End Symfony senior pour contribuer activement à la conception, au développement et à la mise en production de ces nouveaux services distribués. 🚀 Objectifs de la mission Participer à la refonte des produits existants dans une logique de découplage technique Concevoir et développer des APIs REST robustes, maintenables et testées Collaborer étroitement avec les équipes techniques internes Contribuer aux choix d’architecture, aux revues de code et à la qualité logicielle Participer à la documentation technique et à l’industrialisation des bonnes pratiques 🛠️ Stack technique & environnement Langages & frameworks : PHP 8 / Symfony 6+, Python (bonus), NodeJS (bonus) Base de données : PostgreSQL Cloud & Data : S3, Trino, dbt, BigQuery / Snowflake CI/CD & versioning : GitHub, GitHub Actions Architecture : Microservices event-driven (Kafka) Compétences appréciées Expérience en environnement cloud ou pratiques DevOps (CI/CD, GitHub Actions) Connaissance de Python , NodeJS ou de stacks orientées data Sensibilité aux problématiques de performance et de scalabilité

Freelance

Mission freelance
Product Owner / Product Manager - 📍 Lille

ICSIS
Publiée le
Backlog management
Méthode Agile

2 ans
400-550 €
Lille, Hauts-de-France

La mission consiste à : - Responsable du Product Backlog - Référent de la vision métier, du MVP et du contenu métier du projet au sein des équipes agiles - User stories - Recette des éléments métiers produits par l'équipe - Coordination avec les équipes design, tech et business - Amélioration continue - Contexte international - Mission basée sur la métropole lilloise avec télétravail hybride Profil recherché : - Expérience confirmée comme Product Manager / Product Owner - Capacité à gérer des sujets à la frontière produit / tech / métier - Aisance dans l'animation d'ateliers, la rédaction de spécifications et la gestion du backlog - Vrai sens Business et UX pour la prise de décision - Approche data dirven pour prioriser et mesurer l'impact des investissements - Rigueur, organisation, communication, leadership, sens du service ... - Anglais professionnel à l'oral et à l'écrit

Freelance

Mission freelance
Tech Lead Java

ESENCA
Publiée le
Apache Kafka
CI/CD
Firestore

3 mois
Lille, Hauts-de-France

Contexte de la mission L'équipe conçoit et développe une plateforme interne permettant à toutes les équipes Data de l’entreprise de définir et d’automatiser des règles de qualité des données exécutées sur les datasets présents dans BigQuery. Ces règles peuvent être définies à partir de requêtes SQL personnalisées ou via des templates prédéfinis appelés Data Quality Metrics, qui mesurent diverses dimensions de la qualité des données : 🧭 Consistency, 🧩 Conformity, 🧱 Integrity, 📏 Completeness, 🎯 Accuracy, ⏱ Timeliness, 🔍 Uniqueness. L’outil permet de : - Planifier l’exécution des règles (scheduling) - Être notifié par email, slack en cas de non-respect des quality gates - Visualiser l’historique des métriques sous forme de graphes 👥 Composition de l'équipe - 1 Développeur Front-end senior (Vue.js) - 1 Développeurs Back-end expert - 1 Product Owner (mi-temps) - 1 Product Manager - 1 Tech Lead (tiers temps) 🧩 Objectifs de la mission En tant que Tech lead, vous serez intégré au cœur de l’équipe et participerez activement à : - La conception et l’implémentation de nouvelles fonctionnalités métier autour des règles et métriques de qualité - L’évolution de l’architecture modulaire du back-end (Spring Boot/Java 21) - L’amélioration de la scalabilité et fiabilité de la plateforme (Kafka, Kafka Stream, Firestore, PostgreSQL, GKE) - La revue de code, le mentorat éventuel et l’amélioration continue de la qualité du code - Le maintien et le monitoring de l'application ⚙️ Stack technique Back-end : - Java 21 - Spring Boot 3 - Kafka, Kafka Streams - Firestore, PostgreSQL - GitHub CI/CD (GitHub Actions) - Déploiement sur Google Cloud (App Engine, GKE) Front-end : - Vue.js, (Svelte éventuellement)

Freelance
CDI

Offre d'emploi
Dévéloppeur Python / GCP senior

BK CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python

3 ans
40k-50k €
100-450 €
Lille, Hauts-de-France

besoin à Lille, merci de respecter le TJM Développeur Back-end Senior – Python / GCP Dans le cadre du développement d’un produit stratégique destiné à simplifier et optimiser la gestion de flux de données, nous recherchons un Développeur Back-end Senior. La mission consiste à concevoir et à développer des microservices et des APIs robustes et sécurisées, tout en s’intégrant dans un environnement Cloud moderne basé sur GCP. Vous interviendrez sur des problématiques de performance, de scalabilité et de sécurité, en lien direct avec les enjeux de data engineering et d’industrialisation des flux. Vos missions principales Concevoir et développer des APIs RESTful et des microservices en Python (Flask, FastAPI). Participer à la définition de l’architecture technique et aux choix technologiques. Contribuer à l’amélioration continue (CI/CD, monitoring, bonnes pratiques de dev). Assurer la qualité du code via tests unitaires, intégration et revues de code. Intégrer vos développements aux services GCP (Cloud Run, Pub/Sub, BigQuery, App Engine, etc.). Apporter un support technique de niveau senior (run, corrections, optimisations).

CDI
Freelance
CDD

Offre d'emploi
Urgent Développeur Flux (Stambia / Semarchy xDI) – Lille

BK CONSULTING
Publiée le
Semarchy
Stambia

3 ans
40k-45k €
100-420 €
Lille, Hauts-de-France

📢 Mission – Développeur Flux (Stambia / Semarchy xDI) – Lille Contexte : Nous recherchons un Développeur Flux confirmé spécialisé en Stambia / Semarchy xDI pour rejoindre une équipe Data Engineering et renforcer les capacités de conception et d’industrialisation de flux de données opérationnels (hors décisionnel). Mission : Analyse des besoins métiers en intégration de données Conception et développement de flux complexes avec Stambia / Semarchy xDI Déploiement et mise en production (Git/Gitlab, CI/CD) Développement de scripts (Python, Shell, Beanshell) pour enrichir les traitements Tests de performance et robustesse Documentation technique et partage de connaissances RUN : monitoring, support, optimisation, astreintes Environnement technique : Stambia / Semarchy xDI, PostgreSQL, Oracle, Kafka, Kafka Connect, API REST, SQL, Git/Gitlab, Datadog, Jira, Confluence, Opcon. Conditions : 📍 Localisation : Métropole lilloise 🔄 Rythme : 3 jours sur site / 2 jours télétravail 🚀 Démarrage : ASAP ⏳ Durée : 1 à 3 ans (renouvelable) 📞 Astreintes prévues

Freelance

Mission freelance
Développeur ETL Stambia (H/F)

Anywr freelance
Publiée le
Stambia

1 an
400 €
Lille, Hauts-de-France

L’équipe Data Engineering recherche un développeur confirmé Stambia / Semarchy xDI pour renforcer ses capacités de conception, d’industrialisation et d’exploitation des flux de données. Vous interviendrez dans un environnement fonctionnel varié, couvrant plusieurs domaines stratégiques tels que la supply chain, le commerce ou encore la relation client. L'activité se concentre exclusivement sur les échanges de données opérationnels (hors périmètre décisionnel) et comprend à la fois des missions de BUILD (conception, création, évolutions) et de RUN (exploitation, optimisation, astreinte), au sein d'une équipe expérimentée. Analyse des besoins Comprendre les enjeux métier liés à l'intégration de données Collaborer avec les parties prenantes pour formaliser les besoins Conception Concevoir des flux complexes via Stambia / Semarchy xDI Modéliser des bases de données en réponse aux besoins opérationnels Développement Développer et configurer des flux d’intégration de données Produire du scripting (Python, Shell, Beanshell…) pour des traitements spécifiques Utiliser Git pour le versioning et la collaboration Tests Effectuer des tests de performance, de robustesse et de cohérence Garantir la fiabilité et la qualité des flux développés Documentation Rédiger la documentation technique Partager les connaissances avec l’équipe Maintenance Suivre et monitorer la production Assurer le support, la maintenance corrective et évolutive, ainsi que l’astreinte

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

51 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Lille, Hauts-de-France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous