Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 1 689 résultats.
Freelance

Mission freelance
Data Manager expert modélisation de données (H/F)

Cherry Pick
Publiée le
Data analysis
Data quality
Snowflake

12 mois
600-630 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Data Manager expert modélisation de données(H/F), pour le compte de l'un de ses clients qui opère dans le domaine Hôtelier. Description 🎯 Contexte de mission Dans le cadre d’un programme stratégique au sein d’une direction Data, nous recherchons un Data Manager Senior intervenant en rôle transverse sur le domaine Customer et les autres domaines data. La mission vise à garantir la cohérence, la standardisation et la qualité long terme du paysage data , en assurant l’alignement entre les équipes métier, produit et techniques. 🚀 Missions principales et rôle Le Data Manager agit comme référent fonctionnel transverse , garant des standards de data management et facilitateur entre les équipes. 🏗️ 1. Cadrage & Design des Data Products Accompagner les équipes Customer dans le cadrage et la conception des data products Apporter une forte compréhension fonctionnelle des processus Customer Conseiller sur les choix de modélisation (complexité, faisabilité, impacts transverses) Garantir l’alignement avec l’architecture cible et les standards existants 📐 2. Standards & Gouvernance Data Définir et maintenir les standards de data management (règles de modélisation, conventions de nommage, documentation) Structurer les règles de qualité, contrôles et réconciliations Assurer la cohérence et l’adoption des standards au sein du domaine Customer Garantir la qualité de la documentation technique et de la data lineage Être le point de référence sur les pratiques de gouvernance 🌐 3. Urbanisation & Cohérence Transverse Assurer l’interopérabilité entre domaines data Identifier doublons, incohérences et fragmentation des concepts Customer Formuler des recommandations d’optimisation et de simplification Promouvoir la réutilisation et l’harmonisation des modèles Contribuer à la vision long terme de la qualité data 📦 Livrables attendus Support continu aux activités de data management Documentation technique des données (modèles, définitions, lineage) Mise en place et suivi des règles de qualité et de contrôle Coordination des parties prenantes Recommandations d’urbanisation et d’harmonisation
Freelance

Mission freelance
Data Analyst Lutte contre la fraude

ODHCOM - FREELANCEREPUBLIK
Publiée le
Data analysis
PySpark
Python

2 ans
400-580 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Localisation : Aix-en-Provence Contexte de la mission : Le présent marché spécifique a pour objet le renforcement de l'équipe de data analyste. Le profil aura pour mission de mettre en oeuvre des analyses dans le cadre de la lutte contre la fraude. Fort d'une expérience DATA, il devra prendre en compte toutes les données du SI afin d'etudier leur cohérence et leur impact dans les processus métiers sensibles." Missions : Au sein de l’équipe data dédiée au sujet, vous contribuez à la conception et à l’exploitation de dispositifs d’analyse visant à améliorer la détection des risques de fraude. Rattaché à l'équipe Analyse de la donnée, l'intervenant aura pour principales missions : - Prise en compte des données du domaine "Individu Allocataire" et assimilation de leurs impacts dans le SI - Mise en oeuvre de cas d'usage métiers orientés lutte contre la fraude par croisement des données ( ciblage , analyse de donnée ou prédiction ) - Développement et maintenance de produits DATA réutilisables - Respect des normes et bonnes pratiques au sein de l'équipe
CDI
Freelance

Offre d'emploi
Consultant SAP Data Migration (H/F)

Scalesys
Publiée le

1 mois
55k-75k €
700-1 200 €
Île-de-France, France
📋 RÉSUMÉ Au sein d’un programme SAP (S/4HANA ou ECC), vous pilotez et réalisez les activités de migration de données de bout en bout. Vous sécurisez la qualité, la traçabilité et les cutovers, en coordination avec les équipes métiers, fonctionnelles et techniques. 🎯 MISSIONS Cadrer la stratégie de migration (périmètre, objets, sources, approche Big Bang / waves) et définir le plan de migration Analyser et qualifier les données sources (ERP legacy, fichiers, bases de données) et identifier les écarts et anomalies Concevoir les règles de mapping (source → cible) et les transformations associées, avec validation métier Mettre en place les cycles de migration (mock loads, dress rehearsal, cutover) et piloter le runbook de cutover Réaliser les chargements via outils standards (SAP Migration Cockpit / LTMC-LTMOM, LSMW, BAPIs/IDocs, ETL) et automatiser lorsque pertinent Mettre en œuvre la gouvernance data (référentiels, responsabilités, RACI) et assurer la traçabilité/auditabilité Définir et exécuter les contrôles de réconciliation (quantitatif/qualitatif) et assurer la résolution des defects Produire les KPI de migration (taux de complétude, rejets, qualité) et animer les comités de suivi Accompagner les équipes (métier, key users, IT) sur la préparation et le nettoyage des données (data cleansing) Contribuer à la documentation et au transfert de connaissances post go-live 📦 LIVRABLES Stratégie et plan de migration (planning, cycles, waves) Cartographie des données et inventaire des objets migrés Dossiers de mapping (source→cible) validés métier + règles de transformation Plan de data cleansing et gouvernance (RACI, responsabilités) Scripts/paramétrages de chargement (LTMC/LTMOM/LSMW/ETL) et procédures associées Plan de tests de migration + résultats des mock loads (journal des rejets/defects) Réconciliations (quantitatives/qualitatives) + preuves de contrôle Runbook de cutover (séquencement, timings, rollback, points de contrôle) Reporting/KPI de migration et compte-rendus de comités Documentation de transfert de compétences (post go-live)
CDI

Offre d'emploi
Data Engineer Cloud H/F

FED SAS
Publiée le

55k-65k €
75001, France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris, un Data Ingénieur Cloud H/F dans le cadre d'un CDI. Rattaché à la DSI, vous contribuez à la conception, à l'industrialisation et à la fiabilisation de la plateforme data de l'entreprise. Votre rôle est clé pour garantir la disponibilité, la qualité et la sécurisation des données utilisées par les équipes BI, analytics et métiers Vos principales missions : Développement et gestion des pipelines data * Concevoir et maintenir des pipelines d'ingestion et de transformation des données * Contribuer à la structuration et à la performance du Data Lake et du Data Warehouse * Assurer la disponibilité et la fiabilité des flux de données Industrialisation de la plateforme data * Participer à la mise en place de standards de développement et de déploiement * Contribuer à l'automatisation et à l'industrialisation des pipelines data * Garantir la robustesse et la performance des traitements Qualité, sécurité et gouvernance des données * Mettre en place des contrôles de qualité et de traçabilité des données * Contribuer au monitoring et à l'observabilité de la plateforme * Veiller au respect des exigences de sécurité et de conformité (RGPD) Collaboration transverse * Travailler en étroite collaboration avec les équipes BI, Data Analytics et IT * Participer à la documentation et au partage de bonnes pratiques * Contribuer à la structuration et à l'amélioration continue de la Data Factory
CDI

Offre d'emploi
Lead Data Scientist

█ █ █ █ █ █ █
Publiée le
Apache Airflow
Ocaml
Python

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer Nantes/pa

WorldWide People
Publiée le
Scripting

12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Freelance

Mission freelance
DATA ANALYST SENIOR LOOKER

PROPULSE IT
Publiée le

24 mois
300-600 €
Paris, France
Polyvalent.e, vous travaillerez sur des problématiques d'analyse de données, de traitements d'informations pour l'ensemble des directions métiers Vous participerez à la mise en place de solutions innovantes et pérennes en utilisant vos compétences en Data. En charge d'exploiter et d'analyser les données du groupe afin de suivre les performances business, de parfaire la connaissance de nos données et de contribuer aux actions métier. Missions principales : Vos principales missions seront : · Développer des indicateurs de pilotage à destination de différentes directions du groupe, · En lien avec le métier, analyser les données et spécifier aux développeurs les données et règles de gestion à appliquer · Mettre en place des reportings (Cockpit, Scorecard ...) via nos solutions de data visualisation, · Accompagner les projets transverses afin d'anticiper les impacts et enjeux à venir, · Accompagner les projets d'architecture Data/ couche sémantique sur Look ML · Réaliser des analyses et restituer les enseignements via des dashboards et supports clairs, · Être force de proposition pour déployer des suivis d'indicateurs pertinents, · Participer au développement de la culture Data du groupe
Freelance
CDI

Offre d'emploi
Data Analyst Microsoft H/F

OBJECTWARE
Publiée le
Data Warehouse
DAX
Microsoft Fabric

1 an
40k-55k €
400-490 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Data Analyst qualifié et orienté métier pour rejoindre notre équipe Data Fabric. Dans ce rôle, vous serez chargé de traduire les besoins métiers internes en spécifications fonctionnelles structurées, modèles analytiques, tableaux de bord pertinents et analyses exploitables, afin de soutenir la prise de décision basée sur la donnée au sein de l'organisation. Responsabilités principales Analyse des besoins métiers et compréhension des données Identifier et analyser les besoins des clients internes et les traduire en cas d'usage analytiques clairs et spécifications de reporting. Collaborer avec les parties prenantes métier pour comprendre les processus, KPI et flux de prise de décision, ainsi que la logique métier derrière les indicateurs demandés. Développer et maintenir une bonne compréhension des modèles de données de la plateforme, des domaines de données de référence (ex. Client, RH, Finance) et des produits de données préparés (curated). Accompagner les responsables de domaines de données et les demandeurs de projets dans la planification des modèles de données et des transformations, en s'assurant de la clarté des définitions avant l'implémentation technique. Valider les définitions des indicateurs et les règles métiers afin de garantir leur cohérence entre les différents domaines et rapports. Développement analytique et visualisation Concevoir, développer et maintenir des tableaux de bord et rapports analytiques avec Power BI. Créer des modèles sémantiques et des mesures alignés avec les définitions métiers et les standards de gouvernance établis. Garantir que les tableaux de bord soient intuitifs, fiables et optimisés en performance. Améliorer en continu les visualisations et structures de reporting en fonction des retours des parties prenantes. Collaboration avec la plateforme Data Travailler étroitement avec les Data Engineers pour s'assurer que les transformations de données répondent à la logique métier et aux besoins de reporting. Fournir des retours sur la qualité des données, l'utilisabilité des modèles et les éventuelles lacunes dans les produits de données. Promouvoir des définitions cohérentes des KPI et de bonnes pratiques de documentation. Accompagner l'onboarding des nouveaux utilisateurs de la plateforme en leur fournissant des orientations sur les datasets disponibles et les capacités de reporting. Contribuer aux pratiques de gouvernance des données en documentant les définitions des indicateurs, la propriété des rapports et les règles d'utilisation.
Freelance
CDI

Offre d'emploi
Data Engineer GCP

KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
CDI

Offre d'emploi
Manager Plateformes et Outils Data - CDI

CAPEST conseils
Publiée le
Apache Kafka
Business Object
Cloud

Nouvelle-Aquitaine, France
Avant toute chose, avez vous bien noté qu'il s'agissait d'un poste à pourvoir en CDI ? Je suis désolée. Pas d'ouverture possible pour une mission. Dans le cadre du développement de ses activités Data, notre client recherche un Manager Plateformes et Outils Data. L’équipe est en charge des Plateformes et Outils DATA permettant l’exploitation de la donnée par les métiers, la BI et la Data Science, dans un environnement combinant solutions Cloud hybrid (souverain), et outils data spécialisés sont au cœur de la stratégie DATA. Nous recherchons un profil permettant le management et le pilotage des équipes et le Maintien en condition opérationnel des plateformes data. L’objectif du poste est de sécuriser le fonctionnement de l’équipe et de fluidifier les opérations, afin de permettre au Responsable du pôle de se concentrer sur les enjeux stratégiques et la transformation data. Vos missions Piloter l’activité de l’équipe Suivre les projets liés aux plateformes et outils data Coordonner les équipes, vis à vis des projets, de l'IT et les métiers Challenger et accompagner les équipes sur les sujets techniques Contribuer à l’amélioration continue des plateformes et des pratiques avoir une posture orienté capital humain respecter les engagements projets Environnement technologique Informatica- MDM Kafka Hadoop Business Objects Tableau Dataiku SAS environnements Onpremise et cloud Profil recherché Expérience confirmée dans les environnements Data / BI / plateformes data Passé technique fortement souhaité (data engineer, BI engineer, architecte data…) Bonne compréhension des architectures data, SaaS et cloud Capacité à dialoguer avec des profils techniques et métiers Leadership transversal et sens de l’organisation Ce poste s’adresse à un profil souhaitant évoluer vers un rôle de pilotage et de coordination au cœur de la transformation data. Poste en CDI.
Freelance

Mission freelance
Geo Data Engineer

Celexio
Publiée le
Apache Airflow
AWS Cloud
Bash

3 mois
400-550 €
Paris, France
Vous êtes un "bricoleur" du code, passionné par l'infrastructure et capable de naviguer dans des environnements techniques denses ? Nous recherchons un Geo Data Engineer (H/F) pour rejoindre un acteur majeur de la Tech. Ici, on ne cherche pas forcément un titre, mais un tempérament : quelqu'un qui n'a pas peur de mettre le nez dans le code, de comprendre l'infra et de proposer des solutions concrètes. 📋 Détails de la mission Secteur d’activité : Plateformes Digitales / Data Localisation : Paris (Télétravail flexible) Durée : Mission longue (Freelance, Indépendant ou Portage) Démarrage : ASAP Votre challenge Au sein d'un environnement riche et techniquement challengeant, vous serez le garant de la qualité et de la fluidité des flux de données géographiques. Votre autonomie et votre capacité à communiquer seront vos meilleurs atouts pour vous onboarder efficacement. Vos missions principales : Développer et maintenir des pipelines de données robustes. Intervenir sur l'infrastructure et le code pour optimiser les performances. Collaborer avec les équipes transverses pour intégrer des solutions Data innovantes. Apporter votre vision de "touche-à-tout" pour résoudre des problématiques complexes.
Freelance

Mission freelance
DATA ENGINEER / TECH LEAD

Codezys
Publiée le
Conception
Informatica
Power BI Desktop

12 mois
450-550 €
Toulouse, Occitanie
Contexte de la mission Nous recherchons un(e) chef de projet technique / ingénieur data expérimenté(e), possédant des compétences avérées en SQL, ETL et outils de reporting. La mission concerne le domaine du datawarehouse de cargaison, spécialisé dans le chargement et la transformation de données pour les filiales AF&KL. La personne sélectionnée devra accompagner l’équipe dans la gestion des projets en cours ainsi que dans le développement de nouvelles fonctionnalités, en apportant son expertise pour les corrections et améliorations futures. Le poste s’inscrit au sein d’une équipe composée de huit membres, et la présence à Toulouse est obligatoire. Objectifs et livrables Contribuer à la maintenance et à l’évolution du datawarehouse cargo, en garantissant la qualité et la performance des données. Participer à la conception, au développement et à la mise en œuvre des nouvelles fonctionnalités et corrections. Collaborer étroitement avec l’équipe pour assurer la cohérence et l’efficacité des processus de chargement et de transformation des données. Fournir une documentation claire et précise des livrables réalisés. Conditions particulières Localisation : obligatoire à Toulouse. Veuillez fournir la matrice jointe détaillant les niveaux de compétence pour chaque profil proposé. Nous demandons uniquement la soumission de candidats correspondant strictement aux compétences requises, notamment pour les niveaux 3/4 ou 4/4 dans les compétences clés mentionnées.
Freelance

Mission freelance
Data Engineer Nantes /st

WorldWide People
Publiée le
Python

12 mois
340-390 €
Nantes, Pays de la Loire
Data Engineer Nantes •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
CDI

Offre d'emploi
Data scientist (H/F)

IA Soft
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)

6 mois
40k-45k €
400-550 €
Fontenay-sous-Bois, Île-de-France
Dans le cadre de notre développement, nous recherchons un(e) Data Scientist en CDI pour renforcer notre équipe data. Vous participerez à la valorisation des données de l’entreprise afin d’aider à la prise de décision, d’optimiser les performances et de développer des modèles prédictifs à forte valeur ajoutée. Missions principales : Collecter, nettoyer et structurer des données provenant de différentes sources Réaliser des analyses statistiques et exploratoires pour identifier des tendances, corrélations et opportunités Développer, entraîner et évaluer des modèles de machine learning et d’intelligence artificielle Mettre en production et suivre les performances des modèles développés Collaborer avec les équipes métier, produit, IT et BI pour comprendre les besoins et proposer des solutions adaptées Concevoir des tableaux de bord, rapports et visualisations pour restituer les résultats Assurer une veille technologique sur les outils, méthodes et innovations en data science Participer à l’amélioration continue des processus de traitement et de gouvernance des données
Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

PROPULSE IT
Publiée le
BI

24 mois
250-500 €
Paris, France
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Freelance

Mission freelance
SAP Senior Developer BTP / Integration & Data Conversion

Intuition IT Solutions Ltd.
Publiée le
SAP ABAP
SAP S/4HANA

2 ans
Versailles, Île-de-France
Nous recherchons un Développeur SAP BTP / CPI senior - Integration & Data Conversion pour une mission de très longue durée dans le cadre d'une implémentation SAP S/4 Hana Cloud. Vous participerez à toutes les étapes du projet. Vous devez être capable de d'intervenir techniquement sur les projets d'intégration et de conversion de données, tout en contribuant à la mise en œuvre de solutions autour de SAP BTP, des APIs et des flux entre SAP, Legacy Systems et les différents systèmes. Mission: • Développer et maintenir des flux d'intégration autour de SAP BTP et de l'Integration Suite, en lien avec SAP, les systèmes legacy et les systèmes satellites. • Mettre en œuvre des interfaces techniques basées sur API, événements, fichiers ou middleware, selon les schémas définis par le projet. • Effectuer des activités de conversion de données • Contribuer aux tests techniques, aux tests d'intégration et à la correction des bugs • Documenter les développements réalisés et participer au transfert de connaissances aux équipes internes Livrables: • Dossier d'intégration technique/cadre de données. • Mappage d'interface et stratégie API/BTP. • Documents de conception technique détaillée sur les flux et conversions critiques. • Stratégie et plan de conversion de données avec cartographie, règles de transformation et séquencement. • Support pour les tests d'intégration, les cycles de validation et le basculement. • Documentation et transfert de connaissances aux équipes internes

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1689 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous