Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 1 489 résultats.
Freelance
CDI

Offre d'emploi
Data analyste - Montpellier / Nantes / Paris

VISIAN
Publiée le
Microstrategy
PowerBI

3 ans
47k-50k €
500-530 €
Montpellier, Occitanie
Contexte Au sein d’une Direction Data d’un grand groupe du secteur bancaire, vous intégrez un chapitre dédié à l’accompagnement des équipes métiers dans la valorisation de la donnée. Vous intervenez dans un environnement multi-sites, en lien étroit avec des squads produit, des équipes marketing et des directions métiers, avec un fort enjeu de pilotage business et de transformation digitale par la data . Missions Recueillir et analyser les besoins métiers en collaboration avec les équipes Business, PO et BA Traduire les besoins en KPI pertinents pour le pilotage des activités Exploiter les données issues du SI décisionnel / marketing Réaliser des analyses exploratoires et produire des indicateurs fiables Concevoir et maintenir des tableaux de bord décisionnels (reporting, data visualisation) Restituer les analyses aux équipes métiers et accompagner la prise de décision Présenter les résultats dans des instances (comités, réunions métiers) Participer à l’amélioration continue des pratiques data Contribuer à des sujets de tracking digital et analyse marketing (parcours utilisateurs, performance digitale) Livrables KPI métiers (définition, calcul, documentation) Tableaux de bord décisionnels Analyses exploratoires et études data Restitutions visuelles et supports de présentation Recommandations business basées sur la donnée Environnement technique Data visualisation : MicroStrategy (ou Power BI / Tableau) SQL (niveau expert) Base de données : Teradata Environnement décisionnel / data marketing
Freelance
CDI

Offre d'emploi
Data Analyst Senior ( F/H) Nantes

Argain Consulting Innovation
Publiée le
Microstrategy
PowerBI
SQL

1 an
40k-45k €
500-550 €
Nantes, Pays de la Loire
🎯 Contexte Dans le cadre du renforcement des équipes Data d’un grand acteur du secteur bancaire, nous recherchons un(e) Data Analyst expérimenté(e) pour intervenir sur des problématiques de pilotage de la performance, marketing et parcours digitaux. 🚀 Mission Vous interviendrez en étroite collaboration avec les équipes métiers afin de : Recueillir et analyser les besoins métiers, les traduire en indicateurs de performance (KPI) Exploiter les données issues des systèmes décisionnels et marketing Produire et automatiser des reportings et tableaux de bord Concevoir des restitutions visuelles claires et orientées décision Accompagner les équipes dans l’interprétation des analyses Mettre à disposition et maintenir des KPI fiables et pertinents Participer à l’amélioration continue des pratiques Data 📈 Responsabilités clés Analyse et valorisation des données Définition et suivi des indicateurs business Contribution à la stratégie de pilotage et à la prise de décision 🛠️ Compétences techniques Outils de Data Visualisation : MicroStrategy (idéalement) ou Power BI / Tableau SQL avancé (expert) Manipulation de bases de données volumineuses (type Teradata ou équivalent) Bonne compréhension des environnements data et décisionnels 🤝 Compétences fonctionnelles & soft skills Très bonne communication et pédagogie Capacité à challenger les besoins métiers Esprit d’analyse et de synthèse Autonomie et rigueur Adaptabilité et sens de l’organisation ➕ Atouts Expérience dans le secteur bancaire ou financier Connaissance des problématiques marketing et digitales Connaissance d’outils de tracking (type Tag Management / Web Analytics) Mission longue durée, Nantes 3 jours de présence sur site par semaine obligatoire
CDI
Freelance

Offre d'emploi
Architecte Data/Snowflake/Cloud/GenAI

OBJECTWARE
Publiée le
Cloud
GenAI
Snowflake

3 ans
40k-71k €
400-550 €
Île-de-France, France
CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Langages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
CDI

Offre d'emploi
Chef de projet data groupe H/F

HAYS France
Publiée le

Tarare, Auvergne-Rhône-Alpes
Votre périmètre couvrira l'ensemble des directions métiers (Commerce, Finance, Supply Chain, Achats, RH, R&D…) ainsi que des filiales françaises et internationales. Vos responsabilités incluront : Piloter des projets data de bout en bout : cadrage, recueil des besoins, suivi, déploiement et mise en utilisation. Contribuer aux volets data des grands projets de transformation du groupe (ERP, CRM, WMS, outils métiers…). Assurer la coordination entre les équipes métiers, IT et data. Participer à la mise en place et à l'amélioration continue de la gouvernance de données (qualité, référentiels, catalogage). Participer à la définition, au suivi et à l'analyse des KPIs liés à la performance data. Challenger les besoins métiers et accompagner l'évolution des usages data. Les environnements techniques couvrent tout le cycle de vie de la donnée : Data Lake, Data Warehouse, Data Hub, MDM, PIM/DAM, Data Catalog, Data Quality, Data Visualisation, Data Export.
Freelance

Mission freelance
246239/100961/Product Owner DATA/IA Nantes

WorldWide People
Publiée le
Pilotage

6 mois
350-400 €
Nantes, Pays de la Loire
Product Owner Nous recherchons un profil Product Owner expérimenté. Product Owner en binôme/complémentarité avec un PO déjà en place sur la brique IA Gen (SG1) Activités principales attendues : Onboarding & adoption SG1, suivi satisfaction et améliorations orientées DX Cadrage & priorisation : formalisation des besoins, roadmap, arbitrages Quotas & gouvernance d’usage Déploiement/communication produit : guides, catalogue, notes de version, animation de la communauté Collaboration étroite avec le PO SG1 et les parties prenantes techniques/utilisateurs Objectifs et livrables Objectifs & enjeux de la mission : Product Owner en binôme/complémentarité avec un PO déjà en place sur la brique IA Gen (SG1) afin : Accroître la capacité de pilotage produit et accélérer l’adoption des services IA partagés au sein de la Plateforme DATA/IA Accompagner les équipes utilisatrices (prise en main, clarification des parcours d’usage, bonnes pratiques, support API) Définir/ajuster une gouvernance d’usage pragmatique, notamment les quotas par cas d’usage (volumétrie, criticité, performance) pour sécuriser la QoS et optimiser la consommation Préparer l’extension progressive de l’offre avec l’arrivée de nouveaux services partagés (OCR, Embedder, Speech2Text) : parcours, documentation, conditions d’accès, support, KPIs d’adoption. Compétences demandéesCompétences Niveau de compétence Pilotage Confirmé
CDI
Freelance

Offre d'emploi
Architecte Data / CMDB Snow (ServiceNow)

OBJECTWARE
Publiée le
Master Data Management (MDM)
ServiceNow

3 ans
45k-95k €
540-700 €
Île-de-France, France
Prestations demandées Les Missions principales sont : -Conception et optimisation du data model des référentiels IT techniques (CIs et métadonnées) -Définition des règles d’identification et de réconciliation (IRE) au sein de ServiceNow -Spécification des sources de vérité et cartographier les flux d’alimentation des référentiels -Déploiement des stratégies de data quality : déduplication, fiabilité, couverture, obsolescence -Application des principes de Master Data Management au contexte de la CMDB -Mise en place une gouvernance claire, documentée et partageable -Collaboration étroite avec les équipes ITSM, Discovery, MDM, sécurité et infrastructure -Accompagnement des équipes en charge des découvertes et des inventaires techniques -Production de la documentation d’architecture, standards, bonnes pratiques et processus -Développement des produits de données permettant de répondre aux besoins de reporting et d'audit
Freelance

Mission freelance
250906/Data Engineer/Developpeur Powercenter Informatica MDM, DBT SQL Oracle

WorldWide People
Publiée le
Informatica PowerCenter

3 mois
360-380 €
Niort, Nouvelle-Aquitaine
Data Engineer/ Developpeur Powercenter Informatica MDM, DBT SQL Oracle NIORT Les prestations porteront sur les activités suivantes : Réception des contrats d’interface Ingestion des fichiers dans la data fabrique Analyse fonctionnelle de donnée Préparation fichier de paramétrage Paramétrage Développement Informatica Mise en place et alimentation du Data Warehouse Préparation de livraison (via OGC et Gitlab) Mise en recette Analyse d’incidents et corrections Environnements : SQL KSH Hive/oracle Informatica powercenter Developpeur Powercenter Informatica DBT SQL Oracle Expected skills Skills Skill level Informatica MDM Expert ORACLE Expert SQL Azure Expert
Freelance

Mission freelance
101448/Architecte Data IA Apache Kafka,Cloud Architecture Nantes

WorldWide People
Publiée le
Apache Kafka

12 mois
400-620 €
Nantes, Pays de la Loire
Architecte Data IA Apache Kafka,Cloud Architecture Nantes . Architecture au sein d'une nouvelle plateforme Data IA chez notre client. La mission consiste : - de par son expertise à accompagner le client dans cette transition technologique - à conseiller sur la nouvelle nouvelle architecture cloud-native et orienté self-service en intégrant des solutions modernes telles que Kafka, Iceberg, Trino et S3. - à accompagner l'équipe en charge du socle service data pour challenger les choix d'architecture autour des solutions d'observabilité offertes par OpenMetadata, SODA et/ou Great Expectations par exemple. - à participer à la conception d'architectures robustes et évolutives, tout en garantissant la conformité RGPD et la sécurité des données. - à travailler en étroite collaboration avec les Product Owners, Tech Lead, Data Stewards et DevOps pour assurer l'intégration harmonieuse des nouveaux produits. Qualifications demandées : Apache Kafka,Cloud Architecture.
Freelance

Mission freelance
DATA ENGINEER GCP

ESENCA
Publiée le
Apache Airflow
BigQuery
DBT

1 an
400-500 €
Lille, Hauts-de-France
⚠️ Compétences obligatoires (indispensables pour ce poste) Les candidats doivent impérativement maîtriser les compétences suivantes : BigQuery (Google Cloud Platform) – niveau confirmé Orchestration de pipelines de données (ex : Airflow) – niveau confirmé Transformation de données (ex : dbt) – niveau confirmé Architecture Data Mesh / Data Product – niveau confirmé SQL et modélisation de données Environnement Google Cloud Platform (GCP) Gestion de pipelines de données et pratiques DevOps (CI/CD) Anglais professionnel Intitulé du poste Data Engineer Objectif global du poste Accompagner les équipes produits digitaux dans le déploiement d’un Framework Data Management , en assurant la diffusion des standards, bonnes pratiques et méthodes de Data Engineering au sein des plateformes digitales. Le poste s’inscrit dans une équipe Data transverse avec pour mission de faciliter l’exploitation et la valorisation des données par les équipes métiers et digitales . Principaux livrables Déploiement opérationnel du framework Data Management dans les produits digitaux Élaboration de guides pratiques à destination des équipes produits Mise en place et documentation de standards, patterns et bonnes pratiques Data Engineering Missions principales Le Data Engineer aura notamment pour responsabilités : Collecter, structurer et transformer les données afin de les rendre exploitables pour les utilisateurs métiers et digitaux Concevoir et organiser un modèle physique de données répondant aux enjeux d’architecture Data Mesh Mettre en œuvre des méthodes permettant d’améliorer : la fiabilité la qualité la performance des données l’optimisation des coûts ( FinOps ) Garantir la mise en production des flux de données dans le respect de la gouvernance et des règles de conformité Assurer le respect des réglementations liées à la protection des données Maintenir et faire évoluer la stack technique Data Mettre en place un cadre de bonnes pratiques pour améliorer la qualité des développements de flux de données et leur suivi en production Participer aux rituels agiles de l’équipe et contribuer à la veille technologique Environnement technique Cloud : Google Cloud Platform (GCP) Data Warehouse : BigQuery Orchestration : Airflow Transformation : dbt Streaming : Kafka Stockage : GCS Langages : SQL, Shell Bases de données : SQL / NoSQL DevOps : CI/CD, Git, data pipelines Méthodologie Travail en méthodologie Agile Gestion de version avec Git Participation active aux rituels d’équipe Langues Français : courant Anglais : professionnel (impératif)
Freelance

Mission freelance
Ingénieur Infrastructure Data – Cloudera / Hadoop

Deodis
Publiée le
Red Hat

1 an
450 €
Île-de-France, France
Au sein de l’équipe Data & IA, l’Ingénieur Infrastructure Data est responsable de l’administration, de l’évolution et du maintien en conditions opérationnelles des plateformes Big Data basées sur l’écosystème Cloudera CDP et des technologies Open Source. Il conçoit et met en œuvre des solutions d’ingestion, de stockage et de traitement de données (Hadoop, Ozone, Hive, Kafka, Spark, etc.), automatise les pipelines de données et veille à la qualité, la sécurité et la conformité des données, notamment au regard du RGPD. Il participe également à l’industrialisation et au déploiement de modèles de data science et de machine learning, tout en assurant le support technique aux équipes applicatives et métiers. Enfin, il contribue aux projets d’évolution des plateformes, à la migration des clusters Hadoop et à l’amélioration continue des infrastructures, en collaboration avec les équipes infrastructures, production et internationales.
Freelance

Mission freelance
Manager Transition Data Factory (H/F)

Cherry Pick
Publiée le
Microsoft Power BI
Pilotage

6 mois
750 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un MT Data Factory (H/F) pour l'un de ses clients qui opère dans le secteur du transport aérien et de la gestion d’infrastructures aéroportuaires. Description🌐 Contexte de mission Dans le cadre de programmes de transformation IT à forte dimension stratégique, une organisation recherche un Manager de Transition Senior afin d’accompagner le responsable d’un département technologique dans le pilotage et la coordination des activités stratégiques et opérationnelles. La mission s’inscrit dans un environnement complexe avec un portefeuille de projets IT orientés Data et transformation du SI , nécessitant une vision globale des programmes, une forte capacité de gouvernance et un accompagnement opérationnel des équipes projets. ⚙️ Missions principales et rôle Gouvernance et stratégie : Concevoir et porter les dossiers d’investissement des projets . Rédiger les cahiers des charges techniques et analyser les offres dans le cadre des consultations. Piloter les prestations et assurer le suivi des engagements. Garantir l’alignement entre feuilles de route stratégiques et opérationnelles . Préparer les éléments nécessaires aux instances de gouvernance et de décision . Contribuer à l’amélioration continue des processus internes. Pilotage du portefeuille de programmes : Participer à l’identification et au suivi des projets du domaine. Assurer le pilotage du portefeuille projets et le suivi de la performance des programmes. Mettre à jour les outils de suivi et de pilotage du portefeuille . Produire les tableaux de bord et reportings consolidés . Participer aux instances de coordination et aux comités de pilotage. Coordination et accompagnement opérationnel : Assurer la coordination entre les équipes techniques, métiers et les différentes parties prenantes. Accompagner les chefs de projets et les ingénieurs dans le pilotage opérationnel. Faciliter le partage d’informations entre les équipes et les directions concernées. Assister le responsable du département dans certaines missions de support managérial . Contribution aux initiatives transverses : Participer à l’organisation d’évènements professionnels (agenda, contenus, logistique). Contribuer à la valorisation et à la communication autour des programmes en cours. 🎯 Objectifs Structurer et piloter efficacement le portefeuille de projets stratégiques . Garantir la cohérence entre les initiatives IT et les orientations stratégiques. Améliorer la visibilité et le pilotage des programmes via des reportings consolidés. Accompagner les équipes dans la réussite opérationnelle des projets de transformation .
Freelance

Mission freelance
Cyber Operation Expert Cloud

Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services

12 mois
Les Ulis, Île-de-France
Contexte de la mission [Ne pas se positionner si consultant ou freelance basé en France. Cette mission s’inscrit dans le cadre d’une opération de nearshore ou offshore.] Le consultant interviendra de manière transverse au sein des équipes Cloud et Cybersécurité, afin d’accompagner les squads dans la sécurisation, l’évolution et la mise en conformité de leurs produits. Cette mission se déroule dans un environnement orienté produit/running, avec un enjeu majeur autour de la sécurité opérationnelle et de la montée en maturité des pratiques cloud. Objectifs et livrables Objectifs de la mission Renforcer la sécurité des environnements cloud Azure. Accompagner les squads dans la conception et la sécurisation des produits cloud. Analyser les risques associés aux évolutions techniques. Définir et déployer des mesures de remédiation adaptées. Assurer la conformité aux référentiels internes de cybersécurité. Contribuer à l’amélioration des pratiques de sécurité cloud et à leur montée en maturité. Expertise technique Cloud Fournir une expertise sur l’élaboration d’architectures sécurisées sur Azure. Définir des modèles de sécurité (Entra ID, RBAC, Key Vault, gestion des secrets, etc.). Intervenir sur les sujets liés au réseau, à l’identité et à la gouvernance cloud. Utiliser les outils natifs Azure tels que Defender for Cloud, Azure Policy, Monitor et Log Analytics. Réaliser des analyses de risques techniques et élaborer des plans de remédiation. Accompagnement des squads (RUN / Mode produit) Revoir et qualifier les évolutions techniques (nouvelles fonctionnalités, infrastructure, architecture). Identifier les impacts en matière de cybersécurité et proposer des stratégies de mitigation. Participer aux ateliers, revues d’architecture et réunions d’avancement. Supporter la mise en œuvre des mesures de sécurité. Anticiper les risques liés aux évolutions des produits. Transversalité & coordination Collaborer avec les équipes Cloud, DevSecOps, Architecture et Cybersécurité. Remonter les risques, alertes et éventuels points de blocage. Proposer des améliorations sur les pratiques et processus en place. Intervenir sur des sujets transversaux selon les priorités. Livrables attendus Revues de sécurité suite aux changements cloud. Analyses de risques techniques. Recommandations et bonnes pratiques en matière de sécurité. Contribution à l’enrichissement des référentiels cybersécurité cloud. Participation active aux comités techniques et de sécurité.
Freelance

Mission freelance
Consultant(e) – Étude de Faisabilité Finance Data

Lùkla
Publiée le
API
Cloud
High Level Design (HLD)

1 an
Marseille, Provence-Alpes-Côte d'Azur
Contexte : Dans le cadre d’un projet Groupe, nous recherchons un(e) consultant(e) pour réaliser une étude de faisabilité visant l’intégration des données financières des terminaux dans les Finance Datamarts Groupe . Le périmètre couvre les processus : Accounts Payable (AP) Accounts Receivable (AR) General Ledger (GL) L’environnement est multi-ERP (IFS, SAP, Sage, Navision…) avec une gouvernance décentralisée et des niveaux de maturité hétérogènes. Objectifs de la mission : Le consultant interviendra exclusivement sur une phase d’étude et d’aide à la décision , incluant : Analyse des processus financiers des terminaux Cartographie des ERP et des flux de données Évaluation de la qualité et de la cohérence des données Analyse des architectures et patterns d’intégration (batch, API, cloud-to-cloud) Étude des aspects gouvernance, sécurité et conformité Définition de scénarios de faisabilité (2 à 3 options) Recommandation finale de type Go / No Go Livrables attendus : Analyse fonctionnelle détaillée Cartographie des systèmes et data Schémas d’architecture de haut niveau (HLD) Scorecards de faisabilité Analyse des risques et plans de mitigation Rapport final consolidé Support de comités de pilotage
Freelance

Mission freelance
Senior Data Scientist IA / Computer Vision / GenAI

Signe +
Publiée le
Agent IA

12 mois
500-700 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Dans le cadre du développement de solutions technologiques innovantes destinées aux acteurs de la mobilité et de la gestion de flottes, une équipe data souhaite se renforcer avec un Senior Data Scientist spécialisé en intelligence artificielle. L’objectif est de concevoir et industrialiser des modèles avancés permettant d’optimiser la performance opérationnelle, la sécurité et la durabilité des solutions proposées. Objectif de la mission Concevoir, développer et industrialiser des briques d’intelligence artificielle avancées (computer vision, modèles prédictifs, IA générative, systèmes agents) dans un environnement produit data innovant. Missions principales Conception et développement IA Concevoir des algorithmes d’IA pour des modèles prédictifs (risque, consommation, maintenance, performance) Analyser les performances des modèles et suivre les KPI Assurer la traçabilité des itérations et la non-régression Participer à l’industrialisation des modèles IA générative et systèmes agents Contribuer aux travaux autour des modèles de langage (LLM) Développer des solutions d’IA générative et de systèmes agents Participer à l’animation d’une communauté technique IA Innovation et vision Assurer une veille technologique active Proposer des orientations techniques innovantes Contribuer à des travaux de recherche et d’innovation Collaborer avec des partenaires externes (labos, start-ups, éditeurs) Coordination et communication Interagir avec les équipes techniques et métiers Comprendre les besoins opérationnels des utilisateurs Participer à la rédaction et validation des tickets techniques et releases Présenter les résultats et recommandations Livrables attendus Briques algorithmiques industrialisables Indicateurs de performance et analyses Documentation technique Contributions à la roadmap data / IA Recommandations techniques et stratégiques Compétences obligatoires Expertise en intelligence artificielle et machine learning avancé Expérience sur les modèles de langage (LLM) et systèmes agents Connaissances solides en computer vision Expérience en industrialisation de modèles data Capacité à piloter des projets data complexes Esprit analytique et critique Compétences appréciées Connaissance des environnements cloud / MLOps Expérience produit data ou solutions innovantes Interaction avec écosystèmes de recherche Participation à projets innovants ou brevets
Freelance

Mission freelance
Data engineer Google cloud platform (GCP)

CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
BigQuery

6 mois
Île-de-France, France
Pour le compte d'un acteur majeur, nous recherchons un(e) Data Engineer confirmé(e) pour concevoir et déployer des chaînes de traitement de données complexes au sein d'un Datalake moderne. Vous intégrerez une équipe évoluant en mode Agile (Scrum/Kanban) avec une forte culture de l'automatisation. Vos responsabilités : Concevoir et mettre en œuvre les chaînes d’ingestion, de validation et de croisement de données. Assurer le déversement et l'enrichissement des données dans le Datalake. Produire automatiquement des agrégats (journaliers à mensuels) via la puissance du Cloud. Développer et documenter les User Stories en collaboration directe avec le Product Owner. Garantir la qualité via l'automatisation des tests fonctionnels et la correction des anomalies. Participer activement à la chaîne de delivery continue et assister les équipes d'exploitation. Profil recherché : Expertise confirmée sur la plateforme GCP (indispensable) . Maîtrise avancée de l'écosystème Spark / Scala / Kafka . Expérience solide sur les environnements conteneurisés ( GKE, Docker ) et l'Infrastructure as Code ( Terraform, Ansible ). Compétences pointues en stockage et requêtage ( BigQuery, SQL, HDFS ). Capacité à orchestrer des workflows complexes avec Airflow / Composer . Esprit collaboratif, curieux des évolutions technologiques et doté d'un excellent relationnel.
Freelance

Mission freelance
POT9028 - Un architecte Data - Snowflake sur Massy

Almatek
Publiée le
SQL

6 mois
Massy, Île-de-France
ALMATEK recherche pour l'un de ses clients, Un architecte Data - Snowflake sur Massy CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Languages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1489 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous