Trouvez votre prochaine offre d’emploi ou de mission freelance Data Lake

Offre d'emploi
Data Engineer Stambia (F/H)
CDI/ Freelance/ Portage salarial 💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille (59) – 5 ans d'expérience minimum Vous êtes passionné(e) par la gestion, l’intégration et la qualité des données dans un environnement exigeant comme la banque ? Vous aimez structurer, cartographier et rendre les données fiables et exploitables pour les équipes métiers et Data ? Alors cette opportunité est faite pour vous ! 🚀 Vos missions : - Garantir la mise à disposition qualitative et sécurisée des données aux équipes Data Analysts, Data Scientists et métiers - Participer à la définition de la politique de la donnée et à la structuration de son cycle de vie dans un contexte bancaire (sécurité, conformité, traçabilité) - Superviser et intégrer les données issues de multiples systèmes bancaires et réglementaires , et contrôler leur qualité avant leur intégration dans le Data Lake - Développer, structurer, cartographier et nettoyer les données tout en respectant les exigences réglementaires (ex : BCBS239, GDPR, RGPD bancaire) - Produire les livrables : flux d’intégration sous Stambia, Data Lake partagé, cartographie des données, documentation technique et reporting

Offre d'emploi
Senior Data Engineer Talend
Contexte de la mission Dans le cadre d’un programme de transformation digitale et data, le Senior Data Engineer contribuera à la conception, la mise en œuvre et l’évolution de produits data au sein d’une organisation internationale. La mission consiste à renforcer les capacités de l’équipe en charge de la Data Platform et des initiatives stratégiques autour de la valorisation des données. Responsabilités principales Conception et développement : construire et optimiser des pipelines ETL (Talend, SSIS, ADF, BigQuery, GCS, Dataproc) pour l’extraction, la transformation et le chargement de données. Data Lake & intégration : mettre en place et alimenter des solutions de Data Lake en intégrant des données depuis diverses sources (APIs, transferts de fichiers, mécanismes de chargement complets ou incrémentaux). Data Warehousing : concevoir et maintenir des entrepôts de données, data marts et cubes répondant aux besoins métiers. Analytique & reporting : développer des outils analytiques pour générer des insights sur la performance et l’efficacité opérationnelle. Collaboration agile : travailler avec les Product Owners, administrateurs et équipes plateforme dans un cadre Agile. CI/CD & automatisation : mettre en place et exploiter des pipelines de déploiement automatisés (Azure DevOps, GitLab). Support et qualité : diagnostiquer les incidents de production, appliquer les bonnes pratiques de développement et assurer la qualité des livrables. Livrables attendus Composants data développés et déployés (code source). Documentation technique et fonctionnelle. Modèles de données documentés. Rapports d’audit et de tests. Sessions de transfert de compétences et support.

Mission freelance
Data Engineer DBT SNOWFLAKE AZURE
Expertise Technique : Solide maîtrise de l’architectureSnowflake architecture, incluant data sharing, partitioning, clustering,et materialized views. Expérience avancée avec DBT pour les transformations de données et la gestion des workflows. Compétences confirmées sur les services Azure : Data Factory, Data Lake, Synapse et Functions. Ingénierie de Données : Maîtrise de SQL, Python ou autres langages pertinents. Excellente compréhension des concepts de modélisation de données (schéma en étoile, normalisation). Pratique avérée dans la mise en place de pipelines ETL/ELT et d’outils d’intégration de données.

Offre d'emploi
Data Engineer GCP (F/H)
CDI/Freelance/Portage salarial 💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille (59) – 5 ans d'expérience minimum Vous souhaitez contribuer à la valorisation de la donnée dans un environnement Retail en pleine transformation digitale ? Vous aimez concevoir des pipelines robustes, fiabiliser les flux et exploiter la puissance du cloud GCP ? Alors cette opportunité est faite pour vous ! 🚀 Vos missions : - Garantir la fiabilité et la disponibilité des données pour les équipes métiers, Data Analysts et Data Scientists - Définir et mettre en place la gouvernance de la donnée et son cycle de vie dans un contexte Retail (gestion de la donnée client, transactionnelle et produit) - Intégrer et superviser les données issues de multiples sources (e-commerce, magasins, CRM, etc.) dans le Data Lake GCP - Développer, nettoyer et structurer les pipelines de données en assurant leur qualité, sécurité et conformité réglementaire (RGPD) - Produire et maintenir les livrables : Data Lake partagé, cartographie des données, code, reporting et documentation technique

Mission freelance
Data Engineer Big Data & API – Spark/PySpark/Scala, Hadoop / Starburst, CI/CD, Control-M
Contexte Équipe IT Data Management & BI – Squad Big Data & API. Le data lake “ESG” sert de plateforme de données pour des équipes IT et métiers. La mission peut évoluer vers d’autres squads Data selon les besoins. Missions Assurer le rôle de Data Engineer et développeur d’API au sein de la squad. Exploitation/production : supervision des traitements, corrections, optimisation des performances. Gestion de la dette technique : refactor, qualité, sécurité. Architecture : revue de l’existant et propositions d’évolutions . Développements projets : pipelines de données et APIs d’exposition.

Mission freelance
FREELANCE – Data Engineer Spark/Scala (H/F)
Nous constituons un vivier de freelances spécialisés en data engineering pour anticiper les besoins de nos clients sur des projets Big Data et Cloud. Nous recherchons des Data Engineers expérimentés sur Spark et Scala, capables d’intervenir rapidement sur des missions à Nantes et Rennes, dans des contextes variés (banque/assurance, industrie, retail, services). En tant que Data Engineer Spark / Scala, vos missions pourront inclure : Conception et développement de pipelines de données : ingestion, transformation, nettoyage et enrichissement de données massives. Développement d’applications distribuées avec Apache Spark (Batch et Streaming) en Scala. Industrialisation des traitements Big Data : optimisation des performances, gestion des volumes importants, parallélisation. Mise en place d’architectures data : Data Lake, Data Warehouse, solutions temps réel. Intégration Cloud : déploiement et utilisation des services Big Data sur AWS, Azure ou GCP (EMR, Databricks, Synapse, BigQuery, etc.). Tests, qualité et fiabilité : mise en place de bonnes pratiques de développement (CI/CD, tests unitaires et fonctionnels). Sécurité et conformité : respect des normes RGPD et bonnes pratiques de gouvernance des données. Documentation et partage : rédaction des spécifications techniques, bonnes pratiques et transmission de compétences aux équipes internes. Collaboration transverse : travail étroit avec les Data Scientists, Data Analysts, Product Owners et Architectes pour répondre aux besoins métiers.

Mission freelance
Consultant SIRH Data - Innovation - Paris (H/F)
Un grand groupe a lancé une stratégie Data (Microsoft Fabric, Power BI, Data Lake). Le domaine RH reste en retard : données silotées, dépendance à une ressource unique, enjeux importants liés à la masse salariale. Missions Recueillir et formaliser les besoins métiers RH (indicateurs : effectifs, absentéisme, turnover, masse salariale…). Rédiger les spécifications fonctionnelles (Pléiades, Horoquartz) et structurer un dictionnaire de données RH. Collaborer avec les équipes Data/BI pour assurer qualité et cohérence des flux (Microsoft Fabric, Power BI). Contribuer à la gouvernance et à la mise à disposition des données RH.

Mission freelance
FREELANCE – Data Engineer Spark/Scala (H/F)
Nous constituons un vivier de freelances spécialisés en data engineering pour anticiper les besoins de nos clients sur des projets Big Data et Cloud. Nous recherchons des Data Engineers expérimentés sur Spark et Scala, capables d’intervenir rapidement sur des missions à Nantes et Rennes, dans des contextes variés (banque/assurance, industrie, retail, services). En tant que Data Engineer Spark / Scala, vos missions pourront inclure : Conception et développement de pipelines de données : ingestion, transformation, nettoyage et enrichissement de données massives. Développement d’applications distribuées avec Apache Spark (Batch et Streaming) en Scala. Industrialisation des traitements Big Data : optimisation des performances, gestion des volumes importants, parallélisation. Mise en place d’architectures data : Data Lake, Data Warehouse, solutions temps réel. Intégration Cloud : déploiement et utilisation des services Big Data sur AWS, Azure ou GCP (EMR, Databricks, Synapse, BigQuery, etc.). Tests, qualité et fiabilité : mise en place de bonnes pratiques de développement (CI/CD, tests unitaires et fonctionnels). Sécurité et conformité : respect des normes RGPD et bonnes pratiques de gouvernance des données. Documentation et partage : rédaction des spécifications techniques, bonnes pratiques et transmission de compétences aux équipes internes. Collaboration transverse : travail étroit avec les Data Scientists, Data Analysts, Product Owners et Architectes pour répondre aux besoins métiers.

Offre d'emploi
Consultant BI (H/F)
Vos missions ? En tant que Consultant BI vous serez en charge des missions suivantes: - Recueillir et analyser les besoins métiers en matière de données et de reporting. - Concevoir et modéliser les entrepôts et datamarts pour structurer l'information. - Développer et maintenir les flux ETL/ELT pour l'intégration et la transformation des données. - Mettre en place et optimiser les tableaux de bord et rapports décisionnels. - Assurer la qualité, la fiabilité et la cohérence des données utilisées. - Former et accompagner les utilisateurs sur les outils de Business Intelligence. - Garantir la performance et l'évolutivité des solutions BI déployées. - Réaliser une veille technologique sur les outils et tendances en BI et Data Analytics. La stack Technique : - SQL Server, Oracle, PostgreSQL, MySQL - Snowflake - Azure Data Lake, Databricks - Git, Jira

Offre d'emploi
Data Engineer (Spark, Hadoop, Scala)
Pour l’un de nos clients grands comptes, nous recherchons un Data Engineer confirmé maîtrisant Spark, Hadoop, Scala , pour intégrer une Squad data transverse. L’objectif de la mission est d'assurer un rôle de Data Engineer & développeur API , avec les responsabilités suivantes : Suivi et gestion de la production Réduction de la dette technique Évolution de l’architecture existante et proposition d’améliorations Développements projets et intégration dans les pipelines Possibilité d’évolution vers d’autres Squad Data selon les besoins Activités principales Acheminement, traitement et mise à disposition des données Industrialisation des traitements data Mise en production de modèles statistiques Suivi de projet, développement de jobs Spark Ingestion multi-format (batch & streaming) Développement de scripts et API de restitution Génération de Dashboard ou fichiers à destination des équipes métier Participation à la conception et administration de solutions Big Data Installation, configuration de clusters Hadoop Intégration Spring Boot pour extraction depuis Teradata → Kafka → Data Lake
Mission freelance
Data Analyst
Hanson Regan recherche actuellement un Data Analyst pour une mission longue durée à Paris. Vous travaillerez au développement de tableaux de bord sur QlikSense ou PowerBI et à la modélisation des flux de données issus du data lake. Vos compétences contribueront à fournir des indicateurs pertinents pour le suivi des données. Vous collaborerez avec l'entreprise pour comprendre les besoins et définir les règles de gestion. Vous participerez également à la création de modèles de tableaux de bord, ainsi qu'à la validation et à la mise en production du projet. Le/la Data Analyst retenu(e) devra justifier d'une expérience avérée avec des outils de données tels que QlikSense, PowerBI et SQL, et être capable de comprendre les enjeux métier. Les candidats doivent pouvoir travailler via leur propre entreprise française (SASU, EURL, Autoentrepreneur, etc.), car nous ne pouvons malheureusement pas accepter de solutions de portage pour cette mission. Vous devez également être disponible sur site à Paris deux jours par semaine, dont trois jours de télétravail. Si cela vous intéresse, veuillez nous contacter dans les plus brefs délais avec un CV à jour aux coordonnées ci-dessous.

Mission freelance
Chef de projet Data
🚀 Freelance - Chef de Projet Data 🚀 Vous souhaitez piloter un programme Data stratégique, transversal et ambitieux ? 🌟 Contexte du projet Depuis 2 ans, le client mène le programme Data Foundation : Refonte complète de l’architecture Data Création d’un Data Lake sur Azure Migration du Data Warehouse d’Oracle vers Microsoft Fabric Mise en place et centralisation du reporting Power BI Déploiement d’outils de Data Gouvernance (IBM MDM, Data Quality, Data Catalogue) Gestion de 24 ERP au niveau groupe 📌 Vos missions Pilotage de projets Data (BUILD & amélioration continue) Gestion du portefeuille projets et respect des jalons Interface entre équipes métier, IT, marketing et communication Analyse d’impacts et traduction des besoins en usages business Contribution aux projets en cours : intégration PIM, DAM, données de stock 🛠 Stack & environnement Microsoft Dynamics CRM, Azure Data Lake, Power BI Équipe : 6 personnes (chefs de projet, business analysts, architecte, data stewards) Partenariats avec Micropole, IBM, Cleverage, etc. 📍 Modalités Démarrage : fin septembre 2025 Contrat : 6 mois Localisation : Tarare (2 jours télétravail/semaine après période d’essai) Déplacements ponctuels (Paris, Grenoble) 💡 Profil recherché Un chef de projet transversal, capable de comprendre les enjeux business et techniques, facilitateur, orienté résultats et collaboration. 📩 Intéressé(e) ? Contactez-moi en message privé pour échanger.

Offre d'emploi
Data Engineer Spark Python
Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View

Offre d'emploi
Chef de Projet Data (h/f)
Contexte: Nous recherchons un(e) Chef(fe) de Projet Data pour piloter des projets de données contribuant à la transformation digitale du groupe, aligné avec des objectifs stratégiques tout en assurant une interface efficace entre les équipes métier et IT. Responsabilités : Recueillir et challenger les besoins métiers. Piloter des projets data de bout en bout (de l'expression du besoin à la mise en utilisation par les métiers). Assurer l’interface entre les équipes métiers, IT et data. Contribuer à la mise en place de la gouvernance des données (qualité, catalogage, référentiels). Participer à la définition et au suivi des KPIs liés à la performance data du groupe. Compétences: Expérience en gestion de projets data. Connaissance des outils et technologies data (Data Lake, DWH, etc.). Niveau d'anglais courant. Compétences en amélioration continue. Capacité à travailler en équipe interdisciplinaire. Esprit d'analyse développé. Informations sur le poste: Localisation : Tarare (69) ou Saint-Paul-Trois-Châteaux (26). Type de contrat : CDI, temps plein. Déplacements inter-sites occasionnels.

Mission freelance
Renfort Architecte fonctionnel - Activités de marché
Notre client, un établissement majeur du secteur financier, recherche un consultant pour l'accompagner dans la conception de l’architecture fonctionnelle d’un environnement dédié aux activités de marché. Missions principales : - Intervenir en tant qu’architecte fonctionnel sur le périmètre Marché et Risques de Marché - Structurer les flux fonctionnels autour de l’outil Calypso, notamment pour les opérations de titrisation - Cadrer et accompagner l’alimentation du Data Lake - Définir les flux nécessaires aux besoins de reporting réglementaire et de groupe - Concevoir l’architecture fonctionnelle cible en lien avec les plateformes électroniques de marché - Accompagner les équipes métier et IT avec pédagogie pour une meilleure compréhension des activités de marché et des processus associés (capacité à vulgariser)

Offre d'emploi
Ingénieur Système Mainframe / Zos(H/F)
Dans le cadre du renforcement de notre équipe infrastructure, nous recherchons un Ingénieur Système Mainframe expérimenté pour intervenir sur la gestion, l'optimisation et le support de notre environnement z/OS. Vous serez responsable du bon fonctionnement des systèmes Mainframe et participerez activement aux projets d'évolution technique, tout en assurant un support de haut niveau. Le consultant sera chargé de l'administration système MAINFRAME ainsi que des produits Software AG (CICS, NaturalOne, SuperNat, EntireX, BDD Natural Adabas) dans une architecture complexe. Le site client est basé à Niort mais nous offrons la possibilité de télétravailler avec des venues ponctuelles à Niort à raison de 1 semaine tous les deux mois (Hôtel + Train A/R pris en charge). Missions principales : Assurer l'administration, la supervision et l'optimisation des systèmes Mainframe (z/OS). • Gérer les incidents de niveau 2/3 et assurer le support technique aux équipes applicatives. • Participer aux projets de migration, d'intégration ou de mise à jour du système. • Mettre en œuvre les procédures de sécurité, de sauvegarde et de continuité d'activité. • Collaborer avec les équipes DevOps, Réseau, Sécurité et Production. • Support des outils SoftwareAG tels que : -NaturalONE -Supernat -ReviewDB / DBlog -Event replicator -Support des solutions du Framework -Module Directeur -Listener Natural (Traitement de flux asynchrones) -Translate file (Solution UNISI et fichier nationaux) -Triggers (Anonymisation, Création d'images pour NPRH ) -Support de la couche d'échange EntireX - ApplinX -Appels entrants (Open - Host) -Appels sortants (Host - Open) • Support système Mainframe : - Matériel mainframe - Système z/OS - CICS - Sécurité RACF - LDAP - Virtel - Editions EOS - OMEGAMON/TEP - PSF -CONTROL/M for Z/OS • Activités transverses : - Support Projets MCO système et montées de version mineures et majeures - Gestion de la solution d'alimentation du Data Lake - Gestion d'actifs de la GPA (Décommissionnement de transaction) - Gestion des Scénarios Virtuel Les missions énumérées ci-dessus ne sont pas exhaustives, il s'agit des missions principales. Référence de l'offre : t5gii8c3tj
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Trajet domicile travail en voiture de fonction c'est usage perso ??
- Masquer infos entreprise Pappers, Google etc
- Reconversion professionnelle cyber
- Vous êtes sans missions ? Manifestez vous et echangez vos expériences
- Reconversion professionnelle dans la cybersécurité
- Mes dashboards finissent au placard ? Besoin de vos retours