Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Mission freelance
Mission Longue de Consultant Snowflake
Notre client est un media Français ayant une grande culture Tech. Cette mission vous permettra de rejoindre son équipe Architecture & Data Engineering faisant partie de sa Direction DATECH (Data & AdTech). Cette équipe est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data Science & IA, CRM, Pub, Audience, Finance... Mission Au quotidien, vous menez les travaux de définition et de revue d’architecture du Data Warehouse / Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions seront : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Contexte : Vous intervenez sur la conception de l’ensemble des travaux liés données du client. Vous accompagnez également leurs équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Un projet de refonte des schémas de stockage des données pour basculer vers un modèle RBAC est en cours. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien la démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur et d’expert Snowflake entre les équipes Data, AdTech et les autres équipes du client.

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Mission freelance
Data Engineer F/H - LILLE
Notre client, acteur majeur du secteur du Retail, renforce son équipe Data afin de soutenir sa stratégie de digitalisation et d’optimisation de l’expérience client. Dans ce cadre, nous recherchons un(e) Data Engineer passionné(e) par la donnée et désireux(se) d’évoluer dans un environnement stimulant et innovant. Missions principales : Concevoir, développer et maintenir les pipelines de données (ETL/ELT) pour collecter, transformer et valoriser les données issues de différentes sources (e-commerce, magasins, CRM, supply chain, etc.). Assurer la qualité, la fiabilité et la disponibilité des données pour les équipes métiers, Data Science et BI. Participer à la mise en place d’architectures Big Data et Cloud modernes (Data Lake, Data Warehouse). Contribuer à l’optimisation des performances des traitements de données. Collaborer avec les équipes Data Analysts, Data Scientists et métiers afin de répondre aux besoins business (optimisation de l’expérience client, prévisions de ventes, gestion des stocks…). Mettre en place des bonnes pratiques de développement, de documentation et de monitoring. Environnement technique • Cloud & Data : GCP (BigQuery, Dataform) • Orchestration : Cloud Composer • Transformation : Dataform • Observabilité : Dynatrace • Référentiel & CI/CD : GitLab, Terraform, Cloud Build • Gouvernance & Qualité : DataGalaxy • Documentation & Pilotage : Confluence, JIRA (Scrum)

Mission freelance
FREELANCE – Data Engineer Spark/Scala (H/F)
Nous constituons un vivier de freelances spécialisés en data engineering pour anticiper les besoins de nos clients sur des projets Big Data et Cloud. Nous recherchons des Data Engineers expérimentés sur Spark et Scala, capables d’intervenir rapidement sur des missions à Nantes et Rennes, dans des contextes variés (banque/assurance, industrie, retail, services). En tant que Data Engineer Spark / Scala, vos missions pourront inclure : Conception et développement de pipelines de données : ingestion, transformation, nettoyage et enrichissement de données massives. Développement d’applications distribuées avec Apache Spark (Batch et Streaming) en Scala. Industrialisation des traitements Big Data : optimisation des performances, gestion des volumes importants, parallélisation. Mise en place d’architectures data : Data Lake, Data Warehouse, solutions temps réel. Intégration Cloud : déploiement et utilisation des services Big Data sur AWS, Azure ou GCP (EMR, Databricks, Synapse, BigQuery, etc.). Tests, qualité et fiabilité : mise en place de bonnes pratiques de développement (CI/CD, tests unitaires et fonctionnels). Sécurité et conformité : respect des normes RGPD et bonnes pratiques de gouvernance des données. Documentation et partage : rédaction des spécifications techniques, bonnes pratiques et transmission de compétences aux équipes internes. Collaboration transverse : travail étroit avec les Data Scientists, Data Analysts, Product Owners et Architectes pour répondre aux besoins métiers.
Mission freelance
DEVELOPPEUR SSIS CONFIRME
Poste : Développeur(se) ETL / Data Engineer expérimenté(e) Localisation : Projets en France et à l’international (environnement multiculturel) Missions principales : Structurer, modéliser et intégrer les données (ETL, Data Warehouse). Optimiser et maintenir des entrepôts de données complexes. Intégrer de nouveaux périmètres de données. Collaborer étroitement avec les Data Analysts et Data Scientists. Environnement technique : Microsoft SQL Server, SSIS / Data Tools, Power BI. SQL confirmé (obligatoire), Python souhaité. Modélisation en étoile (Star Schema). Profil recherché : Bac+5 (école d’ingénieur ou université). Minimum 5 ans d’expérience en Data Engineering (on-premise et/ou cloud). Maîtrise du développement ETL / Data Warehouse. Langues : Français & Anglais (niveau C1 obligatoire). Espagnol/Portugais = atout. Soft skills : Esprit analytique, rigueur, bonne communication, travail en équipe. Intérêt pour des projets internationaux et multiculturels.

Mission freelance
Lead Data Engineer Senior
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Mission freelance
FREELANCE – Data Engineer Spark/Scala (H/F)
Nous constituons un vivier de freelances spécialisés en data engineering pour anticiper les besoins de nos clients sur des projets Big Data et Cloud. Nous recherchons des Data Engineers expérimentés sur Spark et Scala, capables d’intervenir rapidement sur des missions à Nantes et Rennes, dans des contextes variés (banque/assurance, industrie, retail, services). En tant que Data Engineer Spark / Scala, vos missions pourront inclure : Conception et développement de pipelines de données : ingestion, transformation, nettoyage et enrichissement de données massives. Développement d’applications distribuées avec Apache Spark (Batch et Streaming) en Scala. Industrialisation des traitements Big Data : optimisation des performances, gestion des volumes importants, parallélisation. Mise en place d’architectures data : Data Lake, Data Warehouse, solutions temps réel. Intégration Cloud : déploiement et utilisation des services Big Data sur AWS, Azure ou GCP (EMR, Databricks, Synapse, BigQuery, etc.). Tests, qualité et fiabilité : mise en place de bonnes pratiques de développement (CI/CD, tests unitaires et fonctionnels). Sécurité et conformité : respect des normes RGPD et bonnes pratiques de gouvernance des données. Documentation et partage : rédaction des spécifications techniques, bonnes pratiques et transmission de compétences aux équipes internes. Collaboration transverse : travail étroit avec les Data Scientists, Data Analysts, Product Owners et Architectes pour répondre aux besoins métiers.

Mission freelance
PRODUCT OWNER DATA BI (Pilotage opérationnel & Vision de transformation BI)
CONTEXTE Dans le cadre de la transformation data de l’entreprise, l’équipe BI & Analytics est en cours de réflexion sur l’adaptation et la modernisation de son offre de service BI avec l’adoption potentielle de nouvelles solutions d’ici à fin d’année 2025. Actuellement, les outils sont SAS Guide, SAS VIYA, BO et Qlik sense. Dans sa transformation, l’entreprise a fait le choix d’un data hub GCP. Recherche Product Owner BI (Pilotage opérationnel & Vision de transformation BI) MISSION Dans le cadre d’un remplacement de 6 mois, nous recherchons un Product owner BI expérimenté capable d’assurer le pilotage produit en garantissant la livraison continue des cas d’usage fonctionnels et poursuivant la transformation des outils et usages BI (vision cible, montée en compétences, expérimentation d’outils). L’équipe se compose de 3 personnes au support outils BI, 3 Tech Leads, 3 Data Analystes et 1 Responsable d’équipe aussi SM. La mission reposera sur le : • Pilotage produit des besoins BI (backlog, cas d’usage, priorisation, validation produit) • Vision stratégique BI (choix d’outils BI, plan de transformation, montée en compétences) Périmètre de la mission 1. Pilotage produit & backlog BI • Recueillir, analyser et formaliser les besoins métier en lien avec les directions utilisatrices • Prioriser les cas d’usage BI selon leur valeur, urgence et faisabilité • Rédiger et maintenir un backlog BI clair et structuré (user stories, critères d’acceptation, jeux de test) • Suivre l’avancement des développements et valider les livrables avec les utilisateurs et BL 2. Animation agile & coordination fonctionnelld • Préparer et co-animer les rituels agiles avec le Scrum Master (affinements, plannings, revues) • Travailler au quotidien avec les développeurs, Tech Leads et Data Analystes • Porter la voix du métier et des business line au sein de l’équipe 3. Qualité fonctionnelle et validation métier • Garantir la cohérence et la qualité des tableaux de bord, rapports et datamarts livrés • Valider les livrables BI avec les utilisateurs finaux • Documenter les solutions de manière claire et accessible 4. Vision stratégique & transformation BI • Apporter son expérience aux équipes data et à la hiérarchie sur une vision stratégique et transformation de la BI • Identifier les cas d’usage pertinents pour tester de nouveaux outils BI en coordination avec les métiers et Business Line • Piloter les POCs : cadrage, expérimentation, retour d’expérience • Construire un plan de montée en compétences pour l’équipe (formations, coaching, accompagnement) • Contribuer à la stratégie de gouvernance et de self-service BI 5. Interface métier & conduite du changement • Animer les ateliers de cadrage fonctionnel avec les métiers • Présenter les livrables de façon claire, orientée valeur • Être ambassadeur de la transformation BI auprès des directions utilisatrices • Suivre les retours utilisateurs et les indicateurs d’adoption

Mission freelance
Analytics Engineer Senior - Workday Finance (localisation Lille)
Contexte du poste L’Analytics Engineer est chargé de délivrer des datasets modélisés pour un domaine métier afin d'accélérer les cas d’usage. Il en assure la qualité , la disponibilité , le suivi et l’ accessibilité , pour permettre aux utilisateurs d’exploiter efficacement les données (Self Service Analytics, analyses, modèles, dashboards). Missions principales 1. Délivrer les bonnes données, à temps Assurer le rafraîchissement fréquent et fiable des données pour soutenir la prise de décision. Garantir la stabilité et la fiabilité des datasets exposés. Corriger rapidement les données corrompues. Anticiper et planifier l’évolution des datasets. Déployer les évolutions avec un délai court mais soutenable. 2. User Centric Connaître les utilisateurs et comprendre leurs usages métiers. Collaborer avec les PM Analytics, Data Analysts, Data Scientists et BI Engineers. Automatiser puis industrialiser les datasets nécessaires aux use cases. Suivre et mesurer l’utilisation réelle des datasets. Définir et communiquer le niveau de confiance dans les données. Informer sur l’état et les éventuelles corruptions des datasets. 3. Playmaker / Team player Participer au recrutement et à l’onboarding des nouveaux membres. Contribuer à la communauté Data (partage d’expérience, ateliers, revues de code, pair programming). Collaborer avec les équipes Core Data Products pour fiabiliser les pipelines. Être force d’entraide et de transmission auprès des autres Analytics Engineers. 4. Better Way Améliorer en continu les pratiques de delivery data. Faire évoluer la stack et les outils. Être proactif sur l’amélioration des processus. Contribuer à la réduction de l’impact écologique et économique des solutions déployées. Compétences techniques : Data modeling dbt SQL Tests and expectations Git Airflow Python Spark Data Architecture Databricks Redshift Indicateurs de performance Fiabilité et fraîcheur des données exposées Temps de correction des anomalies Fréquence des déploiements et time to market des datasets Satisfaction et autonomie des utilisateurs Contribution à la communauté Data et aux rituels d’équipe

Offre d'emploi
Data Engineer Stambia (F/H)
CDI/ Freelance/ Portage salarial 💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille (59) – 5 ans d'expérience minimum Vous êtes passionné(e) par la gestion, l’intégration et la qualité des données dans un environnement exigeant comme la banque ? Vous aimez structurer, cartographier et rendre les données fiables et exploitables pour les équipes métiers et Data ? Alors cette opportunité est faite pour vous ! 🚀 Vos missions : - Garantir la mise à disposition qualitative et sécurisée des données aux équipes Data Analysts, Data Scientists et métiers - Participer à la définition de la politique de la donnée et à la structuration de son cycle de vie dans un contexte bancaire (sécurité, conformité, traçabilité) - Superviser et intégrer les données issues de multiples systèmes bancaires et réglementaires , et contrôler leur qualité avant leur intégration dans le Data Lake - Développer, structurer, cartographier et nettoyer les données tout en respectant les exigences réglementaires (ex : BCBS239, GDPR, RGPD bancaire) - Produire les livrables : flux d’intégration sous Stambia, Data Lake partagé, cartographie des données, documentation technique et reporting
Mission freelance
Administrer DBA/Architect Snowflake
🎯 Mission Principale Expert technique Snowflake au sein de l'équipe Architecture & Data Engineering, vous êtes responsable de la maintenance et évolution de la Data Platform qui sert l'ensemble des équipes du groupe (Analytics, Data Science & IA, CRM, Pub, Audience, Finance, Streaming). 🔧 Responsabilités Clés Architecture & Stratégie Définition et revue d'architecture du Data Warehouse/Data Platform Développement et maintenance de la stratégie RBAC Formalisation et planification de la roadmap produit (3, 6, 12 mois) Modernisation des paradigmes d'ingestion, transformation et exposition de données Performance & Optimisation Revues de performances SQL et infrastructure Suivi de coûts par application Mise en place de solutions de monitoring et d'alerting Revues de code SQL Support & Accompagnement Support quotidien sur la plateforme Snowflake Référent technique pour les Data Engineers et Data Analysts Accompagnement des équipes sur la faisabilité des projets Facilitateur entre équipes Data, AdTech et métier ⚙️ Stack Technique Compétences Impératives Snowflake - Expert SQL Avancé - Expert Architecture Data Cloud - Expert Technologies Utilisées Python RBAC Terraform Azure (cloud) Azure DevOps / JIRA / Confluence Snowflake Clean Room (plus) 🌍 Environnement de Travail Méthodologie : Agile Scrum Culture : DevSecOps Équipe : 15 personnes Langues : Français courant (impératif), Anglais professionnel ✨ Profil Recherché Qualités Personnelles Bon relationnel et capacité d'adaptation Excellente communication orale et écrite Esprit de veille technologique Aptitude au travail en équipe Compétences Transversales Maîtrise des méthodes Agiles Culture DevOps confirmée Gestion de projet technique Capacité à garantir la pérennité des développements 🎪 Enjeux du Poste Plateforme critique : Infrastructure data stratégique pour le groupe Innovation continue : Exploitation des dernières fonctionnalités Snowflake Optimisation : Maîtrise des coûts et performances Transversalité : Interface entre multiples équipes métier

Offre d'emploi
Data Engineer
Contexte Dans le cadre de nos projets de transformation digitale et d’optimisation des opérations ferroviaires, nous renforçons notre équipe Data. Nous recherchons un(e) Data Engineer Junior motivé(e) et curieux(se), avec 2 ans d’expérience, pour contribuer à la mise en place de pipelines de données robustes et scalables au sein d’un environnement technique stimulant. Missions Participer à la conception, au développement et à la maintenance de pipelines de données (batch & temps réel) Collecter, transformer et valoriser les données issues des systèmes ferroviaires (capteurs, maintenance, circulation, etc.) Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et modéliser les données Participer à la mise en place de bonnes pratiques (tests, CI/CD, documentation, data quality) Travailler dans un environnement cloud (AWS / GCP / Azure selon le contexte) Environnement technique : Power BI, Databricks, cloud AWS

Mission freelance
Data Manager
TEKsystems echerche pour le compte de son client : Un(e) Data Manager: Un chef d’orchestre de la donnée dans une organisation. Il ne code pas forcément au quotidien, mais il comprend les enjeux techniques et stratégiques liés à la data. Dans ton cas, il devra :🎯 Missions principales Structurer et piloter la gouvernance des données : garantir la qualité, la sécurité, et la traçabilité des données. Coordonner les équipes data : data ingénieurs, analystes, et architects. Définir les modèles de données : en lien avec les besoins métiers et les outils comme Snowflake. Mettre en place les premiers pipelines de données : pour alimenter les dashboards Tableau et les apps Streamlit. Traduire les besoins métiers en solutions data : notamment dans le cadre du CRM et des outils comme JIRA.

Mission freelance
Business Analyst DATA / BI – Trade Finance & Cash (SQL, Modélisation, Power BI)
Nous recherchons un Business Analyst spécialisé DATA & BI pour intervenir sur des projets stratégiques liés aux métiers Trade Finance et Cash Management . Vous rejoindrez une équipe en charge de la mise en place d’un Data Lake et de la valorisation des données via la Business Intelligence. Vos missions : Participer à la migration des données depuis l’infocentre vers le Data Lake. Modéliser les données à ingérer et les rendre exploitables pour le métier. Rédiger les spécifications fonctionnelles et techniques liées aux besoins des métiers. Suivre et tester les ingestions de données et les dashboards. Collaborer en mode Agile (Scrum) avec les équipes métiers et IT. Contribuer à l’amélioration continue de la qualité des données et de la production. En bonus : concevoir et mettre en place des dashboards Power BI orientés utilisateur.

Offre d'emploi
Data Engineer GCP (F/H)
CDI/Freelance/Portage salarial 💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille (59) – 5 ans d'expérience minimum Vous souhaitez contribuer à la valorisation de la donnée dans un environnement Retail en pleine transformation digitale ? Vous aimez concevoir des pipelines robustes, fiabiliser les flux et exploiter la puissance du cloud GCP ? Alors cette opportunité est faite pour vous ! 🚀 Vos missions : - Garantir la fiabilité et la disponibilité des données pour les équipes métiers, Data Analysts et Data Scientists - Définir et mettre en place la gouvernance de la donnée et son cycle de vie dans un contexte Retail (gestion de la donnée client, transactionnelle et produit) - Intégrer et superviser les données issues de multiples sources (e-commerce, magasins, CRM, etc.) dans le Data Lake GCP - Développer, nettoyer et structurer les pipelines de données en assurant leur qualité, sécurité et conformité réglementaire (RGPD) - Produire et maintenir les livrables : Data Lake partagé, cartographie des données, code, reporting et documentation technique

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.