Find your next tech and IT Job or contract DBT

Job Vacancy
DATA MANAGER
Bonjour; Pour le compte de notre client, nous recherchons un DATA MANAGER. Description du Rôle Le Data Manager est responsable de la définition des politiques de gestion des données, de la modélisation et de la garantie de l'architecture fonctionnelle de la plateforme de données utilisée pour répondre aux besoins métier. __________ Compétences Clés ✅ Accompagnement à la définition, conception et livraison des produits Data : • Clarifie les besoins • Identifie les manques de données et évalue la faisabilité • Aligne le périmètre du Feature Team (FT) • Collabore avec les Product Owners et les Data Engineers • Co-conçoit les solutions data • Valide les choix de modélisation des données • Garantit la cohérence avec les standards • Assure la scalabilité et la maintenabilité ✅ Co-définition, diffusion et pédagogie des standards de Data Management : • Collabore avec les acteurs de la gouvernance, de l’architecture et des produits • Définit les conventions de nommage • Établit les exigences en matière de documentation • Fixe les règles de modélisation • Garantit la conformité • Organise des formations, ateliers et sessions de support • Apporte un accompagnement opérationnel et répond aux questions • Joue un rôle d’ambassadeur des principes de gestion des données au sein de la tribu ✅ Gestion du portefeuille et des actifs Data au niveau de la tribu : • Garantit la qualité et l’exhaustivité des métadonnées • Documente les tables, champs et processus • Met à jour la traçabilité (lineage) et le glossaire métier • Vérifie l’application cohérente des standards • Produit et partage des reportings sur le portefeuille data • Met en lumière les écarts, risques et opportunités • Permet une prise de décision éclairée sur les usages et les priorisations __________ Responsabilités • Excellentes capacités de communication pour vulgariser les concepts techniques et aligner les parties prenantes sur les décisions • Fortes compétences en résolution de problèmes, capable de traiter rapidement des informations complexes et de les présenter de manière claire et concise • Capacité à collaborer efficacement en équipe pour répondre aux besoins de manière agile • Organisation rigoureuse pour gérer les sujets en cours et à venir, les délais et les décisions associées __________ Compétences Individuelles • Ouvert et coopératif, avec un esprit de service facilitant les échanges entre parties prenantes • Orienté solution et livraison du résultat attendu • Curiosité et ouverture d’esprit sur des sujets hors périmètre habituel (ex : nouvelles techniques d’analyse) __________ État d’Esprit et Comportements • Expérience en développement Agile • Expérience au sein d’équipes produits collaboratives en environnement Agile __________

Contractor job
Analytics Engineer Senior - Workday Finance (localisation Lille)
Contexte du poste L’Analytics Engineer est chargé de délivrer des datasets modélisés pour un domaine métier afin d'accélérer les cas d’usage. Il en assure la qualité , la disponibilité , le suivi et l’ accessibilité , pour permettre aux utilisateurs d’exploiter efficacement les données (Self Service Analytics, analyses, modèles, dashboards). Missions principales 1. Délivrer les bonnes données, à temps Assurer le rafraîchissement fréquent et fiable des données pour soutenir la prise de décision. Garantir la stabilité et la fiabilité des datasets exposés. Corriger rapidement les données corrompues. Anticiper et planifier l’évolution des datasets. Déployer les évolutions avec un délai court mais soutenable. 2. User Centric Connaître les utilisateurs et comprendre leurs usages métiers. Collaborer avec les PM Analytics, Data Analysts, Data Scientists et BI Engineers. Automatiser puis industrialiser les datasets nécessaires aux use cases. Suivre et mesurer l’utilisation réelle des datasets. Définir et communiquer le niveau de confiance dans les données. Informer sur l’état et les éventuelles corruptions des datasets. 3. Playmaker / Team player Participer au recrutement et à l’onboarding des nouveaux membres. Contribuer à la communauté Data (partage d’expérience, ateliers, revues de code, pair programming). Collaborer avec les équipes Core Data Products pour fiabiliser les pipelines. Être force d’entraide et de transmission auprès des autres Analytics Engineers. 4. Better Way Améliorer en continu les pratiques de delivery data. Faire évoluer la stack et les outils. Être proactif sur l’amélioration des processus. Contribuer à la réduction de l’impact écologique et économique des solutions déployées. Compétences techniques : Data modeling dbt SQL Tests and expectations Git Airflow Python Spark Data Architecture Databricks Redshift Indicateurs de performance Fiabilité et fraîcheur des données exposées Temps de correction des anomalies Fréquence des déploiements et time to market des datasets Satisfaction et autonomie des utilisateurs Contribution à la communauté Data et aux rituels d’équipe
Contractor job
[FBO] Concepteur Développeur Testeur DBT - 893
Contexte de la mission Objet Nous recherchons un profil confirmé (3 ans minimum d’expérience) de concepteur/développeur/testeur pour travailler sur le développement d’applications sous DBT, réaliser les tests et assurer le maintien en conditions opérationnelles. Les tâches suivantes seront requises sur la mission : - Analyse des besoins métier et réalisation des spécifications - Développement des applications - Maintien de la documentation Une connaissance du monde de l’assurance serait un plus. La ressource devra être autonome, collaborative, ouverte, avoir l’esprit d’équipe. Objectifs et livrables Livrables attendus - Développements DBT - Spécifications Fonctionnelles et Techniques - Analyse et traitements des incidents de Production - Support sur les outils groupe - Plan de tests Localisation Mons en Baroeul Compétences recherchées : ▪ Analyse ▪ Maîtrise du développement DBT ▪ Autonome Domaines d’expertise Outils & Technologies: - DBT - GCP

Contractor job
Data Engineer – GCP / BigQuery / DBT
Contexte de la mission Nous recherchons un Data Engineer expérimenté afin de renforcer l’équipe Data et contribuer à la mise en place, l’optimisation et l’industrialisation de la plateforme de données sur Google Cloud Platform (GCP) . Vous interviendrez sur des problématiques de modélisation, transformation et exploitation de données avec BigQuery et DBT , en collaboration avec les équipes métier et analytics. Vos missions Concevoir, développer et maintenir les pipelines de données dans un environnement GCP. Implémenter et optimiser des modèles de données dans BigQuery . Mettre en place et maintenir les transformations avec DBT (Data Build Tool). Garantir la qualité, la performance et la fiabilité des traitements de données. Participer aux choix techniques et bonnes pratiques (CI/CD, documentation, monitoring). Collaborer avec les équipes Data Analysts / Data Scientists pour assurer la disponibilité et la pertinence des données.

Job Vacancy
Data Engineer - Lyon
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Job Vacancy
Lead Data Engineed Snowflake - DBT
Cherchons un profil expert Snowflake pour participer activement à la structuration de l'offre de notre client, à l'élaboration des architectures avant-vente et à la montée en compétence de leurs équipes. Lead Data Engineer passionné par Snowflake et DBT vous travaillerez chez des clients leaders dans leurs secteurs afin de moderniser leur infrastructure de données. Vous travaillerez sur des projets stimulants, de l'implémentation initiale de Snowflake à l'optimisation de pipelines complexes avec dbt, en passant par l'intégration d'écosystèmes data avancés. Votre rôle sera crucial pour le succès de ces transformations. Missions principales : * Développer nos assets technologiques et nos accélérateurs pour des déploiements plus rapides et efficaces. * Participer activement aux phases d'avant-vente, en concevant des architectures innovantes et en présentant nos solutions aux clients. * Accompagner nos clients dans la conception, le développement et le déploiement d'architectures data modernes basées sur Snowflake et dbt. * Mettre en place et optimiser des pipelines de données robustes et performants avec dbt. * Conseiller nos clients sur les meilleures pratiques de la Modern Data Stack et les accompagner dans la migration et l'intégration de leurs données. * Encadrer et faire monter en compétences une équipe de data engineers sur les technologies Snowflake et dbt. Compétences attendues : - Une expérience significative en tant que Lead Data Engineer ou Architecte Data, avec une expertise approfondie de Snowflake et dbt (certifications bienvenues). - Une excellente compréhension des concepts de la Modern Data Stack et de ses meilleures pratiques (Snowflake Openflow, Fivetran, dbt, Airbyte…). - Une expérience dans un projet de migration de plateforme Data vers une Modern Data Stack est un vrai plus Maîtrise des langages SQL et Python. - Une expérience réussie en Streamlit et/ou Generative AI est un atout sérieux. - Capacité à travailler en équipe, à communiquer efficacement et à vous adapter aux environnements clients avec une forte orientation conseil.
Contractor job
Lead Data Snowflake/AWS
Hello, Est-ce que tu es en recherche d'une de lead data pour: Établir les standards de développement et de gouvernance : définir les bonnes pratiques, workflows et principes DataOps/CI-CD. Assurer la qualité et la conformité des environnements : veiller à la sécurité, la fiabilité et la maintenabilité des flux de données. Encadrer et accompagner les équipes : animer des sessions de code review, transmettre les bonnes pratiques et construire des référentiels d’usage partagés. Réaliser des audits techniques pour identifier les axes d’amélioration sur la performance, la stabilité et la maîtrise des coûts.

Job Vacancy
Data Engineer GCP DBT LOOKER (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
Contractor job
DATA ENGINEER GCP
Dans le cadre d’un projet stratégique autour de la donnée , nous recherchons un Data Engineer expérimenté pour renforcer l’équipe de notre client, au cœur de la plateforme Data. La Direction Data joue un rôle clé dans la transformation numérique du groupe, avec trois missions principales : Maximiser la collecte et la valorisation des données tout en respectant la réglementation. Développer la connaissance et l’expérience utilisateur . Mettre à disposition des outils d’aide à la décision pour les équipes internes. 🎯 Vos missions principales : Concevoir, développer et maintenir des pipelines data robustes et scalables sur GCP. Déployer des datasets normés sur plusieurs domaines (Utilisateurs, Comportements, Référentiels). Mettre en place des contrôles qualité sur les datasets. Structurer et organiser le stockage des données dans une logique d’architecture évolutive. Participer à la mise en place des workflows CI/CD et à l’industrialisation via Terraform / Terragrunt. Collaborer avec les équipes Data pour assurer la qualité, la fiabilité et la gouvernance des données. Partager les bonnes pratiques et contribuer à la documentation technique .

Contractor job
Data Engineer (GCP / Python / DBT)
Nous recherchons un Data Engineer confirmé pour accompagner les produits data de notre périmètre Connaissance Client et Commerce Animation Performance . 🎯 Objectif de la mission Mettre en place une cartographie des données . Concevoir un Datamesh adapté et partagé , incluant son dimensionnement. Déployer un Datamesh avec sondes de contrôle qualité garantissant la fiabilité des données. 🚀 Responsabilités Créer des pipelines robustes et optimisés afin de mettre à disposition les données de manière efficace et avec un coût FinOps maîtrisé. Maintenir et faire évoluer les produits data existants. Collaborer avec les équipes métier dans un environnement Agile (Scrum/Kanban) . 🛠️ Compétences attendues Python (Flask, appels API, Kafka) – Confirmé (impératif). GCP (BigQuery, GCS, Cloud Run, …), DBT – Confirmé (impératif). Github (CI/CD, versioning) – Confirmé (important). Méthodologies agiles (Scrum, Kanban) – Confirmé. Anglais courant – Impératif. ❌ À noter Nous recherchons un Data Engineer , et non un Data Scientist. 📍 Mission longue durée – Démarrage rapide – Contexte stimulant au sein d’une équipe data en structuration.

Job Vacancy
Data Architect
Au sein de la Data Fabric d'INVENTIV IT, nous recherchons un Data Architect pouvant nous accompagner sur nos différents projets clients, notamment dans la mise en place et l'évolution de Data Market Place et Platform Data complexe. Ce poste requiert une expérience technique et architecturale solide, ainsi qu'une solide expérience pratique des technologies cloud, du développement de microservices et de l'architecture événementielle. Vous aurez à collaborer étroitement avec les équipes informatiques INVENTIV IT et de nos clients (à l'international) ,les partenaires commerciaux, les partenaires métiers, les partenaires externes et l'ensemble des membres de l'équipe d'intégration. Dans le cadre de nos projets une excellente compréhension et communication en Français/Anglais est indispensable - Engagement sur les sujets - Capacité à effectuer une restitution documentaire dans le cadre d'un audit, d'une preuve de concept (POC) ou en matière de normes et d'architecture Nos environnements techniques : AWS/AZURE, Databricks, Snowflake, DBT, Big Data, BI, intégration continu, DataSecOps ... Notre offre : Fixe + Variables + avantages Exemple d'objectif et de livrables attendus : Design and propose solutions on Data using Azure Cloud technologies within our framework Design and propose solutions on Snowflake Apply the “Data as a Service” strategy in accordance with architectural best practices Design and develop APIs / Micro services to enrich our solutions framework Support the Event Driven Architecture strategy based on Azure Event Hub and Azure IoT Hub Contribute to our catalog of services for self-service enrichment Contribute to modernization and technology awareness within Data Capture team and across Data & Analytics organization Be the referent in the team for all cloud subjects Conduct workshops and facilitate requirement gathering Support Data Engineers to Cloud related topics Support Security team for related topics Contribute to Data Capture roadmap and evolution Challenge and support external vendors Au plaisir d'échanger et de collaborer ensemble

Job Vacancy
Consultant MLOps GenAI
Contexte Dans le cadre du renforcement de notre pôle Data & IA, nous recherchons un(e) Consultant(e) confirmé(e) Data Engineer / MLOps spécialisé(e) GenAI . Le profil idéal se situe à mi-chemin entre le Data Engineering et le MLOps , avec une solide expertise sur GCP, une appétence pour la GenAI , et la capacité à résoudre des problématiques de production . Missions principales Concevoir, industrialiser et maintenir des pipelines data sur GCP (BigQuery, Dataflow, Pub/Sub). Mettre en place et optimiser des modèles et services IA/GenAI via Vertex AI . Assurer l’ industrialisation et la mise en production de modèles (CI/CD, monitoring, optimisation). Développer en Python des outils et composants réutilisables pour les projets Data/IA. Implémenter des transformations et orchestrations de données avec DBT . Diagnostiquer et résoudre les incidents de production liés aux pipelines, modèles ou API IA. Collaborer avec les équipes Data Science, DevOps et métiers pour assurer la qualité, robustesse et performance des solutions. Compétences techniques recherchées Langages : Python (avancé), SQL. Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Vertex AI). Data Engineering : DBT, orchestration (Airflow, Cloud Composer). MLOps / GenAI : Vertex AI pipelines, modèles LLM/GenAI, monitoring et déploiement en prod. CI/CD : GitLab CI/CD, Terraform, Docker, Kubernetes. Observabilité : Logging, monitoring, optimisation de pipelines et modèles en prod. Soft skills Esprit analytique et orienté résolution de problèmes . Capacité à travailler en transverse avec des équipes Data Science, IT et métiers. Autonomie, proactivité et rigueur , avec une approche pragmatique. Intérêt marqué pour les dernières évolutions IA et GenAI . Profil recherché Expérience : 3 à 6 ans en Data Engineering et/ou MLOps, avec une exposition significative à GCP. Bonus : une première expérience réussie sur des projets GenAI (LLM, Vertex AI, APIs d’IA générative).

Contractor job
Ingénieur de données GCP (H/F)
o Déployer les ensembles de données normés sur un ou plusieurs des domaines de données suivants : Utilisateurs, Comportements et Référentiels o Accompagner les utilisateurs dans leurs usages o Mettre en place le contrôle qualité sur ces ensembles de données En interaction avec les membres de l'équipe, la prestation consiste à : o Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe o Construire et maintenir des pipelines de données robustes et scalables o Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données o Organisateur et structurer le stockage des données o Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l'autonomie rapide du volume de données o Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l'intégrité des données o Construire et maintenir les workflows de la CI/CD o Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur o Assurer l'évolutivité, la sécurité, la stabilité des environnements o Participer aux différentes instances des data ingénieurs o Contribuer et veiller à la mise à jour de la documentation o Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation.

Contractor job
Data Engineer confirmé GCP / dbt / Looker | Full remote (Maghreb)
Nous recherchons un Data Engineer pour intervenir en prestation (nearshore) dans le cadre d’un projet de transformation data ambitieux chez un acteur majeur du retail . L’objectif ? Concevoir, piloter et opérer des systèmes analytiques robustes, scalables et sécurisés, tout en encadrant techniquement une équipe de data engineers. 📍 Localisation : Nearshore (Full remote) 📅 Démarrage souhaité : 3 juin 2025 ✨ Ce que tu feras au quotidien Concevoir et opérer des pipelines data de bout en bout (ingestion, traitement, modélisation, valorisation, restitution) Développer et maintenir les applications back-end d’une plateforme data & analytics Garantir la qualité, la sécurité, l’observabilité et la scalabilité des solutions déployées Implémenter des couches sémantiques et des modèles de données pour la visualisation Participer activement à toutes les étapes du cycle de développement logiciel (conception, code, tests, CI/CD, déploiement) Collaborer avec les équipes business, produit et design dans une méthodologie Scrum 🔧 Les technologies et outils que tu utiliseras : Cloud : GCP (BigQuery, Cloud Functions, Pub/Sub, Cloud Composer) Transformation : DBT (data build tool) Visualisation : Looker (LookML) Langages : SQL, Python CI/CD & Qualité : Git, GitLab, tests automatisés, linting, Sonar Observabilité : monitoring, alerting, logging

Job Vacancy
Data Architect
Rejoignez la Data Fabric d'INVENTIV IT pour concevoir et faire évoluer des Platform Data et Data Market Place complexes pour nos clients internationaux. En tant qu'Architecte Solution Data Senior, vous serez le garant de l'architecture Cloud Hybride (AWS/Azure) , de la performance Big Data et de la Gouvernance de nos solutions. 🎯 Vos Missions et Livrables Clés (Alignement Technique) 1. Architecture Cloud Hybride et Stratégie Conception Hybride : Définir et concevoir l'architecture de la plateforme Cloud Data cible en tirant parti des services de données d' AWS et AZURE . Feuille de Route : Élaborer la roadmap d'implémentation et de migration vers ces plateformes en intégrant les solutions Snowflake et Databricks . Gouvernance Data : Définir et implémenter la Gouvernance des Données (qualité, sécurité, accès) au sein de la Data Fabric et du Data Market Place. BI & Analytics : Auditer les systèmes BI historiques et concevoir des solutions modernes d'analyse et de BI sur la nouvelle plateforme. 2. Industrialisation et Ingénierie Avancée DataOps & DataSecOps : Mettre en œuvre et garantir les meilleures pratiques DevOps et DataSecOps dans le cycle de vie des données (CI/CD, sécurité par conception). Transformation Modulaire : Standardiser et industrialiser les transformations de données critiques en utilisant l'outil DBT ( Data Build Tool ). Augmentation/ML : Évaluer et intégrer des outils d'aide à la conception ou d'analyse avancée comme Dataiku dans l'écosystème du Datalab. FinOps : Intégrer les pratiques FinOps pour optimiser les coûts sur les plateformes AWS et AZURE . 3. Leadership, Conseil et Design Animation : Mener des ateliers collaboratifs et de Design Thinking pour traduire les besoins métier en architectures techniques précises. Support & Référentiel : Être le référent technique Snowflake/Databricks et fournir un support d'expertise aux Data Engineers et aux équipes Sécurité Cloud. Audit et Documentation : Réaliser des audits complets et garantir une restitution documentaire de haut niveau (normes, architectures cibles). 🛠️ Environnement Technique Vous évoluerez sur un environnement Cloud et Big Data complet : DomaineTechnologies et Concepts Cloud PublicAWS (Architecture) & AZURE (Architecture) Plateformes DataSnowflake (Data Warehouse), Databricks (Engineering/ML), DBT (Transformation) Outils AvancésDataiku , Big Data , Solutions BIMéthodes & OpsDevOps , DataSecOps , Gouvernance , FinOps

Contractor job
Chef de projet Data / BI
Dans le cadre de la modernisation et de l’industrialisation de la plateforme Data de notre client et de ses applications métier, nous recherchons un chef de projet Senior spécialisé dans la data. Le candidat aura deux principales missions : Mettre en place une démarche de pilotage projet et piloter les projets stratégiques pour en garantir la maîtrise de bout en bout des processus dans une vision consolidée à la fois sur la partie métier et DSI : •Définition et suivi des jalons à respecter pour le bon déroulement du projet • Suivi de la bonne livraison des livrables, ainsi que la vérification de la qualité, de la cohérence et de complétude de ces derniers. • Respect des engagements Cout / Délai/ Qualité/ Charge de l’ensemble des interlocuteurs sur les différents périmètres d’intervention. • Préparation et animation des comités de pilotage stratégique et opérationnels avec les directions métiers et des différentes équipes • Formalisation de la démarche projet, des indicateurs en déclinaison de la démarche groupe adapté au SI de la rémunération • Proposer une démarche agile sur certains projets ou périmètre du chantier et accompagner la transformation agile en coordination avec l’équipe agile. • Aligner la capacité à faire avec les enjeux business et les contraintes internes •Organiser et participer activement aux phases de cadrage et d’études et de conception avec les différentes parties prenantes pour apporter la solution qui réponds aux exigences Adopter une démarche processus puis solution en lien avec les architectes pour apporter la meilleure solution possible et dans le respect du SDSI du périmètre. • Être force de propositions de solutions techniques et fonctionnelles pour répondre aux besoins métiers. • Veiller au maintien des différents référentiels documentaire • Vérifier la qualité des livrables des prestataires internes ou externes. • Travailler en étroite collaboration
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
- RECOVER HACKED FUDS GO TO VIRTUAL FUNDS RESURRECTION
- PYRAMID HACK SOLUTION BEST CRYPTOCURRENCY RECOVERY SERVICES 100% LEGIT
- PYRAMID HACK SOLUTION // TRUSTED EXPERTS FOR FAST AND SECURE RECOVERY
- ETHEREUM & USDT RECOVERY SOLUTION REVIEW: HIRE FUNDS RECLAIMER COMPANY
- HOW CAN SOMEONE RECOVER A STOLEN CRYPTO FROM A SCAMMER'S WALLET? CONTACT FUNDS RECLAIMER COMPANY
- The Addictive Challenge Game
Jobs by city
Jobs by country