Find your next tech and IT Job or contract DBT

Your search returns 46 results.
Contractor

Contractor job
Chef de projet Data / BI

Sapiens Group
Published on
DBT
ETL (Extract-transform-load)

6 months
450-560 €
Nord, France

Dans le cadre de la modernisation et de l’industrialisation de la plateforme Data de notre client et de ses applications métier, nous recherchons un chef de projet Senior spécialisé dans la data. Le candidat aura deux principales missions : Mettre en place une démarche de pilotage projet et piloter les projets stratégiques pour en garantir la maîtrise de bout en bout des processus dans une vision consolidée à la fois sur la partie métier et DSI : •Définition et suivi des jalons à respecter pour le bon déroulement du projet • Suivi de la bonne livraison des livrables, ainsi que la vérification de la qualité, de la cohérence et de complétude de ces derniers. • Respect des engagements Cout / Délai/ Qualité/ Charge de l’ensemble des interlocuteurs sur les différents périmètres d’intervention. • Préparation et animation des comités de pilotage stratégique et opérationnels avec les directions métiers et des différentes équipes • Formalisation de la démarche projet, des indicateurs en déclinaison de la démarche groupe adapté au SI de la rémunération • Proposer une démarche agile sur certains projets ou périmètre du chantier et accompagner la transformation agile en coordination avec l’équipe agile. • Aligner la capacité à faire avec les enjeux business et les contraintes internes •Organiser et participer activement aux phases de cadrage et d’études et de conception avec les différentes parties prenantes pour apporter la solution qui réponds aux exigences Adopter une démarche processus puis solution en lien avec les architectes pour apporter la meilleure solution possible et dans le respect du SDSI du périmètre. • Être force de propositions de solutions techniques et fonctionnelles pour répondre aux besoins métiers. • Veiller au maintien des différents référentiels documentaire • Vérifier la qualité des livrables des prestataires internes ou externes. • Travailler en étroite collaboration

Contractor

Contractor job
Ingénieur Data / ML Sénior (H/F)

Insitoo Freelances
Published on
Azure
DBT
Generative AI

2 years
450-550 €
Lyon, Auvergne-Rhône-Alpes

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Ingénieur Data / ML Sénior (H/F) à Lyon, France. Contexte : Contexte : Dans le cadre de sa stratégie Data et Intelligence Artificielle, notre organisation souhaite renforcer l’équipe Data Science centrale. Après une première phase de conception et de mise en œuvre de solutions GenAI critiques (Flux & Prestations), nous entrons désormais dans une étape clé d’industrialisation, de stabilisation et de montée en échelle. Les projets sont à forte visibilité auprès des instances dirigeantes. Ils nécessitent la mise en place de KPIs clairs et fiables pour piloter la valeur business, tout en assurant la robustesse et la pérennité technique des solutions. Démarrage souhaité : dès que possible. Les missions attendues par le Ingénieur Data / ML Sénior (H/F) : Mission : Définir, formaliser et mettre en place les KPIs de suivi et de pilotage des solutions GenAI (qualité, performance, volumétrie, business impact). Industrialiser les projets GenAI Flux & Prestations avec un focus sur les aspects KPI et pilotage. Assurer le support opérationnel et garantir la stabilité, scalabilité et observabilité des pipelines en production. Améliorer la qualité, la testabilité et la documentation des pipelines de données. Appuyer techniquement l’équipe sur les autres sujets stratégiques de la roadmap (fraude, CEX, data pipelines). Encadrer et accompagner les juniors dans la mise en place de bonnes pratiques et de rituels qualité. Livrables attendus (2 à 4 mois) : Mise en place d’un cadre de pilotage par les KPIs pour Flux & Prestations (qualité des données, performance technique, usage et impact business). Industrialisation et sécurisation des déploiements GenAI en production. Refactoring du code pour séparation Flux / Prestations avec librairie commune. Amélioration du logging, traçabilité des erreurs et enrichissement des métriques de suivi. Mise en place de tests unitaires/intégration critiques et correction de la CI/CD si nécessaire. Documentation technique, rétro-ingénierie des règles existantes et rédaction de runbooks opérationnels. Appui ponctuel sur les autres projets critiques de la roadmap (fraude, CEX, pipelines data) sur les 6 prochains mois.

Contractor

Contractor job
Data manager

ODHCOM - FREELANCEREPUBLIK
Published on
Apache Airflow
AWS Cloud
Data management

12 months
550-600 €
Issy-les-Moulineaux, Ile-de-France

Sous la responsabilité du Tribe Tech Lead DATA ‘DHS’, le/la Tech Manager « PMS Data » aura donc la charge de…  encadrer 2 de ces 3 équipes (suivi individuel et avec les ESN, participation aux rituels, etc.)  créer un binôme fort avec son homologue ‘Produit’ (Product/Project Manager déjà présent)  piloter les chantiers de Delivery Produit, mais aussi d’améliorations (process, orga, outils)  animer les relations avec les parties prenantes (Métiers, équipes IT, Centre de Services Off-Shore)  informer et alerter les (deux) Tribes Leads DATA ‘DHS’  participer aux activités et évènement transverses de la Tribe, du pôle ENGINEERING ou DATA. Au cours des prochains mois, ses responsabilités le/la mèneront à atteindre les objectifs suivants (non exhaustifs) : o Réduction des fichiers PMS manquants, et du délai de rattrapage (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Augmentation de la couverture (et qualité) des revenus hôtels déjà collectés, et réduction du délai d’activation (et de correction) du « mapping » financier ‘hôtel’ (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Déploiement de « connecteurs » pour accroitre le parc d’hôtels connectés, et répondre aux nouveaux usages métiers, tout en réduisant notre dépendance aux méthodes et acteurs ‘Legacy’. o Revue de la stratégie, de l’architecture et des capacités de la future « Hotel Data Platform » (HDP) o Co-Priorisation du backlog des équipes, planification puis suivi des roadmaps trimestrielles o Diffusion des bonnes pratiques à l’ensemble des membres de l’équipe (autonomie, efficacité) o Documentation à jour du patrimoine Data&Tech afin de faciliter l’intégration des nouveaux arrivants

Contractor
Permanent

Job Vacancy
Data Engineer GCP DBT LOOKER (H/F)

NSI France
Published on
DBT
Google Cloud Platform (GCP)
Looker Studio

3 years
Paris, France

En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Permanent
Contractor

Job Vacancy
Data Engineer GCP

INGENIANCE
Published on
Azure DevOps
BigQuery
DBT

3 years
60k-70k €
550-650 €
Paris, France

Nous recherchons un Data Engineer expérimenté pour rejoindre l'équipe Enterprise Management et Finance de notre client dans le secteur du luxe, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur d'une plateforme de données, responsable de l'ingestion et de la normalisation des données. Le rôle du data engineer sera de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Responsabilités : • Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management • Assurer la qualité et la conformité des données • Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues

Contractor
Permanent

Job Vacancy
Data Engineer Azure

Atlanse
Published on
Agile Method
Agile Scrum
AWS Cloud

3 years
Issy-les-Moulineaux, Ile-de-France

Vous interviendrez en tant que Data Engineer Azure pour participer au développement, à la maintenance et à l’optimisation des flux de données et de l’architecture ELT dans un environnement international. Votre rôle Développement & Maintenance des données Participer à la conception et maintenance des objets de base de données Créer, analyser et modifier les scripts d’alimentation ou de restitution avec Python/DBT Garantir la cohérence et la fiabilité des développements ELT Maintenir et faire évoluer l’environnement DBT Optimisation & Qualité de l’architecture Veiller à minimiser la dette technique et à optimiser l’architecture existante Mettre en place de tests automatisés en collaboration avec l’équipe de test (Pologne) Mettre à jour la documentation technique Collaboration & Analyse des besoins Analyser les besoins métiers des différents projets Travailler en étroite collaboration avec les équipes data (France et Hongrie), l’équipe de test (Pologne) et l’équipe de support (Lettonie)

Premium Job
Permanent

Job Vacancy
Data Architecte Databricks - Paris

KOMEET TECHNOLOGIES
Published on
Databricks

65k-80k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Permanent

Job Vacancy
Tech Lead Data

INFOGENE
Published on

50k-70k €
Neuilly-sur-Seine, Ile-de-France

Missions principales Piloter la conception et la mise en œuvre de l’architecture Data sur Google Cloud Platform (GCP) . Concevoir, développer et maintenir des pipelines d’ingestion et de transformation de données internes et publiques. Garantir la fiabilité, la performance et la scalabilité des flux de données au sein de la plateforme. Mettre en place et industrialiser les environnements d’exécution via GKE , Terraform , et les outils d’orchestration ( Argo Workflow , Airflow , etc.). Développer et documenter des modèles de données avec DBT (ou SQLMesh ). Intégrer des solutions d’ingestion automatisée de données à l’aide de Python et d’outils tels que Fivetran ou Rclone . Gérer le cycle de vie du code et des déploiements via GitLab CI/CD . Collaborer avec les équipes Data Science et R&D pour comprendre leurs besoins et traduire ces besoins en solutions data robustes. Promouvoir les bonnes pratiques en ingénierie de données, sécurité et gouvernance. Compétences techniques requises GCP (BigQuery, GCS) et SQL : maîtrise indispensable. Kubernetes (GKE) et Terraform : expérience solide en déploiement et automatisation. DBT ou SQLMesh : conception et maintenance de modèles de données. Python : développement de scripts et pipelines d’ingestion. Outils d’ingestion : Fivetran, Rclone ou équivalents. Orchestration de workflows : Argo Workflow, Airflow ou outils similaires. CI/CD : GitLab CI ou pipelines équivalents. Compétences appréciées : Connaissance d’ Azure et de Databricks . Expérience avec des mécanismes de Change Data Capture (DataStream, Debezium, etc.). Profil recherché Formation : Bac +5 ou équivalent (ingénierie, informatique, data). Expérience : minimum 5 ans en Data Engineering, dont une expérience significative sur GCP. Langues : maîtrise de l’ anglais indispensable (environnement international).

Contractor
Permanent
Fixed term

Job Vacancy
Lead Data Engineed Snowflake

IT CONSULTANTS
Published on
Agile Method
Snowflake

12 months
Levallois-Perret, Ile-de-France

Cherchons un profil expert Snowflake pour participer activement à la structuration de l'offre de notre client, à l'élaboration des architectures avant-vente et à la montée en compétence de leurs équipes. Lead Data Engineer passionné par Snowflake et DBT vous travaillerez chez des clients leaders dans leurs secteurs afin de moderniser leur infrastructure de données. Vous travaillerez sur des projets stimulants, de l'implémentation initiale de Snowflake à l'optimisation de pipelines complexes avec dbt, en passant par l'intégration d'écosystèmes data avancés. Votre rôle sera crucial pour le succès de ces transformations. Missions principales : * Développer nos assets technologiques et nos accélérateurs pour des déploiements plus rapides et efficaces. * Participer activement aux phases d'avant-vente, en concevant des architectures innovantes et en présentant nos solutions aux clients. * Accompagner nos clients dans la conception, le développement et le déploiement d'architectures data modernes basées sur Snowflake et dbt. * Mettre en place et optimiser des pipelines de données robustes et performants avec dbt. * Conseiller nos clients sur les meilleures pratiques de la Modern Data Stack et les accompagner dans la migration et l'intégration de leurs données. * Encadrer et faire monter en compétences une équipe de data engineers sur les technologies Snowflake et dbt. Compétences attendues : - Une expérience significative en tant que Lead Data Engineer ou Architecte Data, avec une expertise approfondie de Snowflake et dbt (certifications bienvenues). - Une excellente compréhension des concepts de la Modern Data Stack et de ses meilleures pratiques (Snowflake Openflow, Fivetran, dbt, Airbyte…). - Une expérience dans un projet de migration de plateforme Data vers une Modern Data Stack est un vrai plus Maîtrise des langages SQL et Python. - Une expérience réussie en Streamlit et/ou Generative AI est un atout sérieux. - Capacité à travailler en équipe, à communiquer efficacement et à vous adapter aux environnements clients avec une forte orientation conseil.

Permanent
Contractor

Job Vacancy
Data Architecte

Signe +
Published on

24 months
45k-50k €
322-500 €
Vélizy-Villacoublay, Ile-de-France

3. Compétences requises - Expérience : o 7 à 12 ans en ingénierie/architecture data avec DWH (Kimball/Inmon), BI, Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. o Modélisation sémantique, data contracts, performance engineering, dbt/metrics layer, GCP + on-premise, IaC/CI-CD pour la data. - Livrables clés : o Architecture one-pager, data contracts, ADRs/HLD, modèle sémantique & arbre de KPIs, runbook/SLOs, modèle de coûts. 4. Gestion des parties prenantes - Collaboration étroite avec les parties prenantes métiers, delivery leads et product owners pour recueillir les besoins, prioriser les fonctionnalités à forte valeur ajoutée, et présenter régulièrement les avancées à la direction. Résumé : Ce SOW définit une mission de Solution Data Architect axée sur la conception, la gouvernance et l'optimisation de solutions data avancées, avec une forte exigence de qualité, de documentation, de collaboration transverse et d'innovation technologique. Lieu : Velizy Lieu d'exécution : Vélizy avec possibilité de télétravail (max 2 jours/semaine).

Contractor
Permanent

Job Vacancy
Data Engineer Python/Spark GCP

VISIAN
Published on
Apache Airflow
Apache Spark
Google Cloud Platform (GCP)

2 years
44k-90k €
400-650 €
Paris, France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Python/Spark/GCP Le data ingénieur avec la stack Python, Spark, SQL, dbt, BigQuery, Airflow, Terraform, Terragrunt, GCP . Ses missions : Déployer des datasets normés Accompagner les utilisateurs dans leurs usages. Mettre en place du contrôle qualité sur les datasets. En détail : Participer aux phases de conception, planification et réalisation. Construire et maintenir des pipelines data robustes et scalables. Organiser et structurer le stockage des données. Mettre en place et maintenir des infrastructures scalables et sécurisées. Contribuer à la gouvernance des données (qualité, fiabilité, intégrité). Construire et maintenir les workflows de CI/CD. Partager et appliquer les bonnes pratiques data engineering. Assurer évolutivité, sécurité et stabilité des environnements. Participer aux instances data engineers et à la mise à jour de la documentation. Assurer une veille technologique active .

Contractor
Permanent

Job Vacancy
Data Engineer

KERNET
Published on
autonomous

12 months
47k-55k €
450-530 €
Ile-de-France, France

Nous recherchons un Data Engineer confirmé pour rejoindre une équipe data en pleine expansion au sein d’un grand groupe français reconnu pour son rôle clé dans la transformation numérique de ses services. Vous interviendrez dans la mise en place et l’industrialisation de pipelines de données sur une infrastructure AWS à grande échelle. Missions principales Concevoir, développer et maintenir des pipelines de données robustes et scalables sur AWS (Glue, Lambda, EMR, S3, Step Functions, etc.) Participer à la modélisation et à la structuration des données pour les besoins analytiques et opérationnels Intégrer et transformer les données issues de différentes sources (internes, API, fichiers, bases de données, etc.) Contribuer à la mise en place de bonnes pratiques de DataOps (CI/CD, monitoring, tests automatisés) Collaborer avec les équipes Data Science, BI et les architectes pour assurer la qualité et la cohérence des données Participer à l’optimisation des coûts et des performances de la plateforme data AWS Stack technique Cloud : AWS (S3, Glue, Lambda, Step Functions, Athena, EMR, Redshift, IAM, CloudWatch) Langages : Python, SQL, PySpark CI/CD : GitLab CI, Terraform / CloudFormation DataOps : Airflow, dbt, Docker Data Visualization (bonus) : QuickSight, Power BI

Contractor

Contractor job
POT8602-Un Data scientiste sur Grenoble

Almatek
Published on
Python

6 months
270-360 €
Grenoble, Auvergne-Rhône-Alpes

Almatek recherche pour l'un de ses clients, un Data scientiste sur Grenoble. Missions: Concevoir, entrainer, déployer des modèles de ML, En environnement: Python, scikit Pytorch, SQL Databricks Expérience en feature engineering et ML Ops 3 ans d'expé en Data science Vont aller sur du DBT Cloud (hébergé sur leur cloud azure), pas le DBT core Aujourd’hui en Databricks Almatek recherche pour l'un de ses clients, un Data scientiste sur Grenoble. Missions: Concevoir, entrainer, déployer des modèles de ML, En environnement: Python, scikit Pytorch, SQL Databricks Expérience en feature engineering et ML Ops 3 ans d'expé en Data science Vont aller sur du DBT Cloud (hébergé sur leur cloud azure), pas le DBT core Aujourd’hui en Databricks

Submit your CV

  • Manage your visibility

    Salary, remote work... Define all the criteria that are important to you.

  • Get discovered

    Recruiters come directly to look for their future hires in our CV library.

  • Join a community

    Connect with like-minded tech and IT professionals on a daily basis through our forum.

46 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us