Trouvez votre prochaine offre d’emploi ou de mission freelance DBT

Votre recherche renvoie 58 résultats.
Freelance

Mission freelance
Data Engineer (F/H)

CELAD
Publiée le

1 an
450-550 €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

45k-55k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Freelance

Mission freelance
Data Analyst IA Solutions (PowerBI, SQL, Python)

Nicholson SAS
Publiée le
CI/CD
Data analysis
DBT

24 mois
300 €
Lille, Hauts-de-France
Missions : Nous recherchons une personne avec une expérience confirmée (au moins 3 à 5 ans sur des problématiques Data), passionnée par la construction de solutions analytiques robustes et percutantes. Modélisation et Bases de Données : Vous maîtrisez parfaitement le langage SQL pour concevoir et optimiser des tables de données, notamment dans BigQuery et PostgreSQL. Vous avez également une connaissance des bases de données NoSQL comme MongoDB. Une expérience avec dbt pour la transformation et la modélisation est fortement appréciée. Visualisation de Données (Dataviz) : Vous avez une expertise solide sur des outils de BI comme Power BI ou Looker pour transformer des données brutes en dashboards interactifs et clairs, aidant ainsi à la prise de décision. Ingénierie et Analyse : Vous utilisez Python pour l'analyse, la manipulation de données complexes ou l'automatisation de tâches. Écosystème Cloud & DevOps : Vous êtes familier avec Google Cloud Platform (GCP). Vous avez une forte sensibilité aux pratiques DevOps et une expérience avec les outils d'intégration et de déploiement continus (CI/CD, comme Git, GitLab CI, GitHub Actions) pour garantir le versionnement, la qualité et l'automatisation des déploiements. Qualité de la Donnée : Vous êtes sensible à la qualité et à la gouvernance des données, et vous mettez en place des pratiques pour assurer la fiabilité des informations.
Freelance

Mission freelance
Data Architecte AWS / Iceberg

Atlas Connect
Publiée le
Apache Airflow
Apache Spark
API

12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
CDI

Offre d'emploi
Tech Lead Data (H/F)

Amiltone
Publiée le

30k-35k €
Bordeaux, Nouvelle-Aquitaine
Vos missions ? Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant que Tech Lead Data (H/F). Dans une organisation Agile, vous assurerez les missions suivantes : - Encadrer et accompagner l'équipe dans la réalisation des projets data - Optimiser les processus de delivery en s'appuyant sur les principes Lean - Garantir la performance, la scalabilité et la fiabilité des solutions data - Participer à la conception et à l'évolution de la plateforme data - Faciliter le partage de données avec les filiales du groupe et les clients B2B La stack technique : - Snowflake - SQL - Talend - DBT - Kafka - Python - PowerBI
Freelance

Mission freelance
249565/Administrateur Snowflake

WorldWide People
Publiée le
Snowflake

6 mois
Saint-Denis, Île-de-France
Administrateur Snowflake * Expertise avancée sur Snowflake : architecture, Virtual Warehouses, RBAC, performance. * Compétences solides sur AWS (réseau, PrivateLink, Direct Connect). * Maîtrise de Terraform pour gérer l’IaC Snowflake / AWS. * Connaissances confirmées en DataOps, CI/CD, pipelines de déploiement (Snowflake, dbt, Airflow). * Maîtrise des sécurités avancées : Key-Pair, Network Policies, intégrations externes. * Compétences en scripting SQL/Python, Snowflake Tasks & Streams pour automatisations. * Capacité à assurer un troubleshooting avancé : requêtes lentes, locks, optimisation. * Sensibilité FinOps : monitoring de consommation, optimisation de coûts, Resource Monitors. Contexte de la mission * Environnement technique basé sur Snowflake hébergé sur AWS, incluant PrivateLink, Direct Connect, dbt, Airflow et Terraform. * Projet stratégique de migration d’Oracle Exadata vers Snowflake dans le cadre de la stratégie NextGen. * Travail en co‑construction avec le pôle archi pour les revues d’architecture et la définition de l’architecture cible. Objectifs de la mission * Participer au design et au build des fondations de la plateforme Snowflake (sizing, isolation des workloads). * Mettre en place la sécurité cible : matrice RBAC, gestion des accès, modèles d’authentification. * Créer et maintenir les socles d’Infrastructure as Code avec Terraform. * Assurer la gestion courante et la sécurisation de la plateforme : rôles, utilisateurs, Network Policies, comptes techniques, intégrations externes. * Optimiser les performances, les coûts et la fiabilité : FinOps, tuning, monitoring, troubleshooting. Compétences demandées Compétences Niveau de compétence Programmation Python Avancé Snowflake Data Cloud Expert IBM Terraform Expert Optimisation SQL Avancé AWS Confirmé cicd Confirmé
Freelance

Mission freelance
[SCH] Administrateur Azure / Microsoft Fabric / Power BI - 1410

ISUPPLIER
Publiée le

10 mois
400-500 €
Saint-Denis, Île-de-France
Dans le cadre de la construction de la nouvelle BI d’entreprise, notre client recherche un Administrateur Azure / Microsoft Fabric afin de participer à la mise en place d’une nouvelle offre de Self-BI reposant sur Power BI, Microsoft Fabric et des Gateways On-Premises. Le consultant interviendra à la fois sur la co-construction de l’architecture avec les équipes internes et sur son implémentation, dans un environnement hybride mêlant cloud Azure et infrastructures on-premises. La mission nécessite une forte maîtrise des sujets d’administration, de sécurité, de DataOps et d’automatisation, ainsi qu’une bonne compréhension des enjeux de performance, de migration BI et de gouvernance. Missions : -Co-construire l’architecture BI cible avec les équipes internes -Assurer le build et l’administration de l’environnement Microsoft Fabric / Power BI / Azure -Configurer et administrer les capacités Fabric et les Workspaces -Gérer les sujets de tenant administration, sécurité, identités et service principals -Mettre en place et administrer les Gateways On-Premises -Gérer les Azure KeyVaults et les secrets techniques -Mettre en œuvre les pratiques DevOps / DataOps (CI/CD, automatisation, industrialisation) -Automatiser les tâches via API, PowerShell ou Python -Participer aux sujets de monitoring, performance, incidents et optimisation des coûts (FinOps) -Accompagner les problématiques de migration BI et d’évolution de la plateforme -Contribuer à l’industrialisation de la plateforme via Terraform et Azure DevOps -Collaborer avec les équipes techniques sur les sujets dbt, Airflow et intégration data Profil attendu : -Expertise confirmée sur Microsoft Fabric, Power BI et Azure -Expérience en design & build d’architectures data / BI -Bonne maîtrise des environnements hybrides cloud / on-premises -Compétences solides en administration, sécurité, identités et gouvernance -Expérience avec Azure DevOps, Terraform et les pratiques IaC -Bonne compréhension des enjeux DataOps / DevOps / CI-CD -Capacité à automatiser les tâches via PowerShell, Python ou API -Connaissance de dbt, Airflow et migration BI appréciée -Sensibilité aux problématiques de FinOps, monitoring et performance -Autonomie, rigueur et capacité à travailler en co-construction avec les équipes
CDI

Offre d'emploi
Développeur Data GCP / BI (H/F)

CELAD
Publiée le

45k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Développeur Data pour intervenir chez un de nos clients, dans le secteur bancaire. Au quotidien, tu vas : Participer à la migration des rapports Power BI Transformer les flux existants (SSIS) vers des solutions modernes sur GCP Développer et orchestrer les pipelines de données avec Python, dbt et Composer Assurer la fiabilité, la performance et la stabilité des traitements Travailler en lien étroit avec les équipes métiers pour bien comprendre les besoins Contribuer à l'amélioration continue des pratiques et de la delivery data
Freelance

Mission freelance
Développeur Data GCP/BI (H/F)

CELAD
Publiée le

1 an
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Développeur Data pour intervenir chez un de nos clients, dans le secteur bancaire. Au quotidien, tu vas : Participer à la migration des rapports Power BI Transformer les flux existants (SSIS) vers des solutions modernes sur GCP Développer et orchestrer les pipelines de données avec Python, dbt et Composer Assurer la fiabilité, la performance et la stabilité des traitements Travailler en lien étroit avec les équipes métiers pour bien comprendre les besoins Contribuer à l’amélioration continue des pratiques et de la delivery data
Freelance

Mission freelance
255961/Administrateur Azure/Fabric

WorldWide People
Publiée le
Azure

3 mois
400-440 €
Saint-Denis, Île-de-France
Administrateur Azure/Fabric Contexte de la mission Construire la nouvelle BI d’Entreprise sur Power BI / Fabric. Développer une nouvelle offre de Self‑BI reposant sur Power BI, Fabric et les Gateways On‑Premises. Objectifs et livrables Expert Microsoft Fabric, Power BI, Azure et infrastructures hybrides. Capable de co‑construire l’architecture avec l’équipe ASD et d’en assurer le build. Maîtrise des capacités Fabric, des Workspaces, Azure KeyVaults, Azure DevOps et Terraform. Compétences en administration : tenant, sécurité, identités, service principals, gateways On‑Premises. À l’aise avec DataOps : pipelines CI/CD, gestion des secrets, automatisation via API, PowerShell ou Python. Connaissance de dbt, Airflow et des enjeux de migration BI. Compétences en FinOps, monitoring, optimisation de performance et gestion des incidents. Compétences demandées Compétences Niveau de compétence Infrastructure as Code (IaC) & provisioning Cloud (Terraform) Confirmé Compétences FinOps, monitoring & performance Confirmé Compétences en Design & Build d’architecture data Expert Maîtrise technique de Microsoft Fabric / Power BI / Azur Expert Expertise DevOps & DataOps Confirm

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

58 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous