Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 307 résultats.
Mission freelance
Data engineer H/F
Insitoo Freelances
Publiée le
AWS Cloud
Azure
Databricks
2 ans
450-490 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer H/F à Paris, France. Contexte : Nous recherchons un Data Ingénieur capable d’intégrer des modèles d’IA générative pour créer des Agents IA connectés et déployé sur AWS ou Azure. A. Interface graphique permettant de construire les modèles et de définir les paramètres de simulation B. Coeur de calcul et outil de calcul connecté aux données big data de nos bases de données C. Outil de croisement des bases de données D. Logiciel de visualisation des résultats de simulation E. Outil de simulation des scénarios de régénération Les missions attendues par le Data engineer H/F : L’objectif est de concevoir et d’opérer une plateforme permettant : •Le déploiement d’agents conversationnels et d’outils d’analyse de texte en temps réel, •L’intégration de modèles LLM, •L’utilisation d’architectures cloud évolutives, robustes et optimisées en coûts (serverless, conteneurs, stockage S3, compute EC2, etc.). •Le ou la candidate contribuera également à l’orchestration des modèles via API Gateway, à l’exécution d’APIs serverless via Lambda, ainsi qu’à la gestion du cycle de vie des modèles via SageMaker (ou équivalent Azure Machine Learning). Les taches de cette mission sont : •Concevoir, développer et maintenir des scripts python robustes et scalables basées sur AWS ou Azure (API Gateway, Lambda Functions, App Services, etc.). •Développer des workflows IA robustes, incluant inference pipeline, gestion des prompts, monitoring et optimisation. •Travailler avec le développeur front Profil(s) le(s) plus à même de remplir la prestation (compétences requises et souhaitées) : • Diplôme universitaire en informatique, en traitement de Langage ou dans un domaine connexe (ou expérience équivalente) • Solide maîtrise de python •Connaissances en bases de données SQL et NoSQL. •Expérience en conception d’API. •Maîtrise des bonnes pratiques de sécurité Web. •Connaissance des pipelines CI/CD, Git, conteneurisation (Docker, Kubernetes). •Atouts : expérience cloud (AWS, Azure, GCP), microservices, tests automatisés. •Capacité à travailler en autonomie tout en collaborant étroitement avec l’équipe. •Bon sens de la communication et esprit de synthèse. •Curiosité et appétence pour apprendre de nouvelles technologies. •Proactivité dans la résolution de problèmes. Environnement technique : AWS/AZUR/Databricks
Offre d'emploi
Data Engineer - CDI
VingtCinq
Publiée le
Azure
Databricks
DBT
Paris, France
L'ENTREPRISE La fabrique Vingtcinq accompagne depuis 2010, les ETI et grands comptes de l’industrie et du service dans leur transformation digitale (Applications web, digitalisation des processus interne, data engineering, .. ). Vingtcinq est aujourd'hui reconnue non seulement pour la qualité d'exécution de ses développements , mais aussi pour le cadre de travail offert à ses collaborateurs . Le bien-être de notre équipe est une priorité , et chacun contribue activement à la vie de l'entreprise et à son développement . Forte de son expertise dans le développement d'outils digitaux, Vingtcinq aspire désormais à se démarquer dans le domaine de la data . Cette nouvelle Business Unit, en pleine expansion, se structure grâce à l'esprit entrepreneurial de ses membres. Pour soutenir cette croissance, nous recherchons des esprits audacieux pour rejoindre cette aventure et faire rayonner Vingtcinq sur ce nouveau secteur, pour cela, nous recherchons un(e) data engineer pour renforcer notre équipe . Tu travailleras en étroite collaboration avec l’équipe Data pour répondre aux enjeux de nos clients et développer l’offre Vingtcinq. LA MISSION Mission Principale : Data Ingestion & Transformation (70%) Créer, maintenir et optimiser des pipelines de traitement des données (ETL/ELT) pour collecter, charger, stocker, nettoyer et transformer les données brutes provenant de différentes sources (bases de données, API, fichiers, etc.). Automatiser l'intégration / l’ingestion de données (data warehouses, data lakes et lakehouses) Administrer et configurer des systèmes de stockage de données (datalake, datawarehouse ou lakehouse)(Assurer la scalabilité et la résilience des systèmes de données Travailler avec des outils et technologies pour la gestion des données à grande échelle. Optimiser la performance des base de données Garantir la qualité et l'intégrité des données Surveiller et optimiser des flux de données Mission secondaire : Visualization & technical guidance (30%) Travailler avec l’équipe Business/PM pour enrichir le brief et créer la traduction technique appropriée, être à l'aise pour parler à l'équipe business Conseils pour la résolution de problèmes : En tant qu'ingénieur de données expérimenté, fournir des conseils sur la bonne méthodologie d'implémentation technique des outils internes en accord avec l’équipe Data office Maintenir les tableaux de bord existants (améliorations) Soutenir l'effort de documentation des données en collaboration avec les responsables des données. COMPÉTENCES REQUISES Maîtrise de l’environnement Azure Environnement Cloud & Data : Azure Data Factory (ingestion, orchestration), Azure Databricks (traitements Spark), Azure Data Lake Storage Gen2 Bases de données & modélisation : Azure SQL Database, Modélisation analytique (schéma en étoile, faits/dimensions) Programmation : SQL avancé, Python (Spark, pandas), Scala (apprécié) Sécurité & gouvernance : Azure AD / IAM, Gestion des accès et des données sensibles, Data Catalog (Purview ou équivalent) Industrialisation & supervision : CI/CD : Azure DevOps ou GitHub Actions, Monitoring : Azure Monitor, Log Analytics Business Intelligence : Power BI LE PROFIL RECHERCHÉ Formation Bac+5 ou équivalent vous justifiez d’une expérience de 3 à 5 ans en tant que Data Engineer . Tu es autonome, proactif et as un excellent sens de la communication . Tu es apte à analyser les problèmes de données et à concevoir des solutions techniques adaptées . Tu recherches une structure à taille humaine , avec un fort esprit d’équipe Niveau d’ anglais avancé attendu LES PLUS DE L'OFFRE Nous avons le goût de la qualité et du travail bien fait Nous t’accompagnerons dans ta montée en compétences Chez VingtCinq, nous accordons une importance particulière à l’esprit d’équipe et au bien être de nos collaborateurs LE PROCESSUS DE RECRUTEMENT Entretien avec le DG de VingtCinq Test technique Entretien avec le Directeur Technique
Offre d'emploi
Data Engineer + Développeur H/F
WINSIDE Technology
Publiée le
AI
1 an
40k-56k €
100-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer + Développeur H/F ! 🚀 Ce poste est fait pour toi si : Tu as 4 ans d'expérience professionnelle à minima sur des missions de Data Engineer . Tu as 3 ans d'expérience professionnelle à minima sur des missions de Développeur/Développeuse . Tu as une première expérience professionnelle ou une formation en AI/GenAI . Tu as 3 ans d'expérience professionnelle à minima en NodeJs ou Java . Tu parles anglais à un niveau professionnel. Missions: En tant que Data Engineer avec un rôle de Discovery Lead, tu es un profil moteur sur l'ensemble du cycle : de l'analyse des nouvelles tendances à la mise en production de MVP (Minimum Viable Product): 1/ Pilotage du Discovery 2/ Veille, Analyse & Architecture 3/ Développement de MVP (Minimum Viable Product) 4/ Mesure & Communication Contexte : accélération des technologies autour de l’AI et du GenAI, de transformation digitale et d’organisation d’entreprise. Démarrage : rapide. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Offre d'emploi
Data Engineer Senior – Plateforme Data Cloud
VISIAN
Publiée le
AWS Cloud
Databricks
PySpark
3 ans
40k-50k €
500-540 €
Lyon, Auvergne-Rhône-Alpes
Data Engineer Senior – Plateforme Data Cloud (H/F) Lyon – Mission longue durée – Temps plein Nous recherchons un Data Engineer senior pour intervenir sur une plateforme data stratégique au sein d’un grand environnement industriel en transformation. La mission s’inscrit dans une équipe dédiée à l’industrialisation et à la performance des pipelines data, sur une architecture cloud moderne à forte volumétrie. Missions • Concevoir et optimiser des pipelines d’ingestion et de transformation de données • Garantir la performance, la fiabilité et la scalabilité de la plateforme • Mettre en place des mécanismes de contrôle qualité des données • Automatiser et superviser les traitements data • Participer à la gouvernance et au cycle de vie de la donnée • Contribuer à l’optimisation des infrastructures cloud • Supporter les utilisateurs de la plateforme • Participer à la veille technologique Environnement technique Databricks sur AWS PySpark, Python, SQL avancé Architecture Data Lake et pipelines industriels Outils DevOps / DataOps (Git, CI/CD, ticketing) Méthodologie Agile à l’échelle (SAFe) Profil recherché Minimum 5 ans d’expérience en data engineering Expertise Databricks, AWS et PySpark Expérience en industrialisation de pipelines data Rigueur technique et autonomie Bon esprit d’équipe Anglais professionnel Connaissance du secteur industriel ou énergie appréciée. Conditions Mission longue durée avec visibilité Projet à fort impact Équipe technique experte Environnement cloud avancé
Offre d'emploi
Data Engineer Elastic/OpenSearch et Kafka
VISIAN
Publiée le
Ansible
Elasticsearch
1 an
40k-45k €
400-620 €
Île-de-France, France
Descriptif du poste Dans le cadre de l'équipe Data Analytic, nous créons et maintenons des architectures Big Data pour les besoins internes de l'entreprise. Pour renforcer notre équipe support, nous proposons une mission de Data Engineering sur Elastic/OpenSearch et Kafka. Technologies principales Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) OpenSearch et Kafka Technologies couramment utilisées L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées :
Mission freelance
Data Engineer Recyclage & Valorisation (Dep92)
EterniTech
Publiée le
Google Cloud Platform (GCP)
Java
Python
3 mois
300-400 €
Hauts-de-Seine, France
Mission : transformer les données en un véritable actif pour les métiers du Recyclage et de la Valorisation. Missions principales Maintenir et faire évoluer la plateforme Data : intégration de flux, suivi des batchs, performance et sécurité. Gestion des droits d’accès et interactions avec les consommateurs de données. Proposer des améliorations techniques (indexation, datamarts, pré-calculs KPI). Participer à l’amélioration continue de la qualité des données et assurer le support N3. Référent technique du socle Data et coordination avec la data gouvernance. Environnement technique Bases de données : SQL Server, BigQuery, PostgreSQL Langages : SQL, Python, Java, C++ DevOps : CI/CD, Azure DevOps, Git Cloud : Azure, GCP Outils BI et visualisation : Power BI, reporting Gouvernance et data management
Offre d'emploi
Data Engineer Opensearch/Kafka/Elasticsearch
OBJECTWARE
Publiée le
Apache Kafka
Elasticsearch
3 ans
38k-85k €
400-660 €
Île-de-France, France
Objectif de la mission Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur ELASTIC/OPENSEARCH et KAFKA Les principales technologies utilisees • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) • Open Search et Kafka L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs Prestations demandées La mission consiste à: Support, automatisation et maintien en conditions opérationnelles des plateformes ELK/Opensearch/Kafka ( ELK etant la priorite) Participation aux developpmenent de l equipe data Analytics Support plateforme WWW Environnement anglophone
Mission freelance
Data Engineer (H/F) - 75
Mindquest
Publiée le
Apache Airflow
Apache Spark
BigQuery
3 mois
Paris, France
Contexte: Dans un environnement numérique à forte volumétrie de données, une direction technique transverse renforce sa plateforme Data afin de faire de la donnée un levier stratégique de pilotage, de connaissance utilisateur et d’aide à la décision. La mission s’inscrit au cœur d’une organisation Data structurée, en interaction étroite avec les équipes produit, techniques et métiers. L’objectif est de centraliser, fiabiliser et gouverner des données hétérogènes tout en garantissant leur conformité réglementaire, leur sécurité et leur exploitabilité à grande échelle. Le consultant interviendra au sein d’une équipe Data Engineering intégrée à la plateforme centrale, composée de profils complémentaires (Product Owner, Data Steward, Data Engineers). Missions: Le Data Engineer interviendra sur l’ensemble de la chaîne de valeur data, avec un fort enjeu de robustesse, scalabilité et gouvernance. Responsabilités principales : Collecter, centraliser et structurer des sources de données multiples et non homogènes Concevoir, développer et maintenir des pipelines data fiables et performants Organiser et optimiser le stockage des données (lakes, tables, catalogage) Mettre en place et maintenir des infrastructures cloud scalables Développer et maintenir les workflows CI/CD Garantir la sécurité, la conformité et l’évolutivité des environnements data Participer aux initiatives de gouvernance des données Accompagner les équipes dans l’exploitation et le requêtage des données Contribuer activement à la documentation et aux bonnes pratiques Assurer une veille technologique continue
Mission freelance
Data Engineer Azure Data Factory - CosmosDB
Atlas Connect
Publiée le
Azure
Azure Data Factory
Azure DevOps
12 mois
490-550 €
Île-de-France, France
Vos missions En tant que Data Engineer , vous serez amené(e) à : Concevoir, développer et maintenir des pipelines d’intégration de données sous Azure Data Factory Assurer la gestion complète des flux de données : ingestion, transformation, normalisation et mise à disposition pour les différents services du SI Réaliser des transformations et agrégations complexes en SQL , dans une logique de qualité, de performance et d’industrialisation Collaborer étroitement avec les équipes métiers afin de comprendre leurs besoins et proposer des solutions techniques adaptées intégrées au Datahub Contribuer à l’ amélioration continue des processus Data : automatisation, fiabilisation, optimisation et bonnes pratiques Participer à la fiabilité et à la qualité du code et des déploiements dans un environnement industrialisé ⚙️ Stack technique Cloud : Azure (hébergement, stockage, orchestration) Data : Azure Data Factory Bases de données : Azure SQL, Cosmos DB Langages : SQL (avancé), Python (Azure Functions) Infrastructure : Terraform (Infrastructure as Code) Qualité & sécurité : SonarCloud, Snyk CI/CD & DevOps : Azure DevOps
Mission freelance
Data Engineer - Toulouse
Signe +
Publiée le
Apache Spark
Java
6 mois
400-450 €
Toulouse, Occitanie
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Data Engineer. Contexte Dans le cadre d’un projet data, nous recherchons un Data Engineer expérimenté pour intervenir sur des problématiques de gestion de bases de données et de traitement de données à grande échelle , au sein d’un environnement international. Missions principales Concevoir, développer et maintenir des pipelines de données fiables et performants Intervenir sur la gestion et l’optimisation des bases de données Développer des traitements data en Java Exploiter et optimiser des traitements Apache Spark SQL Assurer la qualité, la cohérence et la performance des données Collaborer avec les équipes techniques et métiers dans un contexte anglophone Participer aux échanges, réunions et documentation en anglais
Mission freelance
Data Engineer python/ Big Data/ AWS/ Redshift/ Linux / Energie (H/F)
Octopus Group
Publiée le
Amazon Redshift
API
AWS Cloud
6 mois
500-550 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client dans l'énergie, un data Engineer Objectifs : Participer au développement des assets de la nouvelle plateforme de données. Participer au cadrage et au lancement des projets d'ingénierie et d’intelligence artificielle. Prise en main des sujets pilotes et d’assurer le Run La conception, la modélisation et l’optimisation des requêtes Redshift est un point clé dans cette mission Missions : Vous participer à la construction de la data plateform dans sa deuxième phase permettant de consolider le socle et mettre à disposition les moyens technique pour exploiter la donnée Vous participez à l’étude opérationnelle de cadrage et d’architecture en anticipant les différentes contraintes avec les référents de l’équipe. Vous serez amené à réaliser des POC et de spiker le backlog. Vous complétez l’équipe avec vos compétences en ingénierie de données et en développement (scripting python, d’expertise sur les API, les tests, les bonnes pratiques, etc.) Vous consacrer votre temps à travailler avec un squad Data Métier, de proposer des solutions technique pour les clients associé, d’assurer le Run et de développer la plateforme associée, et, ce, toute en respectant les consignes d’architecture Participer à la mise en place des projets d’AI engineering - Savoir maîtriser les coûts des services est un Must pour ce poste et être force de proposition
Mission freelance
Data Engineer / Analyste Azure (MSBI) :
Cherry Pick
Publiée le
Azure
MSBI
SQL
12 mois
450-500 €
Paris, France
Dans le cadre de projets Data en environnement Full Microsoft, Altarea souhaite renforcer ses équipes sur des sujets d’ingestion, traitement et restitution de données. Les projets consistent à : ingérer de nouvelles données depuis des bases Oracle ou PostgreSQL, Les stocker et traiter sur Azure, Produire des rapports décisionnels via Power BI. Mission Ingestion de données depuis Oracle / PostgreSQL vers Azure Utilisation de SSIS (infra locale) ou Azure Data Factory selon les contraintes techniques et de coûts Traitement et transformation des données Modélisation et restitution via Power BI Travail majoritairement en SQL (pas de besoin Python) Capacité à challenger les choix techniques et à proposer des optimisations Veille technologique et posture de consultant Environnement technique Stack Full Microsoft (MSBI) SQL Server / SSIS Azure (Data Factory, stockage) Power BI Sources : Oracle, PostgreSQL Profil recherché Data Engineer / Data Analyst Azure 5 à 10 ans d’expérience Très bon niveau SQL À l’aise en environnement MSBI Capacité de recul, force de proposition Posture conseil Une expérience dans la promotion immobilière est un gros plus
Offre d'emploi
Data Engineer (F/H) – Domaine de l’environnement - Toulouse
CELAD
Publiée le
38k-44k €
Toulouse, Occitanie
2 jours de télétravail / semaine - Toulouse - Expérience de 3 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons un(e) Data Engineer pour intervenir chez l’un de nos clients dans le domaine de l’environnement , disposant d’une plateforme Big Data exploitant de très grands volumes de données. Ces données alimentent des algorithmes d’analyse avancée et des services à forte valeur ajoutée (détection d’anomalies, prévisions, aide à la décision). Vous rejoignez une équipe data transverse avec un objectif clair : industrialiser et fiabiliser des traitements Big Data à grande échelle. Vos missions : Au sein d’une équipe Transformation & Modélisation pluridisciplinaire (data engineers, data scientists, développeurs), vous serez amené(e) à : Contribuer à la mise en place et à l’évolution de la stack Big Data Développer des jobs Spark pour l’ingestion, la préparation et l’enrichissement de données massives Alimenter et maintenir les données du data lake ou les rendre disponibles pour des usages IA / ML Travailler avec les outils de conteneurisation et d’orchestration comme Docker, Kubernetes et Helm Enrichir le serving layer et exposer les données via des web services Participer à la mise en production , à la maintenance et à l’amélioration continue des traitements Collaborer étroitement avec les équipes data, IT et métiers Compétences techniques : ️ Expérience confirmée en Data Engineering et traitement de données volumineuses Solide expérience en Java / Maven (J2EE / JDK 17) et Scala Maîtrise de Spark (SQL / DataFrame) pour traiter de grands volumes Bonne connaissance des architectures Big Data et des data lakes Expérience sur des pipelines data industrialisés Sensibilité aux problématiques de performance, robustesse et qualité des données Une connaissance des environnements ML / IA est un plus
Mission freelance
Data Engineer Senior - Data Warehouse
Cherry Pick
Publiée le
Audit
Azure
Azure Data Factory
6 mois
600-680 €
Île-de-France, France
Dans un contexte de transformation, la fiabilité de la donnée est devenue un enjeu critique pour le pilotage financier et opérationnel. Contexte & Enjeux Un socle de Data Warehouse a été initié suite à la refonte du SI, mais celui-ci reste aujourd’hui : incomplet, instable (bugs, latences importantes), avec des problématiques de qualité et de disponibilité de la donnée. Le reporting Power BI est géré en interne. 👉 La mission ne concerne pas la data visualisation , mais bien la construction d’un Data Warehouse robuste, industrialisé et exploitable . Nous recherchons un Data Engineer senior / consultant expérimenté capable de reprendre l’existant, de comprendre les enjeux métiers (notamment contrôle de gestion) et de livrer un socle data fiable dans des délais courts. Missions1. Audit & Diagnostic Analyse de l’existant (modèle de données, flux, performances, qualité) Identification des causes de lenteur, bugs et données manquantes Évaluation de la cohérence entre besoins métiers et implémentation technique 2. Modélisation & Refonte du Data Warehouse Reprise et optimisation de la modélisation DWH Structuration d’un réceptacle de données cohérent et évolutif Intégration des flux issus des nouveaux outils : Cegid XRP Microsoft Dynamics Ammon 3. Ingénierie de données (ETL / ELT) Refactorisation et complétion des pipelines existants Mise en place de l’historisation des données Amélioration des performances et de la fiabilité des traitements 4. Qualité, Traçabilité & Documentation Mise en place de contrôles de qualité automatisés Gestion de la traçabilité et des règles de gestion Documentation du socle data pour sécuriser et pérenniser l’existant 5. Interface Métier Compréhension fine des besoins des opérationnels (indicateurs, chiffres, règles de gestion) Traduction des besoins métier en spécifications techniques Capacité à challenger les demandes pour garantir la cohérence globale du modèle
Mission freelance
Data engineer(H/F)
Freelance.com
Publiée le
Azure
Python
SQL
3 ans
400-500 €
Hauts-de-Seine, France
DATA ENGINEER AZURE (KPI, DBT, MÉTIER) Intitulé Data Engineer Azure – KPI, dbt (Data Build Tool) & compréhension métier __________ Contexte Dans le cadre du renforcement de son équipe data, le client recherche un Data Engineer capable d’intervenir à la fois sur la technique et sur la compréhension de l’usage de la donnée. L’équipe data est déjà en place. Le besoin porte sur un profil capable de : • dialoguer avec les équipes métier, • établir des KPI, • et maîtriser dbt (Data Build Tool), outil central permettant de modéliser la donnée et de définir clairement comment elle doit être utilisée et exploitée. __________ Attentes principales du client Le client attend un consultant qui : • Sait établir des KPI à partir des besoins métier, • Comprend la logique métier derrière les indicateurs, • Maîtrise dbt (Data Build Tool) pour transformer et modéliser la donnée, • Est capable d’expliquer et de justifier les règles de calcul des KPI. dbt est utilisé comme un outil de structuration et de compréhension de la donnée, et non uniquement comme un outil technique. __________ Rôle du consultant • Être un interlocuteur data privilégié des équipes métier • Comprendre les processus et enjeux business • Traduire les besoins métier en KPI clairs et cohérents • Utiliser dbt (Data Build Tool) pour modéliser la donnée et formaliser les règles de calcul • Travailler en complément et en accompagnement de l’équipe data existante __________ Missions principales Métier & KPI • Échanger avec les équipes métier • Comprendre leurs objectifs et problématiques • Établir et formaliser des KPI • Clarifier les définitions et règles de calcul des indicateurs • S’assurer que la donnée produite correspond à un usage concret Data & technique • Intervenir sur un environnement Microsoft Azure • Travailler sur Microsoft Fabric • Transformer et modéliser la donnée avec dbt (Data Build Tool) • Exploiter la donnée via SQL et Python • Garantir la cohérence, la lisibilité et la compréhension des modèles de données • Participer à la mise en production et à l’industrialisation • Documenter les modèles, transformations et KPI __________ Environnement technique • Cloud : Microsoft Azure • Plateforme data : Microsoft Fabric • Transformation & modélisation : dbt (Data Build Tool) • Langages : SQL, Python • Collaboration étroite avec équipes data et métier __________ Profil recherché • Data Engineer confirmé • À l’aise dans les échanges avec des interlocuteurs métier • Capable d’établir des KPI • Bonne compréhension de l’usage et de la valorisation de la donnée • Expérience concrète sur dbt (Data Build Tool) • Expérience sur Microsoft Fabric • Solide niveau en SQL • Esprit collaboratif, pédagogue et pragmatique __________ Qualités attendues • Bon communicant • Capacité à vulgariser la donnée • Sens du service et du collectif • Approche orientée valeur métier • Capacité à s’intégrer dans une équipe existante
Mission freelance
Data Engineer DBT/Snowflake
Net technologie
Publiée le
DBT
Snowflake
3 mois
400-420 €
Lyon, Auvergne-Rhône-Alpes
Snowflake : Configuration et optimisation des entrepôts Snowflake Gestion des étapes externes et de Snowpipe pour l'ingestion à partir d'AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration de la base de données Snowflake (création/gestion d'objets, monitoring, optimisation) DBT : Développement avancé de modèles SQL dans dbt Création et optimisation de modèles de données Utilisation des macros Jinja pour créer du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des instantanés dbt pour le suivi des modifications Création de DAG optimisés avec une gestion appropriée des balises et des dépendances Documentation des modèles de données
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passage en EI régime réel
- Pourquoi est-il si dur de décrocher une mission avec un CV pourtant plutôt intéressant ?
- Cadeau reçu en micro-entreprise
- ARCE | Informations générales-Indemnisation
- Je code pour vous une application gratuitement
- Passage au réel après dépassement micro : notification URSSAF ?
307 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois