Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake
Votre recherche renvoie 64 résultats.
Mission freelance
Analytic Engineer / Expert Qlik Finance & HR
VISEO
Publiée le
DBT
Qlik
Snowflake
12 mois
400-620 €
92100, Boulogne-Billancourt, Île-de-France
Qui êtes-vous ? Si pour vous être Analytic Engineer / Expert Qlik Finance & HR , c’est : 🔹 Construire des applications Qlik robustes, performantes et pensées pour des enjeux métier critiques ; 🔹 Manipuler avec précision des analyses financières avancées : YTD, MTD, rolling forecast, variance vs budget/forecast ; 🔹 Garantir la qualité, la fiabilité et la cohérence des KPI dans un environnement où la donnée est sensible et réglementée ; 🔹 Concevoir des modèles analytiques via SQL et dbt , en appliquant de vraies bonnes pratiques d’ingénierie ; 🔹 Travailler en CI/CD, versionner proprement votre code, challenger les approches et améliorer en continu ; 🔹 Jouer un rôle de référent BI , diffuser les standards de développement, optimiser les performances et accompagner les équipes… …Alors vous êtes exactement la personne que nous recherchons ! Si vous avez une expérience significative en BI/Qlik dans un contexte exigeant, que vous aimez autant faire que faire faire , et que vous souhaitez participer à une transformation data ambitieuse, alors vous êtes prêt(e) à rejoindre l’aventure. Quelle sera votre mission ? Vous allez contribuer directement à la construction d’un data mesh Finance & HR à fort impact stratégique, au sein d’une modern data stack pleinement en transformation. Vous allez pouvoir : 🔹 Développer, optimiser et industrialiser des cockpits Qlik utilisés au niveau mondial ; 🔹 Mettre en œuvre une sécurité de haut niveau , garantir la confidentialité et participer aux audits ; 🔹 Contribuer à la création de consumer data products : modélisation SQL, transformations, tests automatisés, documentation ; 🔹 Participer à la modernisation des pratiques BI : versioning GitLab, revues de code, guidelines, performance, réutilisabilité ; 🔹 Apporter votre leadership technique pour faire évoluer les standards, structurer la gouvernance des KPI, améliorer la robustesse des modèles ; 🔹 Collaborer avec une équipe engagée et transverse (Finance, RH, Data Product Owners, ingénieurs Data) pour délivrer des solutions fiables et utiles. En somme : il s'agira de construire ensemble une BI moderne, scalable, sécurisée, pensée pour durer et qui soutient directement les décisions stratégiques de la Finance et des RH.
Offre d'emploi
Architecte Data/Snowflake/Cloud/GenAI
OBJECTWARE
Publiée le
Cloud
GenAI
Snowflake
3 ans
40k-71k €
400-550 €
Île-de-France, France
CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Langages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Mission freelance
Data Governance Manager
Codezys
Publiée le
Conduite du changement
Data governance
Data management
6 mois
330-400 €
Bordeaux, Nouvelle-Aquitaine
Objectifs de la prestation Dans le cadre de la consolidation de sa gouvernance data, l'entreprise souhaite renforcer et structurer ses pratiques en s'appuyant sur un environnement technologique avancé, comprenant les plateformes Snowflake, Power BI et Datahub. Pour cela, l'équipe Data Management, composée de 4 professionnels, recherche un expert transverse afin de piloter la structuration, le déploiement et l'animation de la gouvernance opérationnelle. Mandat confié Déploiement du modèle de Data Stewardship Clarifier les rôles, périmètres et rituels entre Data Owners, Data Stewards et équipes techniques. Créer des kits d'onboarding, des standards et des supports pour accompagner les Data Stewards dans leur mission. Lancer et animer la communauté de Data Stewards afin de promouvoir une gouvernance partagée et efficace. Adoption & Data Catalog Renforcer l'adoption du Data Catalog (Datahub) et promouvoir les bonnes pratiques de gouvernance associées. Accélérer la documentation des assets data prioritaires pour assurer une meilleure compréhension et exploitation des données. Étendre la couverture du catalogue aux traitements d'intelligence artificielle (IA), intégrant ainsi la gouvernance dès la conception. Animation & transverse Organiser des ateliers avec les utilisateurs pour favoriser l'appropriation des outils et des méthodes de gouvernance. Faire émerger les irritants et structurer un backlog transverse pour répondre aux enjeux opérationnels. Intégrer la gouvernance lors des phases de cadrage des projets, en adoptant une approche 'governance by design'. Réactiver les communautés existantes, notamment les référents Power BI, afin de maintenir une dynamique de partage et de collaboration. Profil recherché Le candidat idéal devra posséder une expertise transverse en gouvernance data, avec une capacité à intervenir à la fois au niveau stratégique et opérationnel. Il devra démontrer des compétences en animation de communautés, en structuration de processus et en animation d'ateliers, tout en étant capable de travailler en étroite collaboration avec les équipes techniques et métier. Les propositions devront détailler la méthodologie proposée pour atteindre ces objectifs, ainsi que la démonstration de capacités similaires dans des environnements complexes et structurés.
Offre d'emploi
Architect Data
The Yellow Office
Publiée le
Architecture
AWS Cloud
Microsoft SQL Server
6 mois
Toulouse, Occitanie
Data Architect | AWS / Snowflake | Toulouse | Freelance Nous recherchons un Data Architect expérimenté pour intervenir sur des sujets d’architecture, de migration et de structuration de plateformes data dans un environnement international. Informations mission • Localisation : Toulouse - 2 jours de TT • Contrat : Freelance • Démarrage : ASAP • Durée : Mission longue • TJM : Selon expérience • Expérience : 10 à 15 ans minimum • Anglais courant requis Votre rôle • Concevoir et faire évoluer l’architecture data globale • Définir les flux d’ingestion, de transformation et de stockage • Structurer les modèles de données et les usages analytiques • Accompagner les projets de migration (legacy vers cloud) • Garantir la performance, la sécurité et la gouvernance des données • Challenger les choix techniques et améliorer l’existant Environnement technique • AWS (S3, Lambda, RDS, Redshift…) • Snowflake • SQL / modélisation de données • Python • Stack BI (Power BI, SQL Server, SSIS, SSAS…) Profil recherché • Forte expérience en architecture data et transformation cloud • Maîtrise des environnements AWS et Snowflake • Capacité à intervenir sur des sujets complexes et structurants • Vision globale data (flux, modélisation, gouvernance) • À l’aise dans des environnements internationaux Merci de me faire parvenir votre CV à
Mission freelance
[SCH] Administrateur Snowflake – AWS / Terraform / DataOps - 1415
ISUPPLIER
Publiée le
10 mois
400-450 €
Saint-Denis, Île-de-France
Dans le cadre d’un projet stratégique de migration Oracle Exadata vers Snowflake, notre client recherche un Administrateur Snowflake afin de participer à la construction et à la sécurisation de la plateforme cible. L’environnement technique repose sur Snowflake hébergé sur AWS, avec des composants comme PrivateLink, Direct Connect, dbt, Airflow et Terraform. Le consultant interviendra en co-construction avec le pôle architecture pour définir les fondations de la plateforme, concevoir l’architecture cible et garantir la performance, la sécurité et la maîtrise des coûts dans une logique NextGen. Missions : -Participer au design et au build des fondations de la plateforme Snowflake -Définir le sizing et l’isolation des workloads -Mettre en place la sécurité cible : RBAC, gestion des accès, authentification -Créer et maintenir les socles Infrastructure as Code avec Terraform -Administrer la plateforme Snowflake au quotidien : rôles, utilisateurs, policies, comptes techniques -Gérer les Network Policies et les intégrations externes -Contribuer aux revues d’architecture et à la définition de l’architecture cible -Optimiser les performances, la fiabilité et les coûts de la plateforme -Assurer le monitoring, le tuning et le troubleshooting avancé -Participer aux pratiques DataOps / CI/CD autour de Snowflake, dbt et Airflow -Mettre en place des automatisations via SQL, Python, Tasks & Streams -Suivre les indicateurs de consommation et contribuer à la démarche FinOps Profil attendu : -Expertise avancée sur Snowflake (architecture, Virtual Warehouses, RBAC, performance) -Bonne maîtrise des environnements AWS (réseau, PrivateLink, Direct Connect) -Très bonne maîtrise de Terraform pour l’IaC Snowflake / AWS -Expérience en DataOps / CI-CD / pipelines de déploiement -Bonne connaissance de dbt et Airflow -Maîtrise des problématiques de sécurité avancée (Key-Pair, Network Policies, intégrations externes) -Capacité à intervenir sur l’optimisation SQL et le troubleshooting de requêtes -Compétences en Python / SQL pour l’automatisation -Sensibilité aux enjeux FinOps, monitoring et optimisation de coûts -Capacité à travailler en collaboration avec les équipes architecture et data platform
Offre d'emploi
Tech Lead Data Snowflake Lille
Proxiad
Publiée le
Databricks
DBT
Snowflake
48k-53k €
Lille, Hauts-de-France
Dans le cadre d’un projet d’amélioration de la qualité et des pratiques de développement Data, nous recherchons un Tech Lead Data expérimenté capable d’intervenir à la fois sur la technique et l’acculturation des équipes . Vous interviendrez dans un environnement data moderne pour structurer les bonnes pratiques, challenger l’existant et accompagner les équipes dans la montée en maturité technique. 🎯 Vos missions Au sein d’une équipe Data, vous aurez notamment pour responsabilités : Sensibiliser et mettre en œuvre les bonnes pratiques issues d’un audit technique Apporter un regard externe sur la qualité du code et des architectures data Concevoir et développer des pipelines data robustes et industrialisés Mettre en place et monitorer les orchestrations data (parcours & triggers) Accompagner les équipes dans l’adoption de bonnes pratiques de développement et d’architecture Contribuer à la fiabilisation et à la performance des flux de données 🛠 Environnement technique Snowflake DBT Airflow SQL avancé Python Git VS Code
Mission freelance
POT9028 - Un architecte Data - Snowflake sur Massy
Almatek
Publiée le
SQL
6 mois
Massy, Île-de-France
ALMATEK recherche pour l'un de ses clients, Un architecte Data - Snowflake sur Massy CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Languages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Mission freelance
Consultant – Data Monetization & Snowflake Pricing Strategy
Mon Consultant Indépendant
Publiée le
Data analysis
IA
1 mois
1 050-1 090 €
Courbevoie, Île-de-France
Consultant – Data Monetization & Snowflake Pricing Strategy Mission freelance Contexte : Un éditeur logiciel développe une offre de data sharing permettant à ses clients d’accéder à des données en temps réel via une plateforme data basée sur Snowflake. Dans ce contexte, l’entreprise souhaite structurer le modèle économique de cette offre, en définissant un modèle de pricing cohérent entre : · Les coûts d’infrastructure Snowflake · L’usage réel des données · La valeur business apportée aux clients La mission vise à définir une stratégie de monétisation durable pour l’accès et l’exploitation de ces données. Objectifs de la mission : Le consultant interviendra pour : · Analyser les coûts techniques liés à l’usage de Snowflake · Comprendre les patterns d’usage des données par les clients · Définir un modèle de pricing pour l’accès et l’exploitation des datasets · Identifier les scénarios de monétisation possibles (data sharing, analytics, IA, etc.) L’objectif est de concevoir un modèle économique équilibré entre coût d’infrastructure, valeur client et potentiel de croissance commerciale. Travaux attendus : Le consultant devra notamment : · Analyser le modèle de pricing Snowflake (compute, storage, data sharing) · Modéliser différents scénarios de consommation de data · Définir plusieurs modèles de pricing possibles · Évaluer l’impact économique selon différents niveaux d’usage · Recommander une stratégie de monétisation de la data Exemples de modèles étudiés : · Pricing basé sur l’usage · Packages de données · Accès premium à certaines données · Pricing lié aux capacités analytiques ou IA Profil recherché : Nous recherchons un consultant ayant déjà travaillé sur des problématiques de monétisation de la data dans des environnements SaaS ou data platform. Expériences pertinentes : · Définition de modèles de data monetization · Stratégie de data sharing · Pricing de produits data ou analytics · Plateformes Snowflake / Databricks / data cloud Compétences attendues : · Compréhension des architectures data platform · Connaissance du modèle économique Snowflake · Expérience en usage-based pricing · Capacité à modéliser des scénarios économiques · Capacité à traduire les coûts techniques en modèles commerciaux Profil type : Le consultant peut venir de : · Conseil en stratégie data · Éditeur SaaS utilisant Snowflake · Plateforme data / analytics · Equipes data product ou data monetization
Mission freelance
Un IT Quants / DevOps Engineer,
Keypeople Consulting
Publiée le
AWS Cloud
DevOps
Gitlab
6 mois
400-460 €
Paris, France
Je cherche un IT Quants / DevOps Engineer, au sein d’un environnement orienté plateforme analytique (IT Quant / DevOps). Au programme : Surveillance et accompagnement de la plateforme SPHERE Gestion d’un volume important de tickets Support à l’équipe en place pour accélérer les opérations Mise en place d’un outil end-to-end Amélioration et maintenance des pipelines GitLab Support DevOps applicatif Profil recherché : Python indispensable Bonne maîtrise de GitLab (pipelines & versioning) Connaissances AWS (Snowflake / Jupyter sont un plus) Autonomie, proactivité, esprit de résolution de problèmes Communication fluide en français et en anglais Cordialement,
Offre d'emploi
Tech Lead Data & Viz
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
60k-75k €
Courbevoie, Île-de-France
Contexte de la mission : Nous recherchons un Tech Lead Data (Snowflake/dbt) & Power BI pour piloter la delivery technique de produits data et solutions BI : définition des standards, revue de code, CI/CD, qualité, performance et gouvernance (incl. RLS). Vous serez responsable de la chaîne Snowflake → dbt → modèle sémantique → Power BI, de l'industrialisation et du run (incidents/post‑mortems), tout en mentorant l'équipe. Missions et attentes : • Expertise Snowflake/Azure Data Factory • Aide au cadrage technique sur les initiatives et projets du périmètres. • Expertise Power BI sur le périmètre Regions : best practices à rediger, template, etc • Faire monter en compétences une ressource France et une autre ressource sur la partie Report Builder Objectifs et livrables : • Modèles data & datamarts Snowflake (tables / vues / conventions) + projet dbt (modèles, tests, documentation). • Pipelines industrialisés (orchestration, CI/CD, contrôles qualité, runbooks). • Modèle sémantique & rapports Power BI, avec standards performance/gouvernance (RLS, métriques). • Standards de connexion Power BI ↔ Snowflake (guides, templates, paramètres). Référence de l'offre : 54kpy98reb
Mission freelance
Applied Scientist (IA)
Celexio
Publiée le
Amazon SageMaker
Apache Airflow
AWS Cloud
6 mois
400-670 €
Paris, France
En tant qu'Applied Scientist, vous êtes la force motrice de la phase de recherche et de développement des modèles d'IA, en assurant l'alignement entre les avancées technologiques et les objectifs stratégiques de l'entreprise. Responsabilités clés 1. Recherche et développement de modèles IA/ML (Phase de recherche) : Mener la recherche, l'évaluation et l'expérimentation de modèles d'IA et d'apprentissage automatique (par exemple, Deep Learning pour la recommandation, Gen-AI, NLP/Vision pour la recherche) afin de résoudre des problèmes commerciaux complexes. Sélectionner les sources de données appropriées et déterminer les indicateurs clés à suivre et à optimiser Développer des prototypes et prouver la faisabilité ainsi que l'impact attendu des concepts avant leur industrialisation. 2. Collaboration et industrialisation (Phase de déploiement) : Travailler en étroite collaboration avec les ingénieurs en apprentissage automatique (MLE) pour garantir que les modèles développés sont robustes, évolutifs et prêts pour le déploiement en production. Contribuer activement à la phase de déploiement et d'intégration des modèles dans l'architecture technique (Snowflake, AWS). 3. Suivi et amélioration continue : Participer au suivi des modèles en production, en se concentrant sur la détection des dérives (drift) et la dégradation des performances. Concevoir et proposer des itérations (tests A/B) pour optimiser en continu les performances des produits d'IA. 4. Expertise et transmission des connaissances : Assurer une veille technologique constante sur les avancées en IA/ML. Documenter et partager les connaissances et les meilleures pratiques au sein de l'équipe et avec les autres parties prenantes (Chefs de produit, Métier).
Offre d'emploi
Data Engineer (Bordeaux)
CAT-AMANIA
Publiée le
Agent IA
DBT
ETL (Extract-transform-load)
3 mois
40k-45k €
100-350 €
Bordeaux, Nouvelle-Aquitaine
Intégré ausein de la direction IT Data, vous viendrez apporter votre expertise technique sur des sujets récents autour de l'IA pour la data. En tant que Data Engineer, et en coordination avec le reste de l'équipe, vous serez amené à : - Effectuer des alimentations de données, - Travailler en binôme avec un Data Analyst sur un sujet IA/Data. - Travailler autour d'agent IA pour du requêtage SQL en langage naturelle - Mise à dispo d'outillage d'aide aux développement, monitoring… , - Faire une veille technologique autour des architectures data
Offre d'emploi
Senior C# Developer – Data & Analytics Application (Ingestion & Program Management)
AVA2I
Publiée le
.NET
API REST
Azure
12 mois
Île-de-France, France
Objectifs de la mission Faire évoluer progressivement le processus d’ ingestion des bordereaux Ajout de nouvelles étapes de traitement Développement de nouveaux écrans et flux Support de nouvelles lignes métiers Participer à la refonte de l’outil de program management Développement de composants UI (Blazor) Mise en place de déclencheurs d’extraction Snowflake Gestion CRUD avec historisation / versioning Garantir la stabilité et l’observabilité des applications Logging structuré Monitoring via Application Insights Amélioration de la visibilité opérationnelle Assurer une intégration fiable avec Snowflake Stored procedures EF Core Optimisation des accès données Participer aux rituels de suivi projet Timesheets mensuelles Reporting hebdomadaire d’avancement
Offre d'emploi
Business Analyst Data (Full Remote (H/F))
UMANTIC
Publiée le
45k-55k €
France
Business Analyst Data / GenAI - Snowflake & AI Cortex (H/F) Mission freelance longue durée - Full Remote (rattachement Lyon) Le contexte Au sein d'une équipe Agile, vous intervenez sur un projet stratégique de transformation digitale de la chaîne de valeur Commerciale. L'enjeu : déployer une fonctionnalité "Talk to your data" permettant aux collaborateurs métiers d'interroger les données en langage naturel, grâce à un AI Agent (LLM) qui génère automatiquement des requêtes SQL fiables. Le produit est aujourd'hui utilisé par 35 utilisateurs, avec un objectif d'extension à 700+ utilisateurs d'ici fin 2026. Vous intervenez sur le backend et la couche sémantique, garants de la qualité, de la cohérence et de la pertinence des requêtes générées par l'IA. Stack & environnement * Snowflake (incluant Snowflake AI Cortex) * SQL avancé / modélisation de données * Concepts GenAI / LLM * Méthodologie Agile (Scrum) Vos missions Compréhension fonctionnelle & cohérence produit * Assurer l'alignement entre les besoins métiers et les capacités du data product * Garantir la cohérence fonctionnelle et la qualité globale de la plateforme Coordination & gestion des exigences * Collaborer avec les équipes sources pour clarifier les besoins et garantir la disponibilité des données * Travailler étroitement avec le Product Owner pour affiner et prioriser les fonctionnalités User Stories & Backlog * Participer à la rédaction des user stories et à la définition des fonctionnalités * Contribuer à la planification des releases et à la priorisation des features * Garantir que les user stories sont prêtes pour le développement et alignées avec la roadmap * Valider ou rejeter les livrables selon les critères d'acceptation Quality Assurance * Contribuer à la création et à l'exécution des cas de test * Valider les modèles de données et leur adéquation aux besoins analytiques * Participer aux contrôles de qualité des données et aux tests fonctionnels
Mission freelance
Data Engineer - Lille
ICSIS
Publiée le
Apache Kafka
CI/CD
DBT
2 ans
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - Snowflake, GCP, BigQuery, DBT, SQL, Semarchy, Airflow, Python ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais
Mission freelance
Team Leader Data Engineering (H/F)
AGH CONSULTING
Publiée le
Apache Kafka
Confluence
Data management
6 mois
250-500 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un(e) Team Leader Data Engineering qui, sous la responsabilité du Head of Engineering Logistique, sera responsable de l'équipe Data Engineering dédiée à la plateforme C-Logistics. Véritable référent technique et manager opérationnel, vous agirez comme facilitateur, coach technique et moteur de la performance de l'équipe, en s'appuyant sur les principes du Lean management. Vous contribuerez à la mise en oeuvre d'une plateforme data performante, fiable et scalable, en étroite collaboration avec le Product Manager et les équipes métiers. À ce titre, vos principales responsabilités seront : -Piloter et accompagner l'équipe Data Engineering -Optimiser les processus de delivery et d'industrialisation des pipelines data -Identifier, analyser et résoudre les causes racines des incidents de production -Favoriser l'autonomie, la collaboration et la montée en compétence de l'équipe -Garantir la performance, la fiabilité et la scalabilité des solutions data -Assurer l'alignement des solutions techniques avec la vision produit -Contribuer à l'amélioration continue des pratiques techniques et organisationnelles Périmètre Le poste couvre : -La production et la gestion des données et KPI pour les collaborateurs de la filiale C-Logistics -Le partage de données avec les autres filiales du groupe -Le partage de données avec les clients B2B Environnement technique : Vous évoluerez dans un environnement data moderne comprenant : -Snowflake -SQL -Talend -DBT -Kafka -Python -Power BI Outils utilisés : -Jira -Confluence Équipe : Vous encadrerez une équipe composée de : 4 Data Engineers et 1 Lead Developer
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
64 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois