Trouvez votre prochaine offre d’emploi ou de mission freelance Snowflake

Mission freelance
Chef de Projet / Responsable Applicatif BI
🎯 Contexte et Objectif de la Mission Dans le cadre du renforcement de l'équipe IT RSE (Responsabilité Sociétale des Entreprises), nous recherchons un Chef de projet / Responsable applicatif BI pour piloter la refonte complète d'une application stratégique , tout en assurant la gestion opérationnelle de plusieurs applications existantes. Le poste s’inscrit dans un environnement international avec des équipes techniques locales et offshore. La mission est à forte dimension technique, organisationnelle et collaborative , avec des interactions constantes avec les équipes métiers. 🔧 Responsabilités principales 1. Gestion de projet Pilotage complet des projets AER, ASP et Grenelle (cadrage, planification, exécution, livraison). Animation d’ateliers avec les métiers pour recueillir les besoins et définir les priorités avec un Business Analyst. Suivi des plannings, budgets, risques, et dépendances. Coordination des parties prenantes techniques et métiers. Suivi opérationnel d’une équipe AMS offshore et d’un Business Analyst à Marseille. Utilisation de JIRA ou outils équivalents. 2. Management applicatif Supervision du cycle de vie des applications (maintenance, évolutions, optimisation). Suivi de la qualité, performance et intégrité des données. Pilotage des intégrations via API et des traitements batch. 3. Communication et interface Rôle d’interlocuteur principal entre les équipes fonctionnelles et techniques. Rédaction de spécifications fonctionnelles et techniques. Travail dans un environnement multiculturel international .

Mission freelance
ALSL - Tech Manager Data
Nous cherchons un Tech Manager Data qui saura allier leadership technique et pilotage stratégique autour d’un sujet clé : l’exploitation des données issues des Property Management Systems. Ces données sont le cœur du fonctionnement : réservations, facturation, occupation, services. Ton rôle ? Les transformer en un actif stratégique fiable, pour booster la performance et la distribution des services. En tant que Tech Manager Data , tu seras : Le leader technique et managérial de deux équipes (internes & partenaires externes). Le chef d’orchestre des projets data PMS : collecte, intégration, fiabilisation et monitoring. Le binôme stratégique du Product Manager Data pour construire la roadmap et prioriser la valeur. Le garant de la fiabilité et de la performance des produits data : monitoring, alerting, optimisation FinOps/DevOps. L’ interface clé entre les équipes métiers, IT et les éditeurs PMS.

Mission freelance
Tech Lead Snowflake / DBT
Nous recherchons un Tech Lead Snowflake / DBT pour piloter les aspects techniques de la plateforme data en collaboration avec l’équipe Data Factory de notre client. Niveau d'anglais requis : courant Bonne compréhension des enjeux métier liés à la data Capacité à arbitrer et aligner les choix techniques avec les besoins fonctionnels Collaboration transverse avec les équipes CDP et Data Factory ... .... ... ... ... ... ... ... ... ... ... ... ... .. ... ... ... .. ... ... ... ... ... ... ... ... ... ..

Offre d'emploi
Architecte SI / Data & IA
Contexte : Dans le cadre de la transformation d'un groupe en assurance, et notamment dans l'entité technique, plusieurs projets majeurs sont en cours : Nouveau Référentiel Client pour se doter d’une seul point de vérité sur les clients individu et entreprise, sur tout leur cycle de vie (de prospect à ancien client) Programme CRM, Plateforme Data /IA, Refonte / Evolution de nos espaces digitaux, etc. La direction de l’architecture au sein de la direction technique est constituée de 3 départements : Stratégie SI et gouvernance d'architecture Architecture SI Architecture Technique Nature de la prestation : Un apport en architecture de solution et en architecture fonctionnel est demandé : définition de solution fonctionnelle et applicative, avec comme livrable la rédaction de dossiers d’architectures ainsi que de slidewares pour communiquer sur le travail produit. Un rôle de conseil est aussi attendu par ailleurs sur des sujets ponctuels ou questions que l'on se pose. Concrètement : Contribuer à la définition de l'architecture applicative de la solution, en cible et en trajectoire Rédiger les documents d’architecture applicative selon la méthode du groupe Contribuer à l'analyse des demandes d’évolutions applicatives émises par les filières / lots du programme au regard des impacts sur la solution globale et sa trajectoire de déploiement Contribuer aux dossiers d’arbitrage permettant de statuer sur la prise en compte des évolutions Contribuer à la préparation des Comités Solution (comité d'arbitrage du périmètre de la solution) Contribuer à la définition des interfaces, des solutions et des règles d’interfaçage du nouveau SI de gestion et de son écosystème, en cible et par état stable Conseiller / valider les choix techniques Contribuer à l'identification, l'instruction et le suivi des adhérences entre les programmes et les projets de transformation du SI (d’un point de vue solution) Accompagner les projets, de la phase de cadrage à la mise en production des applications Contribuer à assurer la cohérence, tout au long de la vie du projet, entre les livrables majeurs des programme et les autres projets connexes en adhérence forte (spécifications, développements, stratégie de recette, stratégie de migration, conduite du changement) Contribuer à la modélisation de la cartographie du nouveau SI gestion sous HOPEX - vision cible et trajectoire Livrables : Dossier d’architecture cible et états stables Dossiers d’analyse d’impacts et de valeur des demandes d’évolution et Dossiers d’arbitrage Dossiers d’analyse des adhérences entre les programmes et les projets de transformation du SI Dossiers d’analyses fonctionnelles et/ou applicatives sur des thèmes transverses critiques Cartographies sous HOPEX de la couche applicative/donnée Comptes rendus hebdomadaire

Offre d'emploi
Data Engineer - Lyon
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Tech Lead Data
Hello, Voici le descriptif du poste de Tech Lead Data si tu es en recherche actuellement: Tu prends les rênes d'une partie de l’architecture Data pour garantir robustesse, scalabilité et sécurité des pipelines. Tu manages une petite équite de data engineer motivée et tu sais les challenger afin de performer Tu travailles sur la partie IA et machine learning main dans la main avec la team data scientist et data analyst Tu attaches de l'importance à la sécurité des données et au stockage Tu es à l'aise avec python, snowflake, SQL et talend.

Mission freelance
Data Engineer ServiceNow / Snowflake
Dans le cadre d’un projet stratégique d’exploitation des données ITSM, nous recherchons un Data Engineer expérimenté pour concevoir et automatiser une pipeline d’ingestion de données depuis ServiceNow vers Snowflake , au service de plusieurs départements (IT, qualité, opérations, gouvernance…). Objectifs & Responsabilités Établir et sécuriser la connexion technique entre ServiceNow ITSM et Snowflake Extraire et charger les données des modules suivants : Concevoir une pipeline d’ingestion automatisée (batch ou incrémentale) Structurer les données dans Snowflake selon une logique modulaire et réutilisable Environnement technique Source : ServiceNow ITSM (via REST API ou export planifié) Destination : Snowflake (Data Warehouse Cloud) Orchestration : Airflow (ou équivalent à définir) Transformation : DBT Core / SQL Modélisation : DrawIO ou outil libre équivalent Visualisation : Tableau CI/CD / Versioning : GitLab Documentation & Gestion de projet : Confluence, Jira

Offre d'emploi
Expert Data / DBA Azure H/F
Conception et développement de solutions à haute technicité • Support niveau 3 : BI, DataScience, OpenData, DataHistorian (conseil et validation des solutions des équipes produits, Résolution d'incidents complexes) • Gestion des incidents infra, plateforme, réseau, et applicatifs complexes. Périmètres : AZURE et Snowflake • Support exploitation transverse et Interface avec Service IT Transverse de la DSI (Equipes Infra, Cloud, Sécurité, Architecture, Outillage…) • Interlocuteur technique privilégié avec les supports éditeurs (Microsoft, Snowflake) • Gestion de l'obsolescence des 50 VM (OS, Middleware, applications tierces) • Gestion de l'obsolescence des composants Azure • Gestion du parc de Workstation (Affectation, création, suppression) • Analyse & correction des impacts générés par d'autres services (FARO, Annuaire, CBO, sécu,...) • Mise en place et Monitoring de l'infrastructure • Développement script d’administration • Développement d’alerte de sécurité • Développement solution applicative • Développement solution infrastructure/sécurité (Infra As Code) (Subnet et Security Groupe prédéfinis, Gestion des rôles, des clés de chiffrement, des contrôles automatisés, Audit de sécurité) • Veille aux respects des principes généraux de sécurité et des règles de cybersécurité • Conception et implémentation des modèles de sécurité Azure • Revue des comptes Azure AD • Gestion des réseaux virtuels (Plan d'adressage IP, NSG, table de routage) • Pilotage ouverture de Flux CWAN • Veille au respect de l'état de l'art pour les langages de développement (SQL, C#, Powershell) • Revue et amélioration de code (SQL , C#, Powershell) • Maintenance et développement en amélioration continue du framework d’alimentation et de supervision de la plateforme PDA(.net/Powershell/Javascript) • DBA étude : Code review, audit et validation des PR, optimisation de requête et performance/factorisation, veille au respect des bonne pratique de code, Contrôle et ajustement des performances des bases de données (SQL Serveur, Snowflake, Managed Instance, Azure SQL) • DBA Système : Conception et implémentation des modèles de sécurité des bases de données, gestion de la performance des bases de données, monitoring et résolution d'incidents DEVOPS : • Administration Azure Devops (Gestion des accès, Sécurité, création de repo, affectation de licence) -> Méthode GITflow / GITHubflow • Formation (Rationalisation des usages DevOps de toutes les équipes produits) • Développement de pipeline CI/CD, Artefact, repo et taches Azure Devops Architecture technique et Solution : • Veille solution des principaux providers : Microsoft (Azure et Windows), AWS, Snowflake ->Architecture lambda (Big data), état de l'art • Conception & réalisation architecture applicative dans le respect du cadre • Etude stratégie plateforme, POC (Solution innovante, Big Data, multicloud), conception (HLD/LLD), • Build /RUN : Implémentation des services d'infrastructures et middleware

Mission freelance
Data Analytics Engineer SNow-ITSM
Contexte de la mission Dans le cadre d’un projet stratégique de renforcement de la data autour des processus ITSM, un grand groupe international recherche un Consultant Data Analytics Engineer expérimenté pour connecter la plateforme ServiceNow ITSM à Snowflake , construire un pipeline automatisé, et structurer les données à des fins analytiques. Les données alimenteront plusieurs directions internes : IT, gouvernance, qualité, opérations. Concevoir un pipeline d’ingestion automatisé (batch ou incrémental) Modéliser les données dans Snowflake selon une architecture modulaire et réutilisable Implémenter des métadonnées , des logiques de rafraîchissement, et un suivi qualité Produire une documentation claire (pipeline, modèles de données, reprise Établir une connexion sécurisée entre ServiceNow ITSM et Snowflake Extraire les données des modules ITSM : Request Management; Incident Management; Change Management ;Problem Management.

Mission freelance
Data Engineers – ServiceNow / Snowflake
Pour l’un de nos clients grands comptes, nous recherchons un Data Engineers confirmé pour assurer la connexion, l’extraction et la structuration de données entre ServiceNow ITSM et Snowflake , dans un objectif de reporting et d’analyse. Missions principales Extraire et charger les données des modules ITSM : Management Incident Management Change Management Problème Management Concevoir un pipeline d’ingestion automatisé (batch ou incrémental) Structurer les données dans Snowflake selon une logique modulaire, réutilisable et analytique Implémenter des métadonnées , des logiques de rafraîchissement et des mécanismes de qualité de données Documenter : pipelines, modèles de données, points de reprise, etc. Environnement technique Source : ServiceNow ITSM (via REST API ou export planifié) Destination : Snowflake Orchestration : Airflow (ou équivalent) Transformation : DBT Core / SQL Visualisation : Tableau CI/CD & versioning : GitLab Documentation & suivi projet : Confluence, Jira

Offre d'emploi
Data Cloud Architect Snowflake, Azure, SQL - Anglais
En tant que membre de l'équipe de capture de données, ce poste requiert une expérience technique et architecturale, ainsi qu'une solide expérience pratique des technologies cloud, du développement de microservices et de l'architecture événementielle. Il requiert également une collaboration étroite avec les équipes informatiques du groupe/de la zone, les partenaires commerciaux, les partenaires externes et tous les membres de l'équipe d'intégration. Les compétences ci-dessous sont essentielles et obligatoires : Leadership et autonomie Engagement sur les sujets Capacité à effectuer une restitution documentaire dans le cadre d'un audit, d'une preuve de concept (POC) ou en matière de normes et d'architecture.
Offre d'emploi
Dev Python Data (anglophone)
• Contenu : • Participer à la mise en oeuvre de jobs d’intégration de données: création, revue de pair, déploiement • Accompagner l’équipe data engineering au respect des patterns de développement du marché et des pratiques de création de jobs de la Digital Data Platform • Optimiser les performances des jobs (performance SQL, performance Python, Job Scheduling) • Optimiser les performances opérationnelles et financières de la plateforme existante • Optimiser la performance opérationnelle des équipes (automatisation, extension et optimisation du moteur de Jobs) • Participer à la valorisation de la donnée collectée auprès des métiers (publicité, data science, filiation de donnée, self-service de la donnée…) • Compétences : >> Requises • Modélisation objet (MCD,MPD,UML…) • Architecture logicielle N-tiers, micro-batches et NRT • Développement Python + pandas + pytest + pyodbc + reques ts • SQL avancé (de préférence SQL Server) • Authentication déléguée: Oauth, SAML • Application Lifecycle Management + Unit testing • Anglais courant, écrit et parlé (conversations quotidiennes permanentes avec des équipiers non-francophones) >> Souhaitées • Administration Snowflake • Administration Linux • Administration Windows • Développement pyarrow , duckdb, pyiceberg • Sécurité: cryptographie basique (chiffrement symétrique, hashage en python ; gestion de certificats et clés privées avec openssl) ; gestion des secrets en vault

Offre d'emploi
Data Engineer ServiceNow (H/F)
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation de projets Data ambitieux, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Data Engineer ServiceNow (H/F) . 👉 Notre client évolue dans le secteur des services et vous intégrerez le pôle Data & Analytics. 👈 🙌🔽 Vous aurez donc les missions principales suivantes : 🔽🙌 🔸 Mettre en œuvre une connectivité technique entre ServiceNow ITSM et Snowflake 🔸 Extraire et charger les données des modules ITSM (Request, Incident, Change, Problem Management) 🔸 Concevoir et industrialiser des pipelines automatisés d’ingestion (batch ou incrémentale) 🔸 Structurer et modéliser les données dans Snowflake pour répondre à des cas d’usage analytiques 🔸 Implémenter les logiques de rafraîchissement, suivi de qualité et métadonnées 🔸 Documenter les pipelines, schémas de données et points de reprise 🔸 Participer à la mise en place des bonnes pratiques CI/CD, versioning et documentation 🔸 Collaborer avec les équipes IT, qualité, gouvernance et opérations pour couvrir les besoins analytiques 🔸 Contribuer à la veille technologique et à l’amélioration continue des processus

Mission freelance
Data Architect – Core Model CRM
Dans un environnement multi-CRM , l’entreprise souhaite construire un Core Model CRM unifié pour centraliser, harmoniser et valoriser les données clients. Ce modèle sera le socle des usages analytiques, opérationnels et stratégiques. L’un des principaux objectifs du plan de transformation data est de développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’analyse des données et KPI. Pour atteindre ces objectifs, l’entreprise a déployé un écosystème technologique avancé : Outils et plateformes : AWS, Dataiku, GitLab, Terraform, Snowflake, Braze, IA, Spark, Python, Power BI Architectures : Data Lake, Event-driven, Streaming (ingestion de +100 To/jour) Exemples de projets : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données avec partenaires, data self-service Missions 1. Conception du Core Model CRM Analyser les modèles de données existants dans les différents CRM. Identifier les objets métiers communs, divergences et points de convergence. Concevoir un modèle de données central (conceptuel, logique, physique) aligné avec les besoins métiers et techniques. Définir les règles de mapping et de transformation entre les CRM sources et le Core Model. 2. Architecture et intégration Collaborer avec les équipes Data Engineering pour l’implémentation des pipelines d’intégration. Garantir la scalabilité, la performance et la sécurité du modèle. 3. Gouvernance et documentation Documenter le Core Model et ses usages. Participer à la mise en place de la gouvernance des données clients (référentiels, qualité, traçabilité). Assurer la cohérence et l’évolution du modèle dans le temps. 4. Collaboration transverse Travailler avec les équipes CRM, Data, IT et métiers. Animer des ateliers de co-construction avec les entités internes. Former et accompagner les utilisateurs du Core Model.

Offre d'emploi
Data Engineer Databricks - Paris
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Chef de projet Data
I. Contexte : Sous la responsabilité du Chef du département Data, vous jouerez un rôle opérationnel au service de la performance de la donnée suivant la stratégie et méthodologie Groupe II. Missions : 1. Formalisation et modélisation des besoins métiers · Accompagnement des métiers dans l'expression des besoins liés aux indicateurs de pilotage, connaissance client, connaissance opérationnelle, etc. · Modélisation des besoins en Business Intelligence : indicateurs, règles de calcul, axes d'analyse, niveaux de granularité. 2. Structuration du système d'information data · Définition et mise en œuvre en collaboration avec le Groupe : référentiels, datawarehouse, datamarts, etc. · Cartographier l'ensemble des sources de données internes et externes, en lien avec la DSI et les directions métier. 3. Maîtrise d'ouvrage et spécifications fonctionnelles · Accompagnement à la rédaction des spécifications fonctionnelles en collaboration très étroite avec le métier. · Participation à la conception fonctionnelle des flux d'alimentation, des modèles de données, des restitutions. · Réaliser ou coordonner les recettes fonctionnelles des développements, valider les livrables avec les utilisateurs. 4. Accompagnement BI et production de livrables · Supervision de la conception et le maintien des rapports Power BI répondant aux besoins métier. · Anticipation du suivi de l'intégration · Veiller à la bonne adoption des outils de pilotage, en formant et accompagnant les utilisateurs.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.