Find your next tech and IT Job or contract Snowflake

Your search returns 69 results.
Permanent

Job Vacancy
Data Architect

Inventiv IT
Published on
AWS Cloud
Azure
BI

65k-80k €
Paris, France

Rejoignez la Data Fabric d'INVENTIV IT pour concevoir et faire évoluer des Platform Data et Data Market Place complexes pour nos clients internationaux. En tant qu'Architecte Solution Data Senior, vous serez le garant de l'architecture Cloud Hybride (AWS/Azure) , de la performance Big Data et de la Gouvernance de nos solutions. 🎯 Vos Missions et Livrables Clés (Alignement Technique) 1. Architecture Cloud Hybride et Stratégie Conception Hybride : Définir et concevoir l'architecture de la plateforme Cloud Data cible en tirant parti des services de données d' AWS et AZURE . Feuille de Route : Élaborer la roadmap d'implémentation et de migration vers ces plateformes en intégrant les solutions Snowflake et Databricks . Gouvernance Data : Définir et implémenter la Gouvernance des Données (qualité, sécurité, accès) au sein de la Data Fabric et du Data Market Place. BI & Analytics : Auditer les systèmes BI historiques et concevoir des solutions modernes d'analyse et de BI sur la nouvelle plateforme. 2. Industrialisation et Ingénierie Avancée DataOps & DataSecOps : Mettre en œuvre et garantir les meilleures pratiques DevOps et DataSecOps dans le cycle de vie des données (CI/CD, sécurité par conception). Transformation Modulaire : Standardiser et industrialiser les transformations de données critiques en utilisant l'outil DBT ( Data Build Tool ). Augmentation/ML : Évaluer et intégrer des outils d'aide à la conception ou d'analyse avancée comme Dataiku dans l'écosystème du Datalab. FinOps : Intégrer les pratiques FinOps pour optimiser les coûts sur les plateformes AWS et AZURE . 3. Leadership, Conseil et Design Animation : Mener des ateliers collaboratifs et de Design Thinking pour traduire les besoins métier en architectures techniques précises. Support & Référentiel : Être le référent technique Snowflake/Databricks et fournir un support d'expertise aux Data Engineers et aux équipes Sécurité Cloud. Audit et Documentation : Réaliser des audits complets et garantir une restitution documentaire de haut niveau (normes, architectures cibles). 🛠️ Environnement Technique Vous évoluerez sur un environnement Cloud et Big Data complet : DomaineTechnologies et Concepts Cloud PublicAWS (Architecture) & AZURE (Architecture) Plateformes DataSnowflake (Data Warehouse), Databricks (Engineering/ML), DBT (Transformation) Outils AvancésDataiku , Big Data , Solutions BIMéthodes & OpsDevOps , DataSecOps , Gouvernance , FinOps

Permanent

Job Vacancy
Data Engineer Databricks - Paris

KOMEET TECHNOLOGIES
Published on
AWS Cloud
Azure
Databricks

50k-60k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Permanent

Job Vacancy
Data Architecte - Lyon

KOMEET TECHNOLOGIES
Published on
AWS Cloud
Azure
Databricks

60k-70k €
Lyon, Auvergne-Rhône-Alpes

Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Permanent

Job Vacancy
Expert Data Gouvernance

Inventiv IT
Published on
AWS Cloud
Azure
Collibra

65k-80k €
Paris, France

Rejoignez INVENTIV IT pour conseiller nos clients et travailler sur nos projets Data au sein de la Data Fabric . En tant qu' Expert Data Governance, vous piloterez des programmes stratégiques visant à garantir la confiance, la qualité et la conformité des données alimentant les Platform Data et les Data Market Place . Votre expertise couvrira les volets stratégiques et opérationnels, du design du modèle opérationnel au déploiement des outils de gouvernance. 🎯 Vos Missions Principales1. Pilotage de Programmes de Gouvernance & Qualité Stratégie & Déploiement : Définir et piloter la mise en œuvre de la Politique de Gouvernance et de Qualité des données . Modèle Opérationnel : Concevoir et déployer le Modèle Opérationnel (rôles, responsabilités, processus) de la Data Governance , incluant la gestion des incidents de Qualité des Données. Réglementation : Anticiper et mettre en œuvre les exigences de conformité (ex. : BCBS 239 , Al Act ) et de Data Privacy . 2. Expertise MDM, Catalogue et Outillage Master Data Management (MDM) : Déployer le dispositif de gestion des Master Data et accompagner la modélisation des données de référence. Data Catalog : Déployer et piloter les travaux d'évolution du Data Catalog (expertise Collibra et/ou Data Galaxy ) pour la documentation et la classification des données confidentielles. Qualité de Données : Cadrer et déployer des solutions d'outillage de Qualité des Données (ex. : Attacama , Dataiku ). 3. Contexte Avancé (Cloud, Data Market Place & IA) Architecture & Plateforme Data : Contribuer à la définition du Target Operating Model de la Plateforme Data en tenant compte des grandes orientations technologiques (Cloud vs On-Premise ). Contexte Cloud/Big Data : Utiliser votre connaissance des environnements AWS, AZURE, Snowflake et Databricks pour adapter les dispositifs de Gouvernance et de Qualité à ces plateformes modernes. IA/Gen AI : Mettre à profit votre expérience en Gouvernance des IA et Product Ownership Gen AI pour sécuriser l'exploitation des données dans des cas d'usage avancés. 4. Leadership et Acculturation Collaboration Métiers : Collaborer étroitement avec les fonctions Business & Produits (Finance , RH , Marketing , Sales ) pour l'adoption des modèles et la collecte des cas d'usage Data & IA. Acculturation : Conduire des sessions de formation et animer les comités de pilotage (COPIL, COMEX ). 🛠️ Compétences et Outils Indispensables Expertise Métier : Data Gouvernance , Master Data Management , Data Quality , Data & AI Strategy . Outils de Gouvernance : Expertise Collibra , Data Galaxy . Outils d'Intégration/Qualité : Expérience Informatica , Dataiku , Attacama . Méthodes : Agile at Scale , Design Thinking , Change Management Expérience dans un contexte Databricks, Snowflake, AWS & Azure fortement recommandé Exemple de mission : Définition de la Politique de Gouvernance des données et de Qualité des données Cartographie complète du patrimoine de données et Design du l’Enterprise Data Model Design et Déploiement du Dispositif de Gestion des Master Data Design et Déploiement du Dispositif de Mise en qualité des données Design et Déploiement du Dispositif de Documentation des Données Pilotage des travaux de Déploiement et D’évolutions du Data Catalog (Collibra) Cadrage, Spécification et Déploiement d'un Outil Data Quality (Attaccama) Accompagnement des cas d'usage analytiques et des projets métiers dans la collecte, et la mise en qualité des données consommées

Contractor

Contractor job
Data manager

ODHCOM - FREELANCEREPUBLIK
Published on
Apache Airflow
AWS Cloud
Data management

12 months
550-600 €
Issy-les-Moulineaux, Ile-de-France

Sous la responsabilité du Tribe Tech Lead DATA ‘DHS’, le/la Tech Manager « PMS Data » aura donc la charge de…  encadrer 2 de ces 3 équipes (suivi individuel et avec les ESN, participation aux rituels, etc.)  créer un binôme fort avec son homologue ‘Produit’ (Product/Project Manager déjà présent)  piloter les chantiers de Delivery Produit, mais aussi d’améliorations (process, orga, outils)  animer les relations avec les parties prenantes (Métiers, équipes IT, Centre de Services Off-Shore)  informer et alerter les (deux) Tribes Leads DATA ‘DHS’  participer aux activités et évènement transverses de la Tribe, du pôle ENGINEERING ou DATA. Au cours des prochains mois, ses responsabilités le/la mèneront à atteindre les objectifs suivants (non exhaustifs) : o Réduction des fichiers PMS manquants, et du délai de rattrapage (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Augmentation de la couverture (et qualité) des revenus hôtels déjà collectés, et réduction du délai d’activation (et de correction) du « mapping » financier ‘hôtel’ (révision process/organisation, gouvernance et pilotage renforcée, amélioration de l’outillage/automatisation, etc.) o Déploiement de « connecteurs » pour accroitre le parc d’hôtels connectés, et répondre aux nouveaux usages métiers, tout en réduisant notre dépendance aux méthodes et acteurs ‘Legacy’. o Revue de la stratégie, de l’architecture et des capacités de la future « Hotel Data Platform » (HDP) o Co-Priorisation du backlog des équipes, planification puis suivi des roadmaps trimestrielles o Diffusion des bonnes pratiques à l’ensemble des membres de l’équipe (autonomie, efficacité) o Documentation à jour du patrimoine Data&Tech afin de faciliter l’intégration des nouveaux arrivants

Contractor

Contractor job
Ingénieur Data / ML Sénior (H/F)

Insitoo Freelances
Published on
Azure
DBT
Generative AI

2 years
450-550 €
Lyon, Auvergne-Rhône-Alpes

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Ingénieur Data / ML Sénior (H/F) à Lyon, France. Contexte : Contexte : Dans le cadre de sa stratégie Data et Intelligence Artificielle, notre organisation souhaite renforcer l’équipe Data Science centrale. Après une première phase de conception et de mise en œuvre de solutions GenAI critiques (Flux & Prestations), nous entrons désormais dans une étape clé d’industrialisation, de stabilisation et de montée en échelle. Les projets sont à forte visibilité auprès des instances dirigeantes. Ils nécessitent la mise en place de KPIs clairs et fiables pour piloter la valeur business, tout en assurant la robustesse et la pérennité technique des solutions. Démarrage souhaité : dès que possible. Les missions attendues par le Ingénieur Data / ML Sénior (H/F) : Mission : Définir, formaliser et mettre en place les KPIs de suivi et de pilotage des solutions GenAI (qualité, performance, volumétrie, business impact). Industrialiser les projets GenAI Flux & Prestations avec un focus sur les aspects KPI et pilotage. Assurer le support opérationnel et garantir la stabilité, scalabilité et observabilité des pipelines en production. Améliorer la qualité, la testabilité et la documentation des pipelines de données. Appuyer techniquement l’équipe sur les autres sujets stratégiques de la roadmap (fraude, CEX, data pipelines). Encadrer et accompagner les juniors dans la mise en place de bonnes pratiques et de rituels qualité. Livrables attendus (2 à 4 mois) : Mise en place d’un cadre de pilotage par les KPIs pour Flux & Prestations (qualité des données, performance technique, usage et impact business). Industrialisation et sécurisation des déploiements GenAI en production. Refactoring du code pour séparation Flux / Prestations avec librairie commune. Amélioration du logging, traçabilité des erreurs et enrichissement des métriques de suivi. Mise en place de tests unitaires/intégration critiques et correction de la CI/CD si nécessaire. Documentation technique, rétro-ingénierie des règles existantes et rédaction de runbooks opérationnels. Appui ponctuel sur les autres projets critiques de la roadmap (fraude, CEX, pipelines data) sur les 6 prochains mois.

Permanent

Job Vacancy
Data Engineer

Inventiv IT
Published on
AWS Cloud
Azure
Databricks

45k-65k €
Paris, France

Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).

Contractor
Permanent

Job Vacancy
Product Owner data

1G-LINK CONSULTING
Published on
Azure Data Factory
Cybersecurity
Data Lake

6 months
Courbevoie, Ile-de-France

Nous recherchons un Product Owner expérimenté pour intervenir sur le Datalake Cybersécurité, en collaboration avec l’équipe Data de Saint-Gobain. Ce projet repose sur la dataplateforme Snowflake et PowerBI. Missions principales : Rédiger le cahier des charges et définir les plannings. Définir et analyser les KPIs avec le métier. Optimiser le calcul des KPIs et analyser les sources de données. Modéliser les données dans PowerBI et Snowflake. Définir les règles de gestion des accès et de data gouvernance. Suivre l’ordonnancement des sources et définir les règles d’historisation. Garantir la qualité et les performances des données. Gérer le backlog et les cérémonies Agile dans Jira. Réaliser les tests unitaires sur Snowflake et les tests end-to-end sur PowerBI. Rédiger la documentation fonctionnelle et technique. Mettre en place le monitoring et l’alerting des sources et de la qualité de la donnée. Assurer la communication, la formation et le support auprès des utilisateurs. Organiser des comités de pilotage et suivre le run.

Fixed term
Contractor

Job Vacancy
Expert Data / DBA Azure H/F

SMARTPOINT
Published on
Azure
Azure Data Factory
Javascript

12 months
40k-45k €
490-530 €
Ile-de-France, France

Conception et développement de solutions à haute technicité • Support niveau 3 : BI, DataScience, OpenData, DataHistorian (conseil et validation des solutions des équipes produits, Résolution d'incidents complexes) • Gestion des incidents infra, plateforme, réseau, et applicatifs complexes. Périmètres : AZURE et Snowflake • Support exploitation transverse et Interface avec Service IT Transverse de la DSI (Equipes Infra, Cloud, Sécurité, Architecture, Outillage…) • Interlocuteur technique privilégié avec les supports éditeurs (Microsoft, Snowflake) • Gestion de l'obsolescence des 50 VM (OS, Middleware, applications tierces) • Gestion de l'obsolescence des composants Azure • Gestion du parc de Workstation (Affectation, création, suppression) • Analyse & correction des impacts générés par d'autres services (FARO, Annuaire, CBO, sécu,...) • Mise en place et Monitoring de l'infrastructure • Développement script d’administration • Développement d’alerte de sécurité • Développement solution applicative • Développement solution infrastructure/sécurité (Infra As Code) (Subnet et Security Groupe prédéfinis, Gestion des rôles, des clés de chiffrement, des contrôles automatisés, Audit de sécurité) • Veille aux respects des principes généraux de sécurité et des règles de cybersécurité • Conception et implémentation des modèles de sécurité Azure • Revue des comptes Azure AD • Gestion des réseaux virtuels (Plan d'adressage IP, NSG, table de routage) • Pilotage ouverture de Flux CWAN • Veille au respect de l'état de l'art pour les langages de développement (SQL, C#, Powershell) • Revue et amélioration de code (SQL , C#, Powershell) • Maintenance et développement en amélioration continue du framework d’alimentation et de supervision de la plateforme PDA(.net/Powershell/Javascript) • DBA étude : Code review, audit et validation des PR, optimisation de requête et performance/factorisation, veille au respect des bonne pratique de code, Contrôle et ajustement des performances des bases de données (SQL Serveur, Snowflake, Managed Instance, Azure SQL) • DBA Système : Conception et implémentation des modèles de sécurité des bases de données, gestion de la performance des bases de données, monitoring et résolution d'incidents DEVOPS : • Administration Azure Devops (Gestion des accès, Sécurité, création de repo, affectation de licence) -> Méthode GITflow / GITHubflow • Formation (Rationalisation des usages DevOps de toutes les équipes produits) • Développement de pipeline CI/CD, Artefact, repo et taches Azure Devops Architecture technique et Solution : • Veille solution des principaux providers : Microsoft (Azure et Windows), AWS, Snowflake ->Architecture lambda (Big data), état de l'art • Conception & réalisation architecture applicative dans le respect du cadre • Etude stratégie plateforme, POC (Solution innovante, Big Data, multicloud), conception (HLD/LLD), • Build /RUN : Implémentation des services d'infrastructures et middleware

Contractor
Permanent

Job Vacancy
Architecte SI / Data & IA

VISIAN
Published on
Architecture
J2EE / Java EE
Java

2 years
49k-63k €
400-580 €
Paris, France

Contexte : Dans le cadre de la transformation d'un groupe en assurance, et notamment dans l'entité technique, plusieurs projets majeurs sont en cours : Nouveau Référentiel Client pour se doter d’une seul point de vérité sur les clients individu et entreprise, sur tout leur cycle de vie (de prospect à ancien client) Programme CRM, Plateforme Data /IA, Refonte / Evolution de nos espaces digitaux, etc. La direction de l’architecture au sein de la direction technique est constituée de 3 départements : Stratégie SI et gouvernance d'architecture Architecture SI Architecture Technique Nature de la prestation : Un apport en architecture de solution et en architecture fonctionnel est demandé : définition de solution fonctionnelle et applicative, avec comme livrable la rédaction de dossiers d’architectures ainsi que de slidewares pour communiquer sur le travail produit. Un rôle de conseil est aussi attendu par ailleurs sur des sujets ponctuels ou questions que l'on se pose. Concrètement : Contribuer à la définition de l'architecture applicative de la solution, en cible et en trajectoire Rédiger les documents d’architecture applicative selon la méthode du groupe Contribuer à l'analyse des demandes d’évolutions applicatives émises par les filières / lots du programme au regard des impacts sur la solution globale et sa trajectoire de déploiement Contribuer aux dossiers d’arbitrage permettant de statuer sur la prise en compte des évolutions Contribuer à la préparation des Comités Solution (comité d'arbitrage du périmètre de la solution) Contribuer à la définition des interfaces, des solutions et des règles d’interfaçage du nouveau SI de gestion et de son écosystème, en cible et par état stable Conseiller / valider les choix techniques Contribuer à l'identification, l'instruction et le suivi des adhérences entre les programmes et les projets de transformation du SI (d’un point de vue solution) Accompagner les projets, de la phase de cadrage à la mise en production des applications Contribuer à assurer la cohérence, tout au long de la vie du projet, entre les livrables majeurs des programme et les autres projets connexes en adhérence forte (spécifications, développements, stratégie de recette, stratégie de migration, conduite du changement) Contribuer à la modélisation de la cartographie du nouveau SI gestion sous HOPEX - vision cible et trajectoire Livrables : Dossier d’architecture cible et états stables Dossiers d’analyse d’impacts et de valeur des demandes d’évolution et Dossiers d’arbitrage Dossiers d’analyse des adhérences entre les programmes et les projets de transformation du SI Dossiers d’analyses fonctionnelles et/ou applicatives sur des thèmes transverses critiques Cartographies sous HOPEX de la couche applicative/donnée Comptes rendus hebdomadaire

Contractor
Permanent
Fixed term

Job Vacancy
Data Steward

LEVUP
Published on
Data governance

12 months
Liège, Belgium

1. Contexte du poste Dans le cadre de la mise en place d’un data warehouse Snowflake alimenté par SAP et d’autres sources, le Data Steward assure la qualité, la cohérence et la documentation des données critiques pour l’entreprise. Il joue un rôle central dans la gouvernance des données et dans le support aux équipes métier et techniques. 2. Missions principalesa) Qualité et gouvernance des données Définir et appliquer les standards de qualité des données (complétude, exactitude, cohérence). Identifier, analyser et corriger les anomalies ou incohérences dans les données SAP et Snowflake. Mettre en place des indicateurs de qualité et suivre leur évolution. b) Gestion des métadonnées et documentation Maintenir un dictionnaire de données à jour pour toutes les tables critiques. Documenter les flux, transformations et règles métier appliquées lors des extractions SAP → Snowflake. Garantir la traçabilité et la conformité des données (ex. RGPD, audits internes). c) Support aux projets ETL/ELT Collaborer avec les data engineers et analystes BI pour assurer la bonne réplication et transformation des données. Valider les mappings et règles métier lors de l’intégration dans Snowflake. d) Collaboration et sensibilisation Être l’ interlocuteur privilégié pour les questions de données auprès des équipes métier et IT. Former et sensibiliser les utilisateurs aux bonnes pratiques de gestion des données. Participer aux comités de gouvernance de données. 3. Profil recherchéCompétences techniques Connaissance des systèmes SAP (FI, MM, SD, ou modules liés au master data). Expérience avec un data warehouse cloud (Snowflake de préférence) et outils ETL/ELT. Maîtrise des concepts de data governance, qualité et master data management . Bonnes compétences en SQL et manipulation de données. Connaissance des outils de documentation et data catalog (ex. Collibra, Alation) est un plus. Compétences comportementales Esprit analytique et rigueur. Capacités à communiquer avec les équipes métiers et techniques. Sens de l’organisation et autonomie. Capacité à prioriser et à gérer plusieurs sujets transverses. Télétravail 2 jours par semaines et 3 jours sur site. La maitrise de l'anglais courant est nécessaire. Formation Bac+3/5 en informatique, statistiques, gestion des données, ou disciplines équivalentes. Certification en data governance ou MDM est un plus.

Contractor

Contractor job
Tech Lead / Architecte Data

adbi
Published on
Angular
API
BigQuery

10 months
Ile-de-France, France

Le Tech Lead sera responsable de la conception technique, du pilotage des équipes de développement et de la mise en œuvre des standards d’architecture au sein d’un centre de compétences digital. Livrables attendus : Architecture one-pager Data contracts ADRs / HLD Modèle sémantique & KPI tree Runbook / SLOs Modèle de coûts Missions principales : Collaborer avec les parties prenantes, les delivery leads et les product owners pour comprendre les besoins, identifier les points de douleur et prioriser les fonctionnalités à forte valeur ajoutée. Assurer le suivi régulier des progrès auprès du management, en présentant les jalons atteints, les difficultés rencontrées et les prochaines étapes. Garantir la qualité technique, la performance et la maintenabilité des solutions développées. Compétences techniques requises : Maîtrise des architectures cloud et du développement orienté API Connaissance des frameworks front-end (React, Angular, Vue.js) Maîtrise des technologies back-end (Node.js, Java Spring) Expérience avec les frameworks d’intégration (ESB, API Gateway, microservices) Pratiques DevOps : CI/CD, tests automatisés, conteneurisation, orchestration Connaissance des plateformes data (Snowflake, BigQuery) et des infrastructures AI/ML (atout)

Contractor

Contractor job
Business Analyst « Analyse des ventes » - QLIK SENSE, Salesforce, SAP

KatchMe Consulting
Published on
Architecture
Commerce
CRM

6 months
400-550 €
Lille, Hauts-de-France

En tant qu' analyste en solutions commerciales numériques, spécialisé dans les rapports commerciaux (analyse des activités commerciales à l'aide de la solution Qlik Sense), vous ferez partie d'une équipe internationale chargée des applications commerciales et marketing (CRM, PIM, DAM, sites web, rapports commerciaux). Vous contribuerez à remettre en question et à améliorer les processus commerciaux actuels dans une approche à valeur ajoutée (croissance et productivité) Vous contribuerez à définir et à documenter les besoins commerciaux, en collaboration avec les équipes commerciales Vous définirez les impacts numériques et proposerez des solutions Vous contribuerez à la mise en œuvre et à la maintenance des solutions en tant qu'analyste des solutions commerciales numériques Vous serez l'interface entre les équipes commerciales et les équipes de livraison/production en facilitant la communication et en déterminant les solutions numériques qui correspondent aux besoins commerciaux exprimés et non exprimés, à l'architecture d'entreprise, au budget, au calendrier et à la qualité. Spécificités Solution principale : QLIK SENSE (6 applications commerciales), Salesforce, SAP, Snowflake, Datamart, Power BI, Principales interactions avec la solution : ERP, PIM, DAM, site web, middleware Relations avec les fournisseurs de services de solutions. Exemples de thèmes clés pour 2025-2026 (liste non exhaustive) Rapports commerciaux transitoires (fusion des rapports de vente entre les deux entreprises) Rapports commerciaux cibles (optimisation et automatisation du projet ci-dessus) Intégration CRM et continuité des rapports (continuité en termes de rapports après la fusion CRM) Refonte des rapports commerciaux (optimisation de l'architecture actuelle et rationalisation des applications)

Premium Job
Permanent

Job Vacancy
Data Architecte Databricks - Paris

KOMEET TECHNOLOGIES
Published on
Databricks

65k-80k €
Paris, France

Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Contractor

Contractor job
Data Engineer DBT

SQLI
Published on
DBT

6 months
400-550 €
Paris, France

Hello, Pour le compte de l'un de mes clients parisiens, je suis à la recherche d'un Data Engineer DBT senior (ou confirmé ++). Dans l'idéal, le DE aura les skills suivants : ○ 5 ans d’expérience minimum en Data Engineering. ○ Une expérience obligatoire sur DBT (au moins 6 mois à 1 an en production). ○ Une expérience sur Daxter est un plus, sinon Airflow. ○ Une capacité à apporter de la méthodologie et des bonnes pratiques à l’équipe. Un prérequis avec Snowflake & une expertise cloud.

Contractor

Contractor job
Data Engineer

Hanson Regan Limited
Published on
Data Warehouse
Gitlab
Python

5 months
€600-700
Luxembourg, Belgium

Hanson Regan is looking for a Data Engineer for a 5-month renewable position, based in Mechelen 2 days Monday & Wednesday onsite (3 days remote) Senior Data Engineer in SCALA Primary Skills MUST HAVE: Terraform DWH (SNowflake or databricks) Kubernetes GITlab Python Softskills & Language requirements: - Excellent Communication - English to work with Offshore (India Teams) To meet the needs of our clients, we only accept applications from freelancers working within their own company (no payroll/ portage companies) Please do not hesitate to contact me if you are interested in this position to discuss it in more detail.

69 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us