Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 287 résultats.
Freelance

Mission freelance
Développeur Data/Data Engineer

Publiée le
Azure
Git
Python

1 an
450-600 €
Gosselies, Hainaut, Belgique
Télétravail partiel
Développer des flux d’ingestion de données via Fabric Data Factory (et compréhension d’Azure Data Factory) Développer des flux de transformation via Fabric Notebooks Optimiser les requêtes de transformation , en tenant compte des coûts Azure Contribuer à la modélisation du Lakehouse Concevoir et implémenter l’ architecture médaillon (Silver / Gold) dans Microsoft Fabric Définir, automatiser et exécuter les tests unitaires Participer aux estimations d’effort lors des phases de cadrage Rédiger la documentation technique Contribuer à l’ amélioration continue (guidelines, standards de développement) Participer à la maintenance applicative et à la résolution d’incidents en production
Freelance

Mission freelance
DATA ENGINEER FABRIC/AZURE DATA FACTORY (H/F)

Publiée le
Azure Data Factory
Microsoft Fabric

6 mois
Hauts-de-France, France
TEKsystems recherche pour le compte de son client un(e) : DATA ENGINEER FABRIC Missions principales : Implémentation des composants Microsoft Fabric liés aux cas d’usage prioritaires Conception et industrialisation de pipelines d’ingestion/traitement (ETL/ELT), APIs et modèles de données avec Microsoft Fabric Observabilité, data quality, tests, CI/CD et documentation technique Optimisation coûts/performance, sécurité et conformité Collaboration étroite avec Data Analysts et équipes métiers Compétences attendues : Microsoft Fabric Python, SQL ; orchestration, versioning et CI/CD Intégration de données multi-sources (ERP/HR/Produits etc), API, batch/stream Plateformes et architectures data modernes (data fabric/data lakehouse, cloud Azure) Gouvernance des données, catalogage, métadonnées et lineage
Freelance
CDI

Offre d'emploi
Data Architecte

Publiée le
API
Architecture
Go (langage)

3 ans
Île-de-France, France
Télétravail partiel
Nous recherchons un Data Architect pour concevoir, construire, optimiser et maintenir les modèles de données conceptuels et logiques des produits data au sein d’une plateforme moderne. Le poste requiert une forte expertise en architecture data , migration de données et ingénierie de plateformes data , avec un caractère impératif sur la conception et le développement d’Operators OpenShift et d’API permettant de piloter l’infrastructure data. Le Data Architect travaillera en étroite collaboration avec les producteurs de données, les équipes plateforme et les équipes Data Science afin de garantir des solutions data performantes, sécurisées et évolutives.
Freelance
CDI

Offre d'emploi
Data Engineer Snowflake

Publiée le
DBT
Snowflake

3 ans
Paris, France
Télétravail partiel
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Snowflake pour concevoir, optimiser et industrialiser des plateformes analytiques cloud modernes. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (migration vers Snowflake, optimisation des modèles de données, amélioration des pipelines ELT) et guiderez leur mise en œuvre avec Snowflake, dbt et les outils d’orchestration associés. Vous serez responsable de la structuration des modèles de données, de l’optimisation des performances des requêtes et de la mise en place de mécanismes de gouvernance et de traçabilité. Vous travaillerez main dans la main avec les équipes Cloud, Data et DevOps pour intégrer les traitements dans des pipelines CI/CD fiables et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering moderne et d’usage avancé de Snowflake. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
CDI

Offre d'emploi
Data Engineer Databricks

Publiée le
Apache Spark
Databricks

45k-60k €
Paris, France
Télétravail partiel
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Freelance

Mission freelance
Data Engineer Senior / Data Product Analyst

Publiée le
Microsoft Power BI

24 mois
370 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte du poste Dans un contexte industriel et data-driven, le poste vise à renforcer la capacité de l’entreprise à exploiter ses données pour améliorer le pilotage des activités, optimiser les processus et créer de la valeur métier. Le profil interviendra comme référent data opérationnel, à l’interface entre les équipes métiers et les équipes techniques, dans des conditions industrielles exigeantes. Profil recherché Profil autonome avec au moins 5 ans d’expérience en data engineering Forte capacité d’analyse business et de compréhension desseux des enjeux métiers Capacité à concevoir, développer et opérer des solutions data de bout en bout Aisance dans un rôle d’interface entre équipes métiers et équipes techniques Mission Collecter, analyser et exploiter les données pertinentes afin d’améliorer le pilotage des activités et d’identifier les leviers de création de valeur Accompagner les équipes métiers dans le développement, le déploiement et l’exploitation des solutions data Être le référent technique de la solution, avec une maîtrise fine des données manipulées Agir comme point de contact privilégié des équipes métiers pour les sujets liés à l’exposition, à l’exploitation et à la valorisation des données industrielles Garantir la mise à disposition de données fiables, compréhensibles et exploitables Principaux résultats attendus Identification, capture et sélection des données pertinentes pour répondre aux besoins des utilisateurs Optimisation du temps, des ressources et des outils nécessaires à la gestion et à l’analyse des données Mise à disposition des données sous des formats accessibles et exploitables via des visualisations adaptées Production de recommandations et lignes directrices permettant aux métiers de créer de la valeur Optimisation des offres, services ou processus grâce aux analyses et évaluations réalisées Application et respect des règles du groupe en matière d’éthique et de gouvernance des données Présentation et promotion des fonctionnalités des produits data afin de faciliter leur adoption et leur maintenabilité Réalisation de tests conformes à la stratégie de test définie Maintien à jour du catalogue des produits data (datasets) Mise à disposition de kits de formation et d’outils à destination des utilisateurs Compétences fondamentales en Data Engineering Modélisation de données Modèles relationnels Modèles dimensionnels Data Vault ETL / ELT Conception et optimisation de pipelines robustes Gestion des dépendances et de l’industrialisation Qualité et gouvernance des données Data lineage Contrôles de qualité des données Catalogage et gestion des métadonnées Architecture data Compréhension des architectures modernes (Data Lakehouse, Data Mesh, etc.) Langages de programmation SQL avancé Python / PySpark avancé Outils et technologies Dataiku Power BI Databricks Azure Data Factory Azure Logic Apps
CDI

Offre d'emploi
Data Analyst (H/F)

Publiée le

40k-60k €
Saint-Herblain, Pays de la Loire
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 Dans le cadre du développement de son centre de compétences DATA et des besoins en expertise Client , le Groupe SYD renforce ses équipes et recherche des Consultants DATA confirmés ou seniors . Vous interviendrez sur des projets à forte valeur ajoutée auprès de clients variés, en accompagnant la transformation data et décisionnelle, de la conception à la mise en production des solutions. 📍Lieu : Saint-Herblain 🏠 Télétravail : 1-2 jours 📝Contrat : CDI 👉 Contexte client : Dans le cadre du développement de notre centre de compétences DATA, tu rejoindras une équipe d’experts SYD et interviendras auprès de clients variés pour les accompagner dans leur transformation data et décisionnelle, de l’analyse des besoins métiers jusqu’au déploiement des solutions. Tu auras pour missions de : Recueillir et analyser les besoins métiers des clients Concevoir et modéliser des solutions décisionnelles performantes Développer des tableaux de bord et reportings sous Power BI Mettre en œuvre des modèles de données (DAX, Power Query, modélisation sémantique) Garantir la qualité, la fiabilité et la performance des données Participer aux choix d’architectures Data (Datawarehouse, Lakehouse, etc.) Intervenir sur l’ensemble du cycle de vie des projets (cadrage, build, tests, déploiement) Former nos partenaires clients Accompagner les utilisateurs (formation, conduite du changement) Contribuer au centre de compétences DATA : veille technologique capitalisation des bonnes pratiques montée en compétences des consultants juniors Environnement technique : Dataviz & BI : Power BI (indispensable) Data Platform : Microsoft Fabric, Databricks ou autres ETL : Azure Data Factory, Talend … Langages : SQL, DAX
Freelance

Mission freelance
Prestation Architecture Système Industriel

Publiée le
ArchiMate
Modélisation
TOGAF

12 mois
Malakoff, Île-de-France
Télétravail partiel
CONTEXTE : L’architecte IT du système d'information industriel sera intégré à l’équipe SOLUTION DESIGN & ARCHITECTURE AS A SERVICE du département d'architecture d'entreprise de la direction des systèmes d'information du groupe. Dans ce cadre, il sera missionné et piloté par cette structure pour agir avec l’ensemble de l’équipe sur un projet mené par le responsable IT en informatique industrielle sur des sujets aussi divers que la mise en place de micro-segmentation, la participation à la définition d’un standard dDMZ, et la rédaction de patterns IIOT. LOGISTIQUE : Début du contrat - Fin en fin d’année suivante (renouvelable) Télétravail : 2 jours par semaine Nationalité requise Localisation de la mission : Malakoff (banlieue parisienne) Objectifs et livrables La prestation porte sur l’architecture de solutions systèmes et infrastructures PRESTATION ATTENDUE : Le prestataire est chargé du design de la solution et des livrables documentaires associés. Il supporte les équipes de déploiement lorsqu’une difficulté est rencontrée. L’architecte aura la charge de la conception (Design) des architectures techniques sur les domaines référencés ci-dessus Il aura notamment en charge, sous le contrôle de l’architecte référent, de rédiger les livrables d’architecture (HLD et LLD, patterns, modélisations) des projets dans lesquels il interviendra et de leur validation dans les différentes instances de contrôle des architectures techniques. Il aura aussi pour mission d’accompagner et supporter les équipes en charge de la construction et mise en production des solutions qu’il aura conçues. LIVRABLES : o DAT-G et DAT-D (HLD, LLD) en version en anglais o Modélisation o Passage en comités de validation o Rapport d’activité o Intégration de la prestation au processus de contrôle déjà en place
CDI
Freelance

Offre d'emploi
Data Engineer - Spécialisation GenAI & LLM

Publiée le
CI/CD
GenAI
Git

24 mois
Paris, France
Télétravail partiel
Panda Services , société de services informatiques, recherche pour l’un de ses clients basé à Paris (75) un(e) Data Engineer - Spécialisation GenAI & LLM Contexte Nous renforçons notre équipe Data pour accompagner le déploiement de cas d’usage stratégiques en IA générative et LLM . Vous rejoindrez une plateforme data cloud moderne, au cœur des enjeux de valorisation des données structurées et non structurées , avec un objectif clair : rendre la donnée directement exploitable par des modèles LLM à l’échelle industrielle . Vos missions 🔹 Data Engineering moderne Concevoir et développer des pipelines ELT performants et scalables sur Snowflake Construire des modèles de données analytiques optimisés pour les usages BI et GenAI Optimiser les coûts, la performance et la sécurité de la plateforme data cloud 🔹 DataOps & qualité des données Mettre en place des tests, contrôles qualité et standards data indispensables à des projets LLM fiables Industrialiser les pipelines via Git, CI/CD et automatisation Participer à l’outillage DataOps / MLOps orienté LLM 🔹 Données & IA générative (axe clé du poste) Ingestion et préparation de données structurées, semi-structurées et non structurées (textes, documents, etc.) Contribution directe à des projets GenAI & LLM : génération et gestion d’ embeddings mise en œuvre d’architectures RAG (Retrieval Augmented Generation) exploitation et structuration de corpus documentaires pour les LLM Travailler avec les équipes IA pour garantir la qualité, la fraîcheur et la traçabilité des données exposées aux modèles 🔹 Collaboration Travail en étroite collaboration avec les équipes Data, BI, IA et Produit Force de proposition sur les bonnes pratiques Data & GenAI Profil recherché Compétences techniques Snowflake SQL avancé Python (data processing, préparation de données pour IA) Data modeling analytique Environnements cloud Git / CI-CD / DataOps Solides bases ou forte appétence pour les LLM & l’IA générative : embeddings RAG traitement de données textuelles Profil Forte curiosité pour les usages concrets de l’IA générative Capacité à évoluer dans des environnements data modernes et transverses Esprit d’optimisation, autonomie et sens de la qualité Envie de participer à des projets GenAI à fort impact business
CDI

Offre d'emploi
Data Engineer Senior

Publiée le

60k-70k €
Neuilly-sur-Seine, Île-de-France
Contexte du poste Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Data & Cloud. Vous jouerez un rôle clé dans la conception d’architectures data robustes, l’industrialisation des pipelines, l’optimisation des performances BigQuery et la mise en place de solutions IA/ML. Vous interviendrez dans un environnement GCP-first , moderne, orienté automatisation et bonnes pratiques DevOps. 1. Compétences techniques attendues Architecture Système & Cloud Excellente maîtrise de Google Cloud Platform (GCP) Containerisation & architectures serverless Maîtrise des patterns d’intégration d’entreprise DevOps & Infrastructure as Code Terraform (développement de modules, automatisation, paramétrages avancés) CI/CD : GitHub Actions, pipelines automatisés Maîtrise de Git / GitHub Développement d’API Conception & développement d’API REST Expérience sur Apigee , Cloud Run , FastAPI Architectures orientées événements Mise en place de flux événementiels : GCP Pub/Sub Connaissance de Kafka Modélisation de données Modèles en étoile (Star Schema) Modèles en flocon (Snowflake Schema) Modélisation dimensionnelle avancée BigQuery – Expertise avancée Écriture et optimisation de procédures stockées complexes Optimisation des performances & des coûts Optimisation DirectQuery pour outils BI Orchestration & pipelines de données Cloud Workflows, EventArc, Cloud Run Scripting Python ML / IA / GenAI Algorithmes classiques, MLOps Expérience sur Vertex AI (pipelines, modèle, tuning) Compréhension des réseaux neuronaux (encodeur/décodeur) Connaissance de concepts LLM, RAG, MCP BI & Analytics Looker, modèles LookML Qualité & Observabilité Expérience en qualification, monitoring & observabilité des données Méthodologies & Leadership Travail en équipes Agile / Scrum Mentorat & accompagnement de développeurs Atouts (Nice to have) Compétences WebApp : JavaScript / React Certification GCP Data Engineer ou Cloud Architect
Freelance

Mission freelance
Développeur Data/Data Engineer (H/F)

Publiée le
Azure
Cloud
PySpark

2 ans
380-480 €
Charleroi, Hainaut, Belgique
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Data/Data Engineer (H/F) à Charleroi, Belgique. Les missions attendues par le Développeur Data/Data Engineer (H/F) : Politique télétravail / venue sur site : 2 jours sur site / semaine Autre : Le site n’est pas facilement accessible en transports en commun, la possession d’un permis de conduire et d’un véhicule sera préférable pour les déplacements. Principales responsabilités : Développer les flux d'ingestion via Fabric Data Factory (et comprehension de Azure Data Factory) ; Développer les flux de transformation de données via Fabric Factory Notebook ; Optimiser les Queries des transformations, en particulier en prenant en compte les coûts Azure associés ; Contribuer à la modélisation du Lake House ; Établir le Design technique,implémentation de l'architecture médaillon (silver& gold) dans Microsoft Fabric ; Établir le plan de tests unitaires (automatisables) de la solution ; Suivre/exécuter les tests unitaires ; Participer à l’estimation de l’effort lié aux activités de développement lors du cadrage de la demande ; Rédiger la documentation technique ; Contribuer à l’amélioration continue (guidelines de développement) ; Contribuer à la maintenance & résolution des incidents (production).
Freelance
CDI

Offre d'emploi
Databricks Data Engineer

Publiée le
API REST
PySpark

1 an
Île-de-France, France
Télétravail partiel
Descriptif du poste Expert reconnu en plateforme de données et architecture Lakehouse, incluant : Optimisation Spark / PySpark (AQE, broadcast joins, stratégies de caching, autoscaling de cluster). Politiques de cluster, configuration de cluster et pool, et optimisation des coûts. Monitoring, diagnostics et dépannage des performances à l'aide de métriques et event logs. APIs REST et CLI pour l'automatisation. Expert reconnu en utilisation de Delta Lake, incluant : Pipelines d'ingestion et de transformation (Bronze–Silver–Gold). Delta Live Tables pour les pipelines de production (CDC, expectations, orchestration). Structured streaming et traitement incrémental. Débogage des goulots d'étranglement de performance dans les workloads Delta (data skew, petits fichiers, auto-compaction). Expert reconnu en : Python pour l'ingénierie des données, programmation orientée objet, data science, tests unitaires (pytest) et packaging. SQL (SQL analytique, window functions, SQL Databricks). Spark / PySpark pour le traitement distribué et l'optimisation. Expert reconnu en utilisation de Unity Catalog, incluant : Implémentation du contrôle d'accès granulaire (sécurité au niveau des lignes et colonnes, vues dynamiques, masquage). Gestion des objets Unity Catalog à grande échelle (catalogs, schémas, tables, modèles et gouvernance des fonctions). Pratiques de développement sécurisé, protection des données et conformité réglementaire (RGPD, PII). Expert reconnu en Databricks Jobs et Workflows (orchestration des tâches, retries, monitoring), incluant : Databricks Repos et intégration Git / Gitflow. Déploiement des assets Databricks (notebooks, jobs, pipelines DLT) via des pipelines CI/CD. Databricks SQL editor et SQL Warehouses pour les dashboards ou pipelines de production. Infrastructure as Code utilisant Terraform (providers Databricks et Azure) et ARM templates. Maîtrise avancée de l'écosystème Databricks Machine Learning et Generative AI. Maîtrise avancée de MLflow (experiment tracking, model registry, model serving). Maîtrise avancée de la construction de pipelines ML utilisant Databricks AutoML, Feature Store et feature engineering. Expérience pratique avérée avec les outils de développement basés sur l'IA, incluant les workflows basés sur des agents. Bonne compréhension des normes d'interopérabilité émergentes telles que le Model Context Protocol (MCP) ou équivalent. Capacité à évaluer de manière critique et à intégrer de manière sécurisée les résultats générés par l'IA dans les workflows de développement.
CDI

Offre d'emploi
Data Engineer Databricks - Lyon

Publiée le
Apache Spark
Databricks

45k-55k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
CDI

Offre d'emploi
Data Engineer Python - Dax

Publiée le
Databricks

45k-50k €
Occitanie, France
Télétravail partiel
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Freelance

Mission freelance
Product Owner Data / Plateforme de Gouvernance des Assets (H/F)

Publiée le
Apache Kafka
API
Data governance

1 an
400-570 €
Neuilly-sur-Seine, Île-de-France
Télétravail partiel
Contexte Dans un environnement international et multi Business Unit, vous interviendrez au sein de la DSI d’un grand groupe sur une plateforme stratégique de gouvernance des données assets . Cette plateforme groupe vise à devenir le référentiel central de master data, en consolidant des données issues de sources multiples (applications locales, outils sales, plateformes techniques, APIs…) afin de garantir une donnée fiable et cohérente, notamment pour les usages digitaux et programmatiques. Vous intégrerez une équipe Scrum internationale et collaborerez étroitement avec les équipes techniques, métiers et les parties prenantes IT groupe. Rôle & responsabilités : En tant que Product Owner Data , vous serez en charge de : Porter la vision produit de la plateforme de gouvernance data Garantir la cohérence fonctionnelle et la qualité des données Piloter la consolidation de données multi-sources Définir référentiels, taxonomies, règles de gestion et de qualité Challenger et prioriser les besoins métiers dans un contexte transverse Piloter le delivery de bout en bout, de la conception à la mise en production Travailler avec le Product Manager sur la roadmap Encadrer fonctionnellement les équipes de développement et QA Contribuer à l’amélioration continue des pratiques produit et data Environnement technique : Agile Scrum · JIRA / Confluence · Architecture event-driven · Kafka · APIs / Webservices · SQL · Modélisation de données
Freelance

Mission freelance
Data Engineer senior/expert DBT/Snowflake 

Publiée le
Snowflake

6 mois
120-450 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Dans le cadre du renforcement de ses plateformes data, le client recherche un Data Engineer senior / expert dbt & Snowflake pour intervenir sur des sujets à forte valeur ajoutée autour de la modélisation, de l’industrialisation et de l’optimisation des pipelines de données. La mission s’inscrit dans un environnement data moderne, orienté analytics et performance, avec des enjeux forts de qualité, de sécurité et de scalabilité. Le consultant interviendra sur des projets structurants, nécessitant une excellente maîtrise des architectures cloud data et une capacité à travailler en autonomie dans un contexte international
287 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous