Trouvez votre prochaine offre d’emploi ou de mission freelance Data Warehouse

Votre recherche renvoie 74 résultats.
Freelance

Mission freelance
Business Analyst senior/Expert Data – Asset Management

Publiée le
Architecture
Business Analyst
Data Warehouse

2 ans
400-700 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Business Analyst Data expérimenté pour accompagner un Asset Manager dans la structuration et l’évolution de son écosystème Data. Vos missions : Recueillir et formaliser les besoins Data des équipes métier (Front, Risk, Reporting, Compliance). Contribuer à la conception du modèle de données et à la qualité / gouvernance des données. Participer à la mise en place d’outils de data management et data lineage. Collaborer avec les équipes IT, Data Engineers et Métier sur la roadmap Data
CDI
Freelance

Offre d'emploi
Architect Data (H/F)

Publiée le
Architecture
Data Warehouse

3 ans
Vélizy-Villacoublay, Île-de-France
La mission consiste à assurer la responsabilité de l’architecture de bout en bout des solutions data et analytiques. L’architecte devra concevoir et piloter des solutions sécurisées, évolutives et optimisées en coûts, en s’appuyant sur la plateforme de données de l’entreprise (entrepôt de données, lakehouse, streaming, ML, environnements cloud et on-premise). L’objectif est de garantir la cohérence de l’architecture, la gouvernance des données et la performance des usages analytiques et métiers. Activités principales • Définir et maintenir l’architecture data couvrant ingestion batch/stream, entrepôt de données (modèles Kimball/Star), lakehouse (Iceberg/Trino) et exposition via SQL, API ou couche sémantique. • Concevoir les modèles conceptuels, logiques et physiques (partitionnement, clustering, indexation). • Encadrer la mise en place de la couche sémantique et des métriques, assurer la gouvernance des KPI, optimiser les performances des requêtes et tableaux de bord, favoriser l’auto-consommation via dbt/metrics layer et catalogues. • Mettre en place les pratiques d’observabilité, runbooks, SLOs, backfills, ainsi que l’optimisation coûts/performance (FinOps). • Définir les standards de gouvernance : métadonnées, documentation, data contracts, blueprints, architecture decision records (ADR). • Contribuer à la définition et à la priorisation des besoins métiers en lien avec les Product Owners, Delivery Leads et parties prenantes. • Fournir des rapports réguliers sur l’avancement, les jalons atteints et les difficultés rencontrées. Livrables attendus • Architecture one-pager, modèles sémantiques et KPI tree. • Data contracts, ADRs/HLD. • Runbooks, SLOs, modèles de coûts. • Documentation technique et fonctionnelle.
Freelance

Mission freelance
Chef de Projet Customer Data Platform / CRM

Publiée le
CRM
Data governance
Data Warehouse

6 mois
570-600 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Principales missions : - Piloter la mise en place et l’exploitation de la CDP (Segment) dans un contexte omnicanal : web, app, retail. - Garantir la qualité, la cohérence et la gouvernance des données clients collectées. - Coordonner les chantiers entre les équipes techniques et métiers autour de la donnée client. - Traduire les besoins CRM et marketing en spécifications techniques exploitables dans la CDP. - Gérer le backlog d’évolutions CDP : priorisation, planification, suivi et communication. - Tester et recetter les flux de données (événements, attributs, identités, mapping client). - Documenter les cas d’usage, les schémas de données et les paramétrages (Confluence, Jira). - Assurer la conformité RGPD et la gestion des consentements en lien avec les équipes légales. Compétences clés : > Techniques & Data : Solide compréhension des flux de données clients et des payloads JSON. Maîtrise de Segment (tracking, mapping, intégrations, gestion des identités). Connaissance des APIs et des systèmes retail / POS. Capacité à tester et valider les flux de bout en bout. > Fonctionnelles & Métier : Excellente compréhension des enjeux CRM et marketing relationnel (segmentation, activation, scoring). Vision client unifiée et approche orientée qualité / gouvernance de la donnée. Bonne connaissance du RGPD et des pratiques de gestion du consentement. > Pilotage & Coordination : Capacité à piloter un backlog d’évolutions conséquent (plus de 50 items à venir), à prioriser les chantiers et à arbitrer entre enjeux business et contraintes techniques Approche critique et proactive vis-à-vis des parties prenantes, avec une capacité à relancer, synchroniser et maintenir la dynamique autour de ce sujet transverse Rigueur dans la gestion de projet : planification, suivi d’avancement, documentation et communication claire sur les impacts et dépendances Sens du détail et approche très opérationnelle : tester et valider concrètement chaque flux avant mise en production Capacité à documenter les cas d’usage, les flux et les paramétrages (ex. via Confluence et Jira)
CDI

Offre d'emploi
Consultant BI DataWarehouse

Publiée le
Architecture
Conception
ETL (Extract-transform-load)

40k-55k €
Paris, France
Télétravail partiel
Le client souhaite harmoniser ses KPI/Reporting et pour cela il est nécessaire de mettre en place un datawarehouse (DWH) qui sera interfacé, d'une part avec un outil de dictionnaire de données et d'autre part avec du Power BI. Le/la consultant(e), devra travailler en étroite collaboration avec le Business Analyst qui travaille actuellement sur la mise en place des connecteurs entre les applications. Il/elle devra avoir eu, une ou plusieurs expériences significatives dans la compréhension des architectures de DWH ( dont stockage des données, indexation, partitionnement...), dans la conception de modèles de données ( en étoile) et nous aider dans la conception de datamart en fonction des besoins métiers, avoir des compétences avec les outils de BI mais, des connaissance des bases de données ( oracle, SQL...) Il/elle devra avoir une aptitude à communiquer efficacement avec les parties prenantes techniques et non techniques y compris à rédiger de la documentation, à parler en anglais tant à l'oral qu'à l'écrit.
Freelance

Mission freelance
Data Engineer AWS - PySpark/Databricks

Publiée le
Amazon S3
Apache Spark
AWS Cloud

12 mois
550-600 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
Freelance

Mission freelance
Data Engineer / T -SQL / Marchés Financiers / Data Warehouse

Publiée le
Méthode Agile
Transact-SQL

2 ans
270-450 €
Île-de-France, France
Télétravail partiel
Description de la mission : Dans le cadre d’un projet stratégique de consolidation et d’analyse des données commerciales d’une grande institution financière, nous recherchons un Data Engineer SQL confirmé pour rejoindre une équipe Agile dédiée à la gestion et à la valorisation des données de marché. Vos principales missions : Concevoir, alimenter et faire évoluer les flux de données d’un entrepôt décisionnel (Data Warehouse / Datamart). Développer et optimiser des procédures stockées en T-SQL sur SQL Server 2019. Mettre en place et surveiller l’ ordonnancement des traitements via Control-M. Intégrer des données issues de diverses sources (fichiers plats, XML, API REST…). Effectuer les tests unitaires et recettes techniques . Rédiger la documentation technique et assurer le support applicatif . Travailler en méthodologie Agile (Kanban) avec les Business Analysts. Participer aux astreintes selon le planning de l’équipe.
Freelance
CDD

Offre d'emploi
Data engineer / expert Talend

Publiée le
AWS Cloud
Azure
Data Warehouse

1 an
40k-50k €
450-600 €
Île-de-France, France
Télétravail partiel
Dans le cadre de missions à venir en cours de qualification, nous recherchons dès maintenant des consultants Data Engineer Talend (CDI ou Freelance) prêts à rejoindre nos équipes dès que possible. Exemples de missions à venir : Conception, développement et optimisation de flux ETL avec Talend (Open Studio ou Talend Data Integration) Intégration et transformation de données issues de sources variées (bases SQL/NoSQL, API, fichiers plats, ERP…) Mise en place de pipelines de données fiables et performants Optimisation des performances et gestion des volumes importants de données Participation à la définition et à la mise en œuvre d’architectures Data (Data Lake, Data Warehouse, Cloud)
Freelance

Mission freelance
Expert IA / CP Cybersécurité (Sénior)

Publiée le
Cybersécurité
Data governance
Data Lake

12 mois
550-650 €
Île-de-France, France
Télétravail partiel
Contexte du poste Dans un contexte d’accélération des usages de l’IA et d’exigences croissantes en cybersécurité et conformité réglementaire (NIS2, RGPD, AI Act, bonnes pratiques ISO/IEC 42001, 27001/27005…), l’organisation souhaite structurer et formaliser sa politique de cybersécurité appliquée à l’IA. Le Chef de projet IA / Cybersécurité jouera un rôle clé dans la définition du cadre, sa mise en œuvre opérationnelle, et l’accompagnement des équipes techniques et métiers. Missions principales 1. Élaboration de la politique de cybersécurité appliquée à l’IA Construire une politique cybersécurité dédiée aux projets IA (purs ou intégrant des briques IA). Définir les exigences de sécurité adaptées aux différents types d’IA (ML, LLM, modèles embarqués, services cloud, etc.). Intégrer les enjeux liés aux données (qualité, confidentialité, gouvernance, gestion des jeux d’entraînement). 2. Définition du processus de prise en compte de la cybersécurité dans le cycle de vie des projets IA Conception d’un processus de sécurité couvrant tout le cycle : idéation, cadrage, conception, entraînement, validation, déploiement, exploitation. Coordination avec les métiers, les équipes d’ingénierie, les architectes, le juridique, la data gouvernance et le RSSI. Intégration du processus dans la gouvernance projet et dans les instances existantes. 3. Rédaction du livrable de référence : “Politique de prise en compte de la cybersécurité dans les projets et produits IA” Le livrable inclura notamment : L’organisation cible et les rôles/responsabilités (Métiers, Data, RSSI, Architectes, Juridique, Achats…). Les jalons de validation et exigences à contrôler à chaque étape. Les points de contrôle cyber spécifiques aux projets IA (robustesse des modèles, attaques adversariales, données sensibles, dérives de modèle, dépendances cloud…). Les grilles d’évaluation et matrices de risques cyber appliquées à l’IA (risques modèles, risques données, risques d’exploitation). Les clauses contractuelles types pour appels d’offres et contrats incluant de l’IA : obligations de sécurité, exigences de gestion et protection des données, auditabilité et monitoring, obligations de conformité (AI Act, RGPD…), obligations en matière de gestion de vulnérabilités IA. 4. Préparation de la phase opérationnelle Préparer le passage de la politique à l’opérationnel. Former et sensibiliser les équipes (ingénierie, métiers, achats, juridique). Participer à la structuration du dispositif opérationnel et soutenir l’Expert IA / Cybersécurité. Contribuer à la mise en place des outils de suivi, audit, monitoring sécurité des modèles.
Freelance

Mission freelance
Product Owner Data (H/F)

Publiée le
Agile Scrum
Apache NiFi
Data Warehouse

12 mois
550-620 €
Paris, France
Télétravail partiel
Freelance / Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Paris 8 - 🛠 Expérience de 5 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Product Owner Data pour intervenir chez un de nos clients dans le secteur bancaire & assurance. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Piloter le backlog Data et définir la vision produit autour des flux de données, de la recherche et de la visualisation. - Recueillir les besoins métiers liés à la collecte, l’analyse et la restitution des données. - Prioriser le backlog en fonction de la valeur métier et des contraintes techniques. - Rédiger les user stories et collaborer étroitement avec les Data Engineers et DevOps. - Piloter les développements et intégrations sur Apache NiFi, Grafana et Elasticsearch. - Valider les livrables : pipelines NiFi, dashboards Grafana, index Elasticsearch. - Animer les cérémonies agiles : Daily, Sprint planning, Sprint demo, rétrospectives. - Assurer la qualité des données et la performance des flux. - Suivre les KPI clés : latence, disponibilité, pertinence des recherches. - Collaborer avec les équipes interfonctionnelles (ingénieurs logiciels, architectes, analystes).
Freelance

Mission freelance
Développeur ETL / Data Engineer (DataStage, Unix, Control-M)

Publiée le
AWS Cloud
Azure
CI/CD

1 an
Montréal, Québec, Canada
Télétravail partiel
📌 Mission Freelance – Développeur ETL / Data Engineer (DataStage, Unix, Control-M) 🎯 Contexte de la mission : Dans le cadre d’un programme stratégique d’industrialisation et de modernisation de nos chaînes de traitement data, nous recherchons plusieurs Développeurs ETL / Data Engineers maîtrisant DataStage, Unix et Control-M. Un des profils recherchés devra assurer un rôle de Lead Technique sur le développement (pas de gestion projet — un encadrement existe déjà). 🛠️ Compétences techniques requises Obligatoires : Expertise IBM DataStage (développement, optimisation, debugging, bonnes pratiques ETL) Très bonne maîtrise Unix/Linux (bash/ksh, scripts, automatisation) Compétence avérée Control-M (ordonnancement, dépendances, troubleshooting) SQL avancé (optimisation, analyse de performances) Pratique d’outils de versioning (Git, RTC), CI/CD, intégration & déploiements Souhaitées Python ou Java pour automatisation / outils internes Connaissances Data Lake / Data Warehouse Notions Cloud (Azure, AWS ou GCP) 🎯 Rôle & Responsabilités Pour les développeurs : Concevoir, développer et maintenir des jobs ETL sous DataStage Implémenter des scripts Unix et automatisations Intégrer et opérer les chaînes de traitement sous Control-M Analyser les performances, optimiser et fiabiliser les pipelines Participer aux déploiements et aux revues de code Contribuer à la mise en place des bonnes pratiques de développement Pour le Lead Développement : Encadrer techniquement les autres développeurs ETL Assurer la qualité du code, des jobs et des livrables Être point d’escalade pour les problématiques techniques DataStage/Control-M Réaliser des revues techniques, challenger les designs et améliorer les patterns ETL
Freelance

Mission freelance
Data Architecte (Secteur Energie / Industrie)

Publiée le
Apache Airflow
Apache Spark
Architecture

12 mois
690-780 €
Rennes, Bretagne
Télétravail partiel
Contexte & Enjeux Projet stratégique à haute visibilité visant à construire une nouvelle Data Platform . L’infrastructure, livrée sur un modèle Kubernetes , constitue le socle du futur environnement Data. Une équipe backend est déjà en place et développe le socle applicatif en Python / Django . Objectif principal : Structurer et définir l’ architecture Data de la plateforme, dans une logique modulaire, scalable et sécurisée , et préparer l’intégration des premiers cas d’usage métiers. 🧩 Mission Le Data Architecte interviendra sur : Définir l’ architecture cible de la Data Platform après livraison de l’infrastructure ; Segmentation et ségrégation des stockages selon les typologies de données (temps réel, analytics, applicatif) ; Déploiement et orchestration des conteneurs dans l’environnement Kubernetes ; Mise en place du socle Data et des patterns de gouvernance : sécurité, qualité, monitoring, CI/CD Data ; Accompagnement sur les choix technologiques (préférence open source) ; Co-construction avec les équipes métiers utilisant des outils no-code / low-code pour leurs besoins analytiques. 🧠 Profil recherché Architecte Data confirmé, à l’aise sur les environnements Cloud Azure et Kubernetes ; Maîtrise des architectures temps réel , data pipelines et data storage (Data Lake / Data Warehouse) ; Expérience solide sur les environnements open source : Spark, Kafka, Airflow, etc. ; Capacité à intervenir sur des sujets d’ architecture globale (data + applicatif) ; Bon sens du travail en équipe et de la co-construction dans un contexte sensible et confidentiel ; Capacité à proposer des solutions adaptées aux contraintes existantes. ⚙️ Environnement technique (indicatif) Cloud : Azure Orchestration : Kubernetes Backend : Python / Django Data : Open source – Spark, Kafka, Airflow, etc. Usages métiers : No-code / Low-code
Freelance

Mission freelance
Développeur QlikSens/Talend

Publiée le
Data Warehouse
ETL (Extract-transform-load)
Qlik Sense

6 mois
Lille, Hauts-de-France
Télétravail partiel
Data Engineer – Projet Data/BI/EDIVos missions : Collecter, transformer et intégrer des données issues de différentes sources (ERP, CRM, WMS, TMS) au sein de la plateforme décisionnelle. Développer, automatiser et maintenir des flux ETL performants et sécurisés avec Talend . Mettre en place des processus de Data Quality pour fiabiliser les informations exploitées par les métiers. Contribuer à la conception de l’architecture Data Warehouse et modéliser des schémas adaptés aux besoins analytiques. Déployer et optimiser des modèles et applications QlikSense pour rendre les données accessibles et compréhensibles. Participer à la configuration et à l’intégration des flux EDI , en choisissant les protocoles adaptés (EDIFACT, AS2, SFTP, etc.). Surveiller la performance des traitements, détecter et corriger les anomalies dans les pipelines de données. Collaborer avec les chefs de projets Data et les équipes métiers pour traduire les besoins en solutions techniques concrètes. Contribuer aux phases de tests, de validation et de mise en production des projets BI et EDI.
Freelance

Mission freelance
Architecte Entreprise - Assurance

Publiée le
Advanced Design System (ADS)
API
API Platform

12 mois
650-750 €
Paris, France
Télétravail partiel
Contexte La Direction Stratégie & Architecture d’Entreprise assure le lien entre la stratégie du groupe et les feuilles de route IT. Elle définit les normes, standards et patterns à privilégier, garantit la cohérence globale de l’architecture et veille à ce que l’entreprise investisse au bon moment dans les bons systèmes et services. L’équipe accompagne également les Directions Métiers dans la transformation stratégique du SI et intervient sur trois axes principaux : Proximité avec les Directions Métiers : soutien à la construction de la vision cible des SI métier. Accompagnement des projets de transformation SI : alignement avec le plan stratégique et cohérence avec le cadre de référence. Diffusion et valorisation du patrimoine informatique : mise à disposition de référentiels capacitaires et partage de la connaissance. Missions principales Réaliser des études de transformation cible du SI, avec un niveau de restitution adapté aux instances managériales, dans une démarche d’architecture d’entreprise. Assurer la cohérence des solutions avec le cadre de référence et les exigences non fonctionnelles. Instruire avec le métier, les experts techniques et les architectes les scénarios d’architecture, les estimations de coûts ("T-Shirt Sizing") et les différentes trajectoires pour atteindre la cible. Faire valider les solutions cibles auprès de la direction informatique. Accompagner les Directions SI et Métiers dans la construction de leur stratégie de transformation SI (Schéma Directeur SI) et de la feuille de route associée. Alimenter, documenter et cartographier les référentiels et principes d’architecture.
Freelance

Mission freelance
Product Owner Data Expert

Publiée le
Agile Scrum
Architecture
Azure Data Factory

12 mois
600-630 €
Île-de-France, France
Télétravail partiel
Contexte de la mission La mission s’inscrit dans un programme de refonte des traitements de données Ventes et Client, visant à fiabiliser et valoriser les données au service des métiers. L’objectif est de transformer les jeux de données existants en Data Products clairs, robustes et pérennes, tout en optimisant la valeur de l’ensemble décisionnel actuel. L’environnement est hybride , combinant : des composants legacy à maintenir et fiabiliser, essentiels au pilotage opérationnel, et des chantiers de refonte et de modernisation menés dans une logique produit et Data Mesh . La mission s’inscrit dans un contexte de modernisation de la stack data (architecture Lakehouse) et de montée en maturité des pratiques Produit au sein des équipes Data. Missions principales Le prestataire assurera le rôle de Product Owner Data , en pilotant une équipe pluridisciplinaire (Produit, Tech, Data). Ses responsabilités incluront : Conduire la refonte et la valorisation des données Ventes , du cadrage des besoins métiers jusqu’à la livraison des Data Products. Piloter la roadmap produit data dans une logique Data Mesh : gouvernance, qualité, exploitabilité. Maintenir l’existant (legacy) en garantissant la continuité de service et la fiabilité des indicateurs clés. Collaborer étroitement avec le Product Manager et les autres PO Data pour aligner la vision et assurer la cohérence transverse. Animer les échanges métiers autour de la valeur d’usage, des indicateurs de succès et de la qualité des livrables. Contribuer activement à la communauté Produit & Data , en partageant les bonnes pratiques et en favorisant la montée en maturité collective. Livrables attendus Roadmap produit claire et priorisée (vision, jalons, backlog). Cadrages et spécifications fonctionnelles des Data Products (règles de gestion, contrats d’interface, indicateurs de succès). Plan de maintien et d’amélioration continue du legacy (cartographie, fiabilisation, suivi qualité, documentation). Pilotage agile et reporting régulier sur l’avancement et les risques. Documentation consolidée (catalogue, dictionnaire de données, fiches produit, gouvernance).
Freelance

Mission freelance
Product Owner Technique – Data Platform

Publiée le
Agile Scrum
AWS Cloud
AWS Glue

12 mois
400-510 €
Paris, France
Télétravail partiel
Mission principale : Nous recherchons un Product Owner (PO) technique pour accompagner le développement et le RUN de notre Data Platform . Vous serez en charge de qualifier les besoins, de participer aux rituels agiles et d’assurer la liaison entre les équipes Build et le RUN de la plateforme, en mode Agile. Responsabilités : Qualifier les besoins techniques et fonctionnels des différentes équipes Data. Participer aux rituels Agile : daily, sprint planning, backlog refinement, PI planning (sur 3 mois). Transformer les besoins identifiés en user stories et tickets Jira exploitables par les squads. Accompagner la construction et l’évolution de la Data Platform (environnements GCP, flux de données, pipelines). Assurer le suivi du RUN de la plateforme et identifier les priorités techniques et fonctionnelles. Travailler en coordination avec 4 à 5 squads organisées en trains pour les PI planning et sprints. Être un interlocuteur technique capable de dialoguer avec les équipes Dev, Data et Ops. Profil recherché : Expérience confirmée en Product Ownership , idéalement dans un contexte technique ou data. Compréhension des environnements cloud (GCP) et des flux de données. Capacité à transformer des besoins complexes en user stories / tickets techniques . Connaissance des méthodes Agile / SAFe et pratique des rituels (sprint planning, PI planning, daily, etc.). Esprit technique : ne pas avoir peur de discuter architecture, flux de données, pipeline, outils de production. Bon relationnel et capacité à collaborer avec plusieurs équipes simultanément. Une connaissance de la data (ETL, ingestion, stockage, pipelines) est un plus. Soft Skills : Organisation et rigueur dans le suivi des priorités. Capacité à synthétiser les besoins et à communiquer clairement. Curiosité technique et ouverture à l’innovation. Force de proposition pour améliorer les process et la plateforme.
Freelance

Mission freelance
Data Engineer azure (SQL / ADF /Power BI)

Publiée le
Azure Data Factory
Azure DevOps
CI/CD

10 mois
Île-de-France, France
Télétravail partiel
Au sein d’un Centre de Compétences Data, le Data Engineer participe à des projets de transformation digitale. Il conçoit, développe et déploie des solutions Data et BI pour permettre aux utilisateurs métiers de suivre et analyser leurs activités. Il met en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts), développe des pipelines ETL/ELT automatisés avec Azure Data Factory et SSIS, assure la qualité, la sécurité et la performance des données, et collabore avec les équipes DevOps, Product et Data pour garantir la cohérence technique et fonctionnelle des solutions. Compétences attendues : Langages : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Outils : GitLab, Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning
74 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous