Trouvez votre prochaine offre d’emploi ou de mission freelance Data Warehouse

Votre recherche renvoie 62 résultats.
Freelance
CDD

Offre d'emploi
Administrateur Senior Teradata F/H

SMARTPOINT
Publiée le
Data Warehouse
ETL (Extract-transform-load)
Teradata

12 mois
40k-45k €
400-450 €
Île-de-France, France
Nous recherchons un Administrateur Senior spécialisé Teradata pour rejoindre l’équipe d’exploitation et support de notre client Atos. Le candidat sera en charge de la gestion, de l’optimisation et du maintien en condition opérationnelle de l’entrepôt de données Teradata. Les responsabilités principales incluent : Administration et exploitation quotidienne des bases Teradata. Gestion des jobs BTEQ et optimisation des scripts existants pour garantir la performance et l’intégrité des données. Surveillance et optimisation des performances des requêtes et des systèmes. Participation à la maintenance des entrepôts de données d’entreprise (DWH) Teradata. Support et résolution des incidents critiques liés à la plateforme Teradata. Mise en œuvre des bonnes pratiques et standards d’exploitation. Participation aux projets d’évolution, migration ou amélioration des solutions Teradata. Rédaction et mise à jour de la documentation technique (procédures, guides d’exploitation, rapports d’anomalies). Compétences requises Techniques : Expertise en bases de données Teradata : administration, gestion des tables, sécurité et optimisation. Maîtrise de Teradata BTEQ pour l’exécution et la maintenance des scripts ETL et des jobs batch. Expérience significative sur des entrepôts de données d’entreprise (Enterprise Data Warehouse) avec Teradata. Connaissance des outils de surveillance et de performance Teradata. Bonne compréhension des architectures de données et des flux ETL. Soft skills : Rigueur, autonomie et sens de l’organisation. Capacité à travailler en mode projet et en équipe. Excellente communication pour interaction avec les équipes internes et le client. Capacité à prioriser et gérer des incidents critiques. Expérience : Plus de 10 ans d’expérience en administration de bases de données Teradata, DWH ou environnement similaire. Expérience sur des environnements critiques et volumineux. Langues : Français courant. Anglais opérationnel apprécié pour documentation et reporting. Livrables attendus Scripts et jobs BTEQ opérationnels et optimisés. Procédures d’exploitation et documentation technique à jour. Reporting des incidents et performances. Recommandations pour optimisation et évolutions de l’entrepôt de données.
Freelance
CDI

Offre d'emploi
Consultant pour l'intégration d'une nouvelle entité dans le Data Warehouse

R&S TELECOM
Publiée le
Microsoft Access
Qlik
Qlik Sense

12 mois
40k-48k €
400-480 €
Paris, France
Contexte de la mission Dans le cadre de la trajectoire de rationalisation et de mutualisation du dispositif décisionnel, le groupe s’appuie sur le Data Warehouse Groupe comme socle central de consolidation, de fiabilisation et de mise à disposition des données décisionnelles, ainsi que sur des restitutions communautaires partagées. L’intégration d'une nouvelle entité dans le Data Warehouse Groupe et dans les usages décisionnels groupe constitue une étape structurante de cette trajectoire. Cette intégration vise à sécuriser : La qualité des données migrées (cohérence, complétude, exactitude), La justesse des paramétrages tarifaires Auto et MRH, L’exploitation décisionnelle communautaire via des restitutions Qlik partagées. Dans ce contexte, le Groupe recherche un(e) Consultant(e) pour accompagner l’entité en question dans son intégration au sein de ce système d’information décisionnel groupe. Objectifs et livrables Principaux volets de la mission Volet 1 - Analyse et qualité des données Le consultant interviendra sur : L’analyse de la qualité des données déjà chargées (contrôles de cohérence, complétude, détection de valeurs aberrantes) La comparaison des agrégats clés (primes, sinistres, contrats, résiliations) avec les sources de référence L’identification des écarts et anomalies La contribution à la définition et au suivi d’un plan de remédiation Volet 2 - Traitements et requêtes SAS Les travaux incluent : L’analyse et la mise à jour des programmes SAS existants L’adaptation des traitements pour intégrer des spécificités métier spécifiques La sécurisation des chaînes de traitement (intégration de contrôles, traçabilité, reproductibilité) Le support aux simulations tarifaires réalisées dans des outils externes (SAS ou équivalent) Volet 3 - Restitutions et développements Qlik Le consultant contribuera à : L’adaptation des tableaux de bord existants Le développement de nouvelles restitutions Qlik dédiées, si nécessaire La fiabilisation des référentiels utilisés dans les processus décisionnels Organisation et gouvernance Le consultant interviendra en étroite collaboration avec : Les équipes de pilotage du projet Les équipes IT et décisionnelles du système d’information central Les équipes métiers et data dédiées au périmètre concerné Il s’intégrera aux instances de gouvernance en place : Comités de pilotage projet Groupes de travail thématiques (qualité des données, tarification, suivi d’activité) Transmission d’un reporting régulier sur l’avancement et les risques identifiés
Freelance

Mission freelance
Data Engineer Senior - Data Warehouse

Cherry Pick
Publiée le
Audit
Azure
Azure Data Factory

6 mois
600-680 €
Île-de-France, France
Dans un contexte de transformation, la fiabilité de la donnée est devenue un enjeu critique pour le pilotage financier et opérationnel. Contexte & Enjeux Un socle de Data Warehouse a été initié suite à la refonte du SI, mais celui-ci reste aujourd’hui : incomplet, instable (bugs, latences importantes), avec des problématiques de qualité et de disponibilité de la donnée. Le reporting Power BI est géré en interne. 👉 La mission ne concerne pas la data visualisation , mais bien la construction d’un Data Warehouse robuste, industrialisé et exploitable . Nous recherchons un Data Engineer senior / consultant expérimenté capable de reprendre l’existant, de comprendre les enjeux métiers (notamment contrôle de gestion) et de livrer un socle data fiable dans des délais courts. Missions1. Audit & Diagnostic Analyse de l’existant (modèle de données, flux, performances, qualité) Identification des causes de lenteur, bugs et données manquantes Évaluation de la cohérence entre besoins métiers et implémentation technique 2. Modélisation & Refonte du Data Warehouse Reprise et optimisation de la modélisation DWH Structuration d’un réceptacle de données cohérent et évolutif Intégration des flux issus des nouveaux outils : Cegid XRP Microsoft Dynamics Ammon 3. Ingénierie de données (ETL / ELT) Refactorisation et complétion des pipelines existants Mise en place de l’historisation des données Amélioration des performances et de la fiabilité des traitements 4. Qualité, Traçabilité & Documentation Mise en place de contrôles de qualité automatisés Gestion de la traçabilité et des règles de gestion Documentation du socle data pour sécuriser et pérenniser l’existant 5. Interface Métier Compréhension fine des besoins des opérationnels (indicateurs, chiffres, règles de gestion) Traduction des besoins métier en spécifications techniques Capacité à challenger les demandes pour garantir la cohérence globale du modèle
Freelance

Mission freelance
Consultant décisionnel BI (H/F)

Insitoo Freelances
Publiée le
Data visualisation
Data Warehouse
Microsoft Power BI

2 ans
450-550 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Consultant décisionnel BI (H/F) à Lyon, France. Contexte : Le projet met à disposition des utilisateurs des fonctions de reporting et d'analyse de données. Ceci afin de consolider et restituer de manière fiable les données. Les principaux besoins sont les suivants : - Le suivi des performances - La production des indicateurs de pilotage - Le suivi du déploiement - Le suivi de la configuration et des résultats - Le suivi des interventions sur site et à distance (demandes de travaux) Le projet est une équipe d'une dizaine de personnes composée d’un chef de projet-Scrum master, d'un PO (BA), de développeurs BI, DevOps et d'un Lead Tech. L'application existe depuis plus de 6 ans, avec deux dernières années dédiées à des chantiers techniques. Nous souhaitons mener un chantier de refonte de nos dashboards pour améliorer notre application. Il faudra repartir de l'existant, le challenger avec les représentants des utilisateurs et proposer des évolutions pour mieux répondre aux besoins. Les missions attendues par le Consultant décisionnel BI (H/F) : Activité principale Analyser les besoins fonctionnels et techniques Localiser les données de production permettant de répondre au besoin Développer les processus d’intégration de données Modéliser et enrichir les datawarehouse (entrepôts de données) et les datamarts (magasins de données), Produire des rapports ou tableaux de bords lisibles et compréhensibles par le métier, et répondant à leur besoin Tester la qualité et la performance de ses livrables Participer aux activités et cérémonies de l’équipe de développement organisées en mode Agile Activité secondaire Mettre à jour la documentation applicative Stack technique de l'équipe : Informatica, Tableau Server, Power BI, Java, Oracle/PostgreSQL, Kafka/RabbitMQ, Git, Jenkins, Ansible, idathalog
CDI

Offre d'emploi
Consultant BI / Data Warehouse – Oracle

INOV
Publiée le
BI
Data Warehouse
Oracle Database

Paris, France
Dans le cadre du renforcement d’une équipe décisionnelle, notre client recherche un consultant BI / Data Warehouse expérimenté pour intervenir sur un Data Warehouse à forte criticité, dans un contexte financier et environnement anglophone. La mission porte principalement sur les développements et l’optimisation des traitements DWH, avec une composante Oracle (SQL / PL-SQL). Missions principales: Participation aux daily meetings et aux rituels d’équipe Développement, maintenance et optimisation des jobs du Data Warehouse Contribution à la conception et à l’évolution du modèle de données BI Développement et optimisation des requêtes SQL Oracle et procédures PL/SQL Participation aux travaux liés à la chaîne BI
Freelance
CDI

Offre d'emploi
Data Engineer / BI Finance (H/F)

AVA2I
Publiée le
BI
Big Data
Data Warehouse

3 ans
44k-58k €
400-500 €
Île-de-France, France
Dans le cadre du renforcement de notre équipe Data / BI orientée Finance , nous recherchons un(e) Data Engineer / BI Developer pour intervenir sur le Data Warehouse EGEE . Vous participerez activement à la mise à disposition de données fiables et performantes au service des équipes métiers, dans un environnement international et anglophone. Vos missions Développer, maintenir et optimiser les jobs ETL/ELT du Data Warehouse EGEE Concevoir et faire évoluer les modèles de données BI (schémas en étoile et en flocon) Garantir la qualité, la performance et la fiabilité des flux de données Produire et automatiser des rapports analytiques pour les équipes métiers Analyser et traduire les besoins métiers en solutions techniques adaptées Collaborer étroitement avec les équipes métiers et IT Profil technique recherché SQL avancé : optimisation de requêtes, procédures stockées, vues matérialisées Python : scripting ETL, automatisation, manipulation de données Outils ETL / BI Microsoft , notamment : SSIS (minimum 2 ans d’expérience ) Environnement Microsoft BI Maîtrise de la modélisation décisionnelle (étoile / flocon) Expérience en Data Warehouse Une exposition aux environnements Big Data est un plus Connaissances fonctionnelles Connaissance du secteur financier appréciée Capacité à comprendre les enjeux métiers et à les traduire en reporting BI Profil recherché Formation supérieure en informatique, data ou systèmes d’information Rigueur, esprit analytique et sens de la qualité des données Autonomie et bon relationnel Aisance dans un environnement professionnel anglophone
Freelance

Mission freelance
Data Architect ETL, Spark, Kafka; BI, dashboards; SQL/NoSQL, Data Lake, Data Warehouse, BPMN

Inventiv IT
Publiée le
Apache Kafka
Apache Spark
Business Process Model and Notation (BPMN)

6 mois
550-630 €
Lyon, Auvergne-Rhône-Alpes
Data Architect ETL, Spark, Kafka; BI, dashboards; SQL/NoSQL, Data Lake, Data Warehouse, BPMN - Maîtrise des formalismes de modélisation (BPMN, modèles conceptuels et logiques de données) - Réalise les études de cadrage pour l’architecture Data en s’appuyant sur une expertise des technologies clés - Stockage (SQL/NoSQL, Data Lake, Data Warehouse) - Traitement (ETL, Spark, Kafka) - Restitution (BI, dashboards) - Exploration et référentiels (catalogues, gouvernance) Télétravail : 3 jours max par semaine
Freelance

Mission freelance
Architecte Data AWS (H/F)

Insitoo Freelances
Publiée le
Apache Kafka
Apache NiFi
Apache Superset

2 ans
550-610 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Data AWS (H/F) à Lyon, France. Contexte : Dans le cadre d’un programme de transformation Data, nous souhaitons consolider son socle data autour d’une architecture cible fiable, évolutive et sécurisée. L’architecte data interviendra en support de l'équipe existante, en assurer la validation technique et fonctionnelle, et mettre en œuvre les mesures de sécurité nécessaires. Les missions attendues par le Architecte Data AWS (H/F) : Sous la responsabilité du responsable de centre d'expertise Data, il aura en charge de : Valider, sécuriser et faire évoluer l’architecture technique de la plateforme Data (Data Lake, Data Mesh, Data Warehouse) en intégrant les exigences de sécurité Garantir la cohérence, la robustesse et la sécurité des flux de données entre les différents systèmes. Accompagner les équipes projets dans le choix et l’implémentation des solutions techniques. Assurer la veille technologique et proposer des améliorations continues. Collaborer avec les architectes, le RSSI, DPO et équipes cybersécurité pour intégrer les contrôles nécessaires. Assurer la traçabilité des décisions et la documentation des choix techniques. Partager sur des solutions et architectures mises en œuvre chez d'autres clients. Assurer la veille technologique et proposer des améliorations continues. Environnement technique : Architecture et modélisation : Conception de modèles de données (relationnels, NoSQL, dimensionnels, etc.). Maîtrise des architectures Data Warehouse, Data Lake et Data Mesh. Base de données : Expertise en systèmes de gestion de bases de données SQL, NoSQL et notamment PostgreSQL, Snowflake, ElasticSearch et DuckDB Cloud Computing : Connaissance approfondie des services de données des fournisseurs Cloud et notamment AWS Langages et technologies : Intégration & Flux : Apache Nifi ; Transport & Temps Réel : Apache Kafka ; Visualisation (BI) & Reporting : Apache Superset Gouvernance Data : Définition des politiques, des standards et des normes pour garantir la qualité, l'intégrité et la gestion du cycle de vie des données. Sécurité : Connaissance des principes de cybersécurité et maîtrise de la réglementation sur la protection des données (notamment le RGPD). Approche Secure by design (chiffrement, gestion des accès, observabilité, supervision).
Freelance

Mission freelance
Data Architect GCP

Atlas Connect
Publiée le
Apache
Apache Airflow
Apache Spark

12 mois
540-600 €
Marseille, Provence-Alpes-Côte d'Azur
L’objectif principal est la conception et la mise en œuvre d’un Data Lake moderne sur GCP , basé sur une architecture Médaillon (Bronze / Silver / Gold) et s’appuyant sur Apache Iceberg , avec la capacité de détacher une brique autonome pour certains clients manipulant des données sensibles. Missions principalesArchitecture & Data Platform Concevoir et mettre en place un Data Lake sur GCP basé sur Apache Iceberg Définir et implémenter une architecture Médaillon (ingestion, transformation, exposition) Participer aux choix d’architecture pour une brique data autonome dédiée aux données sensibles Contribuer à l’ internalisation de la plateforme data (design, outillage, bonnes pratiques) Data Engineering Développer des pipelines d’ingestion pour : Données capteurs issues de drones Données tabulaires associées Gérer des pics de charge importants (jusqu’à 10 Go ingérés simultanément) Garantir la disponibilité rapide des données après les vols d’essai Mettre en place des contrôles de qualité, traçabilité et gouvernance des données Data & Analytics Préparer les données pour des cas d’usage de maintenance prédictive Optimiser les performances de lecture et d’écriture (partitionnement, schéma, versioning) Collaborer avec les équipes data science / métier Sécurité & conformité Travailler dans un contexte habilitable (données sensibles, clients spécifiques) Appliquer les contraintes de sécurité et de cloisonnement des données
Freelance
CDI

Offre d'emploi
Data Engineer Azure Data Factory

adbi
Publiée le
Azure Data Factory
Azure DevOps
DAX

1 an
45k-55k €
500-600 €
Île-de-France, France
Intitulé du poste : Data Engineer Azure Contexte du poste Au sein du Centre de Compétences Data, le Data Engineer participe activement aux différents projets de transformation digitale du groupe. Il conçoit, développe et déploie des solutions data et reporting permettant aux utilisateurs métiers d’analyser efficacement leurs activités à travers des tableaux de bord et indicateurs de performance. Missions principales Participer à la conception et à la mise en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts, Cubes). Concevoir et développer des processus ETL/ELT performants et automatisés avec Azure Data Factory , SQL Server Integration Services et Azure SQL Database . Garantir la qualité, la disponibilité et la performance des données. Modéliser les données (dimensionnelles et relationnelles) selon les besoins métiers. Maintenir en conditions opérationnelles les flux ETL et les environnements de données. Participer à l’industrialisation et à l’automatisation des pipelines via CI/CD Azure DevOps . Collaborer étroitement avec les équipes DevOps , Product , Design , Data et Management pour assurer la cohérence technique et fonctionnelle des solutions. Documenter les réalisations techniques, rédiger les spécifications et enrichir le catalogue de composants réutilisables. Fournir un support technique et fonctionnel aux utilisateurs finaux. Responsabilités complémentaires Réaliser des études de faisabilité et des cadrages techniques. Optimiser les performances des requêtes SQL, DAX et MDX. Mettre en œuvre la sécurité des données (Row Level Security sur toute la chaîne). Gérer la supervision, le debugging et le monitoring des flux BI. Contribuer à l’amélioration continue et à la standardisation des pratiques Data au sein du Centre de compétences Data. Compétences techniques requises Langages / Outils : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Environnements : GitLab / Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning Profil recherché Diplôme Bac+5 (Master) en Informatique , Statistiques ou Mathématiques appliquées . Expérience significative en développement et maintenance de solutions BI/Data sur environnement Microsoft Azure . Maîtrise des concepts de Data Warehouse et de modélisation dimensionnelle. Excellente capacité d’analyse et rigueur technique. Aisance relationnelle, sens du travail en équipe et esprit collaboratif. Niveau d’anglais professionnel (écrit et oral). Goût pour la transformation digitale et l’innovation. Qualités attendues Sens du service et orientation client. Capacité à gérer plusieurs interfaces dans un contexte international. Esprit d’initiative et autonomie. Curiosité technologique et volonté d’amélioration continue. Outils et technologies principales Azure Data Factory – Azure SQL Database – Azure Analysis Services – Power BI – ADLS Gen2 – GitLab – Azure DevOps – Visual Studio – SSMS – DAX Studio – Tabular Editor
CDI

Offre d'emploi
Analyste/Développeur - Expert Talend

CAT-AMANIA
Publiée le
SQL
Talend

Île-de-France, France
Analyste/Développeur 6-10 ans Expert Talend.... Dans le cadre de plusieurs chantiers de transformation, BP²I a besoin de ressource Talend pour développer des jobs d'alimentation et de renforcer son équipe. Il s'agit de jobs de Data intégration ou de Data Préparation..... Développements en Talend de jobsc pour alimenter le Datawarehouse ou des Datamarts du patrimoine data de BP²I..... Développements en Talend de jobs pour alimenter le Datawarehouse ou des Datamarts du patrimoine data de BP²I....
Freelance

Mission freelance
ARCHITECTE DATA / POWER BI & AZURE

PROPULSE IT
Publiée le
Azure
BI

24 mois
275-550 €
Massy, Île-de-France
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Freelance

Mission freelance
Expertise SAS/QlikView

CAT-AMANIA
Publiée le
Qlik Sense
SAS

12 mois
500-630 €
Hauts-de-Seine, France
Vous accompagnerez une équipe dans le cadre d'un projet d'intégration au sein du Datawarehouse Groupe et à ce titre vos missions consisteront à contribuer: Analyser la qualité, et comparer les agrégats clés avec les sources de référence, Identifier les écarts et les anomalies, Contribuer à la définition et au suivi du plan de remédiation, Mettre à jour les programmes SAS existants, Adapter les traitements pour intégrer les spécificités, Sécuriser la chaîne de traitements, Développer les restitutions Qlik, Adapter les restitutions communautaires, Fiabiliser les référentiels exploités, Travailler avec les équipe IT, Décisionnels, métiers, la Data, Participer au comité de pilotage et au reporting régulier d'avancement et des risques,
Freelance

Mission freelance
Senior Data Engineer – Plateforme Data Centrale (H/F)

Bifora
Publiée le
AI
Amazon Redshift
Apache Airflow

12 mois
400-550 €
Paris, France
Contexte de la mission Dans le cadre du renforcement de sa plateforme data centrale Dalkia , notre client recherche plusieurs consultants Senior Data Engineer pour intervenir sur des projets stratégiques à fort impact business. Vous intégrerez une équipe data centrale au cœur des enjeux de transformation, de modernisation et d’industrialisation des usages data & IA à l’échelle du groupe. Objectifs de la mission Concevoir, développer et maintenir des pipelines data robustes, scalables et industrialisés Participer à l’évolution de la plateforme data centrale (cloud & data warehouse) Garantir la qualité, la performance et la fiabilité des flux de données Collaborer étroitement avec les équipes data, métiers et IT Contribuer à la mise en place de cas d’usage avancés data & IA
Freelance

Mission freelance
Développeur BI / BI Engineer

Ness Technologies
Publiée le
BI
Microsoft Analysis Services (SSAS)
Microsoft SSIS

6 mois
330-450 €
Yvelines, France
Dans le cadre du renforcement de l’équipe décisionnelle chez l’un de nos clients situé dans les Yvelines, nous recherchons un BI Engineer / Développeur BI avec minimum 5 ans d'expérience. La maîtrise de Power BI Report Server est essentielle, ainsi qu’une excellente connaissance de la stack Microsoft BI (SSIS, SSRS, SSAS, SSMS). Analyser les besoins métiers et participer à la rédaction des spécifications fonctionnelles et techniques Concevoir et développer des flux d’intégration de données (ETL) Modéliser et maintenir des entrepôts de données (Datawarehouse / Datamarts) Développer des rapports, tableaux de bord et visualisations interactives Optimiser la performance des traitements et requêtes SQL Assurer la maintenance évolutive et corrective des solutions BI existantes Participer à l’évolution de l’architecture décisionnelle et des bonnes pratiques
Freelance

Mission freelance
Consultant Décisionnel /BI

Mon Consultant Indépendant
Publiée le
Microsoft Power BI
Oracle BI Publisher
SAP

12 mois
450-490 €
Paris, France
Consultant Décisionnel & BI Compétences clés : • BI/Reporting : Maîtrise des outils décisionnels (Power BI, Tableau, SAP Analytics Cloud, Oracle BI). • Modélisation : Expérience en conception de modèles de données (data warehousing, cubes OLAP). • ETL : Connaissance des outils ETL (Informatica, Talend, SSIS, SAP BODS) pour l’alimentation des rapports. • SQL : Compétences avancées en SQL (requêtes complexes, optimisation). • Pilotage : Expérience dans le pilotage de projets BI (expression de besoins, recette, déploiement).
62 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous