Trouvez votre prochaine offre d’emploi ou de mission freelance Data Lake

Votre recherche renvoie 54 résultats.
Suivant
Freelance

Mission freelance
Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o

WorldWide People
Publiée le
Data Lake

6 mois
400-500 €
Vitrolles, Provence-Alpes-Côte d'Azur

Ops Data Lake Ops Data Lake - Vitrolles cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o

WorldWide People
Publiée le
Data Lake

6 mois
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Ops Data Lake Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o

WorldWide People
Publiée le
Data Lake

6 mois
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur

Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Freelance

Mission freelance
Product Owner Data Quality Cockpit Data like , data visualisation 450 e par j

BI SOLUTIONS
Publiée le
Data Lake
SQL

2 ans
400-550 €
Île-de-France, France

Product Owner Data Quality Cockpit Data like , data visualisation 450 e par j Vos responsabilités principales : Pilotage de la démarche Qualité Gérer la backlog produit et collaborer avec les équipes techniques Animer les comités de suivi projets avec les filiales et les lignes produits Assurer le suivi projet en respectant les couts et les délais Construire le MVP Data Quality Cockpit Assurer la conception et la mise en place du Data Quality Cockpit : définition des fonctionnalités, interfaces, architecture, tableaux de bords… Être le garant du déploiement des normes et des standards de qualité de donnée du Groupe. Alimenter et maintenir les indicateurs de qualité Structurer les règles de qualité, les seuils, alertes et KPIs à intégrer Alimenter en continu les sources de données du cockpit Veiller à la cohérence, à la fiabilité et à la lisibilité des informations affichées Déployer le cockpit dans les filiales Organiser et accompagner le déploiement progressif du cockpit dans les entités pilotes pour commencer et ensuite Définir les périmètres de données à suivre par filiale Assurer la formation et l’adoption par les utilisateurs métiers Fédérer autour de la culture Data Quality Sensibiliser les équipes à l’importance des données fiables Accompagner les métiers dans la compréhension des indicateurs qualité Participer à la structuration de la gouvernance des données à l’échelle du groupe Profil recherché Formation & Expérience Bac +5 (école d’ingénieur, informatique, data, SI…) Expérience confirmée (5 ans min.) dans la data, idéalement dans des environnements multi-entités ou internationaux Solide expérience en gestion de projet data, gouvernance ou qualité des données Compétences clés Maîtrise de SQL, des systèmes de gestion de données (Data Lake, référentiels…) Connaissance des outils de data visualisation Bonne compréhension des enjeux de qualité, sécurité et conformité des données Capacité à structurer des règles, seuils, KPIs et dictionnaires 450 e par j

Freelance

Mission freelance
Data Analyst - IDF

ISUPPLIER
Publiée le
Data Lake
Dataiku
Microsoft Power BI

12 mois
400-420 €
Montreuil, Île-de-France

Le client recherche un data analyst pour un projet au sein du département DER (Direction Employeur et Recrutement) de France Travail, plus précisément dans une entité dédiée à la mise en relation entre les demandeurs d'emploi, les offres et les entreprises. L'objectif est de développer des tableaux de bord (sur Qlik Sense ou Power BI) et de modéliser les flux de données à partir d'un data lake, afin de fournir des indicateurs pertinents pour le suivi des demandeurs d'emploi et des offres. Le projet implique la formalisation des besoins métiers, la définition des règles de gestion, la création de maquettes de tableaux de bord, l'industrialisation, la recette métier et la mise en production. Le profil recherché doit être technico-fonctionnel, capable de comprendre et challenger le métier, de poser les bonnes questions, de s'assurer de la qualité des données et de devenir autonome sur les outils utilisés (SQL, Dataiku, Qlik Sense, Power BI).

Freelance

Mission freelance
Data Engineer AWS

RED Commerce - The Global SAP Solutions Provider
Publiée le
AWS Cloud
Data Lake
Dataiku

3 mois
Paris, France

Kajenthi@RED Global – Recherche Data Engineer AWS – IDF – Freelance – 3 mois + Dans le cadre du déploiement d’un environnement de Data Augmentée (AWS, Dataiku, Starburst, Datasync), alimenté depuis un Data Lake on-premise , RED Global recherche un Ingénieur Data pour accompagner la mise en production d’un nouveau produit sur AWS . Missions : Résolution des problèmes techniques résiduels sur les environnements. Mise en œuvre de services Data et IA (Bedrock, RAG, etc.). Contribution à un front de génération de comptes-rendus en mode speech-to-speech . Compétences requises : Minimum 3 ans d’expérience sur AWS en environnement Data. Bonne maîtrise des services Data AWS . Connaissance de Starburst et Dataiku appréciée. Environnement technique : AWS, Dataiku, Starburst, Datasync, Bedrock, RAG, Data Lake on-premise. Si vous souhaitez recevoir de plus amples informations sur la mission ou si vous pouvez recommander un collègue ou un ami, n’hésitez pas à me contacter via mail avec votre CV à jour :

Freelance

Mission freelance
Product Owner Data

Trait d'Union Consulting
Publiée le
Data governance
Data Lake
SQL

1 an
500-600 €
Paris, France

Dans le cadre d'une mission freelance située à Paris intramuros, nous recherchons un Product Owner Data spécialisé dans la qualité des données pour piloter la mise en place d’un cockpit Data Quality à l’échelle d’un groupe international. Ce cockpit permettra de centraliser les indicateurs de qualité, suivre les seuils critiques et accompagner les entités métiers dans l’amélioration continue de la fiabilité des données. Vous interviendrez sur l’ensemble du cycle de vie du produit : cadrage, définition du MVP, conception des fonctionnalités, animation des comités de suivi, déploiement dans les différentes entités, et accompagnement au changement.

CDI

Offre d'emploi
Data Eng GCP Rouen

REDLAB
Publiée le
BigQuery
CI/CD
Data Lake

40k-45k €
Rouen, Normandie

Nous accompagnons un client dans la mise en place et l’évolution de ses plateformes Data sur Google Cloud Platform (GCP) . Dans ce cadre, nous recherchons un Data Engineer confirmé GCP pour renforcer l’équipe existante et participer activement à la construction et à l’industrialisation des pipelines de données. Profil recherché 3 à 6 ans d’expérience en tant que Data Engineer. Solide maîtrise de Google Cloud Platform : BigQuery, Dataflow, Pub/Sub, Dataproc. Excellente pratique des langages de programmation : Python, SQL (Scala/Java est un plus). Expérience CI/CD (GitLab, Jenkins) et conteneurisation (Docker, Kubernetes). Bonnes connaissances des problématiques de sécurité, gouvernance et qualité de données . Expérience en méthode Agile/Scrum . Autonomie, rigueur, capacité à communiquer efficacement avec des interlocuteurs variés.

Freelance

Mission freelance
Product Owner DATA

Cherry Pick
Publiée le
Agile Scrum
AWS Cloud
CRM

24 mois
550-600 €
Paris, France

Dans le cadre d’une transformation majeure côté data , le département Data de notre client recherche un Product Owner Data pour piloter la roadmap produit du CRM Lakehouse . Le poste implique la coordination entre les équipes techniques et métiers afin d’assurer la convergence des données CRM vers un modèle harmonisé . Le contexte technique est exigeant et repose sur une stack moderne full AWS (multi-tenant) , associée à des pratiques d’infrastructure as code, d’industrialisation et de gouvernance data avancée. Environnement technique : AWS (multi-tenant), Terraform, GitLab CI/CD, Serverless, FastAPI, batch Python, Snowflake, Spark, Lambda, Kinesis, MSR Gouvernance : Data Steward, DataOps, DataFlops Collaboration internationale et en anglais courant impératif Projet long terme, démarrage immédiat ou début septembre Missions Définir la vision produit et les objectifs alignés sur la stratégie data globale du groupe. Prioriser et gérer le backlog , assurer le suivi et la bonne exécution des sprints. Contrôler la qualité et la cohérence des données CRM intégrées dans le Lakehouse. Animer des ateliers avec les filiales et recueillir les besoins métiers. Coordonner la communication entre équipes techniques, data et métiers pour fluidifier la mise en œuvre des évolutions produit.

Freelance

Mission freelance
Data Architecte AWS

Cherry Pick
Publiée le
Amazon S3
Apache Airflow
AWS Cloud

24 mois
600-650 €
Paris, France

Notre client recherche un Architecte Data pour concevoir et superviser la convergence des données issues de sources hétérogènes au sein d’une plateforme cloud AWS à grande échelle. L’objectif est de définir l’architecture cible, modéliser le schéma global, et assurer la cohérence technique et la performance de la plateforme. L’environnement technique inclut : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Définir l’ architecture cible du data layer convergé dans un environnement AWS. Modéliser les données (conceptuel, logique, physique) sur Snowflake et autres bases cibles. Sélectionner les outils et normes d’intégration adaptés aux besoins. Participer au développement et à l’automatisation des pipelines et transformations de données. Superviser la convergence des données multi-source et garantir leur cohérence. Contribuer aux déploiements via Terraform et GitLab CI/CD. Documenter l’architecture et les référentiels techniques. Appliquer les bonnes pratiques de gouvernance, qualité et sécurité des données.

Freelance
CDI

Offre d'emploi
Chef de projet data

SARIEL
Publiée le
Azure
Data Lake
Databricks

3 ans
40k-45k €
400-550 €
Île-de-France, France

Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons pour notre client basé à Paris, un CHEF(FE) DE PROJET MAITRISE D'OUVRAGE – MOE - Confirmé (4-10 ans d’exp) azure - Confirmé - Impératif modelisation data - Confirmé - Impératif databricks - Junior - Important méthodo agile - Junior - Important - Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables. - Participer à l’amélioration continue des processus d’ingestion - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Peut contribuer à l'Etude d'Opportunité (EO) pour le lancement d'un projet Est responsable de l'Etude de Faisabilité (EF) des projets qui lui sont confiés et prend en compte l'ensemble des éléments fonctionnels et techniques S'assure de l'adéquation des ressources avec les besoins du projet S'assure de l'application des directives définies en DAG (Dossier d'Architecture Général) pour structurer le projet et mobiliser les ressources nécessaires à sa bonne réalisation Contribue à la revue et à la négociation des contrats, en lien avec la Direction Juridique, les Achats Non Marchands et la Direction porteuse du projet Met en application les procédures internes ou externes Est responsable de la bonne mise en œuvre de la gouvernance du projet Pilote les actions nécessaires au respect du budget du projet Pilote et coordonne les partenaires et sous-traitants Gère et anime la communication auprès des équipes et des différentes instances Contribue à la préparation et mise en œuvre de la conduite du changement avec les métiers Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.

Freelance
CDI

Offre d'emploi
Business Analyst Data

Management Square
Publiée le
API
Azure DevOps
Data Lake

1 an
45k-48k €
420-460 €
Paris, France

1. Contexte de la mission Au sein de la Direction Informatique, nous cherchons à renforcer le département Data & Analytics avec un Business Analyst spécialisé dans la modélisation et l'analyse des données. L’équipe Data & Analytics gère le DataHub qui centralise les données des différents référentiels et applications et alimente l'ensemble des métiers pour des besoins de reporting réglementaires ou clients, des analyses via des outils analytiques type Power BI ou Power Query , ou des développements internes via APIs ou SQL . Un projet stratégique de refonte de l'infrastructure Data a été mené, reposant désormais sur la technologie Data Lake Azure Cloud . L’entreprise s’engage dans un chantier de migration des outils FtoB vers la plateforme intégrée d’un éditeur de renommée mondiale disposant de son propre modèle de données. 2. Description de la mission Vous intervenez dans l’équipe Data & Analytics pour poursuivre la transformation de l'entreprise en tant qu’ expert Data management au sein d’une équipe de 10 personnes. En tant qu’expert, vous serez force de proposition pour définir le modèle cible qui devra préserver le modèle historique afin de limiter les impacts métiers, sans renoncer aux bénéfices du modèle proposé par l’éditeur de la solution cible, consolidé sur l’expertise d’un très grand nombre d’asset managers. Les options retenues devront répondre : aux contraintes court terme (facilité d'intégration, délais, coûts, …) et long terme (évolutivité, coût de maintenance, risque de désynchronisation des modèles, …). Vous collaborerez avec les membres de l'équipe (Dev et Business Analyst) dans un environnement Agile , et à l’échelle, avec les autres équipes impliquées dans le projet de transformation.

Freelance
CDI

Offre d'emploi
Azure Data Factory Expert

Management Square
Publiée le
Azure Data Factory
Azure Synapse
Data Lake

1 an
58k-64k €
550-620 €
Paris, France

1. CONTEXTE DE LA MISSION Au sein de la Direction Informatique, nous cherchons à renforcer le département Data & Analytics avec un expert Azure Data Factory – spécialisé dans la conception et le développement de projets d'intégration de données hybrides dans le Cloud. L’équipe Data & Analytics gère le DataHub qui centralise les données des différents référentiels et applications Front to Back (PMS, OMS, IBOR, ABOR, CBOR) et alimente l'ensemble des métiers pour des besoins de reporting réglementaires ou clients, des analyses via des outils analytiques type Power BI ou Power Query ou des développements internes via APIs ou requêtes SQL. L’entreprise termine actuellement un projet stratégique de refonte de l'infrastructure Data qui repose désormais sur la technologie Data Lake Azure Cloud et s'engage dans un chantier de migration des outils FtoB vers une plateforme intégrée d'un éditeur de renommée mondiale. 2. DESCRIPTION DE LA MISSION Vous intervenez dans l’équipe Data & Analytics pour poursuivre la transformation de l'entreprise en tant qu' expert Azure Data Factory (Injection, stockage, traitement, analyse) via les différents modules ( ADF, Synapse, Data Lake Gen 2, blob storage, SQL database, Analysis Service ). Une expertise dans l'automatisation des tests et l'usage de l'IA pour l'analyse des données sera un plus. En tant qu'expert, vous serez force de proposition pour challenger l'existant et faire évoluer le Datahub maison pour intégrer les données à partir du Datahub de la solution cible. À cette occasion, vous devrez à la fois répondre aux exigences du métier, qui souhaite limiter l'impact de la migration, et aux contraintes et opportunités apportées par la nouvelle solution tout en préservant la qualité de la donnée, le time to market et la facilité d'intégration (SQL, API, CUBE…). Vous serez en mesure de collaborer avec les membres de l'équipe IT ou Business Analyst, dans un environnement Agile , aussi bien au sein de l’équipe que « at scale » avec les autres équipes impliquées dans le projet de transformation.

Freelance

Mission freelance
Chef de Projet Big Data

Cherry Pick
Publiée le
Agile Scrum
Big Data
Data Lake

6 mois
400-450 €
Nanterre, Île-de-France

Dans le cadre du renforcement de ses équipes, notre client recherche un Chef de Projet Big Data. En ce sens, vos missions seront : • Piloter des projets Big Data en lien étroit avec les équipes techniques et les parties prenantes métiers • Recueillir, analyser et formaliser les besoins des utilisateurs internes et/ou externes • Définir la vision produit, rédiger les user stories et prioriser le backlog • Gérer les aspects planning, budget et ressources • Animer les cérémonies agiles (sprint planning, daily, démos, rétrospectives) • Suivre l’avancement des projets et ajuster les actions si besoin • Assurer la communication transverse et les reportings réguliers à la direction

Freelance

Mission freelance
Chef de projet : Piloter Coordination flux ingestion DATA

SURICATE IT
Publiée le
Agile Scrum
Azure Data Factory
Data Lake

3 ans
400-550 €
Île-de-France, France

📢 Mission freelance – Chef de Projet / Coordinateur Ingestion Data (H/F) 📍 Localisation : Île-de-France (92) 📅 Démarrage : ASAP 📆 Durée : 3 ans 💰 TJM max : 550 € / jour 🎯 Expérience requise : 4 à 10 ans 🏢 Contexte : Rejoignez le pôle Produits/Projets Data pour piloter des flux d’ingestion et d’exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Vous serez l’interface entre les équipes techniques et métiers dans un environnement Cloud Azure. 📌 Vos missions : - Coordonner les projets d’ingestion de données (internes / externes) vers la plateforme Data - Piloter l’exposition des données vers les partenaires (internes / externes) - Garantir la qualité, traçabilité et conformité des flux - Collaborer avec les équipes tech (Data Engineers, Archis, DevOps) et métiers (PO, PM) - Produire et maintenir des tableaux de bord de suivi de flux - Assurer le respect des délais, coûts, qualité - Participer à l’amélioration continue des processus d’ingestion 🛠️ Compétences techniques : - Azure Data Factory – Confirmé (impératif) - Modélisation de données – Confirmé (impératif) - Databricks – Junior (important) - Méthodo Agile / Scrum – Junior (important) - Connaissances : Data Lake, APIs, batch & streaming, documentation de flux - Notions de gouvernance : qualité, catalogage, sécurité, RGPD - Une expérience dans le retail est un vrai plus 🤝 Profil & soft skills recherchés : 🤝 Leadership collaboratif & capacité à fédérer 🗣️ Excellente communication & vulgarisation technique 📌 Rigueur, autonomie, priorisation, gestion multi-projets 🎯 Orientation valeur & résultats 🔍 Curiosité et proactivité : force de proposition attendue 📩 Intéressé(e) ou une personne à recommander ? Contactez-moi en MP ! 🔔 Ne manquez aucune opportunité en suivant Suricate iT : 👉

Freelance

Mission freelance
Business Analyst DATA / BI – Trade Finance & Cash (SQL, Modélisation, Power BI)

CAT-AMANIA
Publiée le
Agile Scrum
BI
SQL

2 ans
360-460 €
Île-de-France, France

Nous recherchons un Business Analyst spécialisé DATA & BI pour intervenir sur des projets stratégiques liés aux métiers Trade Finance et Cash Management . Vous rejoindrez une équipe en charge de la mise en place d’un Data Lake et de la valorisation des données via la Business Intelligence. Vos missions : Participer à la migration des données depuis l’infocentre vers le Data Lake. Modéliser les données à ingérer et les rendre exploitables pour le métier. Rédiger les spécifications fonctionnelles et techniques liées aux besoins des métiers. Suivre et tester les ingestions de données et les dashboards. Collaborer en mode Agile (Scrum) avec les équipes métiers et IT. Contribuer à l’amélioration continue de la qualité des données et de la production. En bonus : concevoir et mettre en place des dashboards Power BI orientés utilisateur.

Suivant
54 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous