Trouvez votre prochaine offre d’emploi ou de mission freelance BI

Votre recherche renvoie 300 résultats.
Freelance

Mission freelance
Data Scientist Python (H/F)

Insitoo Freelances
Publiée le
Gitlab
Microsoft Power BI
PostgreSQL

2 ans
380-430 €
Lyon, Auvergne-Rhône-Alpes

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Scientist Python (H/F) à Lyon, France. Contexte : Description de l'équipe Concevoir et réaliser des audits de performance d’exploitation et proposer un programme d’amélioration continue Développer des processus d’analyse automatique des performances Développer des outils de maintenance préventive pour les équipements Anticiper l’impact des évolutions des systèmes et de leur environnement Equipe en charge de l'amélioration continue et de la valorisations des données afin d'améliorer leurs exploitations. Les missions attendues par le Data Scientist Python (H/F) : Activité principale Analyser le fonctionnement Modéliser le comportement nominal Construire des outils de supervision temps réel du fonctionnement et de détection automatique d’un état d’anomalie Encadrement de Data Scientist junior Revue de code / Evaluation des orientations techniques Activité secondaire Industrialiser les prototypes dans les outils de supervision Veille technologique sur les outils utilisés au sein du projet Partage et formation des pairs Aide à la conception de solutions permettant le traitement de volumes de données suffisamment sécurisés Stack technique de l'équipe Python 3 / Python Dash PySpark SQL / Postgresql Tableau software / PowerBI

Freelance

Mission freelance
229359/Data Architect DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi)

WorldWide People
Publiée le
Architecture

3 mois
Vélizy-Villacoublay, Île-de-France

Data Architect Expérience: • Compétences indispensables 7 à 12 ans en ingénierie des données avec DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. Modélisation sémantique, contrats de données, ingénierie de la performance, couche dbt/metrics ; GCP + hybride sur site, IaC/CI-CD pour les données. Architecture monopage, contrats de données, ADR/HLD, modèle sémantique et arbre KPI, runbook/SLO, modèle de coût. Mission Maîtrisez l'architecture de la solution de bout en bout pour les produits de données et les cas d'utilisation analytiques au sein d'une ou plusieurs chaînes de valeur. Traduisez les résultats commerciaux en solutions de données sécurisées, évolutives et soucieuses des coûts, basées sur les données et la plateforme d'entreprise (DWH, Iceberg/Trino lakehouse, streaming, ML, GCP/on-premise). Architecture : Ingestion de lots/flux, DWH (Kimball/Star) + Lakehouse (Iceberg/Trino), service via SQL/APIs/couche sémantique ; Les fonctionnalités ML s'écoulent en cas de besoin. Modélisation : Concepts métiers → conceptuels/sémantiques → logiques/physiques (partitionnement, ordre Z/cluster, index). BI & Analytics : Posséder la couche sémantique/les métriques, gouverner les KPI, optimiser les performances du tableau de bord/requête, la mise en cache, les agrégats ; activer le libre-service (couche dbt/metrics + catalogue). Ops & FinOps : SLO (fraîcheur/latence/coût), observabilité, runbooks, backfills ; ajustez le stockage/les requêtes pour réduire les coûts. Gouvernance/Maillage : métadonnées de propriété du produit, découvrabilité, documentation ; publication de blueprints et ADR. Compétences indispensables 7 à 12 ans en ingénierie des données avec DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. Modélisation sémantique, contrats de données, ingénierie de la performance, couche dbt/metrics ; GCP + hybride sur site, IaC/CI-CD pour les données. Architecture monopage, contrats de données, ADR/HLD, modèle sémantique et arbre KPI, runbook/SLO, modèle de coût. Gestion des parties prenantes • Travaillez en étroite collaboration avec les parties prenantes de l'entreprise, les responsables de livraison et les propriétaires de produits pour recueillir des informations, comprendre les points faibles et hiérarchiser les fonctionnalités qui génèrent de la valeur pour l'entreprise. • Présenter régulièrement des mises à jour sur les progrès à la haute direction, en soulignant les étapes franchies, les défis rencontrés et les prochaines étapes du processus de développement.

CDI
Freelance

Offre d'emploi
Expert Data Factory

CITECH
Publiée le
Azure
Azure Data Factory
Azure DevOps

12 mois
60k-70k €
400-550 €
Paris, France

🚀 CITECH recrute ! ✨ Si vous souhaitez mettre à profit vos compétences et accompagner un projet stratégique, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Expert Data Factory (H/F) 🏢 Présentation du client Notre client est un grand cabinet français reconnu pour son expertise pluridisciplinaire et son accompagnement stratégique auprès d’entreprises de toutes tailles. Dans le cadre du développement de son pôle Data, il souhaite renforcer son équipe avec un profil expérimenté capable de structurer et d’optimiser la gestion de la donnée au sein de son environnement Microsoft. Description du poste 💼 Contexte de la mission Au sein de l’équipe Data, vous interviendrez en tant qu’ Expert Data Factory afin d’assurer la fiabilité, la qualité et la valorisation des données. Vous aurez un rôle clé dans la conception, la transformation et l’agrégation de données provenant de multiples sources, tout en accompagnant la montée en compétences de deux collaborateurs plus juniors déjà en poste. 🚀 Missions principales Analyser, structurer et consolider les données issues de différents environnements, notamment Azure AD et diverses bases SQL. Mettre en place des processus de nettoyage, de contrôle qualité et d’agrégation des données . Concevoir et maintenir des pipelines de données robustes et performants. Garantir la qualité et la cohérence des données dans l’ensemble du système d’information. Participer à la gouvernance de la donnée et à l’amélioration continue des pratiques Data au sein de l’équipe. Encadrer et faire monter en compétences deux collaborateurs juniors sur les aspects techniques et méthodologiques. Collaborer étroitement avec les équipes IT et métiers pour comprendre les besoins et assurer la fiabilité des analyses.

CDI
Freelance

Offre d'emploi
Data Engineer – Microsoft BI (SSAS) & Spark/Scala.

UCASE CONSULTING
Publiée le
Apache Spark
Microsoft Analysis Services (SSAS)
Scala

3 ans
25k-58k €
310-530 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un Data Engineer – Microsoft BI (SSAS) & Spark/Scala Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support..

Freelance

Mission freelance
INGENIEUR CONFORMITE

Groupe Aptenia
Publiée le
Microsoft Power BI

6 mois
400-450 €
Île-de-France, France

Activité Contrôle Permanent S’assurer de la réalisation des contrôles permanents du Cluster Paiements (SCOPE) S’assurer de la bonne réalisation des contrôles permanents CAPS : Analyser puis valider les résultats des contrôles opérés par les différents contrôleurs Piloter les contributions du CLP au plan de contrôles permanents de responsabilité CLP pour la certification PCI-DSS Activité Audits et Conformité Coordonner la collecte des éléments demandés pas les auditeurs dans le cadre d’audits, valider les éléments fournis Maintenir à jour le fichier de suivi des demandes des auditeurs Suivi et pilotage des remédiation du durcissement Remédiation des non-conformités liées au durcissement Middleware Remédiation des non-conformités liées aux audits AD (Justicia, PingCastle, Bloodhound)

CDI

Offre d'emploi
Business Analyst ERP - Infor m3

HELPLINE
Publiée le
BI
ERP
SQL

49k-72k €
Île-de-France, France

Nous recherchons un Business Analyst disposant d’une solide expérience sur les environnements ERP (SAP) et Business Intelligence . ✅ Compétences requises : Expertise ERP (SAP) Très bonne maîtrise des outils de BI Connaissances avancées en SQL Impératif : maîtrise de Infor M3 📍 Poste à pourvoir immédiatement — mission longue / CDI selon profil Notre client souhaite rester anonyme si le profil n'est pas suffisament qualifié

Freelance
CDI

Offre d'emploi
Data Engineer Fullstack (Cloud & On-Prem)

OBJECTWARE MANAGEMENT GROUP
Publiée le
Cloud
Java
Microsoft Power BI

6 mois
40k-50k €
400-590 €
Tours, Centre-Val de Loire

Contexte de la mission : Renfort d’une équipe Data pour intervenir sur des activités de Run, Build, Expertise et Accompagnement , dans un environnement hybride Cloud / On-Premise (cible On-Premise). Principales responsabilités : Participer à la conception technique des produits logiciels. Contribuer à la recherche et à la définition de solutions techniques adaptées. Prendre en charge une partie des développements. Accompagner et coacher les autres développeurs (optimisation de code, bonnes pratiques, etc.). Collaborer à l’intégration des produits dans le SI en lien avec les architectes Data. Garantir la qualité et la maintenabilité des produits logiciels. Accompagner les métiers dans la mise en œuvre de leurs cas d’usage Data. Compétences obligatoires : Maîtrise de Spark / Java. Maîtrise de Python. Maîtrise du SQL. Expérience sur les services Cloud (stockage, traitement, orchestration, fonctions serverless). Pratique des outils CI/CD (Git, Jenkins, …). Connaissance d’un ETL (type XDI, ODI ou équivalent). Compétences souhaitées : Docker. Terraform. Outils de reporting / dataviz (Power BI, BO, …). Secteur : Tours

Freelance

Mission freelance
Data Engineer

Nicholson SAS
Publiée le
ETL (Extract-transform-load)
Linux
Microsoft Power BI

12 mois
360 €
Toulouse, Occitanie

Contexte / mission : Nous recherchons un data engineer expérimenté avec des compétences en SQL, ETL et outils de reporting. Le domaine Cargo Datawarehouse charge et affine les données pour les entreprises. Intervention au sein d’une équipe de 8 personnes. Profil : Data Engineer Nombre d’années d’expérience : plus de 5 ans Attendus : Il/elle devra intervenir sur le backlog actuel du projet (corrections et nouvelles fonctionnalités). Les données Cargo pour les domaines suivants sont chargées dans l’entrepôt de données : Données de billetterie et de réservation Données financières Données opérationnelles Serait également apprécié : compétence à piloter des sous-projets au sein du domaine CARGO, sous la responsabilité du responsable de domaine. Quel défi à relever ? PowerBI et GCP à l’avenir.

Freelance
CDI

Offre d'emploi
BI / Big Data – Data Manager Senior

VISIAN
Publiée le
Apache Spark
Dash
Databricks

1 an
40k-56k €
400-620 €
Île-de-France, France

Contexte : Nous recherchons un Data Engineer / Data Manager senior pour un projet stratégique autour de l’automatisation des processus de production liés à l’actuariat et au Risk Management. L’objectif est de simplifier et industrialiser les traitements de pré et post-processing d’un outil de projection, actuellement très manuel et dispersé sur plusieurs outils. Missions principales : Concevoir et développer une solution intégrée dans Databricks pour automatiser la préparation et le traitement des données. Créer une interface utilisateur (via Streamlit, Gradio ou Dash) permettant de : Consulter, modifier et versionner les hypothèses avec workflow de validation. Orchestrer et automatiser les jobs de pré/post-processing. Sécuriser et tracer les échanges d’inputs/outputs (qualité, audit). Gérer le stockage des données dans des tables Delta avec schémas typés et versioning. Assurer la gestion des accès et le suivi de la qualité des données.

Freelance

Mission freelance
Développeur PL/SQL / Oracle ERP Cloud (H/F) - LILLE

BK CONSULTING
Publiée le
Oracle
Oracle BI Publisher
PL/SQL

36 mois
360-380 €
Lille, Hauts-de-France

Dans le cadre d’un programme de transformation du système d’information Finance, un composant majeur assure l’intégration et la transformation des données : l’interpréteur comptable. Ce dernier permet de transformer, valider et enrichir les fichiers de données afin de les intégrer dans un ERP Finance (Oracle ERP Cloud). Nous recherchons un développeur PL/SQL expérimenté pour accompagner les évolutions de ce composant et contribuer à la finalisation du Core Model Finance. Missions principales Le développeur interviendra sur l’ensemble du cycle de développement des programmes de transformation et d’intégration de données : Rédiger les spécifications techniques à partir des besoins fonctionnels. Développer et mettre au point des programmes PL/SQL de transformation et d’enrichissement des données. Optimiser les solutions existantes pour garantir performance et maintenabilité. Réaliser les tests unitaires et contribuer à la rédaction des cahiers de test. Identifier et corriger les anomalies détectées lors des phases de test ou d’intégration. Respecter les standards de développement et le framework méthodologique en vigueur dans le projet.

Freelance
CDI

Offre d'emploi
Data Engineer (spécialisation Microsoft Fabric) (H/F)

SERYCE
Publiée le
Agile Scrum
Azure Data Factory
Microsoft Fabric

12 mois
Paris, France

Data Engineer (spécialisation Microsoft Fabric) Contexte du poste Au sein de la Direction des Systèmes d’Information, le Data Engineer rejoint l’équipe Data, en charge de la conception, de la mise en œuvre et de la maintenance des solutions de gestion et d’exploitation des données. Dans un contexte de modernisation du SI et de développement des usages data, l’entreprise déploie la plateforme Microsoft Fabric pour unifier les services de data engineering, d’analyse et de gouvernance des données. Missions principales Le Data Engineer interviendra sur l’ensemble de la chaîne de traitement de la donnée : 1. Conception et développement Concevoir et mettre en œuvre les flux de données sur Microsoft Fabric (Data Factory, Dataflows Gen2, Lakehouse, Pipelines) Construire et maintenir les modèles de données dans le OneLake Développer des pipelines de transformation et d’ingestion de données (batch et temps réel) Garantir la qualité, la performance et la robustesse des traitements de données 2. Intégration et industrialisation Optimiser les coûts et les performances de la plateforme data Documenter les architectures, flux et traitements 3. Gouvernance et sécurité des données Collaborer avec le Head of data et le Data Architect Mettre en œuvre les bonnes pratiques de sécurité, gestion des accès et métadonnées 4. Support et amélioration continue Assurer le support technique des environnements Fabric Identifier les axes d’amélioration et participer aux évolutions de la plateforme data Former et accompagner les utilisateurs métiers et analystes Power BI

Freelance
CDI
CDD

Offre d'emploi
Process Manager - Gestion des incidents

VISIAN
Publiée le
ITIL v4
PowerBI
ServiceNow

3 ans
40k-45k €
350-450 €
Vaison-la-Romaine, Provence-Alpes-Côte d'Azur

Descriptif de la mission Dans le cadre du renforcement de son département Services Transverses, notre client recherche un Process Manager spécialisé en gestion des incidents . La mission consiste à piloter et améliorer le processus de gestion des incidents au sein de la Production Informatique, afin de garantir le bon fonctionnement des systèmes d’information et la qualité de service délivrée aux utilisateurs. Vos responsabilités : Gestion du processus : assurer son bon fonctionnement, proposer des améliorations, préparer et animer les comités liés au processus, produire le reporting associé (météo hebdo, revues incidents majeurs). Contrôle et amélioration continue : élaborer et communiquer des tableaux de bord, déclencher les escalades si nécessaire, maintenir le référentiel documentaire, contrôler le respect des procédures, assurer la cohérence avec les autres processus (changements, configurations, etc.). Communication & formation : promouvoir les bonnes pratiques auprès des équipes, répondre aux besoins d’information, réaliser des formations internes, contribuer à la relation client. Spécificité incidents : suite à un incident majeur, garantir la restauration rapide des services et la coordination efficace des actions.

Freelance
CDI

Offre d'emploi
Consultant Power BI (Monitoring & Alerting)

VISIAN
Publiée le
DAX
Microsoft Power BI
Power Query

1 an
40k-45k €
400-620 €
Île-de-France, France

Contexte de la mission Le consultant interviendra pour renforcer la maîtrise de l’usage de Power BI et accompagner l’équipe dans le suivi opérationnel et technique des capacités Power BI. Il sera un acteur clé dans le développement de rapports complexes, la mise en place de tableaux de bord de monitoring, ainsi que dans la création de solutions d’alerting adaptées. La mission implique une forte collaboration avec les équipes BI, IT et métiers. Missions principales Suivi opérationnel et monitoring Surveiller la performance des rapports et des espaces de travail Power BI. Développer et maintenir des tableaux de bord de monitoring avancés dans Power BI (usage, adoption, performance, sécurité). Suivre et analyser la consommation des capacités Premium Power BI. Mettre en place et optimiser des solutions d’alerting pour la gestion proactive des capacités Power BI (via API REST, PowerShell, outils de monitoring). Fournir un support technique de niveau avancé et accompagner l’équipe sur les problématiques Power BI. Optimisation et bonnes pratiques Définir et appliquer des stratégies d’optimisation des rapports : requêtes Power Query, modèles de données, DAX, visuels. Administrer et gérer les capacités Premium Power BI. Contribuer à la définition et au suivi des standards de gouvernance et de documentation Power BI. Développement et automatisation Développer des rapports complexes à partir de différentes sources de données (Databricks, SharePoint, Power BI, etc.). Proposer et implémenter des KPI pour le monitoring : usage, adoption, performance, actualisation, sécurité, gouvernance. Contribuer aux projets d’amélioration et à la migration vers Microsoft Fabric (tests techniques, documentation, accompagnement des équipes).

CDI
Freelance

Offre d'emploi
Data Analyst Senior

VISIAN
Publiée le
Eclipse
PowerBI
Python

1 an
30k-55k €
310-490 €
Île-de-France, France

Description du poste Nous recherchons un Data Analyst expérimenté. La mission consiste à migrer des programmes SAS existants vers SharePoint et automatiser la production des reportings réglementaires. La personne interviendra au sein de la direction interne en charge de la conformité et du contrôle des données. Objectifs et responsabilités Objectifs principaux Réaliser la cartographie des traitements récurrents et les prioriser pour la migration des programmes SAS vers SharePoint. Vérifier la présence des données dans les nouveaux environnements ou assurer leur migration si nécessaire. Mettre en place un suivi des avancées, incluant le reste à faire et les échéances. Migrer les programmes SAS vers SharePoint (adapter codes et architecture, tester la non-régression). Produire les chiffres pour les reportings réglementaires de fin d’année. Automatiser la production des reportings.

Freelance

Mission freelance
Expert Data Scientist – Secteur Public (H/F)

Bek Advisory
Publiée le
Dataiku
Microsoft Power BI

6 mois
400-750 €
Paris, France

Compétences clés : Dataiku • Microsoft Power BI • MySQL • Talend Dans le cadre de projets stratégiques de transformation et de modernisation du secteur public, nous recherchons un(e) Expert Data Scientist H/F freelance pour accompagner nos clients dans la valorisation et l’exploitation avancée de leurs données. Vous interviendrez en tant qu’expert(e) sur des problématiques complexes, avec un rôle clé dans la définition et la mise en œuvre de solutions data-driven à forte valeur ajoutée. La maîtrise de Dataiku est indispensable. Vos missions : Piloter le développement de modèles de data science complexes dans Dataiku : exploration, apprentissage automatique, analyses prédictives et prescriptives. Définir les stratégies de collecte, d’intégration et d’exploitation de données hétérogènes en garantissant leur qualité et leur conformité réglementaire (RGPD, sécurité des données). Concevoir et automatiser des pipelines de données robustes avec Dataiku et/ou Talend. Construire et superviser la réalisation de tableaux de bord et visualisations avancées avec Tableau ou Power BI, en réponse à des enjeux métiers variés. Jouer un rôle de référent(e) technique auprès des équipes internes et des interlocuteurs métiers, en les accompagnant dans la formalisation des besoins et la diffusion d’une culture data. Contribuer activement aux choix d’architecture et à la mise en place des bonnes pratiques data science au sein des projets.

CDI

Offre d'emploi
Ingénieur Modern Data Stack (H/F) - 13

Mindquest
Publiée le
Apache Airflow
DBT
Microsoft Power BI

Marseille, Provence-Alpes-Côte d'Azur

Contexte Je recherche pour l’un de mes clients, entreprise industrielle française en pleine transformation digitale, un(e) Ingénieur(e) Data en CDI à Marseille. Cette opportunité est à pourvoir au sein de la DSI (100 collaborateurs), dans un environnement stimulant et innovant. Vous intégrerez le pôle Data et interviendrez sur des projets stratégiques de modernisation des architectures de données. Missions Rattaché(e) au Responsable de Production, vous aurez un rôle clé dans la conception, l’optimisation et la fiabilité des bases de données transactionnelles et décisionnelles. À ce titre, vos missions incluront : Concevoir et modéliser les bases de données en lien avec les chefs de projet, architectes, consultants ERP et experts décisionnels Participer à la mise en place et à l’évolution de l’entrepôt de données (Data Warehouse) et de la "Modern Data Stack" Développer et maintenir les flux de synchronisation entre systèmes (Airbyte, DBT, Airflow, Snowflake...) Assurer l’optimisation des performances des requêtes SQL/noSQL et le support aux équipes de développement Contribuer à l’adaptation du modèle de données dans le cadre du déploiement d’architectures microservices Participer au support technique de niveau 3 et à la veille technologique

300 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous