Trouvez votre prochaine offre d’emploi ou de mission freelance BI
Mission freelance
Data Scientist Python (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Scientist Python (H/F) à Lyon, France. Contexte : Description de l'équipe Concevoir et réaliser des audits de performance d’exploitation et proposer un programme d’amélioration continue Développer des processus d’analyse automatique des performances Développer des outils de maintenance préventive pour les équipements Anticiper l’impact des évolutions des systèmes et de leur environnement Equipe en charge de l'amélioration continue et de la valorisations des données afin d'améliorer leurs exploitations. Les missions attendues par le Data Scientist Python (H/F) : Activité principale Analyser le fonctionnement Modéliser le comportement nominal Construire des outils de supervision temps réel du fonctionnement et de détection automatique d’un état d’anomalie Encadrement de Data Scientist junior Revue de code / Evaluation des orientations techniques Activité secondaire Industrialiser les prototypes dans les outils de supervision Veille technologique sur les outils utilisés au sein du projet Partage et formation des pairs Aide à la conception de solutions permettant le traitement de volumes de données suffisamment sécurisés Stack technique de l'équipe Python 3 / Python Dash PySpark SQL / Postgresql Tableau software / PowerBI
Mission freelance
229359/Data Architect DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi)
Data Architect Expérience: • Compétences indispensables 7 à 12 ans en ingénierie des données avec DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. Modélisation sémantique, contrats de données, ingénierie de la performance, couche dbt/metrics ; GCP + hybride sur site, IaC/CI-CD pour les données. Architecture monopage, contrats de données, ADR/HLD, modèle sémantique et arbre KPI, runbook/SLO, modèle de coût. Mission Maîtrisez l'architecture de la solution de bout en bout pour les produits de données et les cas d'utilisation analytiques au sein d'une ou plusieurs chaînes de valeur. Traduisez les résultats commerciaux en solutions de données sécurisées, évolutives et soucieuses des coûts, basées sur les données et la plateforme d'entreprise (DWH, Iceberg/Trino lakehouse, streaming, ML, GCP/on-premise). Architecture : Ingestion de lots/flux, DWH (Kimball/Star) + Lakehouse (Iceberg/Trino), service via SQL/APIs/couche sémantique ; Les fonctionnalités ML s'écoulent en cas de besoin. Modélisation : Concepts métiers → conceptuels/sémantiques → logiques/physiques (partitionnement, ordre Z/cluster, index). BI & Analytics : Posséder la couche sémantique/les métriques, gouverner les KPI, optimiser les performances du tableau de bord/requête, la mise en cache, les agrégats ; activer le libre-service (couche dbt/metrics + catalogue). Ops & FinOps : SLO (fraîcheur/latence/coût), observabilité, runbooks, backfills ; ajustez le stockage/les requêtes pour réduire les coûts. Gouvernance/Maillage : métadonnées de propriété du produit, découvrabilité, documentation ; publication de blueprints et ADR. Compétences indispensables 7 à 12 ans en ingénierie des données avec DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. Modélisation sémantique, contrats de données, ingénierie de la performance, couche dbt/metrics ; GCP + hybride sur site, IaC/CI-CD pour les données. Architecture monopage, contrats de données, ADR/HLD, modèle sémantique et arbre KPI, runbook/SLO, modèle de coût. Gestion des parties prenantes • Travaillez en étroite collaboration avec les parties prenantes de l'entreprise, les responsables de livraison et les propriétaires de produits pour recueillir des informations, comprendre les points faibles et hiérarchiser les fonctionnalités qui génèrent de la valeur pour l'entreprise. • Présenter régulièrement des mises à jour sur les progrès à la haute direction, en soulignant les étapes franchies, les défis rencontrés et les prochaines étapes du processus de développement.
Offre d'emploi
Expert Data Factory
🚀 CITECH recrute ! ✨ Si vous souhaitez mettre à profit vos compétences et accompagner un projet stratégique, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Expert Data Factory (H/F) 🏢 Présentation du client Notre client est un grand cabinet français reconnu pour son expertise pluridisciplinaire et son accompagnement stratégique auprès d’entreprises de toutes tailles. Dans le cadre du développement de son pôle Data, il souhaite renforcer son équipe avec un profil expérimenté capable de structurer et d’optimiser la gestion de la donnée au sein de son environnement Microsoft. Description du poste 💼 Contexte de la mission Au sein de l’équipe Data, vous interviendrez en tant qu’ Expert Data Factory afin d’assurer la fiabilité, la qualité et la valorisation des données. Vous aurez un rôle clé dans la conception, la transformation et l’agrégation de données provenant de multiples sources, tout en accompagnant la montée en compétences de deux collaborateurs plus juniors déjà en poste. 🚀 Missions principales Analyser, structurer et consolider les données issues de différents environnements, notamment Azure AD et diverses bases SQL. Mettre en place des processus de nettoyage, de contrôle qualité et d’agrégation des données . Concevoir et maintenir des pipelines de données robustes et performants. Garantir la qualité et la cohérence des données dans l’ensemble du système d’information. Participer à la gouvernance de la donnée et à l’amélioration continue des pratiques Data au sein de l’équipe. Encadrer et faire monter en compétences deux collaborateurs juniors sur les aspects techniques et méthodologiques. Collaborer étroitement avec les équipes IT et métiers pour comprendre les besoins et assurer la fiabilité des analyses.
Offre d'emploi
Data Engineer – Microsoft BI (SSAS) & Spark/Scala.
Bonjour, Pour le compte de notre client, nous recherchons un Data Engineer – Microsoft BI (SSAS) & Spark/Scala Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support..
Mission freelance
INGENIEUR CONFORMITE
Activité Contrôle Permanent S’assurer de la réalisation des contrôles permanents du Cluster Paiements (SCOPE) S’assurer de la bonne réalisation des contrôles permanents CAPS : Analyser puis valider les résultats des contrôles opérés par les différents contrôleurs Piloter les contributions du CLP au plan de contrôles permanents de responsabilité CLP pour la certification PCI-DSS Activité Audits et Conformité Coordonner la collecte des éléments demandés pas les auditeurs dans le cadre d’audits, valider les éléments fournis Maintenir à jour le fichier de suivi des demandes des auditeurs Suivi et pilotage des remédiation du durcissement Remédiation des non-conformités liées au durcissement Middleware Remédiation des non-conformités liées aux audits AD (Justicia, PingCastle, Bloodhound)
Offre d'emploi
Business Analyst ERP - Infor m3
Nous recherchons un Business Analyst disposant d’une solide expérience sur les environnements ERP (SAP) et Business Intelligence . ✅ Compétences requises : Expertise ERP (SAP) Très bonne maîtrise des outils de BI Connaissances avancées en SQL Impératif : maîtrise de Infor M3 📍 Poste à pourvoir immédiatement — mission longue / CDI selon profil Notre client souhaite rester anonyme si le profil n'est pas suffisament qualifié
Offre d'emploi
Data Engineer Fullstack (Cloud & On-Prem)
Contexte de la mission : Renfort d’une équipe Data pour intervenir sur des activités de Run, Build, Expertise et Accompagnement , dans un environnement hybride Cloud / On-Premise (cible On-Premise). Principales responsabilités : Participer à la conception technique des produits logiciels. Contribuer à la recherche et à la définition de solutions techniques adaptées. Prendre en charge une partie des développements. Accompagner et coacher les autres développeurs (optimisation de code, bonnes pratiques, etc.). Collaborer à l’intégration des produits dans le SI en lien avec les architectes Data. Garantir la qualité et la maintenabilité des produits logiciels. Accompagner les métiers dans la mise en œuvre de leurs cas d’usage Data. Compétences obligatoires : Maîtrise de Spark / Java. Maîtrise de Python. Maîtrise du SQL. Expérience sur les services Cloud (stockage, traitement, orchestration, fonctions serverless). Pratique des outils CI/CD (Git, Jenkins, …). Connaissance d’un ETL (type XDI, ODI ou équivalent). Compétences souhaitées : Docker. Terraform. Outils de reporting / dataviz (Power BI, BO, …). Secteur : Tours
Mission freelance
Data Engineer
Contexte / mission : Nous recherchons un data engineer expérimenté avec des compétences en SQL, ETL et outils de reporting. Le domaine Cargo Datawarehouse charge et affine les données pour les entreprises. Intervention au sein d’une équipe de 8 personnes. Profil : Data Engineer Nombre d’années d’expérience : plus de 5 ans Attendus : Il/elle devra intervenir sur le backlog actuel du projet (corrections et nouvelles fonctionnalités). Les données Cargo pour les domaines suivants sont chargées dans l’entrepôt de données : Données de billetterie et de réservation Données financières Données opérationnelles Serait également apprécié : compétence à piloter des sous-projets au sein du domaine CARGO, sous la responsabilité du responsable de domaine. Quel défi à relever ? PowerBI et GCP à l’avenir.
Offre d'emploi
BI / Big Data – Data Manager Senior
Contexte : Nous recherchons un Data Engineer / Data Manager senior pour un projet stratégique autour de l’automatisation des processus de production liés à l’actuariat et au Risk Management. L’objectif est de simplifier et industrialiser les traitements de pré et post-processing d’un outil de projection, actuellement très manuel et dispersé sur plusieurs outils. Missions principales : Concevoir et développer une solution intégrée dans Databricks pour automatiser la préparation et le traitement des données. Créer une interface utilisateur (via Streamlit, Gradio ou Dash) permettant de : Consulter, modifier et versionner les hypothèses avec workflow de validation. Orchestrer et automatiser les jobs de pré/post-processing. Sécuriser et tracer les échanges d’inputs/outputs (qualité, audit). Gérer le stockage des données dans des tables Delta avec schémas typés et versioning. Assurer la gestion des accès et le suivi de la qualité des données.
Mission freelance
Développeur PL/SQL / Oracle ERP Cloud (H/F) - LILLE
Dans le cadre d’un programme de transformation du système d’information Finance, un composant majeur assure l’intégration et la transformation des données : l’interpréteur comptable. Ce dernier permet de transformer, valider et enrichir les fichiers de données afin de les intégrer dans un ERP Finance (Oracle ERP Cloud). Nous recherchons un développeur PL/SQL expérimenté pour accompagner les évolutions de ce composant et contribuer à la finalisation du Core Model Finance. Missions principales Le développeur interviendra sur l’ensemble du cycle de développement des programmes de transformation et d’intégration de données : Rédiger les spécifications techniques à partir des besoins fonctionnels. Développer et mettre au point des programmes PL/SQL de transformation et d’enrichissement des données. Optimiser les solutions existantes pour garantir performance et maintenabilité. Réaliser les tests unitaires et contribuer à la rédaction des cahiers de test. Identifier et corriger les anomalies détectées lors des phases de test ou d’intégration. Respecter les standards de développement et le framework méthodologique en vigueur dans le projet.
Offre d'emploi
Data Engineer (spécialisation Microsoft Fabric) (H/F)
Data Engineer (spécialisation Microsoft Fabric) Contexte du poste Au sein de la Direction des Systèmes d’Information, le Data Engineer rejoint l’équipe Data, en charge de la conception, de la mise en œuvre et de la maintenance des solutions de gestion et d’exploitation des données. Dans un contexte de modernisation du SI et de développement des usages data, l’entreprise déploie la plateforme Microsoft Fabric pour unifier les services de data engineering, d’analyse et de gouvernance des données. Missions principales Le Data Engineer interviendra sur l’ensemble de la chaîne de traitement de la donnée : 1. Conception et développement Concevoir et mettre en œuvre les flux de données sur Microsoft Fabric (Data Factory, Dataflows Gen2, Lakehouse, Pipelines) Construire et maintenir les modèles de données dans le OneLake Développer des pipelines de transformation et d’ingestion de données (batch et temps réel) Garantir la qualité, la performance et la robustesse des traitements de données 2. Intégration et industrialisation Optimiser les coûts et les performances de la plateforme data Documenter les architectures, flux et traitements 3. Gouvernance et sécurité des données Collaborer avec le Head of data et le Data Architect Mettre en œuvre les bonnes pratiques de sécurité, gestion des accès et métadonnées 4. Support et amélioration continue Assurer le support technique des environnements Fabric Identifier les axes d’amélioration et participer aux évolutions de la plateforme data Former et accompagner les utilisateurs métiers et analystes Power BI
Offre d'emploi
Process Manager - Gestion des incidents
Descriptif de la mission Dans le cadre du renforcement de son département Services Transverses, notre client recherche un Process Manager spécialisé en gestion des incidents . La mission consiste à piloter et améliorer le processus de gestion des incidents au sein de la Production Informatique, afin de garantir le bon fonctionnement des systèmes d’information et la qualité de service délivrée aux utilisateurs. Vos responsabilités : Gestion du processus : assurer son bon fonctionnement, proposer des améliorations, préparer et animer les comités liés au processus, produire le reporting associé (météo hebdo, revues incidents majeurs). Contrôle et amélioration continue : élaborer et communiquer des tableaux de bord, déclencher les escalades si nécessaire, maintenir le référentiel documentaire, contrôler le respect des procédures, assurer la cohérence avec les autres processus (changements, configurations, etc.). Communication & formation : promouvoir les bonnes pratiques auprès des équipes, répondre aux besoins d’information, réaliser des formations internes, contribuer à la relation client. Spécificité incidents : suite à un incident majeur, garantir la restauration rapide des services et la coordination efficace des actions.
Offre d'emploi
Consultant Power BI (Monitoring & Alerting)
Contexte de la mission Le consultant interviendra pour renforcer la maîtrise de l’usage de Power BI et accompagner l’équipe dans le suivi opérationnel et technique des capacités Power BI. Il sera un acteur clé dans le développement de rapports complexes, la mise en place de tableaux de bord de monitoring, ainsi que dans la création de solutions d’alerting adaptées. La mission implique une forte collaboration avec les équipes BI, IT et métiers. Missions principales Suivi opérationnel et monitoring Surveiller la performance des rapports et des espaces de travail Power BI. Développer et maintenir des tableaux de bord de monitoring avancés dans Power BI (usage, adoption, performance, sécurité). Suivre et analyser la consommation des capacités Premium Power BI. Mettre en place et optimiser des solutions d’alerting pour la gestion proactive des capacités Power BI (via API REST, PowerShell, outils de monitoring). Fournir un support technique de niveau avancé et accompagner l’équipe sur les problématiques Power BI. Optimisation et bonnes pratiques Définir et appliquer des stratégies d’optimisation des rapports : requêtes Power Query, modèles de données, DAX, visuels. Administrer et gérer les capacités Premium Power BI. Contribuer à la définition et au suivi des standards de gouvernance et de documentation Power BI. Développement et automatisation Développer des rapports complexes à partir de différentes sources de données (Databricks, SharePoint, Power BI, etc.). Proposer et implémenter des KPI pour le monitoring : usage, adoption, performance, actualisation, sécurité, gouvernance. Contribuer aux projets d’amélioration et à la migration vers Microsoft Fabric (tests techniques, documentation, accompagnement des équipes).
Offre d'emploi
Data Analyst Senior
Description du poste Nous recherchons un Data Analyst expérimenté. La mission consiste à migrer des programmes SAS existants vers SharePoint et automatiser la production des reportings réglementaires. La personne interviendra au sein de la direction interne en charge de la conformité et du contrôle des données. Objectifs et responsabilités Objectifs principaux Réaliser la cartographie des traitements récurrents et les prioriser pour la migration des programmes SAS vers SharePoint. Vérifier la présence des données dans les nouveaux environnements ou assurer leur migration si nécessaire. Mettre en place un suivi des avancées, incluant le reste à faire et les échéances. Migrer les programmes SAS vers SharePoint (adapter codes et architecture, tester la non-régression). Produire les chiffres pour les reportings réglementaires de fin d’année. Automatiser la production des reportings.
Mission freelance
Expert Data Scientist – Secteur Public (H/F)
Compétences clés : Dataiku • Microsoft Power BI • MySQL • Talend Dans le cadre de projets stratégiques de transformation et de modernisation du secteur public, nous recherchons un(e) Expert Data Scientist H/F freelance pour accompagner nos clients dans la valorisation et l’exploitation avancée de leurs données. Vous interviendrez en tant qu’expert(e) sur des problématiques complexes, avec un rôle clé dans la définition et la mise en œuvre de solutions data-driven à forte valeur ajoutée. La maîtrise de Dataiku est indispensable. Vos missions : Piloter le développement de modèles de data science complexes dans Dataiku : exploration, apprentissage automatique, analyses prédictives et prescriptives. Définir les stratégies de collecte, d’intégration et d’exploitation de données hétérogènes en garantissant leur qualité et leur conformité réglementaire (RGPD, sécurité des données). Concevoir et automatiser des pipelines de données robustes avec Dataiku et/ou Talend. Construire et superviser la réalisation de tableaux de bord et visualisations avancées avec Tableau ou Power BI, en réponse à des enjeux métiers variés. Jouer un rôle de référent(e) technique auprès des équipes internes et des interlocuteurs métiers, en les accompagnant dans la formalisation des besoins et la diffusion d’une culture data. Contribuer activement aux choix d’architecture et à la mise en place des bonnes pratiques data science au sein des projets.
Offre d'emploi
Ingénieur Modern Data Stack (H/F) - 13
Contexte Je recherche pour l’un de mes clients, entreprise industrielle française en pleine transformation digitale, un(e) Ingénieur(e) Data en CDI à Marseille. Cette opportunité est à pourvoir au sein de la DSI (100 collaborateurs), dans un environnement stimulant et innovant. Vous intégrerez le pôle Data et interviendrez sur des projets stratégiques de modernisation des architectures de données. Missions Rattaché(e) au Responsable de Production, vous aurez un rôle clé dans la conception, l’optimisation et la fiabilité des bases de données transactionnelles et décisionnelles. À ce titre, vos missions incluront : Concevoir et modéliser les bases de données en lien avec les chefs de projet, architectes, consultants ERP et experts décisionnels Participer à la mise en place et à l’évolution de l’entrepôt de données (Data Warehouse) et de la "Modern Data Stack" Développer et maintenir les flux de synchronisation entre systèmes (Airbyte, DBT, Airflow, Snowflake...) Assurer l’optimisation des performances des requêtes SQL/noSQL et le support aux équipes de développement Contribuer à l’adaptation du modèle de données dans le cadre du déploiement d’architectures microservices Participer au support technique de niveau 3 et à la veille technologique
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.