Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 117 résultats.
Freelance

Mission freelance
Data Analyst expert BI ETL

KEONI CONSULTING
Publiée le
Back-end
Google Dashboard
Reporting

18 mois
100-400 €
Paris, France

CONTEXTE Experience : 8 ans et plus Métiers Fonctions : Data Management, Data Analyst Spécialités technologiques : BI,ETL MISSIONS Le Data Analyst aura pour mission de structurer les fondations méthodologiques et techniques nécessaires à la diffusion d’indicateurs fiables et exploitables pour le département « Recherche Candidature et Rapprochement ». Il aura pour mission de centraliser les données issues de multiples sources, d’en assurer la transformation, puis d’industrialiser leur traitement au travers de pipelines performants, pour les visualiser dans Power BI, Qlik Sense, etc. Le Data Analyst aura potentiellement la charge de plusieurs domaines de données au sein du département RCR. En lien étroit avec l’architecte/expert data et les métiers, il sera responsable de la chaîne complète de traitement et de valorisation des données, depuis la compréhension du besoin jusqu’à la mise en production et la maintenance des applications décisionnelles. Il jouera un rôle clé dans cette dynamique, en prenant en charge la structuration des flux, l’optimisation des performances. Il devra allier expertise technique et compréhension des enjeux métiers pour garantir la qualité, la cohérence et la disponibilité des données. Appuyé par les standards et les outils mis à disposition par les équipes data transverses, il travaillera en forte autonomie sur les projets qui lui seront confiés. Expertise souhaitée - Recueil et formalisation des besoins métier - Animer des ateliers avec les utilisateurs métiers pour comprendre leurs enjeux et besoins en reporting, datavisualisation et indicateurs. - Rédiger des spécifications fonctionnelles et techniques (cahiers des charges, dictionnaires de données, définitions d’indicateurs). - Identifier et challenger les sources de données disponibles. - Prototypage et maquettes - Concevoir des maquettes d’écrans (wireframes, prototypes Power BI ou Qlik Sense) pour validation métier. - Proposer des choix de visualisation pertinents en fonction des usages (tableaux de bord stratégiques, opérationnels, analytiques). - Conception et modélisation des données - Définir et mettre en oeuvre la modélisation back-end : datamarts, hubs data, modèles dimensionnels (étoile,flocon) ou data vault. - Écrire et optimiser les requêtes SQL ou pipelines (via Dataiku ou autres outils ETL/ELT) pour alimenter les modèles. - Mettre en place des pré-calculs ou agrégations pour optimiser les performances. - Développement des applications décisionnelles - Développer les dashboards et rapports dans Power BI et/ou Qlik Sense en respectant les standards UX/UI et les bonnes pratiques data. - Paramétrer la sécurité des données : ségrégation de données (row-level security), restrictions d.accès en conformité avec la politique RGPD. - Garantir la performance et la fiabilité des restitutions. - Tests et recette - Concevoir et exécuter les tests unitaires et d’intégration. - Préparer et accompagner la recette métier. - Corriger les anomalies détectées. - Maintenance évolutive et corrective - Faire évoluer les applications existantes selon les nouveaux besoins ou changements réglementaires. - Surveiller la qualité des données et les performances. - Rédiger et maintenir la documentation technique et fonctionnelle. - Collaboration et amélioration continue - Travailler en étroite collaboration avec l’architecte data, les autres data analysts et l.équipe métier. - Participer aux rituels d’équipe.

CDI

Offre d'emploi
Data Analyst BI (OpenText Magellan & Power BI)

SMILE
Publiée le
Microsoft Power BI

50k-55k €
75015, Paris, Île-de-France

Pour structurer la gouvernance des données d’abonnement et accompagner l’évolution des outils de pilotage interne, ce poste vise à : Superviser et fiabiliser les flux de données entre les systèmes de gestion des abonnements et les outils de reporting, de pilotage et de relation client Piloter l’évolution fonctionnelle de l’outil de gestion des abonnements en lien avec l’éditeur, les utilisateurs métier et les prestataires Formaliser et documenter les règles de gestion métier liées aux données clients, contrats et statuts Contribuer aux projets structurants autour de la donnée, notamment l’exploitation de nouveaux référentiels, les échanges partenaires et la montée en autonomie des équipes internes Missions : Au sein de la Direction Marketing&Numérique, le poste a pour vocation de structurer, sécuriser et faire évoluer la donnée d’abonnement chez le client. Le cœur de la mission consiste à piloter la qualité et la fiabilité des données, depuis leur collecte dans le système de gestion des abonnements jusqu’à leur exploitation dans les outils de reporting, CRM ou d’analyse. Le titulaire du poste joue un rôle central dans la supervision de l’outil de gestion des abonnements : suivi des flux, coordination des évolutions, traitement des anomalies, documentation des règles de gestion. Il sera également l’interlocuteur de référence vis-à-vis de l’éditeur du système, garantissant la bonne traduction des besoins métier en spécifications fonctionnelles. En complément de ce socle, le poste contribue aux projets structurants autour de la donnée (tableaux de bord, gouvernance, CDP, échanges de données partenaires) et accompagne les équipes internes dans l’appropriation des outils et des indicateurs.

Freelance

Mission freelance
Data Scientist / Data Analyst expert Vertex et GCP

Freelance.com
Publiée le
Apache Airflow
CI/CD
Data analysis

12 mois
480 €
Paris, France

L'équipe IA SFR Analytics se dote d'un nouvel outil d'entraînement, de serving et de monitoring de ses modèles. Cet outil, nommé "Plateforme MLOps" en interne, doit être livré en juin et s'appuyer sur un panel de services proposés à la fois par GCP et par l'IT SFR. Plus précisément, les technologies utilisées par la plateforme seront : - GCP Workstations : l'environnement de développement - notebooks/Rstudio Server/codeOSS Server - GCP Bigquery - GCP GCS - GCP Vertex - SFR Gitlab - SFR Harbor (container registry) - SFR Nexus (package manager) - SFR Airflow (ordonnanceur) La plateforme MLOps comprendra deux modes d'utilisation : - Portage d'applications existantes - MLOps mainstream GCP La mission actuelle vise à : - recetter la plateforme dans son volet de portage - démarrer la migration des projets de Data Science SFR Analytics sur cette plateforme de portage A date, l'équipe administre trois serveurs physiques on-prem et y fait tourner l'ensemble de ses projets de data science. Les technos utilisées pour chaque étape du workflow de ML sont détaillées ci-dessous : - Analyse exploratoire / entraînement de modèles : - Le data scientist démarre un container docker sur l'un des serveurs linux. - Ce container expose un Rstudio server (équivalent notebook) auquel le data scientist se connecte. - A partir de cet environnement de travail, le data scientist peut : - installer de manière persistante les packages R/Python dont il a besoin pour son projet - se connecter à notre DWH Bigquery pour requêter, récupérer ou y remonter des données - exploiter de manière non capée les cpus et la ram de la machine hôte - entraîner des modèles - analyser leur performance - sauvegarder sur disque persistant le ou les modèles retenus ainsi que la base d'apprentissage et les fichiers de QOD associés (distributions des variables de la base d'apprentissage) - préparer le ou les scripts d'inférence du modèle, qui, au sein d'un container similaire, loaderont le modèle sauvegardé, réaliseront l'inférence en batch, et remonteront les outputs du modèle (probas et métriques de QOD des variables d'entrée notamment) sur Bigquery et/ou sur fichiers locaux - pusher son code sur un serveur Gitlab on-prem pour partage et versioning - Inférence du modèle : - Un container identique au container d'apprentissage mais dépourvu de Rstudio server est démarré de manière automatique par un worker Airflow afin de réaliser un batch d'inférence. Les dossiers contenant les packages, les scripts et les artefacts nécessaires à l'inférence sont montés au run dans le container. - Le container exporte ses résultats (probas et métriques de QOD des variables d'entrée notamment) sur BigQuery et/ou sur disque. - Monitoring : - Une application R shiny portée par un shiny-server accède aux fichiers locaux et/ou aux données remontées sur Bigquery par les jobs d'inférence et affiche : - le suivi des distributions des inputs du modèle - l'évolution des performances à froid du modèle (dans le cas des modèles supervisés et une fois que l'on dispose de suffisamment de recul temporel) Dans le fonctionnement en mode "portage", les modifications sont les suivantes : - Analyse exploratoire / entraînement de modèles : - le container de développement / exploration / training ne tourne plus sur nos machine on-premise mais sur GCP workstations - il ne sert plus uniquement une interface Rstudio Server mais également un jupyterlab et un code-oss (au choix du data scientist) - les artefacts, dont les binaires de modèles entraînés, les packages installés et les autres fichiers créés depuis notre IDE web ne sont plus stockés sur nos serveurs mais sur un bucket GCS - le lien vers Gitlab demeure fonctionnel pour le versioning des codes, mais Gitlab devient également responsable du déploiement du traitement d'inférence : - dans un projet GCP "lab" dédié au prototypage, accessible depuis les workstations et depuis la chaîne de ci Gitlab. - dans un projet GCP "run" dédié à la production, accessible uniquement par la ci/cd Gitlab. - Inférence du modèle : - le container exécutant le traitement batch reste démarré par un appel du serveur Airflow, mais le service Airflow SFR Analytics est remplacé par le service Airflow de l'IT SFR - le container n'est donc plus démarré sur nos serveurs mais sur un Cloud Run en mode job - ce Cloud Run peut être rattaché aux environnements "lab" ou "run" - Monitoring : - l'application shiny de monitoring n'est plus servie par un shiny-server on prem mais est conteneurisée et portée par un Cloud Run tournant en mode service - l'application shiny de monitoring ne lit plus ses données depuis les disques de nos serveurs mais depuis le dataset Bigquery et/ou le bucket GCS où elles sont stockées - de même, le Cloud Run exécutant le shiny peut être rattaché aux environnements "lab" ou "run" Comme dit en introduction, la mission consiste à : - recetter le fonctionnement de la plateforme MLOps en mode portage : fonctionnalités détaillées ci-dessous - démarrer la migration des projets de data science SFR Analytics sur cette plateforme de portage . Par migration des projets de data science existants, on entend le portage des étapes - d'analyse - d'entraînement/test/validation des modèles - de mise en production - et de monitoring des modèles ces deux objectifs peuvent être menés conjointement, la migration des use-cases existants représentant une opportunité de recette en elle-même. La recette inclut notamment les points suivants : - recette de la workstation : - de ses configurations et containers préparamétrés, qui doivent notamment : - proposer : - un ide fonctionnel : Rstudio server, jupyterlab ou code-oss au choix du datascientist - tout le socle permettant l'utilisation des binaires métiers (Python, R, Java, git) ainsi que l'installation / compilation des packages requis par le projet - être démarrés avec : - un montage fuse d'un ou plusieurs buckets GCS en guise de stockage persistant non rattaché à la VM sous-jacente - une authentification GCP héritée de la connexion aux workstations via la console GCP - être connectés à : - Bigquery - GCS - Cloud Run - Gitlab - Harbor - Nexus - de la possibilité de proposer des merge requests sur le repo Gitlab des images docker accessibles par la workstation - ainsi que sur le repo des configuration des clusters de workstations (terraforms) - recette des templates de ci Gitlab de la plateforme, qui doivent notamment permettre de : - builder les images docker d'inférence et de monitoring - créer / modifier les dags exécutés par le serveur Airflow - recette du fonctionnement d'Harbor (container registry) : - check que GCP workstations et Cloud Run se connectent bien à Harbor - check que Gitlab peut pusher les images qu'il a buildées sur notre repo Harbor - recette du fonctionnement de Nexus (package manager) : - check du bon fonctionnement en tant que proxy des principaux repos publics (conda, pypi, cran, posit package manager, huggingface notammment), tant en lab qu'en run - recette du fonctionnement de Airflow (sur l'environnement de run) : - check de la bonne exécution des dags - check de la bonne récupération des logs de tâches GCP dans l'UI Airflow indispensable: '- bonne maîtrise du workflow des projets de machine learning - maîtrise de git et de la chaîne de ci/cd gitlab - maîtrise de docker - maîtrise de l'écosystème GCP, et particulièrement des services mentionnés dans la section "cadre et environnement" (les certifications GCP seront un plus) - connaissance du langage R -expérience de développement de modèles de machine learning Souhaite 'Datascience : analyses descriptives multi variées - recommandations métier issues de ces analyse

CDI

Offre d'emploi
Lead data analyst - CDI

BLOOMAYS
Publiée le
PowerBI
Python
SQL

55k-60k €
Toulouse, Occitanie

Notre client est une scale-up toulousaine qui révolutionne l'impression photo instantanée aux États-Unis depuis 2010. Grâce à ses applications mobiles et web, elle permet aux utilisateurs de commander leurs photos et de les récupérer en moins d'une heure dans plus de 20 000 points de vente (Walmart, Walgreens, CVS) En tant que Lead Data Analyst, tu es à la fois référent technique et acteur stratégique. Tu encadres une équipe d’analystes, définis la vision data de l’entreprise, assures l’excellence analytique, et contribues activement aux choix structurants pour nos produits et notre stratégie business. 🎯 Tes missions principales : Définir, structurer et piloter la roadmap data avec les parties prenantes (Produit, Business, Engineering). Encadrer, coacher et faire monter en compétence les Data Analysts de l’équipe. Garantir la qualité, la rigueur et la fiabilité des livrables analytiques. Conduire des analyses complexes pour répondre à des enjeux stratégiques. Instaurer une culture de veille et d’innovation continue (outils, frameworks, bonnes pratiques). Représenter l’équipe data lors des comités transverses et événements internes.

CDI

Offre d'emploi
Data analyst Senior - CDI

BLOOMAYS
Publiée le
PowerBI
Python
SQL

50k-55k €
Toulouse, Occitanie

Notre client est une scale-up toulousaine qui révolutionne l'impression photo instantanée aux États-Unis depuis 2010. Grâce à ses applications mobiles et web, elle permet aux utilisateurs de commander leurs photos et de les récupérer en moins d'une heure dans plus de 20 000 points de vente (Walmart, Walgreens, CVS) En tant que Data Analyst Senior, tu es au cœur des décisions stratégiques. Tu interviens sur des projets analytiques de bout en bout : définition des besoins, exploration de données, modélisation avancée, mise en place de dashboards… tout en participant activement à l’amélioration des standards analytiques de l’équipe. 🎯 Tes missions principales : Mener des analyses complexes (modélisation, segmentation, prévisions) pour éclairer les décisions des équipes Produit, Business et Tech. Transformer les besoins métiers en solutions analytiques robustes, fiables et scalables. Accompagner les Data Analysts juniors via du mentoring et des revues régulières. Participer à la formalisation des bonnes pratiques analytiques. Être force de proposition sur de nouveaux outils, frameworks ou méthodes pour enrichir notre culture data.

CDI

Offre d'emploi
[CDI] Data Analyst / Développeur BI – MSBI / GCP

Hexateam
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

40k-60k €
Paris, France

Nous recherchons un Data Analyst / Développeur BI Senior pour renforcer l’équipe Data. Votre rôle : - Réaliser les reportings et tableaux de bord. - Assurer la maîtrise et la modélisation des données. - Concevoir, développer et maintenir des solutions BI performantes, optimisées et réutilisables. - Réaliser des tests fonctionnels et des recettes métiers. - Garantir l’application des bonnes pratiques de développement BI. - Produire la documentation technico-fonctionnelle en fin de sprint. - Conseiller et accompagner les équipes métiers (devoir de conseil). - Collaborer étroitement avec le Product Owner et l’équipe de développement. - Concevoir des maquettes en lien avec le Product Owner. - Participer à l’assistance utilisateurs (formation, transmission de connaissances, support niveau 3). - Débloquer et accompagner les autres développeurs si nécessaire.

Freelance

Mission freelance
Mission Freelance – Data Analyst (Orléans)

Mobiskill (WEFY Group)
Publiée le
Data analysis
Informatica

3 ans
360-550 €
Orléans, Centre-Val de Loire

📍 Mission Freelance – Data Analyst (Orléans) Nous recherchons un Data Analyst pour une mission longue durée (3 ans) au sein d’un grand groupe basé à Orléans. 🎯 Contexte & Missions Vous interviendrez dans le cadre de la sécurisation des travaux RUN , avec pour responsabilités principales : Sécuriser la gestion et renforcer la fiabilité des processus existants Traiter les demandes d’évolution et améliorer la robustesse de la solution Assurer la gestion du RUN au quotidien Renforcer la supervision et la qualité des données 🔧 Environnement technique Informatica (maîtrise impérative) Power BI VB SQL Méthodologie agile – intégration au sein d’une équipe expérimentée 💼 Modalités de la mission Lieu : Orléans (possibilité de télétravail 2 jours/semaine après montée en compétences) Durée : 3 ans Démarrage : ASAP

CDI

Offre d'emploi
Data Analyst Power BI (H/F)

SYD CONSEIL MANAGEMENT
Publiée le

40k-45k €
Nantes, Pays de la Loire

🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes (44) 🏠 Télétravail : 1 jour par semaine ( non négo ) ✔Démarrage ASAP ou sous 3 mois ✏ CDI client final (pré-embauche) 👉 Contexte client : Dans le cadre de notre développement, nous recherchons un Data Analyst Power BI (H/F) afin d'intégrer la DSI de notre client. Tes responsabilités principales sont : Participer aux projets de mise en place de Snowflake, Power BI et Azure Améliorer la structuration et la qualité de la donnée Collaborer avec les différentes parties prenantes : intégrateurs, métiers, DSI ...

Freelance
CDI

Offre d'emploi
Data Analyste (RH)

JPG Consulting Partners
Publiée le
Microsoft Excel
Powerpoint
SIRH

3 mois
Île-de-France, France

Nous recherchons un(e) consultant(e) Data RH expérimenté(e) pour accompagner une organisation publique dans la structuration et la gouvernance de ses données RH, dans le cadre d’un projet stratégique de modernisation de son SIRH. 🎯 Vos missions : Identifier, classer et qualifier les données RH selon leur sensibilité, leur usage métier et les outils en place Élaborer une nomenclature claire et hiérarchisée : métadonnées, attributs, standards de qualité Cartographier les liens entre les données, les processus RH et les glossaires existants Décrire les indicateurs RH clés, sourcer les données, et les intégrer dans la taxonomie Rédiger un document structurant présentant la démarche de taxonomie et ses niveaux de maturité

Freelance

Mission freelance
Data Analyst Expert - Qlik Sense & PowerBI

KEONI CONSULTING
Publiée le
autonomie
Business Analyst
Microsoft Power BI

18 mois
100-400 €
Paris, France

CONTEXTE Experience : 8 ans et plus Métiers Fonctions : Data Management :Data Analyst Spécialités technologiques : Data Visualisation, Restitution Contexte : Le Data Analyst aura pour mission de structurer les fondations méthodologiques et techniques nécessaires à la diffusion d’indicateurs fiables et exploitables pour une direction métier. Il aura pour mission de centraliser les données issues de multiples sources, d’en assurer la transformation, puis d’industrialiser leur traitement au travers de pipelines performants, pour les visualiser dans Power BI, Qlik Sense, etc. MISSIONS Le Data Analyst aura potentiellement la charge de plusieurs domaines de données au sein du département. En lien étroit avec l’architecte/expert data et les métiers, il sera responsable de la chaîne complète de traitement et de valorisation des données, depuis la compréhension du besoin jusqu’à la mise en production et la maintenance des applications décisionnelles. Il jouera un rôle clé dans cette dynamique, en prenant en charge la structuration des flux, l’optimisation des performances. Il devra allier expertise technique et compréhension des enjeux métiers pour garantir la qualité, la cohérence et la disponibilité des données. Appuyé par les standards et les outils mis à disposition par les équipes data transverses, il travaillera en forte autonomie sur les projets qui lui seront confiés. Activités : - Recueil et formalisation des besoins métier - Animer des ateliers avec les utilisateurs métiers pour comprendre leurs enjeux et besoins en reporting, datavisualisation et indicateurs. - Rédiger des spécifications fonctionnelles et techniques (cahiers des charges, dictionnaires de données, définitions d’indicateurs). - Identifier et challenger les sources de données disponibles. - Prototypage et maquettes - Concevoir des maquettes d’écrans (wireframes, prototypes Power BI ou Qlik Sense) pour validation métier. - Proposer des choix de visualisation pertinents en fonction des usages (tableaux de bord stratégiques, opérationnels, analytiques). - Conception et modélisation des données - Définir et mettre en oeuvre la modélisation back-end : datamarts, hubs data, modèles dimensionnels (étoile,flocon) ou data vault. - Écrire et optimiser les requêtes SQL ou pipelines (via Dataiku ou autres outils ETL/ELT) pour alimenter les modèles. - Mettre en place des pré-calculs ou agrégations pour optimiser les performances. - Développement des applications décisionnelles - Développer les dashboards et rapports dans Power BI et/ou Qlik Sense en respectant les standards UX/UI et les bonnes pratiques data. - Paramétrer la sécurité des données : ségrégation de données (row-level security), restrictions d.accès en conformité avec la politique RGPD. - Garantir la performance et la fiabilité des restitutions. - Tests et recette - Concevoir et exécuter les tests unitaires et d’intégration. - Préparer et accompagner la recette métier. - Corriger les anomalies détectées. - Maintenance évolutive et corrective - Faire évoluer les applications existantes selon les nouveaux besoins ou changements réglementaires. - Surveiller la qualité des données et les performances. - Rédiger et maintenir la documentation technique et fonctionnelle. - Collaboration et amélioration continue - Travailler en étroite collaboration avec l’architecte data, les autres data analysts et l.équipe métier. - Participer aux rituels d’équipe. Expertise souhaitée 8 ans d'expérience minimum sur des fonctions similaires de Data Analyst Maitrise des outils Qlik Sense et idéalement Power BI Excellente maitrise de Dataset (conception & extraction de données) Valorisation des données Big Data En capacité d'accompagner et de challenger les métiers

Freelance

Mission freelance
Data Analyste référentiel H/F

S-quaar
Publiée le
Master Data Management (MDM)
Microsoft Excel
SQL

6 mois
400-450 €
Brest, Bretagne

Lieu : Brest (29) TJM : 400 à 450 € / jour HT Rythme : 1 jour de télétravail à l’issue d’une période d’intégration Nous recherchons pour notre client, acteur industriel, un Data Analyste Référentiel H/F pour une mission Freelance de 6 mois. Cette mission s'inscrit dans le cadre d’un renforcement des équipes SI sur des sujets stratégiques de gestion et de fiabilisation des données statiques et dynamiques de la base article (+10 000 articles référencés). VOS MISSIONS : Au sein d’une équipe à taille humaine et rattaché au pôle Systèmes d’Information et à l’équipe projet ERP (pour la partie Build) , et dans le cadre d’un projet de déploiement d’un ERP sur 8 sociétés et de l’intégration de 8 bases articles hétérogènes dans le référentiel core model, vos missions consistent à : - Compiler et consolider les données articles (statiques et dynamiques) dans un objectif de qualité et de fiabilité. - Contrôler la qualité des données et assurer leur cohérence dans les outils de gestion avant intégration dans le référentiel Core Model. - Transmettre les données consolidées à la Responsable Applicatif du référentiel Core Model pour intégration et contrôle (travail en binôme). - Gérer et enrichir les référentiels de données articles via des requêtes SQL : création ; mise en gamme ; référencement. . - Réaliser des extractions, traitements et manipulations de bases de données via SQL et Excel . - Proposer des axes d’amélioration dans les méthodes de collecte, de traitement, de contrôle et d’intégration de la donnée. - Run – Dans le cadre de l’interopérabilité du référentiel Article Core Model avec différents ERP - Travailler en interaction avec les équipes métiers et IT pour optimiser l’exploitation et la robustesse de la donnée statique et dynamique. - En lien avec les équipes Exploitation et Talend, mettre en place des contrôles pour s’assurer des mises à jour et de la fiabilité des données Environnement Technique : SQL, Excel (niveau avancé), outils MDM, SI internes.

Freelance
CDI

Offre d'emploi
Data Analyst Observabilité

Lùkla
Publiée le
ELK
Grafana
Kibana

3 ans
49k-60k €
400-550 €
Yvelines, France

Dans le cadre de la transformation digitale et de la montée en puissance des systèmes d'information, notre client, un acteur majeur du secteur bancaire, renforce son équipe dédiée à l'observabilité de ses systèmes. L’objectif est de garantir la visibilité, la performance et la fiabilité des applications critiques via une meilleure exploitation des données de monitoring, de logs et de métriques. Missions principales En tant que Data Analyst Observabilité , vos missions incluront : Collecte et analyse des données issues des outils de monitoring (APM, logs, métriques, traces, etc.) Création de dashboards pertinents pour piloter la santé des systèmes (via Grafana, Kibana, Datadog ou équivalent) Mise en place d’indicateurs de performance et d’alerting pour prévenir les incidents Collaboration avec les équipes SRE, DevOps et IT Ops pour identifier les points de friction et axes d’amélioration Contribution à la définition de la stratégie d’observabilité globale (standardisation, automatisation, industrialisation) Participation aux post-mortems et analyse des incidents pour améliorer la résilience des systèmes

Freelance

Mission freelance
Data Analyst

COEXYA
Publiée le
Data analysis

4 mois
400-480 €
Lyon, Auvergne-Rhône-Alpes

Un grand compte du secteur Assurance recherche un Data Analyst expérimenté pour rejoindre son pôle Data et Intelligence. Cette mission s’inscrit dans le cadre de projets structurants visant à renforcer la maîtrise des risques, améliorer le pilotage et accompagner la transformation de l’entreprise. Sous la supervision d’un responsable du pôle, vous contribuerez à la conception et à la maintenance d’outils de pilotage, ainsi qu’à l’analyse des données afin d’éclairer les décisions stratégiques. Vous interviendrez en étroite collaboration avec les équipes métiers et techniques. Vos missions : Recueillir les besoins métiers et accompagner les équipes dans l’expression de leurs besoins. Réaliser des études ponctuelles sur la base des données existantes (QlikSense, QlikView) et rédiger des préconisations. Créer ou mettre à jour des applications de pilotage selon les normes internes (principalement sous QlikSense). Extraire et manipuler des données via SQL. Participer aux réunions et aux groupes de travail liés aux projets confiés. Développer des traitements ETL via Informatica. Vous serez intégré à une équipe data dynamique et participerez activement à des projets à fort impact sur la performance globale de l’entreprise.

Freelance

Mission freelance
Data Analyst Confirmé

STHREE SAS pour HUXLEY
Publiée le

18 mois
750-800 €
Roissy-en-France, Île-de-France

A. Analyse des données existantes Étudier les structures de données complexes issues de systèmes Mainframe. Travailler avec les équipes techniques pour comprendre les règles d'extraction et de traitement des données. Participer à l'analyse des flux batch et de leur transformation vers une architecture cible. B. Data Mapping & Transformation Élaborer des documents de mapping détaillés entre les anciennes sources (in/out)Mainframe et la cible (Data Lake…). Spécifier les règles de transformation (calculs, concaténations, pivotages) à intégrer dans les outils ETL. Collaborer avec les développeurs ETL/API pour tester et valider les jobs de transformation. C. Contrôle qualité et validation Mettre en place un cadre robuste de contrôle qualité des données migrées. Réaliser des audits de cohérence entre l'ancien et le nouveau système (réconciliation des indicateurs clés, traçabilité). Gérer les phases de validation progressive pour sécuriser les mises en production par lots (cut-over partiels, big bang, etc.). D. Continuité de reporting métier Analyser les besoins de reporting opérationnel et réglementaire pendant la période transitoire. Garantir que les rapports critiques (finance, risque, conformité, etc.) restent disponibles et cohérents. Identifier les écarts éventuels entre les jeux de données Mainframe et les données migrées, et alerter sur les impacts. E. Documentation & Suivi Documenter l'ensemble des règles de mapping, des spécifications de qualité et des plans de test. Produire des dashboards de suivi de migration, de la qualité des données, et de traçabilité. Participer aux comités de suivi projet pour exposer les résultats d'analyse et les indicateurs de qualité.

Freelance

Mission freelance
Business Data Analyst Finance - TM1 / Power BI (F/H)

Mindquest
Publiée le
Cognos
Microsoft Power BI

30 jours
110-560 €
Paris, France

Le/la consultant(e) interviendra en étroite collaboration avec les équipes métiers (commerce, direction) et la DSI. Les principales responsabilités seront : Analyser les tableaux de bord existants et recueillir les attentes auprès des utilisateurs, Repenser et développer des dashboards sous Power BI, en privilégiant lisibilité, interactivité et pertinence, Être force de proposition sur les KPI, les axes d’analyse et les formats visuels, Challenger la pertinence des indicateurs existants et proposer des alternatives plus efficaces, Réaliser les développements dans Power BI à partir des datasets fournis (et les faire évoluer si nécessaire), Accompagner les utilisateurs dans la prise en main des nouveaux outils (documentation, transfert de compétences), Mettre en place l’automatisation de l’envoi des KPI auprès de la force de vente.

Freelance

Mission freelance
Support - Business et Data Functional Analyst

Clémence Consulting
Publiée le
Business Analysis
Data management
Rédaction des spécifications fonctionnelles

12 mois
Paris, France

Au sein d'une équipe en charge des référentiels (Banque Finance) sur des outils de gestion de produits, portefeuilles et de leur cycle de vie. Assurer la continuité et la fiabilité : traitement des incidents, habilitations, listes de valeurs... Prendre en charge la traduction fonctionnelle vers technico-fonctionnelle pour les évolutions du modèle de données. Documenter de manière claire et exploitable (process, specs, modes opératoires).actii Proposer et challenger des évolutions en lien avec les besoins métiers et les contraintes techniques. Parmi les activités: Suivi et documentation des incidents (via outil de ticketing). Gestion des habilitations et incidents (en lien avec autre équipe). Mise à jour des listes statiques (selon arbre de décision). Suivi des mass-updates (création + modification). Documentation & qualité Rédiger des spécifications technico-fonctionnelles exploitables par les devs. Produire des modes opératoires clairs, illustrés et autoporteurs. Maintenir à jour la documentation Évolutions & projets Participer à la définition des évolutions du modèle. Être force de proposition technique/fonctionnelle (ex : clés fonctionnelles, fusion d’entités, élargissement du modèle de données). Contribuer aux ateliers de cadrage et aux tests.

117 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous