Trouvez votre prochaine offre d’emploi ou de mission freelance okta à Paris

Votre recherche renvoie 218 résultats.
Freelance

Mission freelance
Product Owner Workplace - MDM

STHREE SAS pour HUXLEY
Publiée le

6 mois
480 €
75001, Paris, Île-de-France
Vous trouverez ci-dessous le descriptif de la mission : Un programme a été lancé en 2019, il s'agit un programme Digital Workplace appelé One Workplace Program . Ce programme a pour objectif de développer des produits modernes globaux, destinés à être déployés dans l'ensemble du groupe dans les années à venir. Dans le cadre de ce programme, la Devices Product Line définit une vision et une stratégie innovantes pour l'usage, la coordination et la mise en œuvre, dans toutes les entités, des appareils Modern Workplace (Windows, Mac, Mobile), incluant le Virtual Desktop, tout en assurant la transition des environnements legacy. Au sein de cette Product Line, nous avons créé un produit moderne managé, basé sur un Windows 10 à jour et géré dans le cloud (Microsoft Intune), appelé Windows Edition . Nous avons mis en place une Feature Team dont la mission est de construire le produit, d'assurer le Release Management, ainsi que de garantir le déploiement auprès de nos clients (les différentes entités du groupe) en configurant les setups associés. La Feature Team interagit avec plusieurs Product Owners : Un Product Owner en charge du Release Management pour les évolutions globales (nouvelles fonctionnalités, mises à jour, corrections de bugs). Des Integration Product Owners responsables du déploiement de Windows Edition dans les entités AXA (chaque PO couvrant un périmètre spécifique). Vous rejoindrez l'équipe en tant que « Integration Product Owner » . Objectifs principaux Vous devrez : agir comme le miroir du PM en suivant les activités de l'entité pour intégrer le produit ; construire le backlog de déploiement de Windows Edition pour chaque nouvelle entité rattachée au périmètre ; organiser des ateliers afin de collecter les besoins des entités ; créer les items de backlog pour la Feature Team, construire le planning des releases et communiquer l'avancement ; collaborer avec les autres Product Owners de Windows Edition et le PM pilotant la roadmap, dans une organisation de type scrum of scrums . Activités principales Vous ferez partie de l'organisation agile, fondée sur des livraisons itératives, incluant : la préparation du sprint planning pour définir le contenu du sprint backlog ; la préparation de la sprint review avec la Feature Team, incluant une démonstration des éléments du sprint ; la participation aux rétrospectives pour travailler sur les actions d'amélioration ; la participation aux Steering Committees avec les entités lors de l'onboarding ; la participation aux Steering Committees mensuels pilotés par le service PM avec le Senior Management Workplace.
Freelance
CDI

Offre d'emploi
Data Engineer Streaming

KLETA
Publiée le
Apache Kafka
Apache Spark

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Streaming / Real-Time pour concevoir, optimiser et industrialiser des plateformes de traitement de données en temps réel. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines événementiels, optimisation des traitements stream, passage vers des architectures plus scalables et résilientes) et guiderez leur mise en œuvre avec Kafka, Flink, Spark Streaming ou équivalents. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation en temps réel, de l’amélioration des performances et de l’intégration de mécanismes de tolérance aux pannes et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de streaming et d’event-driven architecture. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance

Mission freelance
Expert SAS & data lake ( SAS & Teradata & GIT & Ansible & AWK & SQL & DDL)

WINSIDE Technology
Publiée le
SAS
Teradata

3 ans
400-550 €
Paris, France
Dans le cadre de ses activités, le client gère une infrastructure et une application nommée PUMP reposant sur le logiciel SAS adossé à une base de données Teradata. La prestation consiste à assurer la maintenance et le support aux utilisateurs de la plateforme PUMP existante ainsi qu'à s'assurer de la bonne alimentation des bases de données qui sont un prérequis à la réalisation des travaux réglementaires de back-testing. Le périmètre de l'application concerne aussi bien des utilisateurs métiers RISK en France que nos filiales à l'international (Anglais Obligatoire). Les missions sont: - Administration de la plateforme SAS : Ajout d'utilisateurs et configuration de nouveaux Authentication Domain et Logical Application Server (SMC) - Mise en place des scripts SAS et SHELL de load des données en base - Automatisation du chargement des scripts de chargement développés - Analyse des chargements en base de données - Vérification du bon chargement des sources en base de données conformément au MCD défini suivant une procédure de tests formalisée, Compétences et expertises requises - Connaissance approfondie du logiciel SAS - Capacité de développer des programmes SHELL d'ordonnancement de traitements SAS de chargement de base de données Teradata - L'environnement est très technique il faut une bonne capacité d'adaptation sur des technologies diverses (GIT, awk, SQL, DDL Teradata, Ansible, Agile SCRUM) Livrables - Mise en place des scripts de chargement des données en base et documentation des scripts - Automatisation des scripts de chargement des données en base et documentation des scripts - Automatisation des scripts de chargement développés (traitements batch)
CDI
Freelance

Offre d'emploi
Consultant Power BI / Azure Data Factory (H/F)

Webnet
Publiée le
Azure
Azure Data Factory
BI

12 mois
48k-55k €
480-550 €
Paris, France
Dans le cadre du renforcement d’une équipe Data, nous recherchons un Consultant Power BI / Azure Data Factory pour intervenir sur des projets décisionnels dans un environnement Microsoft Azure . Vous aurez pour missions : Au sein de l’équipe Data et en collaboration avec le chef de projet, vous interviendrez sur les activités suivantes : Développer et faire évoluer des rapports et tableaux de bord Power BI Concevoir et maintenir des pipelines de données avec Azure Data Factory Développer et optimiser des scripts SQL, vues et procédures stockées Participer à la modélisation des données Proposer des optimisations de performance et d’architecture Data Rédiger la documentation technique et les spécifications Gérer le versionning du code via Git / TFS Participer aux processus de déploiement CI/CD Préparer les livrables pour les mises en production
Freelance
CDI

Offre d'emploi
Data Engineer Kubernetes

KLETA
Publiée le
Helm
Kubernetes

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Kubernetes pour concevoir, optimiser et industrialiser des plateformes de traitement de données déployées sur des environnements conteneurisés. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, containerisation des traitements, optimisation de l’orchestration et de la scalabilité) et guiderez leur mise en œuvre avec Kubernetes et les outils associés (Helm, ArgoCD, Operators, Kubernetes Jobs). Vous serez responsable de la conception et de la fiabilisation des pipelines data exécutés sur Kubernetes, de l’amélioration des performances et de l’intégration de mécanismes de résilience, d’observabilité et de gestion des ressources. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering en environnement Kubernetes. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre premium
Freelance

Mission freelance
Data Analyst - Expert Excel VBA

Keros group
Publiée le
Microsoft Access
Microsoft Excel
VBA

12 mois
300-450 €
Paris, France
Secteur : immobilier Dans le cadre d’un programme stratégique d’intégration de sociétés récemment acquises, nous recrutons un(e) Analyste Préparation de Données & Migration . Intégré(e) à la direction en charge des projets d’intégration, vous jouez un rôle clé dans : L’analyse et la compréhension des données sources Leur normalisation et préparation Leur migration vers les systèmes internes cibles Vous intervenez en interaction étroite avec les équipes IT, comptables, chefs de projets et équipes locales. Rattachement hiérarchique Poste rattaché à la Direction des Projets d’Intégration. Vos missions 1️⃣ Analyse, structuration et préparation des données Analyse des exports issus des outils métiers des sociétés intégrées Identification des spécificités et cas particuliers propres à chaque environnement Nettoyage, normalisation et organisation des données selon les standards internes Vérification de la complétude et de la cohérence des jeux de données 2️⃣ Réalisation des opérations de migration Préparation des jeux de données destinés aux imports Constitution des fichiers structurés par lots fonctionnels Réalisation des transcodages et enrichissements nécessaires Génération des fichiers destinés aux outils/kits de migration Tenue d’un journal des corrections et ajustements Contrôles post-migration : Rapprochements volumétriques (lots, contrats, interventions…) Rapprochements comptables (budgets, quittancement…) Contrôle de cohérence des références métiers Établissement d’une check-list finale et recensement des écarts 3️⃣ Contrôle qualité & sécurisation des données Mise à jour des tableaux de bord de contrôle Suivi des indicateurs qualité (taux de complétude, erreurs, écarts avant/après mapping) Identification, correction et documentation des anomalies Tenue d’un registre des écarts et actions correctives 4️⃣ Collaboration transverse Coordination avec les équipes IT, comptabilité et chefs de projets Interaction avec les agences locales pour clarifier et collecter les données Accompagnement et vulgarisation des besoins data 5️⃣ Standardisation & amélioration continue Documentation des règles, processus et modèles utilisés Optimisation continue des méthodes de transformation Proposition d’améliorations pour réduire les délais et fiabiliser les traitements Participation aux retours d’expérience post-migration Mise à jour des guides et templates opérationnels 6️⃣ Partage & montée en compétence Transmission des bonnes pratiques Contribution à la montée en compétence des équipes Modalités Déplacements ponctuels en agence possibles (audit et migration)
CDI

Offre d'emploi
Chef Cheffe de projet Data/IA F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Flask
Git
Python

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Architecte technique / Expert réseau sécurité Datacenter

PROPULSE IT
Publiée le

24 mois
400-800 €
Paris, France
PROPULSE IT Recherche pour un de ses clients grands comptes : Un Architecte technique / Expert réseau sécurité Datacenter L'objectif est d'assister le client dans la conception, mise en œuvre et industrialisation Infra réseau et sécurité au sein des datacenters. L'intervenant doit obligatoirement avoir des compétences avancées en : ▪ Conception d'architecture réseau complexe en datacenter ▪ Déploiement de projet d'envergure en réseau et sécurité ▪ Etudes de faisabilité technique et financière (DAT et Chiffrage des propositions) ▪ Support N2 et N3 sur des infras critiques en production ▪ Maitrise technique avancée les technologies Cisco Nexus/VXLAN, firewall Fortinet, Checkpoint et Palo Alto, F5 LTM et APM, Proxy ZScaler Mission : Etude et analyse des opportunités d'évolution des infras Réseau & Sécurité Mise en œuvre de projets d'infras réseau & sécurité Support technique sur les technologies réseau & sécurité
Freelance
CDI

Offre d'emploi
📩 Data Engineer Microsoft Fabric

Gentis Recruitment SAS
Publiée le
Apache Spark
Azure Data Factory
Azure Synapse

12 mois
40k-45k €
400-500 €
Paris, France
Nous recherchons actuellement un Data Engineer pour intervenir au sein d’un grand groupe international du secteur du luxe (cosmétique & parfums), dans le cadre du renforcement de ses équipes data. Contexte Vous interviendrez sur la mise en place et l’optimisation d’une plateforme data moderne basée sur Microsoft Fabric, avec des enjeux autour de la centralisation, de la transformation et de la valorisation des données métiers. Missions principales Développer et maintenir des pipelines de données sur Microsoft Fabric Participer à la conception de l’architecture data (Lakehouse, Data Warehouse) Intégrer et transformer des données issues de multiples sources Assurer la qualité, la fiabilité et la performance des flux de données Collaborer avec les équipes Data, BI et métiers Contribuer aux bonnes pratiques Data Engineering (CI/CD, monitoring, documentation) Stack technique Microsoft Fabric Azure Data Factory / Synapse (ou équivalent) Python / SQL Data Lake / Lakehouse Git / CI-CD Profil recherché 3 à 4 ans d’expérience en Data Engineering Première expérience sur Microsoft Fabric ou forte appétence sur l’écosystème Microsoft data Bonne maîtrise de Python et SQL Expérience sur des environnements cloud (idéalement Azure) Bon niveau d’anglais Soft skills Esprit analytique Autonomie Capacité à monter rapidement en compétence Bonne communication avec les équipes métiers
Freelance

Mission freelance
Data Manager (Power BI)

STHREE SAS pour COMPUTER FUTURES
Publiée le
Microsoft Power BI

6 mois
Paris, France
L’entreprise recherche un expert pour piloter et renforcer la gouvernance BI & Analytics ainsi que la feuille de route du programme, qui vise à harmoniser et professionnaliser les pratiques data à l’échelle de l’organisation. La mission consiste à : Superviser le programme (rationalisation des périmètres, standardisation, amélioration du delivery, opérationnalisation du modèle de fonctionnement). Assurer la gouvernance BI & Analytics au quotidien. Faire du dashboarding (Power BI) Garantir la bonne application des standards Data : Data Governance, Data Quality, Data by Design, et la documentation associée. Contribuer au processus Data by Design avec le DPO, les Data Architects et les équipes projet. Accompagner les Business Data Owners et Data Stewards dans la gestion et la qualité des données, notamment sur certains domaines critiques comme le domaine RH. Livrables attendus : supports de pilotage (COPIL), roadmaps, suivi financier, gestion des risques, documents de gouvernance, inventaires, documentation standardisée, modèles de données et data dictionaries.
CDI
Freelance

Offre d'emploi
Senior Consultant / Expert Technico-Fonctionnel Informatica MDM (H/F) – CDI

CAPEST conseils
Publiée le
Informatica
Master Data Management (MDM)

12 mois
Paris, France
A pourvoir de préférence en CDI chez le client final mais je regarderai également les profils des candidats qui souhaitent rester indépendants (je vais avoir d'autres besoins sous peu). Pour ce poste , des déplacements réguliers devront être effectués en Province. Dans le cadre du renforcement de notre plateforme data et de notre stratégie de gouvernance des données , nous recherchons un Consultant Senior Technico-Fonctionnel Informatica MDM . Vous rejoindrez une équipe de 5 experts data dédiée au Master Data Management , responsable de la gestion et de la fiabilisation des données de référence (Customer, Partner, Product, etc.). Vous interviendrez sur l’évolution et l’exploitation de la plateforme Informatica Master Data Management , au cœur des enjeux de data governance, data quality et data integration . Vos missionsExpertise et évolution de la plateforme MDM Apporter votre expertise sur la solution Informatica MDM . Concevoir et faire évoluer les modèles de données de référence (Customer / Party / Product / Organization) . Paramétrer et configurer les composants MDM (data model, match & merge, survivorship rules). Participer à l’architecture et aux évolutions de la plateforme MDM. Conception technico-fonctionnelle Animer des ateliers avec les équipes métiers et les data owners. Traduire les besoins en spécifications fonctionnelles et techniques . Participer aux phases de développement, configuration et intégration. Piloter les phases de tests, recette et déploiement . Gouvernance et qualité des données Contribuer à la mise en œuvre des pratiques de data governance et data quality . Définir et suivre les règles de matching, déduplication et consolidation des données . Participer à l’amélioration des processus de gestion des données de référence. Leadership et collaboration Être référent technique MDM au sein de l’équipe. Accompagner les équipes métiers dans l’usage et la compréhension des données. Participer à la montée en compétence des membres de l’équipe.
Freelance
CDI

Offre d'emploi
Tech Lead Data Engineer - Databricks / AWS

VISIAN
Publiée le
Apache Airflow
API
AWS Cloud

3 ans
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Freelance

Mission freelance
Expert Cloud Data/IA AWS/GCP (H/F) - Freelance

GROUPE ARTEMYS
Publiée le

1 mois
75010, Paris, Île-de-France
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Agil-IT , située à Isneauville (près de Rouen) est une entité spécialisée en Data, Développement et pilotage de projets IT. Forte de plus de 20 ans d’expertise , elle accompagne les entreprises, principalement implantées en Normandie dans leur transformation digitale. C’est au sein de cette entité, que se développe notre expertise Data. Chiffres clés : 7,8 M€ de CA | 65 consultants en 2025 Une structure à taille humaine où vos compétences et votre savoir être font la différence. Reconnue pour son exigence technique et ses valeurs humaines, elle est aujourd’hui un acteur clé en offrant des prestations d ‘audit , de conseil , de mise en œuvre , de migration , de support et des formations pour diverses clients. Votre mission (si vous l’acceptez) : Projet 1 – Run & évolution plateforme IA générative (AWS) Reprendre en main une plateforme existante Assurer son maintien en conditions opérationnelles (MCO) Contribuer à son amélioration continue Projet 2 – Migration & adoption GCP Définir une architecture cible Cloud GCP Réaliser des POC Industrialiser et accompagner les équipes Missions principales 1. Prise en main & transfert de connaissances Organisation et participation aux ateliers Cartographie documentaire et identification des gaps Validation de l’autonomie technique 2. Run / MCO (AWS) Traitement des incidents, demandes et évolutions Suivi des opérations et documentation Application des pratiques FinOps (optimisation des coûts) 3. Amélioration continue Contribution aux choix techniques Veille technologique proactive (AWS) 4. Conseil & architecture (GCP) Benchmark des solutions Cloud Définition d’architecture cible Construction de la stratégie de migration hybride (On-Prem → GCP) 5. Expérimentation & industrialisation Réalisation de POC Déploiement industrialisé (Terraform, CI/CD, monitoring) 6. Acculturation & formation Création de démonstrateurs Animation d’ateliers de montée en compétences Le terrain de jeu ? AWS (RUN + IA générative) Compute : Lambda, ECS, Fargate IA/Data : SageMaker, OpenSearch, Comprehend, Rekognition Sécurité : IAM, KMS, Secrets Manager Data : S3, Neptune Observabilité : CloudWatch, CloudTrail GCP (BUILD & transformation) Data : BigQuery, Dataflow, Dataproc IA : Vertex AI, AutoML Compute : GKE, Cloud Run, Functions DevOps : Terraform, CI/CD Sécurité : IAM, KMS, Security Command Center Compétences transverses Architecture Cloud hybride (On-Prem / Cloud) Design scalable & sécurisé Industrialisation MLOps / DataOps Infrastructure as Code (Terraform) FinOps Analyse et optimisation des coûts Cloud Pilotage de la consommation (notamment IA) Le profil que nous recherchons : Vous avez 5 à 10 ans d’expérience minimum dans un environnement challengeant Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Échange opérationnel : Je propose votre candidature au référent (Commercial, SDM, coordinateur…) du compte client, qui échange ensuite avec vous afin de valider votre adéquation avec le besoin. Proposition de mission : Si tout colle, on propose votre CV à notre client ! Conditions de rémunération : Statut : Indépendant / Freelance TJM : Entre 500€ et 650€ (Selon votre expertise) 2 jours sur site à Colombes / semaine Démarrage Juin 2026 Mission de 6 mois renouvelable Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Freelance

Mission freelance
Data Engineer Informatica Talend Power B.I SQL (F/H)

CELAD
Publiée le
Big Data
Informatica
Microsoft Power BI

12 mois
400-460 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Data Engineer – Plateforme Epargne Financière pour intervenir chez un de nos clients du secteur bancaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Sécuriser la gestion de l’actualisation de l’offre Epargne Financière en lien avec les équipes partenaires distributeurs et producteurs. - Faire évoluer la solution en respectant les standards à jour : implémentation de changements à valeur ajoutée pour le business et traitement de la dette technique. - Contribuer à la gestion du RUN et renforcer la robustesse de la solution. - Renforcer la supervision et la qualité des données.
Freelance

Mission freelance
Data Engineer Python / Azure Cloud (H/F)

Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)

12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet
Freelance
CDI

Offre d'emploi
Data Analyst

KLETA
Publiée le
PowerBI
Reporting

3 ans
Paris, France
Dans le cadre d’un programme de transformation data et décisionnelle, nous recherchons un Data Analyst pour analyser, structurer et valoriser les données au service des décisions métiers. Vous travaillerez étroitement avec les équipes métiers pour comprendre leurs besoins, définir des indicateurs pertinents et proposer des analyses adaptées. Vous serez responsable de l’exploration des données, de la construction de modèles analytiques simples et de la création de tableaux de bord lisibles et actionnables via des outils tels que Power BI, Tableau, Qlik ou équivalents. Vous participerez à la définition et à la fiabilisation des KPIs, en collaboration avec les équipes Data Engineering pour garantir la qualité et la cohérence des données sources. Vous réaliserez des analyses ad hoc, identifierez des tendances et formulerez des recommandations basées sur les données. Vous contribuerez également à la documentation des analyses, à la structuration des reportings et à l’amélioration continue des usages data au sein de l’organisation.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

218 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous