Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 159 résultats.
CDI

Offre d'emploi
Consultant·e Senior Data et Power BI

Publiée le

40k-60k €
France
Télétravail partiel
Nous recrutons en CDI un·e Consultant.e Senior Data & BI - Microsoft Fabric & Power BI ! Vous rejoignez une équipe orientée Business Applications et Intelligence Artificielle, avec pour mission de structurer et développer la pratique Data autour de Microsoft Fabric et Power BI. Ce rôle est stratégique pour accompagner nos clients dans la modernisation de leurs solutions analytiques. Vos futurs défis : o Architecture & Data Engineering - Déployer des solutions Microsoft Fabric (OneLake, Lakehouse, Dataflows Gen2, pipelines). - Mettre en place la gouvernance des données, la sécurité et les processus CI/CD. - Collaborer avec les experts Business Apps & IA pour intégrer la donnée dans les applications métiers. o Business Intelligence & Reporting - Concevoir des rapports et dashboards interactifs avec Power BI. - Optimiser les modèles de données et les performances (DAX, M). - Accompagner les métiers dans le self-service BI. o Innovation & Conseil - Participer à la définition de notre offre Data & Analytics. - Contribuer à des projets IA en exploitant les données (préparation, qualité, intégration). - Assurer une veille technologique sur Fabric, BI et IA.
Freelance

Mission freelance
Data engineer senior/Tech lead Migration IDQ Fabric (F/H) - 75

Publiée le
Databricks
Microsoft Fabric
PySpark

12 mois
400-770 €
Paris, France
Télétravail partiel
Notre client migre ses flux ETL d’Informatica vers Microsoft Fabric pour ses besoins en data ingestion et analytics. Le projet concerne principalement le domaine Finance, avec un modèle pivot centralisant contrats, positions, instruments de couverture, flux futurs, contreparties et données de marché. Environnement technique : * ESB (Software AG), * ETL (Informatica), * Data Platform (Fabric/Power BI) Mission En tant que Tech Lead Data, vous serez responsable de : * Définir les standards techniques (Fabric, Spark, Python) et bonnes pratiques de développement. * Piloter la migration des flux Informatica vers Fabric : * Évaluer l’existant (flux, modèles pivots, dépendances). * Concevoir le framework d’ingestion/transformation (Spark, Notebooks). * Mettre en place la CI/CD (Azure DevOps/GitHub). * Assurer le monitoring et la qualité des données. * Encadrer une équipe de 3 Data Engineers (mentorat, optimisation des performances). * Collaborer avec les équipes métiers (Finance/Risque) et l’architecture IT.
Freelance
CDI

Offre d'emploi
Product Owner Data – Expertise Power BI, Dataiku & Tableau

Publiée le
Data analysis
Dataiku
Product management

2 ans
40k-70k €
400-550 €
Île-de-France, France
Missions principales Définir la vision produit et la roadmap Data en lien avec les métiers. Prioriser le backlog et rédiger les user stories (méthodologie Agile). Superviser la préparation, la transformation et la qualité des données dans Dataiku. Piloter la production de dashboards et rapports dans Power BI et Tableau. Garantir la gouvernance et la cohérence des modèles de données. Collaborer avec data engineers, data scientists et équipes métier. Suivre les KPI, mesurer la valeur et assurer l’amélioration continue du produit. Compétences requises Excellente maîtrise : Power BI : Modèle tabulaire, DAX, dataprep, publication & sécurité Dataiku : Data pipelines, recipes, automation Tableau : Visualisation avancée, storytelling, calculs Solides compétences en modélisation de données (SQL, Star/Snowflake schema). Très bonne compréhension des enjeux Data et BI.
Freelance

Mission freelance
Architecte Cloud & Applications (Azure / Business Central / Power Platform / Data)

Publiée le
Azure
ERP

12 mois
600-700 €
Hauts-de-France, France
Missions principales 1. Conception de l’architecture Définir, documenter et maintenir l’architecture cible sur Azure, en lien avec : Business Central , Power Platform , Microsoft Fabric , Entra ID , les solutions de Data Management . Challenger la vision architecture proposée par l’éditeur et l’intégrateur pour garantir : la scalabilité , la sécurité , la cohérence d’intégration , les coûts maîtrisés , et l’adéquation avec les cas d’usage Kiloutou. Assurer la cohérence et l’alignement des modules déployés par BU, tout en prenant en compte les spécificités locales. 2. Identité, sécurité et conformité (en collaboration avec l’Architecte sécurité / RSSI) Piloter l’intégration Microsoft Entra ID ↔ Active Directory on-premise (IAM, RBAC, authentification, habilitations). Garantir la conformité aux standards de sécurité : Zero Trust , GDPR , normes et politiques Groupe. Appliquer les principes de gouvernance API et des habilitations inter-BU. 3. Intégration applicative & API Management Encadrer la mise en œuvre du Hub API (Twoday, API Management) et son interaction avec : Business Central, MDM, Power Apps, Snowflake, Microsoft Fabric, autres systèmes métiers. Définir ou appliquer des standards d’API : sécurité, monitoring, SLA, lifecycle. Garantir la maintenabilité , la résilience et la performance des flux inter-systèmes. Assurer l’ observabilité des applications du programme (logs, traces, métriques). 4. Data & Analytics (en collaboration avec les équipes Data) Définir ou appliquer les patterns d’intégration des données ERP vers : Snowflake, Microsoft Fabric, Power BI, Tableau. Garantir la qualité , la traçabilité et la gouvernance des données partagées au niveau international. Optimiser les architectures data pour la performance et la maîtrise des coûts . 5. Support aux BU internationales Adapter l’architecture cible aux contraintes locales (réglementaires, techniques, business, organisationnelles). Définir des principes modulaires et composables pour permettre une déclinaison par BU tout en gardant la cohérence Groupe. Coacher les équipes locales sur la bonne utilisation : des services Azure, de la Power Platform, des standards d’intégration et de gouvernance. 6. Pilotage & collaboration Travailler en étroite collaboration avec : les équipes Produit (Business Central), les intégrateurs, les équipes IT locales et globales, les équipes architecture d’entreprise et sécurité. Établir et maintenir la cartographie applicative et technique du programme. Participer aux comités d’architecture et de sécurité (CAS) en portant la vision technique du programme. Compétences requises Techniques Cloud & Azure : maîtrise d’Entra ID, Azure DevOps, API Management, Azure Files, Microsoft Fabric. ERP & Dynamics : bonne compréhension de Business Central, extension AL, pipelines DevOps, modules et intégrations. Data & Analytics : patterns d’intégration vers Snowflake, Power BI, Tableau, Fabric. Sécurité & IAM : Active Directory, AD Connect, RBAC, principes Zero Trust. Intégration & API : conception d’API, middleware, monitoring, performance, gouvernance. Méthodologie : architecture d’entreprise (TOGAF/Zachman), DevOps, Agile, principes modulaires/composables. Soft skills Capacité à challenger Microsoft et les intégrateurs. Communication claire, leadership transverse. Sens politique dans un contexte international. Profil recherché Bac+5 (école d’ingénieur ou master informatique). 8+ ans d’expérience en architecture cloud , dont 3+ ans sur Azure. Expérience confirmée dans les programmes ERP internationaux , idéalement sur Business Central ou D365 F&O. Connaissance des environnements multi-BU , des enjeux de localisation et de régionalisation. Anglais courant (contexte international). Livrables attendus Schéma directeur de l’architecture cible (groupe + déclinaisons BU). Cadre de gouvernance API et data. Standards d’habilitation et de sécurité . Modèle de déploiement international (blueprint Azure + Business Central). Cartographie applicative et technique à jour. Roadmap technique alignée avec la roadmap produit du programme.
Freelance

Mission freelance
Ingénieur DATA – Coordination & Support Technique IA Industrielle

Publiée le
Data analysis
IA

1 an
500 €
Belgique
Télétravail partiel
Assurer la coordination et le support technique Data & IA pour l’industrialisation et l’optimisation des flux de données. L’objectif est de structurer, automatiser et rendre exploitables les données industrielles , tout en développant les premiers use cases IA opérationnels pour la ligne de production. 1. Coordination Data & IA Piloter et structurer l’automatisation de l’alimentation de la plateforme 3DEXpérience depuis Publisher , en exploitant des techniques d’IA (machine learning, NLP…). Documenter et suivre les scripts et workflows de migration automatisés . Proposer les premiers use cases DATA & IA pour la production. Appuyer l’équipe UNS sur la structuration des données industrielles pour usages IA futurs. Veille technologique et reporting sur les sujets Data & IA. 2. Support technique et développement Implémenter et tester les scripts et workflows de migration de données (DataPrep, ETL, IA) sur données simulées ou réelles. Concevoir et tester des use cases IA “production ready” : supervision process, maintenance prédictive, contrôle qualité automatique. Structurer les datasets pour l’entraînement IA : normalisation, règles qualité, automatisation des flux. Assurer documentation technique et transfert de compétences aux équipes.
Freelance

Mission freelance
Data Analyst Social Listening ( 4 ans xp)

Publiée le
Data analysis
IA Générative

120 jours
400-480 €
Paris, France
Télétravail partiel
Contexte de la prestation : La prestation s’inscrit au sein de la Direction de la Communication Digitale de France Télévisions. Elle vise à conduire des analyses quantitatives et qualitatives relatives à la réputation du groupe sur les réseaux sociaux et le web. Le prestataire travaillera en lien étroit avec l’équipe communication digitale et contribuera au pilotage opérationnel de la veille, de l’analyse et des recommandations stratégiques. Missions : 1. Veille et suivi en temps réel : > Assurer une veille continue, réactive et structurée des conversations sur les réseaux sociaux et le web via des outils de social listening. > Surveiller en temps réel les signaux faibles, les sujets sensibles et les potentiels sujets de crise. > Effectuer la veille en direct lors d’émissions diffusées en soirée. 2. Analyse et production de livrables > Produire des notes d’analyse synthétiques et rapides : - Notes quotidiennes - Notes mensuelles - Analyses thématiques - Notes ad hoc selon actualité - Effectuer des études réputationnelles dans le cadre de campagnes ou dispositifs de marketing d’influence. 3. Recommandations et accompagnement stratégique - Construire des recommandations éditoriales et stratégiques à destination de la Direction de la Communication Digitale et d’autres directions internes. - Proposer des pistes d’amélioration ou d’optimisation des dispositifs de communication digitaux. 4. Collaboration interne - Travailler en étroite collaboration avec l’équipe communication digitale et contribuer à la coordination lors des sujets urgents ou sensibles. Expertises et compétences requises : > Expérience - Minimum 1 an d’expérience dans le secteur des médias et/ou du secteur public. - Minimum 5 ans d’expérience en social listening, incluant l’analyse de données conversationnelles.
Freelance

Mission freelance
Administrateur / Expert Big Data (Cloudera)

Publiée le
Apache Spark
Cloudera
Hadoop

3 ans
500-700 €
Île-de-France, France
Télétravail partiel
Vous serez en charge du déploiement ainsi que du MCO/MCS de l’écosystème Cloudera (Cloudera Manager, services Cloudera Data Platform : HDFS, Vous interviendrez également sur la gestion d’une architecture Lake house , comprenant : Data Security : Apache Ranger Data gouvernance : Apache Atlas Data processing : Spark, Apache Zeppelin Data ingestion : NiFi Data analytics : Apache Impala Data lake : Hadoop, Apache Kudu Data serving : Hue Responsabilités Documenter les procédures d’exploitation et rédiger des rapports synthétiques Garantir le bon fonctionnement des services dans le respect des SLA Opérer en environnement de production en s’appuyant sur les processus ITIL (gestion des incidents, problèmes, changements) Communiquer en anglais avec les éditeurs (dont Cloudera) et les fournisseurs Automatiser les déploiements (fichiers de configuration, certificats, keystores) via Ansible Utiliser les outils DevOps (GitHub, Jenkins) pour le versionning et les pipelines Exploiter les environnements Linux et analyser les logs dans le cadre du traitement des incidents Être force de proposition concernant l’amélioration de l'exploitabilité, la robustesse et la supervision des services Participer aux réunions d’équipe, aux projets et aux différents comités, et assurer un reporting régulier Livrables attendus Dossier d’ingénierie de la plateforme Lake house Fiches et procédures d’exploitation Dossier de mise en production PV de mise en production
Freelance

Mission freelance
Ingénieur Backend Python / Monitoring Azure H/F

Publiée le
Apache Airflow
Apache Spark
Azure

3 mois
500 €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre client dans le secteur Luxe recherche un/une Ingénieur Backend Python / Monitoring AzureH/F Description de la mission: Notre client est leader dans le secteur de la beauté et du luxe. Sur cette mission, vos responsabilités seront : • Développer et maintenir des applications backend robustes en Python. • Appliquer des architectures de données de type ELT pour structurer les données. • Développer et maintenir des pipelines de données avec Airflow, Logstash et des scripts Python/Spark pour la collecte et la transformation des données. • Gérer le stockage des données avec Postgres SQL, ElasticSearch, et Azure. • Utiliser Grafana pour la visualisation des données et la création de tableaux de bord. • Intégrer des solutions de monitoring et de logging avec Azure Log Analytics & Metrics. • Collaborer avec les équipes de développement, d'exploitation et de data science dans un environnement Agile Scrum et DevOps. • Utiliser GitHub pour la gestion des dépôts et des pipelines CI/CD. • Participer aux réunions de planification et de révision pour aligner les objectifs techniques avec les besoins commerciaux. Compétences techniques requises : • Maîtrise avancée de Python/Spark et d'autres langages de programmation orientés objets, et expérience avec les API REST & SOAP, Webhooks. • Expertise avancée dans Postgre SQL, ElasticSearch, et Logstash. • Connaissance approfondie des architectures de données ELT. • Expertise avancée avec les technologies Azure, notamment Azure Blob Storage, Event Hub, Azure Log Analytics & Metrics. • Compétences en développement de pipelines de données avec Airflow. • Utilisation de GitHub pour les dépôts et les pipelines CI/CD. • Connaissance autour de Apache Spark est un plus. • Anglais : Niveau intermédiaire requis. Compétences / Qualités indispensables : Python, PostgreSQL, Azure, ElasticSearch, Logstash, Airflow Compétences / Qualités qui seraient un + : Github Devops Informations concernant le télétravail : 2 jours de télétravail par semaine
Freelance

Mission freelance
Manager Platform Data & Analytics

Publiée le
CoreData

6 mois
500-650 €
Paris, France
Bonjour, Pour le compte de l'un de mes clients dans le secteur du luxe, je suis à la recherche d'un manager Platform Data et Analytics. Cette mission concerne la gestion transitoire d’un poste de manager Platform Data et Analytics chez le client, en attendant le recrutement d’un successeur. Elle inclut la prise en main, le pilotage des missions ainsi que le transfert des responsabilités : · Handover pour prendre la main sur les missions · Pilotage des missions · Handover pour transférer la mission vers le successeur. Les deux missions principales sont : 1. Assistance au pilotage de la Federated Data Platform 2. Pilotage IT du projet SSOT (Single Source of Truth) En tant que Data Product Manager au sein des équipes Corporate IT, votre mission principale est de piloter les évolutions (via les quaterly releases) via la joint design autorithy & d'être en support eux entités. En travaillant & en étant aligné avec les directeurs Data et travaillant de concert avec le data / solution architect et le Cloud Architect la mission couvre : · Définition et pilotage de la roadmap produit : Élaborer et maintenir la feuille de route stratégique de la plateforme et des services data partagés, en tenant compte des besoins métiers, des priorités et des évolutions des éditeurs (par exemple roadmap MS Fabric). · Identification et valorisation des synergies : Collaborer avec les divisions, les régions et les fonctions Corporate pour détecter les opportunités de mutualisation et maximiser la valeur ajoutée des initiatives data à l’échelle mondiale. · Gestion des évolutions et arbitrages : Piloter les demandes d’évolutions de la plateforme avec les divisions et les régions, coordonner les arbitrages et veiller à l’alignement avec la stratégie data globale. · Garant du Delivery et du Run : Superviser le développement et le bon fonctionnement des produits data (Federated Data Platform), suivre les indicateurs de performance (KPI) et assurer un support continu aux utilisateurs. · Gouvernance des services data : Animer la gouvernance data autour de thèmes clés tels que le Federated Data Platform (avec la joint design authority) en impliquant les parties prenantes des divisions et régions. · Support à la réussite des Use Case : S’assurer que la plateforme répond aux besoins des programmes stratégiques (Programme Hero, ORION, ESG, …) et accompagne efficacement la réalisation des use cases data (des divisions, régions, corporate). · Accompagnement au changement et formation : Être le point de contact privilégié pour le déploiement et l’adoption des solutions, organiser la montée en compétence des équipes et recueillir les feedbacks pour améliorer les services. Remarque: le partenaire de la Federated Data Platform est la société ONEPOINT (En France)
Freelance

Mission freelance
Product Lead Data / Directeur projet (Montpellier)

Publiée le
Data governance
Product management

12 mois
600 €
Montpellier, Occitanie
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Product Lead Data / Directeur projet" pour un client dans le secteur des services Description 🎯 Contexte de la mission La Direction Data renforce ses équipes dans le cadre de la montée en puissance du domaine Data, Analytics & AI . Afin de garantir la qualité, la cohérence et la performance des livrables Data à l’échelle du groupe, le client recherche un Product Lead / Directeur de projet expérimenté . Placé directement sous la responsabilité du Responsable de Domaine , le Product Lead jouera un rôle clé dans la gouvernance, la stratégie et le delivery des Data Products , tout en assurant la tenue des engagements métiers et techniques. ⚙️ Rôle et responsabilités En tant que Product Lead, vous serez le garant du delivery, de la performance technique et de la qualité des composants de la ligne de produit Data, Analytics & AI. Vos principales missions : Piloter la ligne de produit Data, Analytics & AI sur les volets fonctionnels, techniques et stratégiques. Collaborer étroitement avec les Delivery Owners , Directeurs de programme et le Responsable de ligne de produit pour garantir la cohérence globale et la qualité des solutions. Contribuer à la stratégie de la ligne produit : dimensionnement des équipes, choix technologiques, modèle de coûts, sourcing et plan de delivery. Superviser la production et la maintenance des produits Data (disponibilité, performance, fiabilité). Assurer le suivi opérationnel : calendrier des évolutions, publications, roadmap technique et fonctionnelle. Définir et appliquer la politique d’industrialisation et de maintenance de la ligne de produit (qualité, CI/CD, automatisation). Accompagner et soutenir les Feature Teams dans la montée en compétence et la réalisation des objectifs. Collaborer avec les équipes agiles pour suivre les charges, les alertes et le staffing. Maintenir la documentation technique et fonctionnelle (Wiki, SharePoint, Teams). Contribuer à la pérennité technologique du patrimoine Data en réduisant la dette technique et en garantissant la conformité DSI. Assurer la coordination avec la DEXO (gestion de crise, gestion de la proximité avec les partenaires).
CDI

Offre d'emploi
Data Analyst Order to Cash

Publiée le

50k-65k €
Neuilly-sur-Seine, Île-de-France
Présentation du Poste Nous recherchons un Analytics Engineer Senior disposant d’au moins 6 ans d’expérience , alliant une forte expertise technique et une vision end-to-end de la chaîne de données : de l’ingestion à la transformation, jusqu’au reporting. Le/la candidat(e) contribuera à la construction, l’industrialisation et l’optimisation de la data platform, au service des besoins métiers et d’un contexte international exigeant. Connaissances Métier Très bonne compréhension du processus Order-to-Cash (O2C) dans un environnement international. Capacité à appréhender les divergences entre processus locaux et processus groupe. Aisance dans la gestion de différentes typologies d’organisation (local, régional, global). Hard Skills – Compétences Techniques Expertise confirmée en tant qu’ Analytics Engineer , idéalement dans des environnements data à grande échelle. Maîtrise de GCP (BigQuery) , DBT , GitLab CI/CD , Azure Data Factory . Excellentes compétences en modélisation et transformation des données, notamment pour des usages Power BI . Forte capacité d’analyse, de résolution de problèmes et d’optimisation. Connaissance appréciée de SAP et des flux associés. Orientation marquée vers l’ industrialisation , l’ automatisation et la gouvernance des données. Soft Skills – Savoir-être Autonomie, rigueur et capacité à évoluer dans un environnement complexe et mouvant. Expérience dans la collaboration avec des équipes internationales et multiculturelles . Agilité, flexibilité et forte capacité d’adaptation. Excellentes compétences de communication, avec aptitude à vulgariser les sujets techniques auprès d’interlocuteurs variés. Langues Anglais : Très bon niveau oral et écrit, permettant d’animer des workshops métiers en anglais.
Freelance
CDI

Offre d'emploi
Data Analyste

Publiée le
Réseaux sociaux
Technologies de l'information et de la communication (TIC)

1 an
40k-45k €
310-420 €
Île-de-France, France
Télétravail partiel
Prestation de Data Analyse pour la Direction de la Communication DigitaleInformations Générales Contexte de la Mission Pilotage de la réputation sur les réseaux sociaux et le web pour la Direction de la communication digitale : veille continue, analyses quantitatives/qualitatives, alertes et recommandations aux directions concernées. Activités Attendues Veille social listening en continu (sujets, tendances, crises) et suivi temps réel d'émissions en direct (soirées). Notes d'analyse rapides (quotidiennes, mensuelles, thématiques, ad hoc). Études réputationnelles liées à des opérations de marketing d'influence. Recommandations stratégiques & éditoriales pour la Direction de la com' digitale et les autres directions.
Freelance
CDI

Offre d'emploi
DATA ANALYST SPOTFIRE

Publiée le
Looker Studio
Spotfire

6 mois
40k-45k €
400-550 €
Paris, France
Contexte : Nous recherchons un Data Analyst expérimenté pour renforcer une équipe analytique en pleine croissance, dans un contexte BI & décisionnel à forte visibilité. Missions : Analyse des données et production d’insights business. Conception et maintenance de dashboards sur Spotfire et Looker . Construction de requêtes SQL complexes pour l’extraction et la transformation de données. Interactions régulières avec les équipes métier (Finance, Marketing, Opérations…). Participation à l’amélioration des modèles de données. Compétences recherchées : Maîtrise de Spotfire obligatoire. Très bonne connaissance de Looker / LookML . Expertise SQL (jointures complexes, optimisation de requêtes). Capacité d'analyse, rigueur et compréhension des enjeux business. Sens de la communication et aisance dans les restitutions. Profil attendu : 2 à 6 ans d’expérience en Data Analyse ou BI. Culture data solide et orientation business. Capacité à travailler en autonomie avec les métiers.
Freelance

Mission freelance
Data Analyst Informatica

Publiée le
Data analysis
Informatica
PowerBI

1 an
300-450 €
Strasbourg, Grand Est
Télétravail partiel
Au sein d’un grand groupe industriel international spécialisé dans les solutions électriques, vous intégrerez le pôle Data rattaché à la DSI. L’équipe Data Quality, composée de 4 personnes, a pour mission de garantir la fiabilité et la cohérence des données (Customer, RH, Produit, etc.) dans un contexte multiculturel. L’enjeu est d’assurer la mise à disposition de données fiables, exploitables et de haute qualité au service des équipes métiers et des partenaires distributeurs. Missions qui vous serez conférés : Assurer la qualité, la cohérence et la complétude des données sur l’ensemble des périmètres (client, RH, produit…). Mettre en œuvre et superviser les processus ETL avec l’outil Informatica , validé comme solution principale au sein du pôle Data. Collaborer avec les équipes métiers pour recueillir, analyser et formaliser les besoins en matière de données. Organiser et animer des ateliers métiers afin de traduire les besoins fonctionnels en spécifications techniques. Participer aux projets d’ AMOA Data : rédaction des spécifications, accompagnement des utilisateurs, suivi de la mise en production. Contribuer à la modélisation et à la gouvernance des données , dans une logique d’amélioration continue. Créer et maintenir des rapports et tableaux de bord dans Power BI.
Freelance
CDI

Offre d'emploi
Data analyste

Publiée le
JIRA
Microsoft Excel

1 an
40k-45k €
400-570 €
Paris, France
Télétravail partiel
Prestation de Data AnalyseDéfinition du besoin La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus propres ou issus des chaînes d'un groupe audiovisuel majeur. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils d'aide à la décision et des outils de pilotage. La Direction Data recherche une prestation en Data Analyse pour accompagner les équipes produits et éditoriales dans l'analyse de la performance des contenus jeunesses. Prestations attendues La prestation consistera à participer à : La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications (prise en compte des besoins des équipes interne, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du Dashboard, itérations mode projet) Le maintien du bon fonctionnement des dashboards existant sur Power BI L'accompagnement et le coaching des équipes internes sur l'intégration de la data dans leur processus de décision et de priorisation (AT Internet, Nielsen, marqueur interne) La mesure et l'analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l'équipe études L'accompagnement des équipes internes dans l'identification des indicateurs/KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l'ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul Le partage de son expertise afin de déployer le marqueur interne sur d'autres produits L'identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes
Freelance

Mission freelance
Mission Freelance – Data Scientist (Confirmé / Sénior)

Publiée le
Data science

1 an
400-590 €
Île-de-France, France
Télétravail partiel
Vos missions Construire et maintenir des dashboards Power BI de pilotage : profils utilisateurs, engagement, objectifs, segmentation RF. Réaliser des analyses comportementales sur les profils de vidéonautes : consommation, canaux d’acquisition, pression publicitaire, etc. Développer des cas d’usage Data Science et IA : Prédiction des audiences, churn, appétence, inactivité. Recommandations de contenus, enrichissement du catalogue via IA générative. Segmentation utilisateurs et scoring. Valoriser et restituer les résultats aux équipes internes (marketing, produit, éditorial). Compétences recherchées Solide expérience en analyse de la connaissance client / utilisateur (cycle de vie, churn, fidélisation). Maîtrise de Python et SQL (Spark apprécié). Expérience confirmée en Data Science : modèles de prévision, algorithmes de recommandation, scoring. Connaissance d’un environnement GCP / BigQuery . Bonne compréhension des outils Piano Analytics / Google Analytics . Capacité à vulgariser les résultats à des interlocuteurs variés. Esprit d’équipe, curiosité, rigueur et autonomie.
159 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous