L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 430 résultats.
Mission freelance
Développeur Full-Stack
Publiée le
Cloud
Docker
Java
1 an
450-500 €
Paris, France
Télétravail partiel
Au sein d’un groupe international du secteur médias / audiovisuel , vous interviendrez comme Développeur Full-Stack , avec un rôle clé sur l’architecture, le pilotage technique et la montée en compétences des équipes. Vos principales responsabilités : Encadrer une équipe de développeurs internes et freelances Piloter le développement des applications internes et interfacées partenaires Concevoir l’ architecture technique des nouvelles fonctionnalités Réaliser les choix technologiques en lien avec la direction IT Mettre en œuvre les bonnes pratiques (tests, CI/CD, code review) Assurer la veille technologique et l’amélioration continue 🛠️ Architecture & DevOps Définition d’architectures orientées services Mise en place et amélioration des pipelines CI/CD Contribution à la qualité, la sécurité et la performance applicative
Mission freelance
Architecte Réseaux & Télécom (H/F)
Publiée le
Data Center
1 an
Île-de-France, France
Télétravail partiel
Contexte Au sein de la DSI, le pôle Services IT Transverses pilote l’exploitation et la transformation des infrastructures IT, garantissant leur sécurité, disponibilité, performance et maîtrise de l’obsolescence. Le département Réseaux & Télécom (R&T) est un acteur stratégique, en charge de la conception, du déploiement et de l’exploitation des infrastructures réseaux et télécommunications (hors smartphonie), au service des usages tertiaires et industriels. Dans un contexte de réorganisation et de transformation (cybersécurité, cloud, évolutions technologiques et métiers), le client renforce sa cellule Architecture Réseaux et recherche un Architecte Réseaux & Télécom senior pour une mission longue durée. Vos missions Intégré(e) à la cellule Architecture du département R&T, vous interviendrez sur des sujets à forts enjeux techniques et stratégiques. Architecture, urbanisme et référentiels réseaux Définition et maintien des référentiels d’architecture réseaux Cartographie des réseaux par zones de sécurité et de gouvernance Production de diagrammes L3 (industriel, tertiaire, IaaS, PaaS, SaaS) Élaboration des dossiers d’architecture des sites (routage, filtrage, DNS…) Gestion du plan d’adressage global Définition des bonnes pratiques de sécurité réseau Publication et mise à jour du cadre d’architecture Accompagnement des projets structurants Études d’architecture et analyses d’impact Conseil, scénarios, SWOT et design de solutions réseaux Accompagnement des projets Cloud (AWS, Azure), SaaS, SD-WAN Contribution aux projets de migration et aux virages technologiques Collaboration étroite avec les équipes cybersécurité Prise en compte des contraintes réglementaires (RGPD, NIS2, LPM, code de l’énergie) Pilotage et collaboration transverse Support aux équipes delivery et exploitation Contribution au traitement des incidents majeurs et problèmes récurrents Mise à jour du backlog (JIRA) et participation aux rituels du département Production de supports pour les comités d’architecture et la DSI Participation à la transformation et à l’amélioration continue du département Livrables attendus Études de cadrage : analyse de besoins, scénarios, impacts, préconisations, SWOT Dossiers d’Architecture Technique (DAT) Documents HLD / LLD Notes d’architecture et documents de synthèse Plans de tests, relectures et validations techniques Comptes rendus d’activité et supports de gouvernance
Offre d'emploi
Data Analyst Dataiku/Tableau/SAS
Publiée le
Dataiku
SAS
Tableau software
3 ans
40k-67k €
400-550 €
Île-de-France, France
Objectif de la mission Au sein du Pole Data & Analytics, dans l’équipe Data Monitoring Réseaux, dont la fonction principale est de délivrer les reportings et les Dashboard pour le réseau d’agence, nous étoffons notre équipe de data Analysts pour répondre aux demandes du Plan Stratégique 2026-2030. Prestations demandées Les missions sont : - Analyse, création, évolution et modification des traitements de données (création d'indicateurs & des codes références) - Uniformisation technique des processus de traitement de données - Supervision du bon déploiement des nouveaux processus de traitement - Vérification de la bonne intégration des données et de leurs référencements (mise à jour des glossaires associés) - Mise en place, maintenance et test des jeux de données - Automatisation des programmes avec DataIku - Prise en charge à la réalisation de la Visualisation avec Tableau (Desktop / Serveur) La maitrise de DataIku et de SQL sont indispensables. La maitrise de Tableau et SAS seraient de vrais plus.
Mission freelance
Ingénieur Système(H/F)
Publiée le
Azure Kubernetes Service (AKS)
CI/CD
Docker
6 mois
Île-de-France, France
Je recherche pour mon client un Ingénieur Système (H/F) . Rejoignez une structure de recherche de pointe pour accompagner les plateformes scientifiques dans l’exploitation optimale des ressources de calcul et de stockage haute performance. Vous jouerez un rôle clé dans l’évolution des environnements HPC et Big Data, en lien étroit avec les équipes Infrastructure et Recherche. Vos responsabilités Support aux utilisateurs scientifiques : accompagner les bio-informaticiens dans l’usage des outils informatiques, former aux bonnes pratiques, assurer un support technique de qualité. Évolution des environnements : évaluer, tester et proposer des solutions technologiques innovantes (matériel, logiciel, pipelines). Intégration continue & automatisation : mettre en place des outils modernes (CI/CD, déploiement automatisé, assurance qualité). Collaboration transverse : travailler avec les équipes Infrastructure pour l’implémentation des composants systèmes. Suivi en production : garantir la qualité de service des applications en environnement recherche et clinique. Compétences techniques requises Systèmes Unix/Linux : administration, scripting, déploiement. HPC & calcul distribué : clusters, Slurm, gestion de pipelines. Stockage massif & Big Data : performance, scalabilité. CI/CD & automatisation : GitLab CI, Kubernetes, outils SysOps. Atouts supplémentaires : Cloud / IaaS. Conteneurisation (Docker, microservices). Bases de données NoSQL. Expérience dans un contexte scientifique ou de recherche.
Mission freelance
POT8726 - Un Expert Qualité des Données sur Paris
Publiée le
Data quality
Gouvernance
ITIL
6 mois
260-390 €
Paris, France
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Expert Qualité des Données sur Paris. Descriptif: En tant qu'expert Qualité des Données ServiceNow en SI, vous jouerez un rôle clé dans l'amélioration et la maintenance de l'intégrité des données au sein de notre plateforme ServiceNow. Votre ewpertise sera cruciale pour établir une fondation solide pour une meilleure gouvernance des données, essentielle à la performance et la fiabilité de nos opérations IT et R&I. Vous rejoindrez une équipe internationale existante, tout en collaborant étroitement avec diverses équipes IT et métiers de la R&I. Votre Mission & Responsabilités Clés : Identification et Cartographie des Objets ServiceNow : - Procéder à une identification exhaustive de tous les types d'objets et enregistrements critiques sur la plateforme ServiceNow impactant nos processus R&I et IT. Cela inclut, sans s'y limiter : les Groupes, les Applications, les Projets, les EPICs, les Enhancements, les Stories, les Releases, les CI (Configuration Items), les Connaissances (Knowledge Bases). - Comprendre et documenter la manière dont ces objets sont utilisés et interdépendants. Formalisation des Règles de Conformité des Données : - Définir et formaliser des règles claires et précises de conformité et de qualité des données pour chaque type d'objet identifié. Ces règles devront couvrir des aspects tels que l'exhaustivité, la cohérence, la validité et la précision des informations. Inventaire et Analyse de la Qualité des Données : - Mener un inventaire détaillé de l'état actuel des données sur ServiceNow, évaluant leur conformité par rapport aux règles établies. - Identifier les lacunes, les doublons, les incohérences et toutes les données obsolètes ou non conformes. Création d'un Dashboard de Suivi de la Qualité des Données : - Développer et mettre en œuvre dashboard dynamique au sein de ServiceNow ou via des outils de reporting. Ce dashboard devra permettre de visualiser l'état de la qualité des données, de suivre l'avancement du nettoyage et d'identifier les zones nécessitant une attention continue. - Intégrer des indicateurs clés (KPIs) de qualité des données pour une visibilité constante. - Pilotage et Suivi du Plan de Nettoyage (Clean-up) : - Élaboration d'une feuille de route pour le nettoyage des données identifiées comme non conformes ou de mauvaise qualité. - Coordonner et suivre les actions de correction avec les équipes opérationnelles et les propriétaires de données. - Assurer le reporting régulier de l'avancement du clean-up et l'efficacité des actions menées. Recommandations pour la Gouvernance et l'Amélioration Continue : - Proposer des recommandations concrètes pour l'amélioration des processus de saisie et de maintenance des données, afin de prévenir la dégradation future de la qualité. - Contribuer à l'établissement de bonnes pratiques de gouvernance des données sur ServiceNow.
Mission freelance
Product Owner Data Expert
Publiée le
Agile Scrum
Architecture
Azure Data Factory
12 mois
600-630 €
Île-de-France, France
Télétravail partiel
Contexte de la mission La mission s’inscrit dans un programme de refonte des traitements de données Ventes et Client, visant à fiabiliser et valoriser les données au service des métiers. L’objectif est de transformer les jeux de données existants en Data Products clairs, robustes et pérennes, tout en optimisant la valeur de l’ensemble décisionnel actuel. L’environnement est hybride , combinant : des composants legacy à maintenir et fiabiliser, essentiels au pilotage opérationnel, et des chantiers de refonte et de modernisation menés dans une logique produit et Data Mesh . La mission s’inscrit dans un contexte de modernisation de la stack data (architecture Lakehouse) et de montée en maturité des pratiques Produit au sein des équipes Data. Missions principales Le prestataire assurera le rôle de Product Owner Data , en pilotant une équipe pluridisciplinaire (Produit, Tech, Data). Ses responsabilités incluront : Conduire la refonte et la valorisation des données Ventes , du cadrage des besoins métiers jusqu’à la livraison des Data Products. Piloter la roadmap produit data dans une logique Data Mesh : gouvernance, qualité, exploitabilité. Maintenir l’existant (legacy) en garantissant la continuité de service et la fiabilité des indicateurs clés. Collaborer étroitement avec le Product Manager et les autres PO Data pour aligner la vision et assurer la cohérence transverse. Animer les échanges métiers autour de la valeur d’usage, des indicateurs de succès et de la qualité des livrables. Contribuer activement à la communauté Produit & Data , en partageant les bonnes pratiques et en favorisant la montée en maturité collective. Livrables attendus Roadmap produit claire et priorisée (vision, jalons, backlog). Cadrages et spécifications fonctionnelles des Data Products (règles de gestion, contrats d’interface, indicateurs de succès). Plan de maintien et d’amélioration continue du legacy (cartographie, fiabilisation, suivi qualité, documentation). Pilotage agile et reporting régulier sur l’avancement et les risques. Documentation consolidée (catalogue, dictionnaire de données, fiches produit, gouvernance).
Offre d'emploi
Data Engineer (21)
Publiée le
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
400-660 €
Île-de-France, France
Télétravail partiel
Descriptif du poste La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Au sein de l'équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d'un product owner, d'un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l'orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l'infrastructure. Prestations attendues Prestation de cette équipe Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l'équipe, la prestation consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances de data engineering Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Offre d'emploi
Développeur Sophis - C# / C++
Publiée le
C#
C/C++
Market data
3 ans
Île-de-France, France
Objectif de la mission Renforcer une équipe de développement intervenant sur une plateforme de booking et de suivi de positions utilisée dans un environnement de trading actions et dérivés. La mission consiste à développer, maintenir et améliorer des composants critiques liés au booking de produits complexes, à l’intégration des données de marché et au calcul de P&L. Vos responsabilités Analyser les besoins techniques et fonctionnels liés aux produits financiers traités. Développer des fonctionnalités à forte valeur ajoutée en C# et C++ . Contribuer à : Le booking de produits complexes L’ intégration des market data Le calcul du P&L via des API de pricing La présentation des positions La diffusion des informations via une couche de services Participer aux travaux d’amélioration continue : qualité, performance, couverture de tests. Proposer des évolutions permettant de simplifier, rationaliser et moderniser la plateforme. Travailler dans un cadre Agile , avec participation aux rituels adaptés. Contribuer aux pratiques DevOps (industrialisation, automatisation, CI/CD).
Mission freelance
Stream Lead GL / FA / AR – Oracle ERP Cloud Finance ( paris )
Publiée le
Oracle
6 mois
810 €
Paris, France
Description du poste Nous recherchons un Stream Lead Oracle ERP Cloud Finance expérimenté, disposant d’une expertise approfondie sur les modules General Ledger (GL) , Fixed Assets (FA) , Accounts Receivable (AR) et Subledger Accounting (SLA) . Le consultant sera responsable de la conception et de la mise en œuvre de solutions différenciantes répondant aux besoins du client, en s’appuyant sur une maîtrise approfondie des processus financiers et de la technologie Oracle Cloud. Missions principales Traduire les besoins métier du client en solutions fonctionnelles et techniques Oracle ERP Cloud . Participer à la définition de l’architecture de la solution et à la planification du delivery . Collaborer avec les équipes projet pour garantir la cohérence, la performance et la maintenabilité des livrables. Piloter et encadrer une équipe de consultants sur les domaines GL, FA, AR et SLA. Animer des ateliers de conception et de validation avec les parties prenantes métier et IT. Contribuer aux décisions clés du projet et proposer des solutions transverses aux problématiques identifiées. Produire la documentation fonctionnelle et technique : design, configuration, plan d’implémentation. Accompagner les phases de tests, d’analyse des anomalies et de correction . Assurer la montée en compétence des membres de l’équipe sur la solution Oracle Cloud. Participer activement à l’ amélioration continue des processus et des solutions livrées. Compétences requises Expertise confirmée sur les modules Oracle ERP Cloud : General Ledger (GL) Fixed Assets (FA) Accounts Receivable (AR) Subledger Accounting (SLA) Maîtrise de la Requirements Analysis , Solution Architecture , Solution Planning , Costing & Pricing . Solides compétences en pilotage d’équipe et en prise de décision fonctionnelle . Capacité à animer des ateliers métiers et à interagir efficacement avec des interlocuteurs variés (métier, IT, direction). Aptitude à concevoir des solutions innovantes et évolutives alignées avec les standards du secteur. Excellente communication écrite et orale en français et anglais . Profil recherché Expérience significative sur des projets Oracle ERP Cloud Finance (6–10 ans minimum). Capacité démontrée à encadrer des équipes multi-sites. Expérience dans un environnement Agile ou hybride . Basé en France (obligatoire). Informations complémentaires Langues : Français et Anglais courants Localisation : Paris Présence sur site : 60 % Disponibilité : ASAP
Mission freelance
Architecte Technique Réseaux Cloud (GCP) – Network Security & Availability
Publiée le
Architecture
Google Cloud Platform (GCP)
IAC
3 ans
160-550 €
Lille, Hauts-de-France
Missions principales Conception & architecture : définir les architectures et standards des environnements réseau (on‑prem et cloud), en cohérence avec l’urbanisme SI et l’existant Produits self‑service & automatisation : concevoir des API et outillages pour automatiser les changements (infra as code, pipelines), afin de délivrer des produits réseau self‑service Run & support N3 : assurer le support de niveau 3 sur des problèmes réseau complexes, contribuer au run et à l’amélioration continue de la disponibilité et de la sécurité Industrialisation & automatisation des opérations récurrentes (scripts, modules Terraform, Python). Gouvernance & référentiels techniques : définir/tenir à jour le référentiel (outils, procédures, normes, sécurité) et standards techniques réseau. Études & préconisations : analyser l’impact des nouvelles solutions, préconiser des choix techniques , organiser la veille et promouvoir les bonnes pratiques d’architecture auprès des équipes
Offre d'emploi
Ingénieur JAVA - SPARK - EXPERIMENTE ( H/F)
Publiée le
Angular
Apache Spark
API REST
3 ans
44k-63k €
450-600 €
Guyancourt, Île-de-France
Télétravail partiel
Nous recherchons un ingénieur Java senior, expérimenté en développement de solutions de traitement de données avec Spark, déploiement sur Kubernetes et conception de dashboards PowerBI, capable de travailler en autonomie et en collaboration avec des équipes multidisciplinaires. Missions principales : Développement de composants Java pour la collecte, le traitement et la transformation de données via API, fichiers ou bases de données. Conception et mise en place de traitements de données avec Spark . Déploiement, gestion et optimisation d’applications sur Kubernetes. Rédaction et maintenance de tests automatisés avec Cucumber pour assurer la qualité du code. Conception et développement de dashboards et rapports PowerBI. Collaboration avec les équipes infrastructure pour garantir la sécurité et l’intégration des applications. Participation à l’amélioration continue des applications et des process de développement. Profil recherché : Expérience : 5 à 8 ans en développement Java avec une expérience sur technologies de traitement de données (Spark, Kafka, etc.). Compétences techniques : Java et frameworks Spring/Hibernate Angular pour le développement d’IHM Kubernetes et bonnes pratiques DevOps Spark 3 en Java Cucumber pour tests automatisés Développement d’API REST/SOAP, OAuth2, TDD Conception de dashboards PowerBI Connaissance des architectures microservices et expérience cloud (GCP, AWS)
Mission freelance
Consultant Senior SI - Oracle ERP Cloud
Publiée le
Oracle ERP Cloud
5 mois
440-660 €
Hauts-de-France, France
Télétravail partiel
Projet : Dans le cadre d’un contexte international, la mission consiste à intervenir en assistance technique sur un projet de mise en œuvre et d’optimisation d’Oracle ERP Cloud. L’objectif principal est d’assurer la cohérence transverse de la solution, de contribuer à son design fonctionnel et à la phase de tests, ainsi qu’à l’optimisation du core model. Responsabilités principales : Prise en charge des sujets fonctionnels AP / AR / GL / FA . Garantie de la transversalité et de la cohérence globale de la solution. Analyse des impacts transverses liés aux paramétrages. Participation au Solution Design . Contribution aux activités de testing (phase initiale pour prise en main de la solution). Optimisation et fiabilisation du core model Oracle ERP Cloud .
Mission freelance
Chef de projet IT - Expérimenté - Bilingue Anglais
Publiée le
Cloud
Pilotage
Reporting
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Chef de projet IT Spécialités technologiques : Cloud, Gestion de projet Secteurs d'activités MISSIONS Pour l'un de nos clients, nous sommes actuellement à la recherche d'un Chef de Projet IT. Dans le cadre du programme de transformation IT, notre client a lancé de nombreux chantiers visant à utiliser des services Cloud à travers son SI. Vous interviendrez sur des projets de notre SI : Web, Cloud, API, IA… Vous intégrez une équipe de 6 chefs de projets IT au sein de laquelle vous serez amené à proposer, partager et mettre en œuvre les bonnes pratiques projets de chacun. D’une manière générale, vous êtes amené à effectuer les activités suivantes : MISSIONS • Analyser et comprendre les besoins du client, • Contribuer à l’élaboration d’une solution technique adaptée, • Réaliser les spécificités techniques, schémas d’architecture applicative • Suivre le projet de la réalisation jusqu’à au passage en run du produit (coordination des intervenants, animation de l’équipe, résolution des problèmes) et respecter les contraintes (qualité, délais). Expertise souhaitée Vous avez une expérience minimum de 10 ans dans l’univers IT avec des compétences suivantes : • Gestion de projet • Pilotage/reporting d’un projet IT • Background technique nécessaire, expérience de développement • Anglais : courant (intervenants projets localisés dans différents pays dont la Pologne) Vous avez piloté et déployé avec succès des projets IT. Vous avez l’habitude d’adapter votre communication à des interlocuteurs variés (IT, business) Vous faites preuve de rigueur, de curiosité, d’opiniâtreté et de pragmatisme. Vous êtes reconnu(e) pour votre autonomie, votre aisance relationnelle, votre force de proposition. Vous avez des standards élevés pour vous-même, et vous avez une capacité à être moteur du changement et partager vos connaissances avec vos interlocuteurs afin de les faire progresser.
Offre d'emploi
Administrateur Salesforce service Cloud
Publiée le
CRM
Salesforce Sales Cloud
12 mois
Île-de-France, France
Télétravail partiel
Objectif global : Administrer les CRM Salesforce Service Cloud Contrainte forte du projet : Maitrise de l'administration du module Salesforce Service Cloud Les livrables sont : - Setup des différentes bases CRM à jour et documentées Expérience impérative : Maitrise de la solution Backup et Restore de Salesforce Maitrise la logique de Salesforce de la sécurité/ des accès Compétences techniques Salesforce service cloud - Confirmé - Impératif administration - Confirmé - Impératif Connaissances linguistiques Français Courant (Impératif)
Offre d'emploi
Data Engineer (15)
Publiée le
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
400-470 €
Île-de-France, France
Télétravail partiel
Contexte de la Mission Rattachement Direction Data (Direction du Numérique). Intégration à l'équipe Gold Pilotage (PO + 2 DE) qui alimente le pilotage des offres numériques via le produit Data4All. Stack technologique : Python, SQL, dbt, BigQuery, Airflow, Terraform/Terragrunt, autres services GCP. Activités Attendues Maintenir et faire évoluer Data4All et les dispositifs de l'équipe ; accompagner les utilisateurs ; mettre en place le contrôle qualité des données. Concevoir et maintenir des modèles et pipelines robustes et scalables ; organiser et structurer le stockage. Mettre en place et maintenir des infrastructures scalables, sécurité et stabilité des environnements, workflows CI/CD. Gouvernance et documentation (qualité, fiabilité, intégrité), partage de bonnes pratiques et veille ; participation aux instances Data Ingénieurs.
Offre d'emploi
Data web analyst
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
Microsoft SQL Server
1 an
43k-45k €
430-500 €
Île-de-France, France
Télétravail partiel
L’équipe Data Science recherche une prestation de Data Science Analyse - Edito & Produit. Une expérience de 2 ans est requise pour cette prestation. Prestations attendues : Déroulement des analyses : - Être à l’écoute et comprendre les besoins métier, - Proposer des méthodes et des axes d’analyses pertinents pour y répondre, - Tirer des enseignements et faire des recommandations en se basant sur les résultats de l’analyse - Synthétiser les résultats, les mettre en forme (Excel, Power Point) et les restituer à l’oral aux équipes métier - Communiquer régulièrement sur les résultats des analyses réalisées à l’ensemble de la direction Analyses pour enrichir l’animation et la stratégie éditoriales : - Profiling utilisateurs : par catégories de contenus, programmes, par chaines, par device … - Analyses de parcours : programmes ou catégories recrutants, fidélisants - Segmentation des utilisateurs selon leurs préférences de contenus, les moments de consommation, … Analyses pour enrichir la stratégie produit : - Audit des données issues des nouvelles fonctionnalités - Analyse de l’usage des fonctionnalités, profiling - Analyse de l’impact de nouvelles fonctionnalités sur le comportement utilisateur : recrutement, engagement - Analyse des parcours des utilisateurs sur les différentes offres digitales : entrée sur la plateforme, accès aux contenus, … Dashboards : - Être référent sur les dashboards de connaissance utilisateurs - Garantir la maintenance et la bonne mise à jour des dashboards existants - Ajustement des existants (nouveaux indicateurs, modifications de calculs,…) - Être force de proposition sur les évolutions des dashboards existants - Créer de nouveaux Dashboards : prise de besoin avec le métier, identification des indicateurs pertinents, maquette de visualisation, définition de la structure de la donnée, création du dashboard Power BI - Communiquer sur les dashboards, accompagner les équipes métiers dans leur utilisation, mettre en place des démos, … Expertises demandées pour la réalisation de la prestation : Pour mener à bien la prestation, le prestataire devra maitriser les expertises suivantes : · Au moins 2 ans d’expérience sur des analyses de connaissance utilisateurs ou clients dans les secteurs de l’audiovisuel, du retail ou du ecommerce · Maîtrise avancée de SQL (au moins 2 ans d’expérience en SQL) · Maîtrise de Google Cloud Platform et maîtrise de Big Query · Connaissance de Power Bi · Connaissance des données issues de Piano Analytics · Connaissance de l’interface Piano Analytics · Connaissance de la mesure Mediametrie et des données Nielsen · Expérience dans le secteur audiovisuel sur des problématiques éditoriales · Expérience dans le secteur digital, ecommerce · Goût pour les contenus audiovisuels / vidéos · Capacité d’analyse, de synthétisation et de vulgarisation
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
3430 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois